home.social

#andrej_karpathy — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #andrej_karpathy, aggregated by home.social.

  1. Карпати объяснил, почему ваши навыки программирования скоро станут ненужными. Или нет

    Андрей Карпати дал 30-минутное интервью Sequoia Capital. 357K просмотров за два дня. Главный тезис: в декабре 2025 что-то щёлкнуло. Агентные инструменты перестали ошибаться. Не стали идеальными, а перешли порог, после которого перестаёшь помнить, когда последний раз исправлял код руками. Software 3.0: промпт вместо кода. Модель сама разбирается с окружением, дебажит, адаптируется. Его собственное приложение MenuGen стало “лишним” после одной строки промпта в Gemini. Мой вольный пересказ с комментариями из практики: почему vibe coding и agentic engineering это разные вещи, что такое “рваный интеллект”, и почему вкус важнее знания API.

    habr.com/ru/articles/1030500/

    #Andrej_Karpathy #vibe_coding #agentic_engineering #Software_30 #Claude_Code #AIагенты #Sequoia #LLM #разработка_с_ИИ

  2. Почему Andrej Karpathy использует SVM в 2026 году (и вам тоже стоит)

    На arXiv каждый день публикуются сотни статей по машинному обучению. Читать всё — нереально, а пропустить что-то важное — обидно. Andrej Karpathy, бывший Director of AI в Tesla и соавтор курса Stanford CS231n, решил эту проблему неожиданным способом. Он выбрал не BERT, не GPT и не какой-нибудь модный трансформер. Он остановился на добром старом SVM — алгоритме, которому уже несколько десятков лет. И знаете что? Это работает настолько хорошо, что используется даже в академических системах. В этой статье мы разберём, как устроено его решение, почему «примитивный» подход работает лучше сложных нейросетей, и когда вам тоже стоит выбрать SVM вместо трансформера. Давайте разбираться!

    habr.com/ru/articles/990386/

    #SVM #Andrej_Karpathy #TFIDF #машинное_обучение #Support_Vector_Machine #нейросети #алгоритмы_классификации

  3. Почему Andrej Karpathy использует SVM в 2026 году (и вам тоже стоит)

    На arXiv каждый день публикуются сотни статей по машинному обучению. Читать всё — нереально, а пропустить что-то важное — обидно. Andrej Karpathy, бывший Director of AI в Tesla и соавтор курса Stanford CS231n, решил эту проблему неожиданным способом. Он выбрал не BERT, не GPT и не какой-нибудь модный трансформер. Он остановился на добром старом SVM — алгоритме, которому уже несколько десятков лет. И знаете что? Это работает настолько хорошо, что используется даже в академических системах. В этой статье мы разберём, как устроено его решение, почему «примитивный» подход работает лучше сложных нейросетей, и когда вам тоже стоит выбрать SVM вместо трансформера. Давайте разбираться!

    habr.com/ru/articles/990386/

    #SVM #Andrej_Karpathy #TFIDF #машинное_обучение #Support_Vector_Machine #нейросети #алгоритмы_классификации

  4. Почему Andrej Karpathy использует SVM в 2026 году (и вам тоже стоит)

    На arXiv каждый день публикуются сотни статей по машинному обучению. Читать всё — нереально, а пропустить что-то важное — обидно. Andrej Karpathy, бывший Director of AI в Tesla и соавтор курса Stanford CS231n, решил эту проблему неожиданным способом. Он выбрал не BERT, не GPT и не какой-нибудь модный трансформер. Он остановился на добром старом SVM — алгоритме, которому уже несколько десятков лет. И знаете что? Это работает настолько хорошо, что используется даже в академических системах. В этой статье мы разберём, как устроено его решение, почему «примитивный» подход работает лучше сложных нейросетей, и когда вам тоже стоит выбрать SVM вместо трансформера. Давайте разбираться!

    habr.com/ru/articles/990386/

    #SVM #Andrej_Karpathy #TFIDF #машинное_обучение #Support_Vector_Machine #нейросети #алгоритмы_классификации

  5. Почему Andrej Karpathy использует SVM в 2026 году (и вам тоже стоит)

    На arXiv каждый день публикуются сотни статей по машинному обучению. Читать всё — нереально, а пропустить что-то важное — обидно. Andrej Karpathy, бывший Director of AI в Tesla и соавтор курса Stanford CS231n, решил эту проблему неожиданным способом. Он выбрал не BERT, не GPT и не какой-нибудь модный трансформер. Он остановился на добром старом SVM — алгоритме, которому уже несколько десятков лет. И знаете что? Это работает настолько хорошо, что используется даже в академических системах. В этой статье мы разберём, как устроено его решение, почему «примитивный» подход работает лучше сложных нейросетей, и когда вам тоже стоит выбрать SVM вместо трансформера. Давайте разбираться!

    habr.com/ru/articles/990386/

    #SVM #Andrej_Karpathy #TFIDF #машинное_обучение #Support_Vector_Machine #нейросети #алгоритмы_классификации