home.social

#claude_opus — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #claude_opus, aggregated by home.social.

  1. Промпт-инжиниринг 2026: что устарело с приходом reasoning-моделей

    Половина моих промпт-техник за пару лет работы с GPT-4 и Claude 3.5 на reasoning-моделях работает хуже минимального промпта. Развёрнутый chain-of-thought, многошаговый few-shot, эмоциональная role-play — лишнее или вредит. А скучные техники — контракт результата, системные промпты, constraints — наоборот, стали критически важными. Что умерло, что выжило, что подходит под какую задачу.

    habr.com/ru/articles/1034572/

    #промптинжиниринг #reasoningмодели #gpt55 #claude_opus #llm #chainofthought

  2. Cursor удалил прод за 9 секунд, а Zig и JVM запретили AI-коммиты

    Двенадцатый выпуск еженедельных IT-новостей от OpenIDE! На этой неделе прошёл JPoint 2026, вышел Amplicode 2026.1 со Spring Agent Toolkit, а Anthropic впервые обогнала OpenAI по оценке на вторичном рынке. Плюс история о том, как AI-агент удалил продакшн-базу данных за 9 секунд.

    habr.com/ru/companies/haulmont

    #Amplicode #Spring_Agent_Toolkit #Cursor #Claude_Opus #GitHub_Copilot #Anthropic #Ghostty #Zig #AI_инфраструктура

  3. Cursor удалил прод за 9 секунд, а Zig и JVM запретили AI-коммиты

    Двенадцатый выпуск еженедельных IT-новостей от OpenIDE! На этой неделе прошёл JPoint 2026, вышел Amplicode 2026.1 со Spring Agent Toolkit, а Anthropic впервые обогнала OpenAI по оценке на вторичном рынке. Плюс история о том, как AI-агент удалил продакшн-базу данных за 9 секунд.

    habr.com/ru/companies/haulmont

    #Amplicode #Spring_Agent_Toolkit #Cursor #Claude_Opus #GitHub_Copilot #Anthropic #Ghostty #Zig #AI_инфраструктура

  4. Cursor удалил прод за 9 секунд, а Zig и JVM запретили AI-коммиты

    Двенадцатый выпуск еженедельных IT-новостей от OpenIDE! На этой неделе прошёл JPoint 2026, вышел Amplicode 2026.1 со Spring Agent Toolkit, а Anthropic впервые обогнала OpenAI по оценке на вторичном рынке. Плюс история о том, как AI-агент удалил продакшн-базу данных за 9 секунд.

    habr.com/ru/companies/haulmont

    #Amplicode #Spring_Agent_Toolkit #Cursor #Claude_Opus #GitHub_Copilot #Anthropic #Ghostty #Zig #AI_инфраструктура

  5. [Перевод] Как мы перешли на Opus и стали платить меньше

    На прошлой неделе мы писали о том, как скармливали терабайты CI-логов LLM . Большинство вопросов на Hacker News касались не самих логов — спрашивали про агента: какие модели, как они взаимодействуют и во сколько всё это обходится. Сейчас мы работаем на Opus 4.6 и платим меньше, чем когда всё крутилось на Sonnet 4.0. Причина в основном в том, чего Opus не делает : 80% сбоев до него не доходят, а когда доходят — он не читает ни одной строки лога. Архитектура выглядит так...

    habr.com/ru/articles/1030850/

    #LLMагенты #multiagent #Claude_Opus #Claude_Haiku #оркестратор #triager #ClickHouse #семантический_поиск #стоимость_инференса

  6. Ревью вайб-кода с гнильцой, который притворяется оптимизированным С++ кодом

    Ценность квалифицированного программиста смещается в сторону умения проводить обзоры кода. Генерировать код становится проще, но всё так же важно проверять его с точки зрения качества декомпозиции, корректности реализации, эффективности, безопасности. Посмотрим на примере маленького проекта markus, созданного с помощью Claude Opus, почему важно понимать сгенерированный код и уметь видеть, что скрывает красивый текст программы.

    habr.com/ru/companies/pvs-stud

    #вайбкод #вайбкодинг #вайб_кодинг #информационная_безопасность #c++ #c++20 #си++ #качество_кода #обзор_кода #claude_opus

  7. Ревью вайб-кода с гнильцой, который притворяется оптимизированным С++ кодом

    Ценность квалифицированного программиста смещается в сторону умения проводить обзоры кода. Генерировать код становится проще, но всё так же важно проверять его с точки зрения качества декомпозиции, корректности реализации, эффективности, безопасности. Посмотрим на примере маленького проекта markus, созданного с помощью Claude Opus, почему важно понимать сгенерированный код и уметь видеть, что скрывает красивый текст программы.

    habr.com/ru/companies/pvs-stud

    #вайбкод #вайбкодинг #вайб_кодинг #информационная_безопасность #c++ #c++20 #си++ #качество_кода #обзор_кода #claude_opus

  8. Ревью вайб-кода с гнильцой, который притворяется оптимизированным С++ кодом

    Ценность квалифицированного программиста смещается в сторону умения проводить обзоры кода. Генерировать код становится проще, но всё так же важно проверять его с точки зрения качества декомпозиции, корректности реализации, эффективности, безопасности. Посмотрим на примере маленького проекта markus, созданного с помощью Claude Opus, почему важно понимать сгенерированный код и уметь видеть, что скрывает красивый текст программы.

    habr.com/ru/companies/pvs-stud

    #вайбкод #вайбкодинг #вайб_кодинг #информационная_безопасность #c++ #c++20 #си++ #качество_кода #обзор_кода #claude_opus

  9. Ревью вайб-кода с гнильцой, который притворяется оптимизированным С++ кодом

    Ценность квалифицированного программиста смещается в сторону умения проводить обзоры кода. Генерировать код становится проще, но всё так же важно проверять его с точки зрения качества декомпозиции, корректности реализации, эффективности, безопасности. Посмотрим на примере маленького проекта markus, созданного с помощью Claude Opus, почему важно понимать сгенерированный код и уметь видеть, что скрывает красивый текст программы.

    habr.com/ru/companies/pvs-stud

    #вайбкод #вайбкодинг #вайб_кодинг #информационная_безопасность #c++ #c++20 #си++ #качество_кода #обзор_кода #claude_opus

  10. [Перевод] На что кодинг-агенты тратят наши токены

    На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

    habr.com/ru/articles/1001866/

    #claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники

  11. [Перевод] На что кодинг-агенты тратят наши токены

    На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

    habr.com/ru/articles/1001866/

    #claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники

  12. [Перевод] На что кодинг-агенты тратят наши токены

    На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

    habr.com/ru/articles/1001866/

    #claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники

  13. [Перевод] На что кодинг-агенты тратят наши токены

    На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

    habr.com/ru/articles/1001866/

    #claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники

  14. [Перевод] Могут ли кодинг-агенты самосовершенствоваться?

    Представьте программиста, который мастерски собирает для себя вспомогательные утилиты, а потом равнодушно отмахивается: «Честно? Мне они не нужны». Именно так повела себя GPT-5 в ходе теста на умение выстраивать собственный набор инструментов для продуктивности. Модель выдала целый арсенал CLI-утилит в духе Unix, но… отказалась ими пользоваться. Почему так случилось и что это говорит о будущем кодинг-агентов — разбираем в статье.

    habr.com/ru/companies/magnus-t

    #искусственный_интеллект #машинное_обучение #самосовершенствование_ИИ #кодингагенты #инструменты_разработчика #GPT5 #claude_opus #ииагенты_для_разработки