home.social

#openai_codex — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #openai_codex, aggregated by home.social.

  1. Я месяц гонял /goal в Codex CLI. Переломная команда для работы с AI-агентами или самый дорогой способ написать код?

    OpenAI выпустил Codex CLI 0.128.0 с командой /goal — автономным режимом, в котором агент сам пишет код, тестирует, рефлексирует и долбит цель часами. На практике первое, что замечаешь — счётчик токенов скачет в 3-5 раз непредсказуемо. Не вдвое — в пять. Месяц использования в команде. Главные находки: исследователи подхватили первыми (а не разработчики). При упирании в quota wall MCP-вызовы молча отваливаются. Соседняя команда /side неожиданно стала использоваться для расшифровки англицизмов GPT-5.5. В статье: разбор архитектуры /goal (5 слоёв, инжекция системного промпта против proxy signals), реальный публичный кейс — +25% fps за час в GPT-5.5 xhigh, грабли с непредсказуемыми токенами и quota walls, когда /goal стабильно ломается. Антипафос. Никакого AI-евангелизма.

    habr.com/ru/articles/1032606/

    #OpenAI_Codex #goal #Ralph_loop #agentic_coding #GPT55 #AI_агенты #autonomous_agents

  2. Как я сделал скилл для AI-ревью плана и кода — и зачем мне две модели

    Когда одна и та же модель пишет код и проверяет его, она пропускает свои ошибки. Она «помнит», почему приняла именно это решение, и не ставит его под сомнение. Знакомо? Как вычитывать собственный текст: глаз замыливается, мозг подставляет правильный смысл туда, где его нет. В нормальной команде эта проблема решена давно: автор кода ≠ ревьюер. Два человека с разным контекстом и разными слепыми пятнами. С LLM можно сделать то же самое, взяв две модели от разных вендоров. Другая архитектура, другой pretrain - другие слепые пятна. Одна пишет, другая проверяет. В англоязычной среде этот подход называют adversarial review, «состязательное ревью». Суть: ревьюер не подтверждает, что все хорошо, а пытается сломать уверенность в решении. Я называю это проще: перекрестное ревью. У меня Claude (Opus) планирует и пишет код, а Codex (GPT-5.4) ревьюит. Автоматически, в цикле, пока не одобрит. Все это - один файл-скилл для Claude Code. О нем и расскажу.

    habr.com/ru/articles/1019588/

    #code_review #ревью_кода #AI_agents #Claude_Code #OpenAI_Codex #open_source #автоматизация_разработки #AI_code_review

  3. Как я сделал скилл для AI-ревью плана и кода — и зачем мне две модели

    Когда одна и та же модель пишет код и проверяет его, она пропускает свои ошибки. Она «помнит», почему приняла именно это решение, и не ставит его под сомнение. Знакомо? Как вычитывать собственный текст: глаз замыливается, мозг подставляет правильный смысл туда, где его нет. В нормальной команде эта проблема решена давно: автор кода ≠ ревьюер. Два человека с разным контекстом и разными слепыми пятнами. С LLM можно сделать то же самое, взяв две модели от разных вендоров. Другая архитектура, другой pretrain - другие слепые пятна. Одна пишет, другая проверяет. В англоязычной среде этот подход называют adversarial review, «состязательное ревью». Суть: ревьюер не подтверждает, что все хорошо, а пытается сломать уверенность в решении. Я называю это проще: перекрестное ревью. У меня Claude (Opus) планирует и пишет код, а Codex (GPT-5.4) ревьюит. Автоматически, в цикле, пока не одобрит. Все это - один файл-скилл для Claude Code. О нем и расскажу.

    habr.com/ru/articles/1019588/

    #code_review #ревью_кода #AI_agents #Claude_Code #OpenAI_Codex #open_source #автоматизация_разработки #AI_code_review

  4. Как я сделал скилл для AI-ревью плана и кода — и зачем мне две модели

    Когда одна и та же модель пишет код и проверяет его, она пропускает свои ошибки. Она «помнит», почему приняла именно это решение, и не ставит его под сомнение. Знакомо? Как вычитывать собственный текст: глаз замыливается, мозг подставляет правильный смысл туда, где его нет. В нормальной команде эта проблема решена давно: автор кода ≠ ревьюер. Два человека с разным контекстом и разными слепыми пятнами. С LLM можно сделать то же самое, взяв две модели от разных вендоров. Другая архитектура, другой pretrain - другие слепые пятна. Одна пишет, другая проверяет. В англоязычной среде этот подход называют adversarial review, «состязательное ревью». Суть: ревьюер не подтверждает, что все хорошо, а пытается сломать уверенность в решении. Я называю это проще: перекрестное ревью. У меня Claude (Opus) планирует и пишет код, а Codex (GPT-5.4) ревьюит. Автоматически, в цикле, пока не одобрит. Все это - один файл-скилл для Claude Code. О нем и расскажу.

    habr.com/ru/articles/1019588/

    #code_review #ревью_кода #AI_agents #Claude_Code #OpenAI_Codex #open_source #автоматизация_разработки #AI_code_review

  5. Как я сделал скилл для AI-ревью плана и кода — и зачем мне две модели

    Когда одна и та же модель пишет код и проверяет его, она пропускает свои ошибки. Она «помнит», почему приняла именно это решение, и не ставит его под сомнение. Знакомо? Как вычитывать собственный текст: глаз замыливается, мозг подставляет правильный смысл туда, где его нет. В нормальной команде эта проблема решена давно: автор кода ≠ ревьюер. Два человека с разным контекстом и разными слепыми пятнами. С LLM можно сделать то же самое, взяв две модели от разных вендоров. Другая архитектура, другой pretrain - другие слепые пятна. Одна пишет, другая проверяет. В англоязычной среде этот подход называют adversarial review, «состязательное ревью». Суть: ревьюер не подтверждает, что все хорошо, а пытается сломать уверенность в решении. Я называю это проще: перекрестное ревью. У меня Claude (Opus) планирует и пишет код, а Codex (GPT-5.4) ревьюит. Автоматически, в цикле, пока не одобрит. Все это - один файл-скилл для Claude Code. О нем и расскажу.

    habr.com/ru/articles/1019588/

    #code_review #ревью_кода #AI_agents #Claude_Code #OpenAI_Codex #open_source #автоматизация_разработки #AI_code_review

  6. MitM-прокси для LLM

    Многие разработчики в последнее время используют облачные LLM для генерации программного кода, в том числе с помощью агентов. Но это вызывает как минимум две проблемы: Утечка информации: мы не знаем, какие данные LLM передаёт в облако Бесконтрольный расход токенов, особенно в случае автоматических агентов, которые запускаются в автономную работу на длительный период Для этого есть специальные инструменты мониторинга. Например, Tokentap (бывший Sherlock) отслеживает использование токенов для LLM CLI в реальном времени на панели в консоли. Такой MitM-прокси полезен для информационной безопасности и просто для учёта расходов.

    habr.com/ru/companies/globalsi

    #MitM #Hugging_Face #llamaccp #ggml #Local_AI #Gemini_CLI #Claude_Code #OpenAI_Codex #mitmproxy #HTTPSпрокси

  7. MitM-прокси для LLM

    Многие разработчики в последнее время используют облачные LLM для генерации программного кода, в том числе с помощью агентов. Но это вызывает как минимум две проблемы: Утечка информации: мы не знаем, какие данные LLM передаёт в облако Бесконтрольный расход токенов, особенно в случае автоматических агентов, которые запускаются в автономную работу на длительный период Для этого есть специальные инструменты мониторинга. Например, Tokentap (бывший Sherlock) отслеживает использование токенов для LLM CLI в реальном времени на панели в консоли. Такой MitM-прокси полезен для информационной безопасности и просто для учёта расходов.

    habr.com/ru/companies/globalsi

    #MitM #Hugging_Face #llamaccp #ggml #Local_AI #Gemini_CLI #Claude_Code #OpenAI_Codex #mitmproxy #HTTPSпрокси

  8. MitM-прокси для LLM

    Многие разработчики в последнее время используют облачные LLM для генерации программного кода, в том числе с помощью агентов. Но это вызывает как минимум две проблемы: Утечка информации: мы не знаем, какие данные LLM передаёт в облако Бесконтрольный расход токенов, особенно в случае автоматических агентов, которые запускаются в автономную работу на длительный период Для этого есть специальные инструменты мониторинга. Например, Tokentap (бывший Sherlock) отслеживает использование токенов для LLM CLI в реальном времени на панели в консоли. Такой MitM-прокси полезен для информационной безопасности и просто для учёта расходов.

    habr.com/ru/companies/globalsi

    #MitM #Hugging_Face #llamaccp #ggml #Local_AI #Gemini_CLI #Claude_Code #OpenAI_Codex #mitmproxy #HTTPSпрокси

  9. MitM-прокси для LLM

    Многие разработчики в последнее время используют облачные LLM для генерации программного кода, в том числе с помощью агентов. Но это вызывает как минимум две проблемы: Утечка информации: мы не знаем, какие данные LLM передаёт в облако Бесконтрольный расход токенов, особенно в случае автоматических агентов, которые запускаются в автономную работу на длительный период Для этого есть специальные инструменты мониторинга. Например, Tokentap (бывший Sherlock) отслеживает использование токенов для LLM CLI в реальном времени на панели в консоли. Такой MitM-прокси полезен для информационной безопасности и просто для учёта расходов.

    habr.com/ru/companies/globalsi

    #MitM #Hugging_Face #llamaccp #ggml #Local_AI #Gemini_CLI #Claude_Code #OpenAI_Codex #mitmproxy #HTTPSпрокси

  10. Codex с телефона, пока ты не за компьютером (даже с контролем git изменений)

    Бывает так: ушёл на тренировку, сел в кафе, поехал куда-то. В голове крутится задача, которую хочется уже добить. Раньше приходилось ждать, пока вернёшься за стол. Теперь нет. Codex Remote даёт браузерный интерфейс к Codex CLI на вашей машине. Открываешь с телефона, управляешь сессией, видишь изменения файлов до того, как они применились. Машина работает у тебя дома или на работе, ты где угодно. Есть также возможность просматривать незакомиченные изменения в git'е в самом диалоге с моделью.

    habr.com/ru/articles/1005146/

    #open_source #ai #нейросети #инструменты_разработчика #удаленная_работа #программирование_с_телефона #Codex #OpenAI_Codex #remote_development #AIагент

  11. Экспериментальная система skills в OpenAI Codex: как агент учится пользоваться инструментами

    В Codex появилась экспериментальная фича — skills : декларативное описание локальных «навыков» агента с автоматическим discovery и строгими правилами применения. В статье разберём, как это работает под капотом, зачем нужно и как использовать это в своих проектах.

    habr.com/ru/articles/978148/

    #AI #LLM #Intelligent_Agents #Tooling #OpenAI_Codex #Developer_Tools

  12. Hugging Face Skills: AI агенты теперь сами обучают LLM

    Hugging Face релизнули Skills — Agent Context Protocol (ACP), через который упаковываются определения разных задач для ИИ агентов. По сути — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ агентом под конкретный кейс. Один из перых скиллов — дообучение опенсорсных LLM. Разбираемся подробнее.

    habr.com/ru/articles/974148/

    #искусственный_интеллект #hugging_face #gemini_cli #openai_codex #claude_code #llmагенты #llm #agent_skills #Agent_Context_Protocol #Сезон_ИИ_в_разработке

  13. Hugging Face Skills: AI агенты теперь сами обучают LLM

    Hugging Face релизнули Skills — Agent Context Protocol (ACP), через который упаковываются определения разных задач для ИИ агентов. По сути — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ агентом под конкретный кейс. Один из перых скиллов — дообучение опенсорсных LLM. Разбираемся подробнее.

    habr.com/ru/articles/974148/

    #искусственный_интеллект #hugging_face #gemini_cli #openai_codex #claude_code #llmагенты #llm #agent_skills #Agent_Context_Protocol #Сезон_ИИ_в_разработке

  14. Hugging Face Skills: AI агенты теперь сами обучают LLM

    Hugging Face релизнули Skills — Agent Context Protocol (ACP), через который упаковываются определения разных задач для ИИ агентов. По сути — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ агентом под конкретный кейс. Один из перых скиллов — дообучение опенсорсных LLM. Разбираемся подробнее.

    habr.com/ru/articles/974148/

    #искусственный_интеллект #hugging_face #gemini_cli #openai_codex #claude_code #llmагенты #llm #agent_skills #Agent_Context_Protocol #Сезон_ИИ_в_разработке

  15. Hugging Face Skills: AI агенты теперь сами обучают LLM

    Hugging Face релизнули Skills — Agent Context Protocol (ACP), через который упаковываются определения разных задач для ИИ агентов. По сути — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ агентом под конкретный кейс. Один из перых скиллов — дообучение опенсорсных LLM. Разбираемся подробнее.

    habr.com/ru/articles/974148/

    #искусственный_интеллект #hugging_face #gemini_cli #openai_codex #claude_code #llmагенты #llm #agent_skills #Agent_Context_Protocol #Сезон_ИИ_в_разработке

  16. [Перевод] OpenAI Codex против GitHub Copilot: что лучше для написания и тестирования кода?

    Сделать перевод этой статьи нас сподвиг, как ни странно, роман Джонатана Свифта «Путешествия Гулливера». Есть там такой примечательный эпизод о борьбе остроконечников и тупоконечников. Аналогия в контексте разработки ПО — это принимающий бесконечный характер спор о преимуществах и недостатках двух инструментов, — OpenAI Codex и GitHub Copilot, — призванных помогать разработчикам. Как нам показалось, эта переводная статья довольно подробно разбирает работу данных инструментов и поможет внести ясность о сферах их применения, особенно для начинающих программистов.

    habr.com/ru/companies/ssp-soft

    #OpenAI_Codex #github_copilot #github_copilot_alternative #openai #openassistant #разработка_приложений #ииассистент #ии_помощник #тестирование #тестирование_приложений