home.social

#prompt_engineering — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #prompt_engineering, aggregated by home.social.

  1. Почему текст от LLM узнаётся за пять секунд: разбираю стилистические маркеры через архитектуру моделей

    Когда мы интегрируем LLM в продакшн, рано или поздно сталкиваемся с одной и той же проблемой: текст модели читаем, грамотен, и при этом видно, что его написала модель. В статье разбираю десять самых выразительных стилистических маркеров на уровне архитектуры — почему они появляются (вопрос статистики обучающего корпуса и пост-тренинга, не случайность) и что с ними делать на уровне промпта, sampling-параметров и постобработки. Плюс короткое отступление про то, почему “промпты для обхода детектора” не работают и где лежит реальная граница между генерацией и авторским текстом.

    habr.com/ru/articles/1033450/

    #LLM #GPT #Claude #sampling #temperature #prompt_engineering #постобработка #детекция_ИИтекста #RLHF

  2. Почему текст от LLM узнаётся за пять секунд: разбираю стилистические маркеры через архитектуру моделей

    Когда мы интегрируем LLM в продакшн, рано или поздно сталкиваемся с одной и той же проблемой: текст модели читаем, грамотен, и при этом видно, что его написала модель. В статье разбираю десять самых выразительных стилистических маркеров на уровне архитектуры — почему они появляются (вопрос статистики обучающего корпуса и пост-тренинга, не случайность) и что с ними делать на уровне промпта, sampling-параметров и постобработки. Плюс короткое отступление про то, почему “промпты для обхода детектора” не работают и где лежит реальная граница между генерацией и авторским текстом.

    habr.com/ru/articles/1033450/

    #LLM #GPT #Claude #sampling #temperature #prompt_engineering #постобработка #детекция_ИИтекста #RLHF

  3. Почему текст от LLM узнаётся за пять секунд: разбираю стилистические маркеры через архитектуру моделей

    Когда мы интегрируем LLM в продакшн, рано или поздно сталкиваемся с одной и той же проблемой: текст модели читаем, грамотен, и при этом видно, что его написала модель. В статье разбираю десять самых выразительных стилистических маркеров на уровне архитектуры — почему они появляются (вопрос статистики обучающего корпуса и пост-тренинга, не случайность) и что с ними делать на уровне промпта, sampling-параметров и постобработки. Плюс короткое отступление про то, почему “промпты для обхода детектора” не работают и где лежит реальная граница между генерацией и авторским текстом.

    habr.com/ru/articles/1033450/

    #LLM #GPT #Claude #sampling #temperature #prompt_engineering #постобработка #детекция_ИИтекста #RLHF

  4. Почему текст от LLM узнаётся за пять секунд: разбираю стилистические маркеры через архитектуру моделей

    Когда мы интегрируем LLM в продакшн, рано или поздно сталкиваемся с одной и той же проблемой: текст модели читаем, грамотен, и при этом видно, что его написала модель. В статье разбираю десять самых выразительных стилистических маркеров на уровне архитектуры — почему они появляются (вопрос статистики обучающего корпуса и пост-тренинга, не случайность) и что с ними делать на уровне промпта, sampling-параметров и постобработки. Плюс короткое отступление про то, почему “промпты для обхода детектора” не работают и где лежит реальная граница между генерацией и авторским текстом.

    habr.com/ru/articles/1033450/

    #LLM #GPT #Claude #sampling #temperature #prompt_engineering #постобработка #детекция_ИИтекста #RLHF

  5. Skills для AI-агентов: всё, что тебе нужно знать

    Добавляя новый Skill, мы ждем от агента простого результата: меньше ошибок, более стабильная работа и лучшее понимание библиотек и фреймворков. На практике же часто можно наблюдать: – один skill активируется почти всегда, даже когда не нужен – другой — не включается в момент, когда мы на него рассчитываем – третий — срабатывает «в паре» с соседними и они мешают друг другу В какой-то момент может показаться, что агент работает хаотично и явно хуже, и хочется выключить все skills и вернуться к первоначальному состоянию. Почему так происходит и что с этим можно сделать, разбираемся в статье.

    habr.com/ru/companies/haulmont

    #AIагенты #Spring_Boot #skills_для_AIагентов #Spring_Agent_Toolkit #активация_skills #YAML_frontmatter #prompt_engineering

  6. Парадокс GPT-5.5: чем подробнее промт — тем хуже. Разобрал свой 663-строчный скилл и сверился с Claude

    OpenAI выкатил гайд по промтингу GPT-5.5. Главный тезис: длинные простыни инструкций с ALWAYS/NEVER/MUST не помогают модели — они мешают. Чем подробнее зажимаешь процесс, тем хуже результат. Я полез проверять. Открыл свой рабочий скилл — process-logs, обработка логов ошибок, версия 1.9.0, продакшн. 663 строки, 36 капс-блоков: «CRITICAL REQUIREMENTS», «YOU MUST FOLLOW THESE RULES. NO EXCEPTIONS». Каждый раздел начинается с MANDATORY. Перечитал по новым правилам OpenAI и нашёл четыре проблемы в одной секции из 134 слов: дублирующиеся императивы на одну мысль, judgment-call под видом invariant, нет stopping condition. Переписал — стало 50 слов. На Opus 4.7 и GPT-5.5 короткий вариант даёт лучший фикс на одной и той же ошибке из логов. В статье: разбор 5 ключевых тезисов гайда с прямыми цитатами, диф «до/после» на реальном продакшн-скилле, эксперимент в Google Stitch, который можно повторить за 5 минут, и сверка с тем, что говорит Anthropic про Claude.

    habr.com/ru/articles/1031498/

    #Claude_Code #prompt_engineering #GPT5 #OpenAI #AIагенты #Anthropic #Claude

  7. Парадокс GPT-5.5: чем подробнее промт — тем хуже. Разобрал свой 663-строчный скилл и сверился с Claude

    OpenAI выкатил гайд по промтингу GPT-5.5. Главный тезис: длинные простыни инструкций с ALWAYS/NEVER/MUST не помогают модели — они мешают. Чем подробнее зажимаешь процесс, тем хуже результат. Я полез проверять. Открыл свой рабочий скилл — process-logs, обработка логов ошибок, версия 1.9.0, продакшн. 663 строки, 36 капс-блоков: «CRITICAL REQUIREMENTS», «YOU MUST FOLLOW THESE RULES. NO EXCEPTIONS». Каждый раздел начинается с MANDATORY. Перечитал по новым правилам OpenAI и нашёл четыре проблемы в одной секции из 134 слов: дублирующиеся императивы на одну мысль, judgment-call под видом invariant, нет stopping condition. Переписал — стало 50 слов. На Opus 4.7 и GPT-5.5 короткий вариант даёт лучший фикс на одной и той же ошибке из логов. В статье: разбор 5 ключевых тезисов гайда с прямыми цитатами, диф «до/после» на реальном продакшн-скилле, эксперимент в Google Stitch, который можно повторить за 5 минут, и сверка с тем, что говорит Anthropic про Claude.

    habr.com/ru/articles/1031498/

    #Claude_Code #prompt_engineering #GPT5 #OpenAI #AIагенты #Anthropic #Claude

  8. Парадокс GPT-5.5: чем подробнее промт — тем хуже. Разобрал свой 663-строчный скилл и сверился с Claude

    OpenAI выкатил гайд по промтингу GPT-5.5. Главный тезис: длинные простыни инструкций с ALWAYS/NEVER/MUST не помогают модели — они мешают. Чем подробнее зажимаешь процесс, тем хуже результат. Я полез проверять. Открыл свой рабочий скилл — process-logs, обработка логов ошибок, версия 1.9.0, продакшн. 663 строки, 36 капс-блоков: «CRITICAL REQUIREMENTS», «YOU MUST FOLLOW THESE RULES. NO EXCEPTIONS». Каждый раздел начинается с MANDATORY. Перечитал по новым правилам OpenAI и нашёл четыре проблемы в одной секции из 134 слов: дублирующиеся императивы на одну мысль, judgment-call под видом invariant, нет stopping condition. Переписал — стало 50 слов. На Opus 4.7 и GPT-5.5 короткий вариант даёт лучший фикс на одной и той же ошибке из логов. В статье: разбор 5 ключевых тезисов гайда с прямыми цитатами, диф «до/после» на реальном продакшн-скилле, эксперимент в Google Stitch, который можно повторить за 5 минут, и сверка с тем, что говорит Anthropic про Claude.

    habr.com/ru/articles/1031498/

    #Claude_Code #prompt_engineering #GPT5 #OpenAI #AIагенты #Anthropic #Claude

  9. От NLU-бота к ИИ-агенту: как мы пробили потолок автоматизации в поддержке крупного банка

    Привет, Хабр! На связи команда Just AI. Когда NLU-сценарий вырастает до нескольких сотен веток, а процент автоматизации все равно не двигается — это не проблема настройки, это потолок технологии. Рассказываем, как мы помогли крупному банку его пробить: перевели поддержку по кешбэку на LLM-агентов, добавили агента-судью против галлюцинаций и улучшили понимание семантики и контекста пользовательских запросов.

    habr.com/ru/companies/just_ai/

    #мультиагентные_системы #conversational_ai #автоматизация_поддержки #машинное_обучение_нейросети #финтех #банки #ai #prompt_engineering #ииагенты #ai_agents

  10. 10 настроек Claude Code, до которых большинство разработчиков не доходит

    Ранее я писал про утечку исходного кода Claude Code . 512 000 строк, KAIROS, упоминания нерелизнутых моделей Opus 4.7 и Sonnet 4.8. Так вот. В актуальном Claude Code уже есть Opus 4.7 . Ровно как и было в leaked-коде. Вместе с ней появился новый уровень /effort xhigh - это мы сегодня тоже разберём. В первой части я показал что Claude Code умеет из коробки. Типовой сценарий после этого: "понял, установил, пользуюсь". И дальше тот же потолок что у всех - Claude работает быстро, но как-то странно. Отвечает не то, повторяет одно и то же к концу сессии, просит разрешения на каждый чих, жрёт токены как не в себя. Это решается настройками. Конкретными. Которые лежат в двух файлах и никто до них не доходит. Ниже десять вещей которые я настроил за полгода работы с Claude Code и которые сделали разницу между "работает" и "работает как отдел". С готовыми конфигами. Копируй, вставляй, меняй под себя.

    habr.com/ru/articles/1028988/

    #claude_code #anthropic #opus_47 #ai_agents #ai_coding #developer_tools #prompt_engineering #hooks #claudemd #vibecoding

  11. 10 настроек Claude Code, до которых большинство разработчиков не доходит

    Ранее я писал про утечку исходного кода Claude Code . 512 000 строк, KAIROS, упоминания нерелизнутых моделей Opus 4.7 и Sonnet 4.8. Так вот. В актуальном Claude Code уже есть Opus 4.7 . Ровно как и было в leaked-коде. Вместе с ней появился новый уровень /effort xhigh - это мы сегодня тоже разберём. В первой части я показал что Claude Code умеет из коробки. Типовой сценарий после этого: "понял, установил, пользуюсь". И дальше тот же потолок что у всех - Claude работает быстро, но как-то странно. Отвечает не то, повторяет одно и то же к концу сессии, просит разрешения на каждый чих, жрёт токены как не в себя. Это решается настройками. Конкретными. Которые лежат в двух файлах и никто до них не доходит. Ниже десять вещей которые я настроил за полгода работы с Claude Code и которые сделали разницу между "работает" и "работает как отдел". С готовыми конфигами. Копируй, вставляй, меняй под себя.

    habr.com/ru/articles/1028988/

    #claude_code #anthropic #opus_47 #ai_agents #ai_coding #developer_tools #prompt_engineering #hooks #claudemd #vibecoding

  12. 10 настроек Claude Code, до которых большинство разработчиков не доходит

    Ранее я писал про утечку исходного кода Claude Code . 512 000 строк, KAIROS, упоминания нерелизнутых моделей Opus 4.7 и Sonnet 4.8. Так вот. В актуальном Claude Code уже есть Opus 4.7 . Ровно как и было в leaked-коде. Вместе с ней появился новый уровень /effort xhigh - это мы сегодня тоже разберём. В первой части я показал что Claude Code умеет из коробки. Типовой сценарий после этого: "понял, установил, пользуюсь". И дальше тот же потолок что у всех - Claude работает быстро, но как-то странно. Отвечает не то, повторяет одно и то же к концу сессии, просит разрешения на каждый чих, жрёт токены как не в себя. Это решается настройками. Конкретными. Которые лежат в двух файлах и никто до них не доходит. Ниже десять вещей которые я настроил за полгода работы с Claude Code и которые сделали разницу между "работает" и "работает как отдел". С готовыми конфигами. Копируй, вставляй, меняй под себя.

    habr.com/ru/articles/1028988/

    #claude_code #anthropic #opus_47 #ai_agents #ai_coding #developer_tools #prompt_engineering #hooks #claudemd #vibecoding

  13. 10 настроек Claude Code, до которых большинство разработчиков не доходит

    Ранее я писал про утечку исходного кода Claude Code . 512 000 строк, KAIROS, упоминания нерелизнутых моделей Opus 4.7 и Sonnet 4.8. Так вот. В актуальном Claude Code уже есть Opus 4.7 . Ровно как и было в leaked-коде. Вместе с ней появился новый уровень /effort xhigh - это мы сегодня тоже разберём. В первой части я показал что Claude Code умеет из коробки. Типовой сценарий после этого: "понял, установил, пользуюсь". И дальше тот же потолок что у всех - Claude работает быстро, но как-то странно. Отвечает не то, повторяет одно и то же к концу сессии, просит разрешения на каждый чих, жрёт токены как не в себя. Это решается настройками. Конкретными. Которые лежат в двух файлах и никто до них не доходит. Ниже десять вещей которые я настроил за полгода работы с Claude Code и которые сделали разницу между "работает" и "работает как отдел". С готовыми конфигами. Копируй, вставляй, меняй под себя.

    habr.com/ru/articles/1028988/

    #claude_code #anthropic #opus_47 #ai_agents #ai_coding #developer_tools #prompt_engineering #hooks #claudemd #vibecoding

  14. Новый LAMP, или почему ваш Agent Pipeline — это Apache в 2006 году

    Все усложняют работу с AI-агентами. А что если хватит markdown + git? Без LangChain, без VectorDB, без оркестраторов. Рассказываю что реально работает.

    habr.com/ru/articles/1028226/

    #AI_agent #LLM #pipeline #prompt_engineering #Design_by_Contract #методология_разработки #LangChain #RAG #developer_tools

  15. Как Gemini CLI поймал у моего Claude Code критическую дыру в paywall за 30 секунд

    Solo-фаундер. Делаю всё через Claude Code. На прошлой неделе он спроектировал мне систему loyalty-кредитов, я перечитал четыре раза, собрался релизить. Сказал Claude: «обсуди это с Gemini». Через 30 секунд получил verdict: «You are literally paying users to NOT subscribe». Я забыл daily refill в своей формуле. Free tier выходил выгоднее платного на 38%. Я бы катил это в прод. Один запрос — два critical bug’а до релиза. 30 секунд. $0.

    habr.com/ru/articles/1028104/

    #Claude_Code #Gemini_CLI #LLMasjudge #AIревью #crossmodel_critique #prompt_engineering #AIагенты #solo_founder

  16. Как Gemini CLI поймал у моего Claude Code критическую дыру в paywall за 30 секунд

    Solo-фаундер. Делаю всё через Claude Code. На прошлой неделе он спроектировал мне систему loyalty-кредитов, я перечитал четыре раза, собрался релизить. Сказал Claude: «обсуди это с Gemini». Через 30 секунд получил verdict: «You are literally paying users to NOT subscribe». Я забыл daily refill в своей формуле. Free tier выходил выгоднее платного на 38%. Я бы катил это в прод. Один запрос — два critical bug’а до релиза. 30 секунд. $0.

    habr.com/ru/articles/1028104/

    #Claude_Code #Gemini_CLI #LLMasjudge #AIревью #crossmodel_critique #prompt_engineering #AIагенты #solo_founder

  17. Как Gemini CLI поймал у моего Claude Code критическую дыру в paywall за 30 секунд

    Solo-фаундер. Делаю всё через Claude Code. На прошлой неделе он спроектировал мне систему loyalty-кредитов, я перечитал четыре раза, собрался релизить. Сказал Claude: «обсуди это с Gemini». Через 30 секунд получил verdict: «You are literally paying users to NOT subscribe». Я забыл daily refill в своей формуле. Free tier выходил выгоднее платного на 38%. Я бы катил это в прод. Один запрос — два critical bug’а до релиза. 30 секунд. $0.

    habr.com/ru/articles/1028104/

    #Claude_Code #Gemini_CLI #LLMasjudge #AIревью #crossmodel_critique #prompt_engineering #AIагенты #solo_founder

  18. Как Gemini CLI поймал у моего Claude Code критическую дыру в paywall за 30 секунд

    Solo-фаундер. Делаю всё через Claude Code. На прошлой неделе он спроектировал мне систему loyalty-кредитов, я перечитал четыре раза, собрался релизить. Сказал Claude: «обсуди это с Gemini». Через 30 секунд получил verdict: «You are literally paying users to NOT subscribe». Я забыл daily refill в своей формуле. Free tier выходил выгоднее платного на 38%. Я бы катил это в прод. Один запрос — два critical bug’а до релиза. 30 секунд. $0.

    habr.com/ru/articles/1028104/

    #Claude_Code #Gemini_CLI #LLMasjudge #AIревью #crossmodel_critique #prompt_engineering #AIагенты #solo_founder

  19. 785 статей. 26 доменов. Для агентов, не людей

    Когда AI-агент пишет код в пустом проекте, первые 30-40% токенов он тратит на ориентацию — читает README, туториалы, API-reference. Ни один формат не отвечает на главный его вопрос: “какой паттерн скопировать и где грабли?” Вторая проблема глубже: LLM знает “всё на свете”, но распределено это неравномерно. Статей пятилетней давности в интернете больше, чем свежих — и агент по умолчанию тянет меня в прошлое, предлагая устаревшие рецепты. Каждый раз гонять deep research — дорого, и результат всё равно испаряется с сессией. Happyin Knowledge Space — 785 статей в 26 доменах, под MIT. Reference cards, не туториалы. Граф wiki-ссылок вместо vector DB. llms.txt на шести языках. Пишется по результатам моих реальных ресерчей — каждый deep research теперь становится карточкой в базе и не испаряется. Локально разворачивается за 5 минут, работает без серверов и без embedding-моделей.

    habr.com/ru/articles/1026666/

    #AIагенты #Claude_Code #open_source #LLM #rag #llmstxt #ChatGPT #Нейросети #Prompt_engineering #MCP

  20. Кто сегодня разрабатывает с ИИ?

    Два года назад для написания веб-приложения нужно было знать язык программирования, фреймворк, базу данных, уметь деплоить и дебажить. Сегодня достаточно уметь сформулировать задачу. ИИ радикально снизил порог входа в разработку — и это прекрасно. Но у революции есть обратная сторона: прямой подход «задача → код → результат» порождает архитектурные проблемы, уязвимости и технический долг, которые незаметны, пока не становится слишком поздно. Разбираем, почему так происходит и как разрабатывать с ИИ эффективно.

    habr.com/ru/articles/1026310/

    #ИИ #vibe_coding #AIразработка #архитектура #технический_долг #безопасность #методология #prompt_engineering #контекст

  21. [Перевод] Что такое Harness? Полный разбор на примере Claude Code, OpenAI и LangChain

    Глубокий разбор того, что на самом деле строят Anthropic, OpenAI, Perplexity и LangChain. Оркестрационный цикл, инструменты, память, управление контекстом — и всё остальное, что превращает stateless LLM в работающего агента. Допустим, вы собрали чатбот. Может, даже прикрутили ReAct-цикл с несколькими инструментами. На демо работает. Но стоит попробовать сделать что-то production-grade — и всё начинает сыпаться: модель забывает, что делала три шага назад, вызовы инструментов падают без ошибок, контекстное окно забивается мусором. Проблема не в модели. Проблема во всём, что её окружает. LangChain это доказал: изменив только инфраструктуру вокруг LLM (та же модель, те же веса), они поднялись с позиции за пределами топ-30 на 5-е место в TerminalBench 2.0. В отдельном исследовательском проекте LLM оптимизировал саму инфраструктуру и достиг 76,4% pass rate, превзойдя системы, спроектированные вручную. У этой инфраструктуры теперь есть название: agent harness (агентный харнесс).

    habr.com/ru/articles/1023316/

    #agent_harness #LLM_агент #оркестрационный_цикл #ReAct_loop #context_management #Claude_Code #LangGraph #memory_management #prompt_engineering #multiagent

  22. Телефонный звонок → структурированный JSON: строим STT + LLM пайплайн на Python

    Каждый день в российском бизнесе происходят миллионы телефонных звонков. Колл-центры, клиники, юридические конторы, отделы продаж - везде, где есть телефон, есть поток неструктурированных данных, который никто не обрабатывает. Менеджер повесил трубку, записал в CRM “клиент интересовался” - и 80% информации из разговора потерялось.

    habr.com/ru/articles/1020632/

    #stt #speechtotext #llm #NLP #whisper #pyannote #диаризация #python #prompt_engineering

  23. Ваша LLM галлюцинирует? Наденьте на неё экзоскелет — и заставьте работать по правилам

    Ваша LLM галлюцинирует? Наденьте на неё экзоскелет — и заставьте работать по правилам Тесты на Qwen и DeepSeek показали: одна системная инструкция превращает модель из «уверенного вруна» в инструмент, которому можно доверять.

    habr.com/ru/articles/1018238/

    #LLM #галлюцинации_ИИ #prompt_engineering #prompt_injection #DeepSeek #Qwen #Gemini #эпистемическая_честность #AI_agent #безопасность_LLM

  24. Закурсорить мечту. Часть 4: неожиданный финал

    Изначально, в этой части цикла я планировал разместить объемный материал про установку Git, Cursor, изначальную настройку и видео с ходом реализации проекта с первых строк, но реакция читателей показала, что написать нужно совершенно о другом .

    habr.com/ru/articles/1007984/

    #cursor #cursor_ai #cursor_ide #prompt #prompt_engineering #supabase #antigravity #antigravity_ide

  25. Закурсорить мечту. Часть 3: ТЗ (техническое задание)

    Если вы ещё не создавали сервис с помощью ИИ, честно, я вам завидую. Вспоминаю то чувство, которое испытывал летом 2025-го, когда начал экспериментировать с этим. Если вы уже прочитали Часть 1 и Часть 2 , то сейчас вы находитесь в одном из самых захватывающих моментов всего процесса. И мой совет может показаться странным: остановитесь на несколько дней на этапе формирования самого первого промпта для Курсора или подобной платформы.

    habr.com/ru/articles/1007806/

    #cursor #cursor_ai #cursor_ide #cursor_agent #cursor_ai_ide #cursor_cli #supabase #prompt #prompt_engineering #promptengineering

  26. Закурсорить мечту. Часть 3: ТЗ (техническое задание)

    Если вы ещё не создавали сервис с помощью ИИ, честно, я вам завидую. Вспоминаю то чувство, которое испытывал летом 2025-го, когда начал экспериментировать с этим. Если вы уже прочитали Часть 1 и Часть 2 , то сейчас вы находитесь в одном из самых захватывающих моментов всего процесса. И мой совет может показаться странным: остановитесь на несколько дней на этапе формирования самого первого промпта для Курсора или подобной платформы.

    habr.com/ru/articles/1007806/

    #cursor #cursor_ai #cursor_ide #cursor_agent #cursor_ai_ide #cursor_cli #supabase #prompt #prompt_engineering #promptengineering

  27. Закурсорить мечту. Часть 3: ТЗ (техническое задание)

    Если вы ещё не создавали сервис с помощью ИИ, честно, я вам завидую. Вспоминаю то чувство, которое испытывал летом 2025-го, когда начал экспериментировать с этим. Если вы уже прочитали Часть 1 и Часть 2 , то сейчас вы находитесь в одном из самых захватывающих моментов всего процесса. И мой совет может показаться странным: остановитесь на несколько дней на этапе формирования самого первого промпта для Курсора или подобной платформы.

    habr.com/ru/articles/1007806/

    #cursor #cursor_ai #cursor_ide #cursor_agent #cursor_ai_ide #cursor_cli #supabase #prompt #prompt_engineering #promptengineering

  28. Закурсорить мечту. Часть 3: ТЗ (техническое задание)

    Если вы ещё не создавали сервис с помощью ИИ, честно, я вам завидую. Вспоминаю то чувство, которое испытывал летом 2025-го, когда начал экспериментировать с этим. Если вы уже прочитали Часть 1 и Часть 2 , то сейчас вы находитесь в одном из самых захватывающих моментов всего процесса. И мой совет может показаться странным: остановитесь на несколько дней на этапе формирования самого первого промпта для Курсора или подобной платформы.

    habr.com/ru/articles/1007806/

    #cursor #cursor_ai #cursor_ide #cursor_agent #cursor_ai_ide #cursor_cli #supabase #prompt #prompt_engineering #promptengineering

  29. Карта российских ИИ-платформ для аналитика

    GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.

    habr.com/ru/articles/992872/

    #GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering

  30. Карта российских ИИ-платформ для аналитика

    GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.

    habr.com/ru/articles/992872/

    #GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering

  31. Карта российских ИИ-платформ для аналитика

    GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.

    habr.com/ru/articles/992872/

    #GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering

  32. Карта российских ИИ-платформ для аналитика

    GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.

    habr.com/ru/articles/992872/

    #GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering

  33. Как я пытался сжимать смыслы вместо байтов

    Написал прототип SemanticZip: сжатие текста в 14 раз за счет удаления «выводимой» информации. Теория информации, Колмогоровская сложность. В теории все работало... Разбор полетов: почему нельзя сжимать смыслы и почему красивые метафоры проигрывают скучному RAG

    habr.com/ru/articles/991800/

    #LLM #RAG #Claude #Context_Window #Semantic_Compression #Prompt_Engineering #Векторный_поиск #Галлюцинации #Опыт #Сжатие_данных

  34. Выжимаем максимум из опенсорсных моделей и готовим Text2SQL

    В любой крупной компании есть повторяющийся сценарий. Аналитик сидит над экспериментом или моделью, строит А/В тесты и дашборды, и в этот момент приходит бизнес и просит быстро посмотреть «продажи жвачки за вчера». Аналитик переключается, пишет запрос, отдаёт результат, а через десять минут прилетает почти такой же вопрос. Потом ещё один и ещё. День заканчивается, а свои задачи стоят и покрываются ржавчиной. Так выглядит ручной доступ к данным. Бизнес понимает, что нужные данные в хранилище есть, но не всегда может их быстро получить. А аналитик становится «бутылочным горлышком», через которое проходит большой поток запросов. Мы хотели упростить работу с данными. Чтобы пользователь задавал вопрос, сервис превращал его в SQL, выполнял в хранилище и возвращал аналитический ответ. Чтобы рутина уходила в инструмент, а аналитик переставал быть «бутылочным горлышком». Вроде ничего нового, но в реальной инфраструктуре вскрывается много интересного: специфическая лексика, свойственная каждому из направлений бизнеса, громоздкие витрины, опыт работы с легаси системами и поведение LLM, которую сначала надо надрессировать.

    habr.com/ru/companies/oleg-bun

    #text2sql #large_language_models #open_source_llm #qwen #gpt #аналитика_данных #bird #spider #prompt_engineering #prompt_injection

  35. Как я отучил нейросеть писать «Я коммуникабельный» и заставил её проходить HR-фильтры

    Сейчас каждый второй джун пытается генерировать сопроводительные письма через ChatGPT. И каждый первый рекрутер научился их детектить за секунду. Стандартный ответ LLM выглядит так:

    habr.com/ru/articles/983940/

    #python #llm #chatgpt #prompt_engineering #автоматизация #поиск_работы #искусственный_интеллект #nlp #карьера #hhru

  36. Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт

    Бывало ли такое, что вы ведете долгий проект вместе с агентом, ставите задачи ИИшке, а она только и делает, что топчется на месте, создавая выдуманные переменные и плодя кучу дубляжей файлов с приставками _fix , _final , _corrected ? На самом деле, таким болеют модели и на начальных стадиях, просто баги и мелочи проще отследить, но когда проект переходит за 10к+ строк, ситуация меняется, и хочется иметь агента, способного быть в теме, на какой стадии проект и как грамотно фиксить код. Сегодня я поделюсь своим личным опытом, который я заработал, благодаря многочасовым перепискам с Claude Code, но которые ни к чему не привели, пока я системно не подошел к этому вопросу.

    habr.com/ru/articles/972576/

    #AI_Code_Assistant #Prompt_Engineering #Управление_контекстом_ИИ #CURRENT_STAGEmd #Модульная_документация #AI_Project_Workflow #Стабильность_LLM #Claude_Code #Cursor_IDE #Оптимизация_работы_ИИ

  37. Почему ваше AI-решение не окупается. Фреймворк OpenAI, который все пропустили

    OpenAI опубликовали фреймворк, на который мало кто обратил внимание. Исследование OpenAI (да и не только их) показало: компании внедряют ИИ, но часть из них не получает ожидаемого эффекта. В этом фреймворке на мой взгляд обозначены принципы отделяющие посредственные решения от тех которые делают внедрение AI в бизнес эффективным. openai.com/index/evals-drive-n KPI и OKR остаются бизнес-целями. Evals — метрики, которые показывают, как AI помогает достигать целей. Либо evals становятся частью KPI, либо контролируют качество AI, который двигает показатели вверх. Это нужно, если бизнесу важны: - Понятный путь к окупаемости (ROI) - Свести критические ошибки к минимуму - Предсказуемость результатов для клиентов - AI, который выдерживает рост нагрузки без сбоев Evals – конкурентное преимущество. Промпты скопируют, архитектуру evals – нет. Это скрытый слой, который недоступен ни поставщикам моделей, ни конкурентам.Evals гарантируют стабильность при обновлениях промптов, переходе на другие модели или архитектуру. Так AI-решение постоянно улучшается под задачи бизнеса не теряя в качестве. Фреймворк OpenAI из 3 шагов: 1. Определение – превратите размытые цели в конкретные: "Конвертировать письма компаний с бюджетом 100K+ в демо, сохраняя стиль бренда" 2. Измерение – тестируйте на клиентских запросах и пограничных случаях 3. Улучшение – развивайте на основе результатов тестов, а не надейтесь на удачу Для этого процесса создали BotMetrica.com – слой надёжности, который делает AI готовым к промышленному использованию. В ближайшие дни поделюсь тем, как BotMetrica формализует каждый шаг этого процесса с конкретными примерами. "Don't hope for 'great.' Specify it, measure it, and improve toward it" / "Не полагайтесь на удачу. Определите 'отличное', измерьте и улучшайте" – OpenAI Пишите в личку – отвечу на вопросы и покажу сервис: @ovashchukov или на [email protected]

    habr.com/ru/articles/971432/

    #AI #evals #OpenAI #метрики #KPI #ROI #LLM #prompt_engineering #AI_evaluation #testing

  38. [Перевод] Как работает Context Engineering в Claude и других агентах

    Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Компакция, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.

    habr.com/ru/articles/953440/

    #context_engineering #prompt_engineering #AI_агенты #Claude_Anthropic #LLM #контекст #компакция #инструменты #память

  39. [Перевод] Как работает Context Engineering в Claude и других агентах

    Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Компакция, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.

    habr.com/ru/articles/953440/

    #context_engineering #prompt_engineering #AI_агенты #Claude_Anthropic #LLM #контекст #компакция #инструменты #память

  40. [Перевод] Как работает Context Engineering в Claude и других агентах

    Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Компакция, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.

    habr.com/ru/articles/953440/

    #context_engineering #prompt_engineering #AI_агенты #Claude_Anthropic #LLM #контекст #компакция #инструменты #память

  41. [Перевод] Как работает Context Engineering в Claude и других агентах

    Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Компакция, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.

    habr.com/ru/articles/953440/

    #context_engineering #prompt_engineering #AI_агенты #Claude_Anthropic #LLM #контекст #компакция #инструменты #память

  42. Как мы автоматизировали анализ упавших тестов с помощью AI: от хаоса к структуре

    Представьте: каждый день ваши автотесты генерируют десятки отчетов об ошибках, QA команда тратит часы на анализ падений, а разработчики получают невразумительные описания в духе "test.feature упал на строке 410". Знакомо? Мы решили эту проблему, интегрировав AI в процесс анализа тестов, и хотим поделиться опытом.

    habr.com/ru/articles/948980/

    #искусственный_интеллект #автоматизация_тестирования #cicd #devops #qa #sourcegraph #prompt_engineering #cucumber #ruby_on_rails #gherkin

  43. [Перевод] GEPA вместо RL: как рефлексивная эволюция промптов обгоняет обучение с подкреплением

    Большие языковые модели (LLM) всё чаще адаптируются к downstream-задачам с помощью методов RL, таких как Group Relative Policy Optimization (GRPO), которые нередко требуют тысячи прогонов для освоения новых задач. Мы утверждаем, что интерпретируемая природа языка может предоставлять LLM куда более богатую обучающую среду по сравнению с policy gradient’ами, основанными на разреженных скалярных наградах. Чтобы проверить эту гипотезу, мы представляем GEPA (Genetic-Pareto) — оптимизатор промптов, который системно использует natural language reflection для извлечения высокоуровневых правил из trial-and-error процесса. Для любой AI-системы, содержащей один или несколько промптов LLM, GEPA сэмплирует траектории на уровне системы (например, рассуждения, вызовы инструментов и их выводы) и анализирует их на естественном языке, чтобы диагностировать проблемы, предлагать и тестировать обновления промптов, а также объединять комплементарные инсайты с границы Парето собственных попыток. Благодаря такому дизайну GEPA нередко превращает даже несколько прогонов в существенный прирост качества. На четырёх задачах GEPA в среднем превосходит GRPO на 10% и до 20% максимум, при этом используя до 35× меньше прогонов. GEPA также опережает ведущий оптимизатор промптов MIPROv2 более чем на 10% на двух LLM и демонстрирует обнадёживающие результаты как стратегия поиска на этапе инференса для задач оптимизации кода.

    habr.com/ru/articles/944780/

    #llm #ai #prompt #grpo #prompt_engineering #reinforcementlearning #парето #sample_efficiency #ии

  44. Почему ИИ не смог заменить меня в n8n, но стал идеальным ассистентом

    n8n — это мощный инструмент, который я, как и многие инженеры, полюбил за гибкость и простоту. Он позволяет собрать практически любую интеграцию, как из конструктора, но с возможностью в любой момент залезть «под капот» с кастомным JavaScript. Идеально. Но у этой мощи есть и обратная сторона. Сложные воркфлоу превращаются в лабиринт из нод, где каждая требует тонкой настройки десятков полей. Постоянное переключение между вкладками документации, написание JSON-объектов, парсинг API через Curl, дебаггинг бесконечных ошибок... Знакомо? Время на продумывание логики уходило на рутину. И мне, как и многим, пришла в голову «гениальная» идея: а что, если всю эту рутину возьмет на себя ИИ? Это история о том, как я прошел путь от веры в универсального агента до создания практичной группы ассистентов, которые не заменяют, а реально ускоряют работу.

    habr.com/ru/articles/939092/

    #LLM #MCP #n8n #RAG #chrome_extension #Workflow_Automation #ai_assistant #nocode #prompt_engineering

  45. Почему ИИ не смог заменить меня в n8n, но стал идеальным ассистентом

    n8n — это мощный инструмент, который я, как и многие инженеры, полюбил за гибкость и простоту. Он позволяет собрать практически любую интеграцию, как из конструктора, но с возможностью в любой момент залезть «под капот» с кастомным JavaScript. Идеально. Но у этой мощи есть и обратная сторона. Сложные воркфлоу превращаются в лабиринт из нод, где каждая требует тонкой настройки десятков полей. Постоянное переключение между вкладками документации, написание JSON-объектов, парсинг API через Curl, дебаггинг бесконечных ошибок... Знакомо? Время на продумывание логики уходило на рутину. И мне, как и многим, пришла в голову «гениальная» идея: а что, если всю эту рутину возьмет на себя ИИ? Это история о том, как я прошел путь от веры в универсального агента до создания практичной группы ассистентов, которые не заменяют, а реально ускоряют работу.

    habr.com/ru/articles/939092/

    #LLM #MCP #n8n #RAG #chrome_extension #Workflow_Automation #ai_assistant #nocode #prompt_engineering

  46. Почему ИИ не смог заменить меня в n8n, но стал идеальным ассистентом

    n8n — это мощный инструмент, который я, как и многие инженеры, полюбил за гибкость и простоту. Он позволяет собрать практически любую интеграцию, как из конструктора, но с возможностью в любой момент залезть «под капот» с кастомным JavaScript. Идеально. Но у этой мощи есть и обратная сторона. Сложные воркфлоу превращаются в лабиринт из нод, где каждая требует тонкой настройки десятков полей. Постоянное переключение между вкладками документации, написание JSON-объектов, парсинг API через Curl, дебаггинг бесконечных ошибок... Знакомо? Время на продумывание логики уходило на рутину. И мне, как и многим, пришла в голову «гениальная» идея: а что, если всю эту рутину возьмет на себя ИИ? Это история о том, как я прошел путь от веры в универсального агента до создания практичной группы ассистентов, которые не заменяют, а реально ускоряют работу.

    habr.com/ru/articles/939092/

    #LLM #MCP #n8n #RAG #chrome_extension #Workflow_Automation #ai_assistant #nocode #prompt_engineering