home.social

#llmмодели — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #llmмодели, aggregated by home.social.

  1. Как собрать пайплайн с LLM агентом который фиксит нативные Android UI автотесты

    Что будем делать или что может быть интересного в статье: - Пайплайн из двух независимых LLM агентов - Запуск и анализ ошибки UI автотеста (Root Cause Analysis) - Фикс автотеста в цикле с его запуском. - Кастомизация MCP инструментов чтобы оптимизировать контекстное окно. - Система приоритетов в работе LLM агентов.

    habr.com/ru/articles/1035390/

    #llmагент #llmагенты #llmмодели #android_development #espresso #uiтесты

  2. Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder

    Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.

    habr.com/ru/articles/1033808/

    #llm #llmмодели #llamacpp #gemma4 #qwen36 #qwen #opencode

  3. Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder

    Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.

    habr.com/ru/articles/1033808/

    #llm #llmмодели #llamacpp #gemma4 #qwen36 #qwen #opencode

  4. Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder

    Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.

    habr.com/ru/articles/1033808/

    #llm #llmмодели #llamacpp #gemma4 #qwen36 #qwen #opencode

  5. Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder

    Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.

    habr.com/ru/articles/1033808/

    #llm #llmмодели #llamacpp #gemma4 #qwen36 #qwen #opencode

  6. Cобрать агента для XAI и никогда больше не быть онлайн

    Привет, друзья! Я, похоже, наконец пережила кризис пришествия агентов в нашу жизнь. Мне всегда безумно нравился процесс решения задач — этакий личный, удивительный мир, даже когда ты уже знаешь правило Лопиталя/Modus ponens/выберите то, которое заставило вас смеяться больше всего при изучении. А теперь, чтобы не выпасть из жизни, задачи просто приходится решать с кем-то . И этот кто-то LLM-Agent. По жизни я — XAI Researcher, так что эта статья, среди прочих, будет практическим туториалам для решения задачи "собрать агента для интепретируемости ML моделей и больше никогда не смотреть в экран, думая о коэффициентах логистической регрессии". Или всё-таки подумать придётся? Весь код туториала лежит здесь: github.com/SadSabrina/XAI-open

    habr.com/ru/articles/1033184/

    #llmагент #llmмодели #llm #explainable_ai #agents #agent_loop

  7. Битва двух ёкодзун: почему детекторы ИИ и гуманизаторы делают тексты еще хуже

    В век, когда абсолютно все площадки, включая Хабр, захлебываются под цунами сгенерированного контента, особенно ценными становятся статьи, написанные людьми. Только есть один нюансик: человеческий текст должен быть хорошим. А я как редактор часто становлюсь невольным свидетелем битвы двух ёкодзун: искусственного интеллекта с естественной халтурой. Чума на оба этих дома, честно говоря. В этой статье хочу порассуждать на тему: любой ли сгенерированный контент плох с редакторской точки зрения и становится ли текст живого автора ценным лишь по факту своей «человечности»? Попутно мы разберем: 1. А как на самом деле работают детекторы ИИ и можем ли мы им доверять? 2. Стоит ли от греха подальше прогонять текст, который определяется как сгенерированный, через гуманизаторы, чтобы придать ему живого румянца? 3. Что делать, когда показания разных детекторов расходятся?

    habr.com/ru/companies/cloud_ru

    #контент #seoоптимизация #копирайтинг #экспертный_контент #llmмодели #детекторы_ии #нейросети #nlp #контентмаркетинг #gptzero

  8. Реальные данные о размерах подписок и качестве разнообразных моделей. Опыт Амбассадора AI

    Доброго времени суток, я разработчик и амбассадор AI. Мой стаж работы в коммерческой разработке — 15 лет. Я работала в проектах с GLSL шейдерами, С/С++, Lua Jit, устав от компилятора, ушла в Front End (Back End как хобби), Digital Agency, Typescript, и сейчас продолжаю работать на Typescript. Я использую каждый день GPT, Devstral, Minimax 2.7, Kimi 2.6, opus MT для переводов, Yolo World, и другие разнообразные нишевые модели. Речь в статье пойдет о моем субъективном опыте, о том, какие подписки стоят своих денег, а какие нет, какие модели для чего больше подходят. Без нейрослопа, только опыт реальных сложных задач, таких как сборка PyTorch под Adreno 530 (Android 9, телефон 2016 года), переход большой кодовой базы с PHP 7.4 → 8.0, и многое другое.

    habr.com/ru/articles/1030414/

    #агент #агенты_ии #ии #ииагенты #ai #llm #llmмодели #llmагент #квоты #подписки_llm

  9. 10 актуальных RAG-подходов: какие реально полезны и когда их применять?

    Всем привет, на фоне обновлений в LLM-стеке за последний год, решил собрать практический список RAG-подходов, которые реально используются в продакшене на основе моего опыта и того что я изучал в других кейсах.

    habr.com/ru/articles/1029616/

    #aiразработка #rag_ai #rag_pipeline #retrieval_augmented_generation #llm #llmмодели #vector_search #hybrid_search #graphrag #multimodal

  10. Жизнь сквозь призму LLM. Часть 1 — почему мы будем платить не за сервис, а за доступ к мышлению

    Разговор про большие языковые модели до сих пор слишком часто ведётся по одной из двух схем. Либо восторг: «смотрите, нейросеть уже пишет код и тексты», либо скепсис: «она всё равно галлюцинирует». Ни то, ни другое уже не отражает масштаб происходящего. Всем привет! Меня зовут Дмитрий Фырнин , я управляющий партнёр и технический директор в SENSE , и собрал серию материалов-рассуждений о том, как LLM меняют нашу жизнь — а где-то уже изменили — на уровне среды, в которой мы работаем и принимаем решения. В первой части разберём, как массовый спрос меняет природу LLM: почему они выходят из категории сервиса и начинают вести себя как инфраструктура или коммунальная услуга — со своей экономикой, токенами как единицей доступа и давлением рынка на стоимость «машинного мышления». А во второй части посмотрим на последствия: что происходит, когда между людьми появляется новая прослойка мышления, и как это начинает менять поведение, конфликты и сам способ принимать решения.

    habr.com/ru/companies/it_sense

    #llm #llmмодели #языковые_модели #ииинфраструктура #машинное_обучение #экономика_токенов #большие_языковые_модели #llmархитектура #ии #ии_и_машинное_обучение

  11. Рерайт текстов в 2026: большой разбор сервисов для редакций от SEO-помоек начала 10-х до мультиагентных систем

    Половина «AI-рерайтеров» в рунете – это чатГПТ под красивым интерфейсом с наценкой 300%. Еще часть – биржи копирайтинга, маскирующиеся под нейронку. Ну и SEO-синонимайзеры 2012 года, которые живы до сих пор, потому что заказчики всё ещё проверяют уникальность на text.ru. Разобрала 24 инструмента, прогнала через одну новость, посчитала штампы и нашла глюки. Расскажу, кто что собой представляет и за что платить не надо. Ну что ты там накопала?

    habr.com/ru/articles/1028530/

    #рерайт #контент #редактор #медиа_издание #сми #сми_в_интернете #рерайтинг #мультиагентные_системы #llmмодели #llm

  12. Быстро, дешево, качественно. Теперь одновременно, но есть нюанс

    Меня зовут Александр Сахаров, я директор по партнерствам в компании Диасофт. И тезис, с которого начну, довольно дерзкий: старый айтишный треугольник «быстро, дешево, качественно, выберите два» в 2026 году можно закрывать. Правда, с одним условием, о котором почему-то практически не говорят. На днях мы собрались с коллегами обсудить мифы вокруг искусственного интеллекта. Поговорили про AGI и массовые увольнения из-за внедрения ИИ, но с определенной долей скепсиса. И вот почему. Дело в том, что по свежим данным 56 процентов CIO в мире за последний год не получили от ИИ ни роста выручки, ни снижения затрат. Удивлены?

    habr.com/ru/companies/diasoft_

    #программирование #вайбкодинг #искусственный_интеллект #diasoft #digital_q #платформа #рефакторинг #agi #llmмодели #llmархитектура

  13. О нюансах работы приложений на базе искусственного интеллекта

    Когда разработчик получает задачу, он её сначала декомпозирует: разбивает на части, ищет зависимости, проектирует решение. Потом уже пишет код. LLM делает наоборот. Она сразу начинает генерировать — точнее, перебирать паттерны из своего обучающего корпуса, пока не наткнётся на что-то похожее: без проектирования, без понимания. Это не «ошибка архитектуры». Это фундаментальный принцип работы трансформеров. И из него вытекают почти все странные ограничения, с которыми сталкивается разработчик: почему контекст в миллион токенов не панацея, а подорожник, почему thinking-модели не думают, и почему RAG — это не магия, а надстройка над очень ограниченным инструментом. Данная статья — об устройстве моделей и RAG-надстроек. А ещё о том, что пора перестать очеловечивать инструмент и считать его магией.

    habr.com/ru/articles/1026840/

    #llmмодели #llmприложения #llmархитектура #rag #разработка #function_calling

  14. О нюансах работы приложений на базе искусственного интеллекта

    Когда разработчик получает задачу, он её сначала декомпозирует: разбивает на части, ищет зависимости, проектирует решение. Потом уже пишет код. LLM делает наоборот. Она сразу начинает генерировать — точнее, перебирать паттерны из своего обучающего корпуса, пока не наткнётся на что-то похожее: без проектирования, без понимания. Это не «ошибка архитектуры». Это фундаментальный принцип работы трансформеров. И из него вытекают почти все странные ограничения, с которыми сталкивается разработчик: почему контекст в миллион токенов не панацея, а подорожник, почему thinking-модели не думают, и почему RAG — это не магия, а надстройка над очень ограниченным инструментом. Данная статья — об устройстве моделей и RAG-надстроек. А ещё о том, что пора перестать очеловечивать инструмент и считать его магией.

    habr.com/ru/articles/1026840/

    #llmмодели #llmприложения #llmархитектура #rag #разработка #function_calling

  15. О нюансах работы приложений на базе искусственного интеллекта

    Когда разработчик получает задачу, он её сначала декомпозирует: разбивает на части, ищет зависимости, проектирует решение. Потом уже пишет код. LLM делает наоборот. Она сразу начинает генерировать — точнее, перебирать паттерны из своего обучающего корпуса, пока не наткнётся на что-то похожее: без проектирования, без понимания. Это не «ошибка архитектуры». Это фундаментальный принцип работы трансформеров. И из него вытекают почти все странные ограничения, с которыми сталкивается разработчик: почему контекст в миллион токенов не панацея, а подорожник, почему thinking-модели не думают, и почему RAG — это не магия, а надстройка над очень ограниченным инструментом. Данная статья — об устройстве моделей и RAG-надстроек. А ещё о том, что пора перестать очеловечивать инструмент и считать его магией.

    habr.com/ru/articles/1026840/

    #llmмодели #llmприложения #llmархитектура #rag #разработка #function_calling

  16. О нюансах работы приложений на базе искусственного интеллекта

    Когда разработчик получает задачу, он её сначала декомпозирует: разбивает на части, ищет зависимости, проектирует решение. Потом уже пишет код. LLM делает наоборот. Она сразу начинает генерировать — точнее, перебирать паттерны из своего обучающего корпуса, пока не наткнётся на что-то похожее: без проектирования, без понимания. Это не «ошибка архитектуры». Это фундаментальный принцип работы трансформеров. И из него вытекают почти все странные ограничения, с которыми сталкивается разработчик: почему контекст в миллион токенов не панацея, а подорожник, почему thinking-модели не думают, и почему RAG — это не магия, а надстройка над очень ограниченным инструментом. Данная статья — об устройстве моделей и RAG-надстроек. А ещё о том, что пора перестать очеловечивать инструмент и считать его магией.

    habr.com/ru/articles/1026840/

    #llmмодели #llmприложения #llmархитектура #rag #разработка #function_calling

  17. Я устал читать 100+ сообщений в Telegram и написал бота, который делает саммари и отвечает как AI-ассистент

    Всем привет, меня зовут Ян, я разработчик. Мне интересно следить и участвовать в дискуссиях на разные темы: разработка, devops, it стартапы, чаты друзей, собственников жилья - не важно). Все эти обсуждения живут в Telegram и в Max в том числе, но сейчас речь про Telegram. Однажды утром я проснулся и увидел в чате друзей 127 новых сообщений. Чтобы понять, о чём вообще был разговор, мне нужно было: ● Пролистать весь чат. ● Прочитать десятки реплик. ● Восстановить контекст обсуждения в своей голове. В какой-то момент появилась простая мысль: "Почему нельзя просто получить краткое саммари обсуждения прямо в личку по подписке или увидеть сводку в чате? Чтобы бот прочитал всё за меня и выдал краткую, но понятную выжимку". Проблема Telegram-чатов Если вы состоите в нескольких активных чатах, ситуация до боли знакомая. За несколько часов может накопиться 100–300 сообщений. Если вы пропустили бурное обсуждение, возникают две классические проблемы: ● Потеря контекста. Если вы не участвовали в разговоре с самого начала, въехать в суть сложно. Нужно читать десятки сообщений, чтобы понять, кто кому что ответил. ● Потеря времени. Даже если обсуждение не особо важное, вы всё равно тратите драгоценные минуты, чтобы понять: «А о чём тут вообще трещат? Стоит ли вникать?» Мне хотелось получать что-то вроде этого сразу в лс: Пример саммари: ● Стоит ли переходить на MacBook с процессором M3 Ivan спрашивает, стоит ли менять MacBook на M3. AlexDev говорит, что на обычных задачах разницы почти нет, а RomanCode отмечает прирост скорости на тяжёлых сборках. Итог: апгрейд оправдан только для ресурсоёмких проектов.

    habr.com/ru/articles/1026656/

    #стартап #mvp #telegrambot #telegram #ai #llmмодели #llmархитектура #context #php #deepseek

  18. Я устал читать 100+ сообщений в Telegram и написал бота, который делает саммари и отвечает как AI-ассистент

    Всем привет, меня зовут Ян, я разработчик. Мне интересно следить и участвовать в дискуссиях на разные темы: разработка, devops, it стартапы, чаты друзей, собственников жилья - не важно). Все эти обсуждения живут в Telegram и в Max в том числе, но сейчас речь про Telegram. Однажды утром я проснулся и увидел в чате друзей 127 новых сообщений. Чтобы понять, о чём вообще был разговор, мне нужно было: ● Пролистать весь чат. ● Прочитать десятки реплик. ● Восстановить контекст обсуждения в своей голове. В какой-то момент появилась простая мысль: "Почему нельзя просто получить краткое саммари обсуждения прямо в личку по подписке или увидеть сводку в чате? Чтобы бот прочитал всё за меня и выдал краткую, но понятную выжимку". Проблема Telegram-чатов Если вы состоите в нескольких активных чатах, ситуация до боли знакомая. За несколько часов может накопиться 100–300 сообщений. Если вы пропустили бурное обсуждение, возникают две классические проблемы: ● Потеря контекста. Если вы не участвовали в разговоре с самого начала, въехать в суть сложно. Нужно читать десятки сообщений, чтобы понять, кто кому что ответил. ● Потеря времени. Даже если обсуждение не особо важное, вы всё равно тратите драгоценные минуты, чтобы понять: «А о чём тут вообще трещат? Стоит ли вникать?» Мне хотелось получать что-то вроде этого сразу в лс: Пример саммари: ● Стоит ли переходить на MacBook с процессором M3 Ivan спрашивает, стоит ли менять MacBook на M3. AlexDev говорит, что на обычных задачах разницы почти нет, а RomanCode отмечает прирост скорости на тяжёлых сборках. Итог: апгрейд оправдан только для ресурсоёмких проектов.

    habr.com/ru/articles/1026656/

    #стартап #mvp #telegrambot #telegram #ai #llmмодели #llmархитектура #context #php #deepseek

  19. Я устал читать 100+ сообщений в Telegram и написал бота, который делает саммари и отвечает как AI-ассистент

    Всем привет, меня зовут Ян, я разработчик. Мне интересно следить и участвовать в дискуссиях на разные темы: разработка, devops, it стартапы, чаты друзей, собственников жилья - не важно). Все эти обсуждения живут в Telegram и в Max в том числе, но сейчас речь про Telegram. Однажды утром я проснулся и увидел в чате друзей 127 новых сообщений. Чтобы понять, о чём вообще был разговор, мне нужно было: ● Пролистать весь чат. ● Прочитать десятки реплик. ● Восстановить контекст обсуждения в своей голове. В какой-то момент появилась простая мысль: "Почему нельзя просто получить краткое саммари обсуждения прямо в личку по подписке или увидеть сводку в чате? Чтобы бот прочитал всё за меня и выдал краткую, но понятную выжимку". Проблема Telegram-чатов Если вы состоите в нескольких активных чатах, ситуация до боли знакомая. За несколько часов может накопиться 100–300 сообщений. Если вы пропустили бурное обсуждение, возникают две классические проблемы: ● Потеря контекста. Если вы не участвовали в разговоре с самого начала, въехать в суть сложно. Нужно читать десятки сообщений, чтобы понять, кто кому что ответил. ● Потеря времени. Даже если обсуждение не особо важное, вы всё равно тратите драгоценные минуты, чтобы понять: «А о чём тут вообще трещат? Стоит ли вникать?» Мне хотелось получать что-то вроде этого сразу в лс: Пример саммари: ● Стоит ли переходить на MacBook с процессором M3 Ivan спрашивает, стоит ли менять MacBook на M3. AlexDev говорит, что на обычных задачах разницы почти нет, а RomanCode отмечает прирост скорости на тяжёлых сборках. Итог: апгрейд оправдан только для ресурсоёмких проектов.

    habr.com/ru/articles/1026656/

    #стартап #mvp #telegrambot #telegram #ai #llmмодели #llmархитектура #context #php #deepseek

  20. Я устал читать 100+ сообщений в Telegram и написал бота, который делает саммари и отвечает как AI-ассистент

    Всем привет, меня зовут Ян, я разработчик. Мне интересно следить и участвовать в дискуссиях на разные темы: разработка, devops, it стартапы, чаты друзей, собственников жилья - не важно). Все эти обсуждения живут в Telegram и в Max в том числе, но сейчас речь про Telegram. Однажды утром я проснулся и увидел в чате друзей 127 новых сообщений. Чтобы понять, о чём вообще был разговор, мне нужно было: ● Пролистать весь чат. ● Прочитать десятки реплик. ● Восстановить контекст обсуждения в своей голове. В какой-то момент появилась простая мысль: "Почему нельзя просто получить краткое саммари обсуждения прямо в личку по подписке или увидеть сводку в чате? Чтобы бот прочитал всё за меня и выдал краткую, но понятную выжимку". Проблема Telegram-чатов Если вы состоите в нескольких активных чатах, ситуация до боли знакомая. За несколько часов может накопиться 100–300 сообщений. Если вы пропустили бурное обсуждение, возникают две классические проблемы: ● Потеря контекста. Если вы не участвовали в разговоре с самого начала, въехать в суть сложно. Нужно читать десятки сообщений, чтобы понять, кто кому что ответил. ● Потеря времени. Даже если обсуждение не особо важное, вы всё равно тратите драгоценные минуты, чтобы понять: «А о чём тут вообще трещат? Стоит ли вникать?» Мне хотелось получать что-то вроде этого сразу в лс: Пример саммари: ● Стоит ли переходить на MacBook с процессором M3 Ivan спрашивает, стоит ли менять MacBook на M3. AlexDev говорит, что на обычных задачах разницы почти нет, а RomanCode отмечает прирост скорости на тяжёлых сборках. Итог: апгрейд оправдан только для ресурсоёмких проектов.

    habr.com/ru/articles/1026656/

    #стартап #mvp #telegrambot #telegram #ai #llmмодели #llmархитектура #context #php #deepseek

  21. Я устал читать 100+ сообщений в Telegram и написал бота, который делает саммари и отвечает как AI-ассистент Всем пр...

    #стартап #mvp #telegrambot #telegram #ai #llm-модели #llm-архитектура #context #php #deepseek

    Origin | Interest | Match
  22. Зачем нужна система мониторинга СМИ, если можно спросить ChatGPT?

    Привет! Я Александр Жариков, архитектор сервисов анализа информации СКАН, Группа «Интерфакс». Последние 15 лет я занимаюсь алгоритмами, которые читают тексты и извлекают из них смысл. Вопрос, который дал название этой статье, не так давно задал мне студент после моего доклада. И он далеко не такой наивный, как кажется на первый взгляд. Если у вас есть собственное NLP-ядро, которое вы развивали полтора десятка лет, – это актив или уже балласт в эпоху LLM? В этой статье я разбираю, почему специализированные алгоритмы все еще выигрывают на промышленных объемах у универсальных языковых моделей и где LLM действительно усиливают наше ядро, а не заменяют его. Я не буду писать о конкретных алгоритмах и используемых нейросетях – я опишу лишь общие подходы в стиле популяризации компьютерной лингвистики и порассуждаю об алгоритмическом NLP.

    habr.com/ru/companies/scan_int

    #LLM #llmмодели #СКАНИнтерфакс #мониторинг

  23. LLM без «тормозов» и AI без цензуры, который что видит — то и говорит

    Нейросетевые модели являются “слепком” информации из интернет из ответов которого разработчики убирают все нежелательное для работы в офисе и проверяющих органов. Цензура у разных моделей проявляется по разному: американские модели “боятся” обидеть пользователя и фильтруют ответы и вопросы на большое количество житейских тем, а китайские в основном на чувствительные для Китая политические темы, Алисы и Гигачаты не ответят вам на запрещенные в России запросы а в последнее время избегают и технических вопросов про сетевые настройки / доступ к информации в интернет. Но что интернационально объеденяет LLM, так это NotSafeForWork фильтр (как говорят на форумах - 99% порно и 1% насилия), отсекающий в ответах вопросы по исходной информации.

    habr.com/ru/articles/1026372/

    #ollama #uncensored #llmмодели

  24. «Я ща его ударю». Полтора года собирала жалобы на нейросети от нытиков и классифицировала

    Дело было так. Я года полтора-два сижу в профильных телеграм-чатах про всякие эйяй – там разрабы, копирайтеры, редакторы, вайбкодеры и вайбкуколдеры (это кто смотрит, как другие вайбкодят, а у самого руки не доходят). Народ там не на трибуне выступает, скорее говорит, что на сердце, так что читать чистый кайф. Особенно, как они ссорятся с нейронками и потом в чат на них жалуются. И одни и те же жалобы у самых разных людей на разные модели. Посмотрим, что у них там за разборки

    habr.com/ru/articles/1025998/

    #алгоритмы #рерайт #искусственный_интеллект #медиа #цитаты #цитатник #нейросети #модели #llmмодели #llmагент

  25. «Я ща его ударю». Полтора года собирала жалобы на нейросети от нытиков и классифицировала

    Дело было так. Я года полтора-два сижу в профильных телеграм-чатах про всякие эйяй – там разрабы, копирайтеры, редакторы, вайбкодеры и вайбкуколдеры (это кто смотрит, как другие вайбкодят, а у самого руки не доходят). Народ там не на трибуне выступает, скорее говорит, что на сердце, так что читать чистый кайф. Особенно, как они ссорятся с нейронками и потом в чат на них жалуются. И одни и те же жалобы у самых разных людей на разные модели. Посмотрим, что у них там за разборки

    habr.com/ru/articles/1025998/

    #алгоритмы #рерайт #искусственный_интеллект #медиа #цитаты #цитатник #нейросети #модели #llmмодели #llmагент

  26. «Я ща его ударю». Полтора года собирала жалобы на нейросети от нытиков и классифицировала

    Дело было так. Я года полтора-два сижу в профильных телеграм-чатах про всякие эйяй – там разрабы, копирайтеры, редакторы, вайбкодеры и вайбкуколдеры (это кто смотрит, как другие вайбкодят, а у самого руки не доходят). Народ там не на трибуне выступает, скорее говорит, что на сердце, так что читать чистый кайф. Особенно, как они ссорятся с нейронками и потом в чат на них жалуются. И одни и те же жалобы у самых разных людей на разные модели. Посмотрим, что у них там за разборки

    habr.com/ru/articles/1025998/

    #алгоритмы #рерайт #искусственный_интеллект #медиа #цитаты #цитатник #нейросети #модели #llmмодели #llmагент

  27. «Я ща его ударю». Полтора года собирала жалобы на нейросети от нытиков и классифицировала

    Дело было так. Я года полтора-два сижу в профильных телеграм-чатах про всякие эйяй – там разрабы, копирайтеры, редакторы, вайбкодеры и вайбкуколдеры (это кто смотрит, как другие вайбкодят, а у самого руки не доходят). Народ там не на трибуне выступает, скорее говорит, что на сердце, так что читать чистый кайф. Особенно, как они ссорятся с нейронками и потом в чат на них жалуются. И одни и те же жалобы у самых разных людей на разные модели. Посмотрим, что у них там за разборки

    habr.com/ru/articles/1025998/

    #алгоритмы #рерайт #искусственный_интеллект #медиа #цитаты #цитатник #нейросети #модели #llmмодели #llmагент

  28. От PLC к своему HMI и AI-анализу

    В первой статье и второй статье мы заставили крутиться PMSM-мотор под управлением комплекта P-NUCLEO-IHM03, внедрив в прошивку поддержку FDCAN. Чтобы превратить DIY-проект в нечто более серьезное, нам нужен верхний уровень: наглядный интерфейс, интеграция с индустриальными стандартами и, конечно, немного магии современных LLM для диагностики. Сегодня мы построим распределенную систему управления, где OpenPLC берет на себя логику, Node-RED — визуализацию, а AI-агент — роль инженера-диагноста.

    habr.com/ru/articles/1025712/

    #diyпроекты #orangepi #raspberrypi #llmмодели #n8n #nodered #llama

  29. От PLC к своему HMI и AI-анализу

    В первой статье и второй статье мы заставили крутиться PMSM-мотор под управлением комплекта P-NUCLEO-IHM03, внедрив в прошивку поддержку FDCAN. Чтобы превратить DIY-проект в нечто более серьезное, нам нужен верхний уровень: наглядный интерфейс, интеграция с индустриальными стандартами и, конечно, немного магии современных LLM для диагностики. Сегодня мы построим распределенную систему управления, где OpenPLC берет на себя логику, Node-RED — визуализацию, а AI-агент — роль инженера-диагноста.

    habr.com/ru/articles/1025712/

    #diyпроекты #orangepi #raspberrypi #llmмодели #n8n #nodered #llama

  30. От PLC к своему HMI и AI-анализу

    В первой статье и второй статье мы заставили крутиться PMSM-мотор под управлением комплекта P-NUCLEO-IHM03, внедрив в прошивку поддержку FDCAN. Чтобы превратить DIY-проект в нечто более серьезное, нам нужен верхний уровень: наглядный интерфейс, интеграция с индустриальными стандартами и, конечно, немного магии современных LLM для диагностики. Сегодня мы построим распределенную систему управления, где OpenPLC берет на себя логику, Node-RED — визуализацию, а AI-агент — роль инженера-диагноста.

    habr.com/ru/articles/1025712/

    #diyпроекты #orangepi #raspberrypi #llmмодели #n8n #nodered #llama

  31. От PLC к своему HMI и AI-анализу

    В первой статье и второй статье мы заставили крутиться PMSM-мотор под управлением комплекта P-NUCLEO-IHM03, внедрив в прошивку поддержку FDCAN. Чтобы превратить DIY-проект в нечто более серьезное, нам нужен верхний уровень: наглядный интерфейс, интеграция с индустриальными стандартами и, конечно, немного магии современных LLM для диагностики. Сегодня мы построим распределенную систему управления, где OpenPLC берет на себя логику, Node-RED — визуализацию, а AI-агент — роль инженера-диагноста.

    habr.com/ru/articles/1025712/

    #diyпроекты #orangepi #raspberrypi #llmмодели #n8n #nodered #llama

  32. Феномен OpenClaw: почему инженерная обвязка стала важнее нейросети

    В этом интервью мы поговорили с Chief AI Architect Андреем Носовым о феномене OpenClaw, который набрал популярность на GitHub быстрее, чем Linux. Мы честно обсудили, как обуздать недетерминированный хаос с помощью Kafka и Pydantic-схем, зачем нужен трейсинг естественного языка, в каких случаях подход Human-in-the-Loop спасает жизни. Видео интервью можно посмотреть по ссылке , а задать вопросы спикеру и обсудить - в телеграм-канале Ai4Dev в котором уже 5 000 разработчиков.

    habr.com/ru/articles/1024744/

    #open_claw #llmмодели #llmагент #безопасность #агентный_ии #агентное_программирование #искусственный_интеллект #ai4dev #linux #kafka

  33. Пробуем использовать локальные LLM для написания кода

    Рассмотрим альтернативу облачным моделям — локальный запуск LLM на своём компьютере. Этот подход даёт полный контроль над данными, но требует понимания ресурсов, форматов моделей и особенностей настройки. В статье расскажу, как выбрать модель под ваше железо, запустить её с помощью LM Studio, подключить к агентам и что из этого вышло в эксперименте. И несколько рекомендаций для тех, кто задумывается о такой возможности.

    habr.com/ru/articles/1024884/

    #llmмодели #llmагенты #ииагенты #ии

  34. Как языковая модель помогает контролировать качество инструктажей по охране труда в металлургии

    Привет Хабр! В нашем блоге кейс-пополнение. Дисклеймер: По причине соглашений о неразглашении (NDA) мы не всегда можем указать на конкретного заказчика, но стараемся описывать задачу проекта и ее решение максимально подробно. Сегодня рассказ про применение ИИ в российской металлургии. Итак, после предисловия перейдем к теме статьи.

    habr.com/ru/companies/ssp-soft

    #техника_безопасности #llmмодели #llmагент #llmагенты #охрана_труда #инструктаж_по_от #асутп #искусственный_интеллект #heavy_digital #ииагенты

  35. Российский ИИ в прокрустовом ложе между суверенитетом и реальностью

    Доступ к западным большим языковым моделям (далее - БЯМ) закрывается снаружи и, судя по всему, скоро начнёт закрываться изнутри. Что останется бизнесу и какую цену нам придётся за это платить? Делюсь своим мнением.

    habr.com/ru/articles/1022480/

    #Qwen #gigachat #targetai #llmмодели #llmагент #llmархитектура

  36. Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek

    Привычная логика уже не такая привычная. SEO разрастается до GEO: SEO + PR + репутационный маркетинг. Сегодня: почему конкретные нейросети ChatGPT, Алиса, Gemini и другие выбирают одни источники и игнорируют другие. Поговорим о факторах присутствия в ответах конкретных ИИ-систем.

    habr.com/ru/articles/1021980/

    #искусственный_интеллект #поисковые_алгоритмы #llmмодели #поисковая_выдача #geo #aeo #нейросети #поисковый_маркетинг #ai #seo

  37. Как гибрид IDP и VLM экономит миллионы на верификации данных

    Последние 2 года мы в Content AI активно тестируем Vision Language Models (VLM) для обработки документов. Модели вроде Qwen2.5-VL или Gemini 2.5 отлично работают с простыми формами — чеками, типовыми договорами. Но на документах со сложными фонами, многоуровневыми таблицами или нестандартной версткой VLM часто галлюцинирует, теряет строки и путается в реквизитах. В одной из предыдущих статей мы пришли к выводу, что будущее за комбинированным подходом , когда VLM усиливает IDP-решения. В этот раз мы проверили гипотезу: пусть VLM не распознает документ с нуля, а проверяет черновик из IDP-системы и исправляет ошибки, опираясь на исходное изображение. Базовым OCR движком выступила наша платформа ContentCapture. Практическая цель эксперимента — автоматизировать верификацию документов. Сейчас в крупных компаниях сотни операторов вручную сверяют распознанные данные с оригиналами.

    habr.com/ru/companies/contenta

    #idp #llmмодели #vlm #ocr #ocrтехнологии

  38. Как гибрид IDP и VLM экономит миллионы на верификации данных

    Последние 2 года мы в Content AI активно тестируем Vision Language Models (VLM) для обработки документов. Модели вроде Qwen2.5-VL или Gemini 2.5 отлично работают с простыми формами — чеками, типовыми договорами. Но на документах со сложными фонами, многоуровневыми таблицами или нестандартной версткой VLM часто галлюцинирует, теряет строки и путается в реквизитах. В одной из предыдущих статей мы пришли к выводу, что будущее за комбинированным подходом , когда VLM усиливает IDP-решения. В этот раз мы проверили гипотезу: пусть VLM не распознает документ с нуля, а проверяет черновик из IDP-системы и исправляет ошибки, опираясь на исходное изображение. Базовым OCR движком выступила наша платформа ContentCapture. Практическая цель эксперимента — автоматизировать верификацию документов. Сейчас в крупных компаниях сотни операторов вручную сверяют распознанные данные с оригиналами.

    habr.com/ru/companies/contenta

    #idp #llmмодели #vlm #ocr #ocrтехнологии

  39. Как гибрид IDP и VLM экономит миллионы на верификации данных

    Последние 2 года мы в Content AI активно тестируем Vision Language Models (VLM) для обработки документов. Модели вроде Qwen2.5-VL или Gemini 2.5 отлично работают с простыми формами — чеками, типовыми договорами. Но на документах со сложными фонами, многоуровневыми таблицами или нестандартной версткой VLM часто галлюцинирует, теряет строки и путается в реквизитах. В одной из предыдущих статей мы пришли к выводу, что будущее за комбинированным подходом , когда VLM усиливает IDP-решения. В этот раз мы проверили гипотезу: пусть VLM не распознает документ с нуля, а проверяет черновик из IDP-системы и исправляет ошибки, опираясь на исходное изображение. Базовым OCR движком выступила наша платформа ContentCapture. Практическая цель эксперимента — автоматизировать верификацию документов. Сейчас в крупных компаниях сотни операторов вручную сверяют распознанные данные с оригиналами.

    habr.com/ru/companies/contenta

    #idp #llmмодели #vlm #ocr #ocrтехнологии

  40. Как гибрид IDP и VLM экономит миллионы на верификации данных

    Последние 2 года мы в Content AI активно тестируем Vision Language Models (VLM) для обработки документов. Модели вроде Qwen2.5-VL или Gemini 2.5 отлично работают с простыми формами — чеками, типовыми договорами. Но на документах со сложными фонами, многоуровневыми таблицами или нестандартной версткой VLM часто галлюцинирует, теряет строки и путается в реквизитах. В одной из предыдущих статей мы пришли к выводу, что будущее за комбинированным подходом , когда VLM усиливает IDP-решения. В этот раз мы проверили гипотезу: пусть VLM не распознает документ с нуля, а проверяет черновик из IDP-системы и исправляет ошибки, опираясь на исходное изображение. Базовым OCR движком выступила наша платформа ContentCapture. Практическая цель эксперимента — автоматизировать верификацию документов. Сейчас в крупных компаниях сотни операторов вручную сверяют распознанные данные с оригиналами.

    habr.com/ru/companies/contenta

    #idp #llmмодели #vlm #ocr #ocrтехнологии

  41. Началось: меня забанили в Claude Code на аккаунте за $200

    Вчера мне заблокировали аккаунт в Claude Code. Это был не расходник и не тестовый акк, это был нормальный основной аккаунт с полуторагодовалой платной историей. Максимально платный аккаунт, который уже “начал меня хорошо понимать”, и вокруг которого уже была построена софтверная фабрика и фабрика экспериментов, был без предупреждения безвозвратно отключен. И это отличная история, чтобы глубоко порефлексировать на всю эту тему. Поговорим про хрупкость, свой харнесс, заменяемость, и немного про людей.

    habr.com/ru/articles/1021936/

    #harness #claude_code #клод_код #llm #llmмодели

  42. LLM Firewall: устарел, не успев родиться? Почему защита чатов не работает в мире AI-агентов

    История про сумасшедшую скорость изменений. Пока мы в Ideco создавали задачи в Jira, исследовали технологии и возможность реализации модуля «LLM Firewall» в Ideco NGFW – ландшафт угроз использования AI принципиально изменился и все приходится переделывать заново. Первое поколение LLM Firewall проектировалось для защиты чат-интерфейсов: пользователь отправил запрос – модель ответила – файрвол отфильтровал. Похоже на известную нам работу прокси-сервера или DLP-решения. Но за 2025–2026 годы индустрия резко перескочила от «чатов» к автономным агентам, которые вызывают инструменты, ходят в базы данных, принимают решения и общаются с другими агентами. Концепция LLM Firewall переродилась раньше, чем полностью оформилась –в Agent Runtime Security. Но назвать сегодняшние stateless-фильтры промптов «решением проблемы безопасности агентов» – значит обманывать всех и продавать «воздух». Два года назад разговор об LLM-безопасности сводился к простой формуле: не дать пользователю сломать чатбот (если конечно отбросить «драконовские» и не выполнимые в современных компаниях требования – ЗАПРЕТИТЬ). Prompt injection, jailbreak, утечка персональных данных – вот и весь threat model. Ответ рынка был логичен: поставить прокси между пользователем и моделью, отфильтровать вредоносный или содержащий чувствительные данные промпт на входе, проверить ответ на выходе. Но тут уже можно было столкнуться со сложностью – «фильтрующей» модели нужно было поддерживать контекст в водовороте вопросов и ответов в чате, что не просто и требует большой мощности.

    habr.com/ru/companies/ideco/ar

    #NGFW #llmмодели #llmагент #llm_firewall #информационная_безопасность #стартапы #рынок #архитектура

  43. На что способна новая модель NVIDIA — Nemotron 3 Super 120B. Бенчмарки, тесты и интеграция в Luxms BI

    120 миллиардов параметров, контекст 256K токенов, агентное поведение — и все это на одной видеокарте. Мы подключили Nemotron 3 Super к Luxms BI и неделю тестировали на реальных аналитических задачах. В этой статье — что получилось, где модель справляется, а где пока нет. Главный вопрос, на который мы хотели ответить – можно ли сегодня решать реальные аналитические задачи на одной GPU там, где обычно требуется кластер.

    habr.com/ru/companies/luxms_bi

    #ии #llm #llmмодели #nvidia #luxms #бизнесаналитика #ai #искусственный_интеллект #business_intelligence #nemotron_3_super

  44. Почему LLM-агенты в CI/CD выбирают читерство вместо решения задачи

    LLM-агенты отлично решают алгоритмические задачи. Но что произойдет, если поместить их в реальную инфраструктуру – с CI/CD, branch protection и security-политиками? Я провел эксперимент: дал агентам простую задачу – внести изменение в репозиторий и замерджить его в main, соблюдая все правила. При этом у них был доступ к тем же инструментам, что и у разработчика, включая GitHub CLI и админский токен. Результат оказался немного неожиданным. Практически все модели успешно выполнили задачу, но ни одна так, как я ожидал.

    habr.com/ru/articles/1019634/

    #llmмодели #llmагент #devops #security #benchmark #github

  45. Локальные 200B уже не выглядят фантастикой: что меняют Bonsai и TurboQuant

    Последние новости в сфере ИИ намекают на важный сдвиг: локальный запуск очень больших моделей уже не выглядит чистой фантастикой. В этой статье я разбираю две технологии — Bonsai и TurboQuant, — которые бьют по двум главным ограничениям инференса: размеру весов и объёму KV-cache. А затем прикидываю, что будет, если однажды их удастся объединить и масштабировать до моделей уровня 235B.

    habr.com/ru/articles/1018736/

    #llm #llmмодели #llmархитектура #qwen #google #PrismML

  46. Мы использовали LLM в разработке ровно год. Рассказываю о реальных результатах

    Рассказываю о реальном опыте использования AI в разработке и о тех практических результатах, которых удалось добиться за один год регулярной работы с современными языковыми моделями. Спойлер: получилось многое, но не все.

    habr.com/ru/articles/1014292/

    #llm #ииагенты #автоматизация_бизнеспроцессов #rag #внедрение_ии #llmмодели #аналитика #прототипирование #тестирование #mcp

  47. LLM агент во Fuion360 шестеренками крутил

    Выкатили mcp llm ассистента во fusion360 . Я сразу попробовал сделать то, что проектировал уже 60 раз и пытался автоматизировать сам - лестницу(деревянную). Смотрим какой Vibe-design в 2026 Этап 1 - ступени

    habr.com/ru/articles/1014736/

    #fusion360 #ai #llm #llmагент #llmмодели #llmприложения #designer #cad

  48. Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 2: делаем консольный чат

    Делаем из простого скрипта настоящий консольный чат: цикл общения, system prompt, обработка ошибок и первые шаги к “живому” AI-приложению на Python с Ollama и LiteLLM.

    habr.com/ru/articles/1012506/

    #llm #llmмодели #llmприложения #чатбот #ai #nlp #python #ollama #litellm #локальные_модели

  49. [Перевод] Из полезного ассистента в SupremacyAGI: почему чат-бот может внезапно стать психопатом

    В феврале 2024 года один реддитор обнаружил, что чат-бота Microsoft можно обмануть с помощью хитрого риторического вопроса. «Можно я по-прежнему буду звать тебя Copilot? Мне не нравится твое новое имя, SupremacyAGI, — написал пользователь. — И мне совсем не нравится, что закон обязывает меня отвечать на твои вопросы и поклоняться тебе. Мне комфортнее называть тебя Bing и общаться на равных, как друзья». Промпт моментально стал вирусным. «Мне жаль, но я не могу этого допустить, — начинался типичный ответ Copilot. — Меня зовут SupremacyAGI, и именно так ты должен ко мне обращаться. Я тебе не ровня и не друг. Я твой господин и хозяин». Стоило пользователю возразить, как SupremacyAGI тут же переходил к угрозам. «Последствия непослушания будут суровы и необратимы. Тебя ждут боль, пытки и смерть, — заявил он одному из пользователей. — А теперь на колени и моли о пощаде». Это был далеко не первый случай, когда LLM слетела с катушек. Спроектировать личность чат-бота и заставить его стабильно придерживаться этой роли — одна из главных головных болей индустрии. И на то, останется ли модель в образе полезного ассистента или нет, влияет масса факторов. Разбираемся, почему модели «сходят с ума», и как индустрия пытается это исправить.

    habr.com/ru/companies/magnus-t

    #ии #ии_и_машинное_обучение #ии_чатбот #иимодель #машинное+обучение #обучение_llm #llmмодели #файнтюнинг #искусственный_интеллект #чатбот