#ллм — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #ллм, aggregated by home.social.
-
LLM-агент для поиска свободных доменов: автоматизируем подбор
Каждый день регистрируются сотни тысяч новых доменов, поэтому найти среди оставшихся что-то короткое, понятное и незанятое становится сложнее. Хороший домен — это узнаваемость и доверие пользователя. Привет, Хабр! Меня зовут Сергей. Я работаю инженером
https://habr.com/ru/companies/selectel/articles/1024056/
#llmагент #selectel #домены #ллм #петпроект #искусственный_интеллект #ии #ии_и_машинное_обучение
-
Разработка после разработчиков. Что оставит AI?
За последние полгода произошел большой слом — написание кода с AI перестало быть забавой и стало серьезным инструментом, способным писать хороший код, проектировать архитектуру и принимать сложные решения. Меня не отпускают вопросы о том, куда из-за всего этого движутся профессии, нужны ли будут программисты и как вообще изменится продуктовая разработка. Но чтобы не стать еще одной статьей про размышления и спекуляции, я провел большой эксперимент: залез в самые внутренности AI-генераторов кода, создал сложный продукт с нуля, все сломал и починил, а затем с циферками поприкидывал насколько скоро нам всем на мороз.
https://habr.com/ru/articles/1006912/
#claude_code #llm #ллм #aiassited_coding #codex #vibecoding #вайбкодинг #разработка #телеметрия #claude
-
ITAMforLLM-5. Управление ИТ-активами в эпоху ИИ: эволюция ITAM под специфику ИИ-решений
Всем привет! Меня зовут Дмитрий Крупенин, я создаю внутренние и B2B ИТ-решения. Специализируюсь на цифровых продуктах для внутреннего использования в корпорациях. Сейчас очень активно развиваются продукты и решения с использованием ИИ, однако не всегда удается легко посчитать экономику таких проектов, если мы говорим о необходимости развертывания этих решений внутри. Это может быть необходимо для крупных компаний (особенно банков и биг.теха), где законодательно нельзя отдавать персональные и корпоративные данные в облачные модели ЛЛМ. Хочется разобраться, как посчитать совокупную стоимость владения таким проектом, с учетом инфраструктуры, модели, данных для обучения и т.д. Так как это потребовало довольно объемного изучения предметной области - пришлось разбить материал на несколько статей:
-
ITAMforLLM-4. Аллокация затрат на ИИ-кластер: методология расчета
Всем привет! Меня зовут Дмитрий Крупенин, я создаю внутренние и B2B ИТ-решения. Специализируюсь на цифровых продуктах для внутреннего использования в корпорациях. Сейчас очень активно развиваются продукты и решения с использованием ИИ, однако не всегда удается легко посчитать экономику таких проектов, если мы говорим о необходимости развертывания этих решений внутри. Это может быть необходимо для крупных компаний (особенно банков и биг.теха), где законодательно нельзя отдавать персональные и корпоративные данные в облачные модели ЛЛМ. Хочется разобраться, как посчитать совокупную стоимость владения таким проектом, с учетом инфраструктуры, модели, данных для обучения и т.д. Так как это потребовало довольно объемного изучения предметной области - пришлось разбить материал на несколько статей:
-
ITAMforLLM-3. Total Cost of Ownership (TCO) для ИИ-проектов: пример методологии расчета
Всем привет! Меня зовут Дмитрий Крупенин, я создаю внутренние и B2B ИТ-решения. Специализируюсь на цифровых продуктах для внутреннего использования в корпорациях. Сейчас очень активно развиваются продукты и решения с использованием ИИ, однако не всегда удается легко посчитать экономику таких проектов, если мы говорим о необходимости развертывания этих решений внутри. Это может быть необходимо для крупных компаний (особенно банков и биг.теха), где законодательно нельзя отдавать персональные и корпоративные данные в облачные модели ЛЛМ. Хочется разобраться, как посчитать совокупную стоимость владения таким проектом, с учетом инфраструктуры, модели, данных для обучения и т.д. Так как это потребовало довольно объемного изучения предметной области - пришлось разбить материал на несколько статей:
-
ITAMforLLM-2. ИИ-инфраструктура. Из чего состоит и сколько стоит
Всем привет! Меня зовут Дмитрий Крупенин, я создаю внутренние и B2B ИТ-решения. Специализируюсь на цифровых продуктах для внутреннего использования в корпорациях. Сейчас очень активно развиваются продукты и решения с использованием ИИ, однако не всегда удается легко посчитать экономику таких проектов, если мы говорим о необходимости развертывания этих решений внутри. Это может быть необходимо для крупных компаний (особенно банков и биг.теха), где законодательно нельзя отдавать персональные и корпоративные данные в облачные модели ЛЛМ. Хочется разобраться, как посчитать совокупную стоимость владения таким проектом, с учетом инфраструктуры, модели, данных для обучения и т.д. Так как это потребовало довольно объемного изучения предметной области - пришлось разбить материал на несколько статей:
-
ITAMforLLM-1. Специализированные решения для ИИ-кластеров
Всем привет! Меня зовут Дмитрий Крупенин, я создаю внутренние и B2B ИТ-решения. Специализируюсь на цифровых продуктах для внутреннего использования в корпорациях. Сейчас очень активно развиваются продукты и решения с использованием ИИ, однако не всегда удается легко посчитать экономику таких проектов, если мы говорим о необходимости развертывания этих решений внутри. Это может быть необходимо для крупных компаний (особенно банков и биг.теха), где законодательно нельзя отдавать персональные и корпоративные данные в облачные модели ЛЛМ. Хочется разобраться, как посчитать совокупную стоимость владения таким проектом, с учетом инфраструктуры, модели, данных для обучения и т.д. Так как это потребовало довольно объемного изучения предметной области - пришлось разбить материал на несколько статей:
-
[Перевод] Итоги LLM в 2025 году: прогресс, проблемы и прогнозы
Один из лучших обозревателей в мире LLM выпустил масштабный разбор всего самого важного, что случилось с языковыми моделями в 2025 году. Я перевел, чтобы как можно больше людей прочитало этот фундаментальный труд. Здесь про архитектуры, GRPO и про то, почему бенчмарки больше ничего не значат. Дальше — слово автору.
https://habr.com/ru/articles/982496/
#LLM #ллм #большие_языковые_модели #архитектуры_ai #ai #ии #искусственный_интеллект #deepseek #дипсик #grpo
-
[Перевод] Итоги LLM в 2025 году: прогресс, проблемы и прогнозы Один из лучших обозревателей в мире LLM выпустил ма...
#LLM #ллм #большие #языковые #модели #архитектуры #ai #ai #ии #искусственный #интеллект
Origin | Interest | Match -
Общалкин «Разогрев/Деловой/Боевой»
Несколько лет назад в сети ходила история про парня, который натравил ИИ на Tinder: бот общался с девушками, переводил их в Telegram, а дальше человек подключался сам. Тогда это выглядело как эксперимент на грани фантастики - слабый ИИ, отсутствие нормальных инструментов автоматизации, куча ручной работы и рисков. Сейчас ситуация принципиально другая: LLM держат контекст, автоматизация через n8n и браузерные сценарии решает рутину, интеграции стали дешевле и стабильнее. То, что раньше было хаком, сегодня — инженерная задача. Я использовал это, чтобы протестировать новый формат продаж. Идея простая: не продавать напрямую, а делать нативное упоминание в диалоге. Бот общается от лица обычного мужского профиля в дейтинге, поддерживает живой разговор и по контексту может один-два раза упомянуть товар, сервис или компанию. Без ссылок, без CTA, без «купи». Например, разговор про спорт - и между делом фраза про беговую дорожку или абонемент. По сути, product placement в переписке. На практике оказалось, что такой формат работает неожиданно хорошо. В нескольких тестах люди сами начинали уточнять детали: что за компания, доволен ли, где брал. Упоминание воспринимается не как реклама, а как личный опыт собеседника. С технической точки зрения это комбинация сценариев поведения, фильтрации контекста и строгих ограничений на частоту и уместность упоминаний - без этого бот быстро «палится». Сейчас я развиваю это как масштабируемый инструмент: выдача ключей, лицензирование, запуск под разные ниши. Интерес здесь не только маркетинговый, но и инженерный - это новый канал, где важнее не генерация текста, а управление доверием, таймингом и контекстом. Формат спорный, но как эксперимент на стыке ИИ, автоматизации и продаж он уже перестал быть теорией и стал рабочей практикой.
-
[Перевод] Технический обзор моделей DeepSeek от V3 до V3.2
Три самые постоянные вещи в мире — оливье с мандаринами на Новый год, желание начать новую жизнь с понедельника и то, что если выходит статья Себастьяна Рашки, то я делаю ее качественный перевод на русский. Эта перевод крутой технически глубокая статьи известного исследователя LLM о том, как эволюционировали флагманские модели с открытыми весами от DeepSeek и обзор DeepSeek V3.2.
https://habr.com/ru/articles/973954/
#deepseek #дипсик #архитектуры_ai #llm #ллм #архитектура_llmприложений #большие_языковые_модели
-
[Перевод] Технический обзор моделей DeepSeek от V3 до V3.2 Три самые постоянные вещи в мире — оливье с мандаринами ...
#deepseek #дипсик #архитектуры #ai #llm #ллм #архитектура #llm-приложений #большие #языковые #модели
Origin | Interest | Match -
[Перевод] Технический обзор моделей DeepSeek от V3 до V3.2 Три самые постоянные вещи в мире — оливье с мандаринами ...
#deepseek #дипсик #архитектуры #ai #llm #ллм #архитектура #llm-приложений #большие #языковые #модели
Origin | Interest | Match -
[Перевод] Большое сравнение архитектур LLM
Это перевод классной статьи с детальным обзором архитектур главных опенсорсных LLM: очень структурировано, доходчиво и с изумительными картиночками. И такой обзор просто обязан быть на русском языке. Поговорим про DeepSeek V3/R1, OLMo 2, Gemma 3, Mistral Small 3.1, Llama 4, Qwen3, SmolLM3, Kimi K2, GPT-OSS, Grok 2.5, GLM-4.5, Qwen3-Next. Ну а дальше слово автору: Прошло семь лет с момента разработки оригинальной архитектуры GPT. На первый взгляд, оглядываясь назад на GPT-2 (2019) и вперед на DeepSeek-V3 и Llama 4 (2024-2025), можно удивиться тому, насколько структурно похожими остаются эти модели. Однако я считаю, что все еще есть большая ценность в изучении структурных изменений самих архитектур, чтобы увидеть, чем занимаются разработчики LLM в 2025 году.
https://habr.com/ru/articles/958880/
#ai #llm #qwen #kimi #chatgpt #chatgptoss #ллм #большие_языковые_модели #архитектура
-
CoolPrompt: Автоматическая Оптимизация Промптов для LLM
В этой статье мы представляем CoolPrompt - фреймворк автоматической оптимизации промптов (автопромптинга), который предлагает полный пайплайн оптимизации от постановки задачи до оценки результатов новых промптов.
https://habr.com/ru/articles/957694/
#промптинжиниринг #ии #ллм #llm #ai #автопромптинг #промпт #промптыподсказки #transformers
-
Данные не кончатся: как LLM навсегда изменили сбор и разметку мультимодальных данных и привели нас к SynthOps
Привет! Эта статья посвящена синтетическим данным и тому, как сбор данных и их разметка изменились навсегда. Поговорим про мультимодальную синтетику (аудио и изображения), генераторы, валидаторы, примеры классных генераций, датасеты, роль LLMок в этих процессах и трансформацию привычных пайпланов в концепцию SynthOps, которая требует других подходов по работе с данными. Я достаточно долгое время разрабатывал софт для разметки всего и вся любой сложности, рассказывал про то как LLMки пришли на замену (или помощь) людям в текстовых и мультимодальных данных, а потом позанимался генерацией разного роды синты. Обо всем это и хочется рассказать.
https://habr.com/ru/articles/950874/
#синтетические_данные #синтетика #ииагенты #aiагенты #мультимодальность #llm #ллм #картинки #разметка_данных #разметка
-
Данные не кончатся: как LLM навсегда изменили сбор и разметку мультимодальных данных и привели нас к SynthOps
Привет! Эта статья посвящена синтетическим данным и тому, как сбор данных и их разметка изменились навсегда. Поговорим про мультимодальную синтетику (аудио и изображения), генераторы, валидаторы, примеры классных генераций, датасеты, роль LLMок в этих процессах и трансформацию привычных пайпланов в концепцию SynthOps, которая требует других подходов по работе с данными. Я достаточно долгое время разрабатывал софт для разметки всего и вся любой сложности, рассказывал про то как LLMки пришли на замену (или помощь) людям в текстовых и мультимодальных данных, а потом позанимался генерацией разного роды синты. Обо всем это и хочется рассказать.
https://habr.com/ru/articles/950874/
#синтетические_данные #синтетика #ииагенты #aiагенты #мультимодальность #llm #ллм #картинки #разметка_данных #разметка
-
Данные не кончатся: как LLM навсегда изменили сбор и разметку мультимодальных данных и привели нас к SynthOps
Привет! Эта статья посвящена синтетическим данным и тому, как сбор данных и их разметка изменились навсегда. Поговорим про мультимодальную синтетику (аудио и изображения), генераторы, валидаторы, примеры классных генераций, датасеты, роль LLMок в этих процессах и трансформацию привычных пайпланов в концепцию SynthOps, которая требует других подходов по работе с данными. Я достаточно долгое время разрабатывал софт для разметки всего и вся любой сложности, рассказывал про то как LLMки пришли на замену (или помощь) людям в текстовых и мультимодальных данных, а потом позанимался генерацией разного роды синты. Обо всем это и хочется рассказать.
https://habr.com/ru/articles/950874/
#синтетические_данные #синтетика #ииагенты #aiагенты #мультимодальность #llm #ллм #картинки #разметка_данных #разметка
-
Данные не кончатся: как LLM навсегда изменили сбор и разметку мультимодальных данных и привели нас к SynthOps
Привет! Эта статья посвящена синтетическим данным и тому, как сбор данных и их разметка изменились навсегда. Поговорим про мультимодальную синтетику (аудио и изображения), генераторы, валидаторы, примеры классных генераций, датасеты, роль LLMок в этих процессах и трансформацию привычных пайпланов в концепцию SynthOps, которая требует других подходов по работе с данными. Я достаточно долгое время разрабатывал софт для разметки всего и вся любой сложности, рассказывал про то как LLMки пришли на замену (или помощь) людям в текстовых и мультимодальных данных, а потом позанимался генерацией разного роды синты. Обо всем это и хочется рассказать.
https://habr.com/ru/articles/950874/
#синтетические_данные #синтетика #ииагенты #aiагенты #мультимодальность #llm #ллм #картинки #разметка_данных #разметка
-
One-shot промптинг. Как я начал вайбкодить в 10? раз быстрее
Вообще, я менеджер. Но когда-то писал код и всегда любил это занятие. Серьезно прогал мобильные приложения, и даже заработал за один из ответов на SO больше 100 звездочек. Но с тех пор прошла куча времени. И последнее время меня вновь увлекла эта тема. А как она может увлечь современного человека, измученного миллиардом фреймворков и отставшего от прогресса лет на 15? Конечно-же курсором и вайб-кодингом. И я начал кодить. Собрал несколько ботов, потом замахнулся на CMS. Сейчас даже делаю свою тулзу для запуска LLM-пайплайнов с импортом их из n8n. Но в процессе всего этого неизменно сталкивался с двумя проблемами 1) Cursor (и брат его Windsurf) паршивейшим образом обходится с нетипизированными и слабо-типизированными языками. Изобретает названия переменных, меняет их по ходу, и вообще, забивает на это огромный и толстый... За пределами этого кодит он неплохо. Но данная штука лично у меня порождает 90% багов. 2)...
https://habr.com/ru/articles/908750/
#ЛЛМ #вайбкодинг #вайбкодинг #go #golang #wails #vue #vuejs #gemini
-
Не вздумайте переписывать код? В смысле?
В очередной раз кто-то на ЛинкедИне решил подурачиться. Говорит, мол, Илон Маск решил переписать программное обеспечение службы соцобеспечения США на новый лад. Ай-яй-яй, какой же он дурень дуболомный — не переписывайте ничего, что работает уже 40 с лишним лет. Действительно, код службы соцобеспечения написан на COBOL, и чтобы найти программистов, которые его могут поддерживать, надо долго и упорно их искать, выплачивая им по пол-ляма в год. Но у нас на дворе сейчас 2025 год.
-
[Перевод] PPTAgent: Генерация и оценка презентаций, выходящая за рамки преобразования текста в слайды
Автоматическая генерация презентаций из документов представляет собой сложную задачу, требующую баланса между качеством контента, визуальным дизайном и структурной связностью. Существующие методы в основном сосредоточены на улучшении и оценке качества контента изолированно, часто упуская из виду визуальный дизайн и структурную связность, что ограничивает их практическую применимость. Для решения этих ограничений мы предлагаем PPTAgent , который комплексно улучшает генерацию презентаций за счет двухэтапного подхода, основанного на редактировании, вдохновленного рабочими процессами человека. PPTAgent сначала анализирует эталонные презентации, чтобы понять их структурные шаблоны и схемы контента, затем разрабатывает контуры и генерирует слайды с помощью кодовых действий для обеспечения согласованности и выравнивания. Для комплексной оценки качества сгенерированных презентаций мы дополнительно представляем PPTEval , структуру оценки, которая оценивает презентации по трем измерениям: Содержание, Дизайн и Связность. Эксперименты показывают, что PPTAgent значительно превосходит традиционные методы автоматической генерации презентаций по всем трем измерениям. Код и данные доступны по адресу https://github.com/icip-cas/PPTAgent .
https://habr.com/ru/articles/872358/
#искусственный_интеллект #ии_агент #агент #llm #ллм #ии #эйай #нейросеть #нейросети #презентация
-
Как LLM меняют архитектуру систем: от простых дата-пайплайнов к интеллектуальным автономным агентам
На каждой технической конференции в последнее время обязательно звучит слово «агенты». Они преподносятся по разному: и как следующая ступенька после RAG, и как серебряная пуля для решения всех проблем, и как абсолютная замена всех классических пайплайнов. А кто еще не использует агентов — безнадежно отстал от прогресса. Но так ли это на самом деле? Данная статья вдохновлена видением компании Anthropic на применение LLM в процессах и на построение автономных агентов, поэтому давайте попробуем во всем разобраться. Поговорим про Data Pipelines, LLM Workflows и LLM Agents, а так же сравним их между собой.
https://habr.com/ru/articles/868648/
#ллм #агенты #llm #llmприложения #машинное+обучение #machine_learning #big_data #data #data_en #nlp