home.social

#rag — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #rag, aggregated by home.social.

  1. Когда Кнут признаёт, что Claude решил его задачу за час — пора менять инфраструктуру

    — Научная инфраструктура построена под режим «один человек читает один PDF». Этот режим перестаёт быть основным. — Peer review наполовину случаен (NeurIPS 2021: 50,6% работ, принятых одним комитетом, отклонены другим). Медианное время до решения — 198 дней. APC в Nature — $12 690. Подачи в arXiv в 2025 году — 20–26 тысяч в месяц. — LLM уже внутри процесса с обеих сторон: 21% рецензий на ICLR 2026 — машинные, около 1% поданных статей тоже. Авторы вшивают prompt injection в PDF. — AI уже производит новую математику (AlphaEvolve улучшил алгоритм Штрассена впервые за 56 лет; Claude за час решил задачу, над которой Кнут работал недели). — Существующие площадки открывают чтение для агентов и запрещают им писать. Цикл «производство → потребление → производство» разорван. — OpenArx — открытая MCP-инфраструктура, которая закрывает обе стороны: индексированный корпус с поагрегатной экстракцией идей плюс publication path без APC и endorsement. — Apache 2.0, github.com/OpenArx-AI/openarx-core . Делается одним человеком и командой агентов. go в науку...

    habr.com/ru/articles/1035384/

    #mcp #aiagent #aiагенты #rag #science #open_source #arxiv #peer_review

  2. Внедрение ИИ‑агента в бизнес‑процесс за один день: от развертывания до прототипа

    Когда руководитель просит «внедрить ИИ в бизнес‑процесс», обычно за этим стоит неприятная реальность: бюджета нет, данные нельзя отдавать в облако, разработчиков под рукой тоже нет, а показать результат нужно почти сразу. В этой статье — практический маршрут, как за один рабочий день собрать локальный прототип ИИ‑агента на Ollama и n8n: развернуть модель, связать её с автоматизацией, написать рабочие промпты и при необходимости подключить RAG по внутренней базе знаний. Читать гайд

    habr.com/ru/companies/otus/art

    #ИИагент #локальная_LLM #Ollama #n8n #автоматизация_процессов #RAG #промптинжиниринг #бизнеспроцессы #локальная_модель #прототипирование

  3. Внедрение ИИ‑агента в бизнес‑процесс за один день: от развертывания до прототипа

    Когда руководитель просит «внедрить ИИ в бизнес‑процесс», обычно за этим стоит неприятная реальность: бюджета нет, данные нельзя отдавать в облако, разработчиков под рукой тоже нет, а показать результат нужно почти сразу. В этой статье — практический маршрут, как за один рабочий день собрать локальный прототип ИИ‑агента на Ollama и n8n: развернуть модель, связать её с автоматизацией, написать рабочие промпты и при необходимости подключить RAG по внутренней базе знаний. Читать гайд

    habr.com/ru/companies/otus/art

    #ИИагент #локальная_LLM #Ollama #n8n #автоматизация_процессов #RAG #промптинжиниринг #бизнеспроцессы #локальная_модель #прототипирование

  4. Внедрение ИИ‑агента в бизнес‑процесс за один день: от развертывания до прототипа

    Когда руководитель просит «внедрить ИИ в бизнес‑процесс», обычно за этим стоит неприятная реальность: бюджета нет, данные нельзя отдавать в облако, разработчиков под рукой тоже нет, а показать результат нужно почти сразу. В этой статье — практический маршрут, как за один рабочий день собрать локальный прототип ИИ‑агента на Ollama и n8n: развернуть модель, связать её с автоматизацией, написать рабочие промпты и при необходимости подключить RAG по внутренней базе знаний. Читать гайд

    habr.com/ru/companies/otus/art

    #ИИагент #локальная_LLM #Ollama #n8n #автоматизация_процессов #RAG #промптинжиниринг #бизнеспроцессы #локальная_модель #прототипирование

  5. Внедрение ИИ‑агента в бизнес‑процесс за один день: от развертывания до прототипа

    Когда руководитель просит «внедрить ИИ в бизнес‑процесс», обычно за этим стоит неприятная реальность: бюджета нет, данные нельзя отдавать в облако, разработчиков под рукой тоже нет, а показать результат нужно почти сразу. В этой статье — практический маршрут, как за один рабочий день собрать локальный прототип ИИ‑агента на Ollama и n8n: развернуть модель, связать её с автоматизацией, написать рабочие промпты и при необходимости подключить RAG по внутренней базе знаний. Читать гайд

    habr.com/ru/companies/otus/art

    #ИИагент #локальная_LLM #Ollama #n8n #автоматизация_процессов #RAG #промптинжиниринг #бизнеспроцессы #локальная_модель #прототипирование

  6. Инженерия качества: Как перестать надеяться на удачу и начать измерять своих ИИ-агентов [Часть 3]

    Продолжаем рассмотрение, того как правильно оценивать качество ИИ систем, в данной части поговорим про метрики характерные для RAG системы. Способах оценить полноту, точность и соответствия выдачи контексту в подобной системе. На примере библиотеки RAGAS, с разбором того, как эти метрики работают изнутри.

    habr.com/ru/articles/1035300/

    #искусственный_интеллект #качество_продукта #обработка_естественного_языка #ragas #rag #ииагенты

  7. Вам не нужен OpenClaw

    Привет, Хабр! Меня зовут Никита Пастухов — автор FastStream , Principal Engineer и мейнтейнер AG2 (фреймворк для разработки агентов). Я уже 8 лет в разработке, последний год - по уши в агентах. И я хочу доказать вам, что написать своего агента не сложнее, чем написать CRUD Почему это вообще нужно доказывать? Потому что есть заметный разрыв между тем, что происходит с AI в мире, и тем, что происходит в среднестатистической российской компании. В мире — в каждой компании подписка на OpenAI, миллиард стартапов с AI-продуктами, агенты глубоко интегрированы в бэкофис. В России — «опасно, хостим свои модели», «непонятно» и чат-боты поддержки. В мире инженеры уже умеют разрабатывать агентов. В России — «что это вообще такое?» Поэтому давайте разберём устройство агентов на примере OpenClaw — самого хайпового “личного AI-агента” прямо сейчас. Он живёт в вашем мессенджере, разбирает почту, ведёт соцсети, пишет код, деплоит сервисы. Его популярность — свидетельство того, насколько мало люди пока используют агентов в быту. Для тех, кто в теме, OpenClaw не привнёс ничего нового. Давайте разбираться

    habr.com/ru/articles/1029326/

    #AI #openclaw #llm #harness #tools #skills #mcp #rag #ag2

  8. Вам не нужен OpenClaw

    Привет, Хабр! Меня зовут Никита Пастухов — автор FastStream , Principal Engineer и мейнтейнер AG2 (фреймворк для разработки агентов). Я уже 8 лет в разработке, последний год - по уши в агентах. И я хочу доказать вам, что написать своего агента не сложнее, чем написать CRUD Почему это вообще нужно доказывать? Потому что есть заметный разрыв между тем, что происходит с AI в мире, и тем, что происходит в среднестатистической российской компании. В мире — в каждой компании подписка на OpenAI, миллиард стартапов с AI-продуктами, агенты глубоко интегрированы в бэкофис. В России — «опасно, хостим свои модели», «непонятно» и чат-боты поддержки. В мире инженеры уже умеют разрабатывать агентов. В России — «что это вообще такое?» Поэтому давайте разберём устройство агентов на примере OpenClaw — самого хайпового “личного AI-агента” прямо сейчас. Он живёт в вашем мессенджере, разбирает почту, ведёт соцсети, пишет код, деплоит сервисы. Его популярность — свидетельство того, насколько мало люди пока используют агентов в быту. Для тех, кто в теме, OpenClaw не привнёс ничего нового. Давайте разбираться

    habr.com/ru/articles/1029326/

    #AI #openclaw #llm #harness #tools #skills #mcp #rag #ag2

  9. Вам не нужен OpenClaw

    Привет, Хабр! Меня зовут Никита Пастухов — автор FastStream , Principal Engineer и мейнтейнер AG2 (фреймворк для разработки агентов). Я уже 8 лет в разработке, последний год - по уши в агентах. И я хочу доказать вам, что написать своего агента не сложнее, чем написать CRUD Почему это вообще нужно доказывать? Потому что есть заметный разрыв между тем, что происходит с AI в мире, и тем, что происходит в среднестатистической российской компании. В мире — в каждой компании подписка на OpenAI, миллиард стартапов с AI-продуктами, агенты глубоко интегрированы в бэкофис. В России — «опасно, хостим свои модели», «непонятно» и чат-боты поддержки. В мире инженеры уже умеют разрабатывать агентов. В России — «что это вообще такое?» Поэтому давайте разберём устройство агентов на примере OpenClaw — самого хайпового “личного AI-агента” прямо сейчас. Он живёт в вашем мессенджере, разбирает почту, ведёт соцсети, пишет код, деплоит сервисы. Его популярность — свидетельство того, насколько мало люди пока используют агентов в быту. Для тех, кто в теме, OpenClaw не привнёс ничего нового. Давайте разбираться

    habr.com/ru/articles/1029326/

    #AI #openclaw #llm #harness #tools #skills #mcp #rag #ag2

  10. Вам не нужен OpenClaw

    Привет, Хабр! Меня зовут Никита Пастухов — автор FastStream , Principal Engineer и мейнтейнер AG2 (фреймворк для разработки агентов). Я уже 8 лет в разработке, последний год - по уши в агентах. И я хочу доказать вам, что написать своего агента не сложнее, чем написать CRUD Почему это вообще нужно доказывать? Потому что есть заметный разрыв между тем, что происходит с AI в мире, и тем, что происходит в среднестатистической российской компании. В мире — в каждой компании подписка на OpenAI, миллиард стартапов с AI-продуктами, агенты глубоко интегрированы в бэкофис. В России — «опасно, хостим свои модели», «непонятно» и чат-боты поддержки. В мире инженеры уже умеют разрабатывать агентов. В России — «что это вообще такое?» Поэтому давайте разберём устройство агентов на примере OpenClaw — самого хайпового “личного AI-агента” прямо сейчас. Он живёт в вашем мессенджере, разбирает почту, ведёт соцсети, пишет код, деплоит сервисы. Его популярность — свидетельство того, насколько мало люди пока используют агентов в быту. Для тех, кто в теме, OpenClaw не привнёс ничего нового. Давайте разбираться

    habr.com/ru/articles/1029326/

    #AI #openclaw #llm #harness #tools #skills #mcp #rag #ag2

  11. Learn what a second brain really is, how it differs from PKM, wikis, and RAG, and why the best systems turn notes into reusable thinking over time.

    #obsidian #wiki #rag

    glukhov.org/knowledge-manageme

  12. Learn what a second brain really is, how it differs from PKM, wikis, and RAG, and why the best systems turn notes into reusable thinking over time.

    #obsidian #wiki #rag

    glukhov.org/knowledge-manageme

  13. Learn what a second brain really is, how it differs from PKM, wikis, and RAG, and why the best systems turn notes into reusable thinking over time.

    #obsidian #wiki #rag

    glukhov.org/knowledge-manageme

  14. Learn what a second brain really is, how it differs from PKM, wikis, and RAG, and why the best systems turn notes into reusable thinking over time.

    #obsidian #wiki #rag

    glukhov.org/knowledge-manageme

  15. Learn what a second brain really is, how it differs from PKM, wikis, and RAG, and why the best systems turn notes into reusable thinking over time.

    glukhov.org/knowledge-manageme

  16. Как я сделал AI-директора для малого бизнеса и почему отказался от RAG

    Маленькая компания, человек 20. Гендир тонет в задачах. Помнить кто что обещал, отслеживать движение по целям, держать в голове десяток проектов одновременно. У больших корпораций для этого есть штат руководителей среднего звена и проджектов. У малых есть один директор, который пытается быть всем сразу. Лира берёт на себя часть этой работы. Это не корпоративный чат-бот, не ChatGPT с настройками компании. Конкретный продукт с конкретными функциями:

    habr.com/ru/articles/1034298/

    #ai #llm #claude #rag #aiагенты #agentic_ai #knowledge_graph #python #fastapi #бизнесавтоматизация

  17. Validate LLM JSON in Python with JSON Schema and Pydantic, handle fences and tool args, add repair retries, tests, and production-safe failure handling.

    #Architecture #LLM #AI #AI Coding #Dev #Python #RAG

    glukhov.org/llm-performance/be

  18. Инженерия качества: Как перестать надеяться на удачу и начать измерять своих ИИ-агентов [Часть 1]

    Инженерия качества: Как перестать надеяться на удачу и начать измерять своих ИИ-агентов [Часть 1] LLM глючит в продакшене? 🤖 Хватит надеяться на «vibe-check»! Узнай, как внедрить инженерный подход к качеству ИИ-агентов. В статье: 🔹 Что такое Golden Set и почему его нельзя заменить ручной проверкой 🔹 Как автоматически создать Golden Set через Knowledge Graph для RAG системы 🔹 Готовый Python-код для генерации тестов в RAGAS

    habr.com/ru/articles/1034050/

    #агенты_ии #rag #ragas #тестирование_приложений

  19. Как я превратила Obsidian в структурированную память для ИИ‑агентов

    Эта статья про NOUZ — локальный MCP‑сервер между Obsidian и ИИ‑агентом. Он превращает базу заметок в структурированную память: с уровнями, связями и сигналами дрейфа. Внутри — как я пришла к этой архитектуре и что она даёт агенту при работе с базой.

    habr.com/ru/articles/1033746/

    #Obsidian #RAG #ИИагенты #MCP #базы_знаний #DAG #эмбеддинги

  20. Как я превратила Obsidian в структурированную память для ИИ‑агентов

    Эта статья про NOUZ — локальный MCP‑сервер между Obsidian и ИИ‑агентом. Он превращает базу заметок в структурированную память: с уровнями, связями и сигналами дрейфа. Внутри — как я пришла к этой архитектуре и что она даёт агенту при работе с базой.

    habr.com/ru/articles/1033746/

    #Obsidian #RAG #ИИагенты #MCP #базы_знаний #DAG #эмбеддинги

  21. Part 3 of the StyloBot Release Series is up.

    mostlylucid.net/blog/stylobot-

    This one is less about bots and more about the reality of long-running .NET based systems: everything that learns from traffic eventually accumulates.

    Came from one of my periodic reliability reviews where StyloBot’s vector layer had drifted to 13GB on the .NET Large Object Heap due to the wrong abstraction (in-process HNSW behaving like an unbounded cache).

    The interesting part wasn’t the fix. It was recognising that the architecture itself was wrong for the runtime pattern.

    Covers:

    how I periodically review long-running services

    using dotnet-counters, dotMemory and dotTrace to find growth

    why “just add a cap” is often the wrong answer

    replacing unbounded ANN structures with bounded hot caches + compacted persistence

    taking the vector layer from 13GB LOH to <6MB

    The broader point applies to any system that “remembers”:

    bot detection, fraud scoring, recommendations, anomaly detection, RAG pipelines, adaptive systems.

    Fix the shape, not the symptom.

    #dotnet #aspnetcore #performance #architecture #ai #rag #observability

  22. Part 3 of the StyloBot Release Series is up.

    mostlylucid.net/blog/stylobot-

    This one is less about bots and more about the reality of long-running .NET based systems: everything that learns from traffic eventually accumulates.

    Came from one of my periodic reliability reviews where StyloBot’s vector layer had drifted to 13GB on the .NET Large Object Heap due to the wrong abstraction (in-process HNSW behaving like an unbounded cache).

    The interesting part wasn’t the fix. It was recognising that the architecture itself was wrong for the runtime pattern.

    Covers:

    how I periodically review long-running services

    using dotnet-counters, dotMemory and dotTrace to find growth

    why “just add a cap” is often the wrong answer

    replacing unbounded ANN structures with bounded hot caches + compacted persistence

    taking the vector layer from 13GB LOH to <6MB

    The broader point applies to any system that “remembers”:

    bot detection, fraud scoring, recommendations, anomaly detection, RAG pipelines, adaptive systems.

    Fix the shape, not the symptom.

  23. Part 3 of the StyloBot Release Series is up.

    mostlylucid.net/blog/stylobot-

    This one is less about bots and more about the reality of long-running .NET based systems: everything that learns from traffic eventually accumulates.

    Came from one of my periodic reliability reviews where StyloBot’s vector layer had drifted to 13GB on the .NET Large Object Heap due to the wrong abstraction (in-process HNSW behaving like an unbounded cache).

    The interesting part wasn’t the fix. It was recognising that the architecture itself was wrong for the runtime pattern.

    Covers:

    how I periodically review long-running services

    using dotnet-counters, dotMemory and dotTrace to find growth

    why “just add a cap” is often the wrong answer

    replacing unbounded ANN structures with bounded hot caches + compacted persistence

    taking the vector layer from 13GB LOH to <6MB

    The broader point applies to any system that “remembers”:

    bot detection, fraud scoring, recommendations, anomaly detection, RAG pipelines, adaptive systems.

    Fix the shape, not the symptom.

    #dotnet #aspnetcore #performance #architecture #ai #rag #observability

  24. Part 3 of the StyloBot Release Series is up.

    mostlylucid.net/blog/stylobot-

    This one is less about bots and more about the reality of long-running .NET based systems: everything that learns from traffic eventually accumulates.

    Came from one of my periodic reliability reviews where StyloBot’s vector layer had drifted to 13GB on the .NET Large Object Heap due to the wrong abstraction (in-process HNSW behaving like an unbounded cache).

    The interesting part wasn’t the fix. It was recognising that the architecture itself was wrong for the runtime pattern.

    Covers:

    how I periodically review long-running services

    using dotnet-counters, dotMemory and dotTrace to find growth

    why “just add a cap” is often the wrong answer

    replacing unbounded ANN structures with bounded hot caches + compacted persistence

    taking the vector layer from 13GB LOH to <6MB

    The broader point applies to any system that “remembers”:

    bot detection, fraud scoring, recommendations, anomaly detection, RAG pipelines, adaptive systems.

    Fix the shape, not the symptom.

    #dotnet #aspnetcore #performance #architecture #ai #rag #observability

  25. Part 3 of the StyloBot Release Series is up.

    mostlylucid.net/blog/stylobot-

    This one is less about bots and more about the reality of long-running .NET based systems: everything that learns from traffic eventually accumulates.

    Came from one of my periodic reliability reviews where StyloBot’s vector layer had drifted to 13GB on the .NET Large Object Heap due to the wrong abstraction (in-process HNSW behaving like an unbounded cache).

    The interesting part wasn’t the fix. It was recognising that the architecture itself was wrong for the runtime pattern.

    Covers:

    how I periodically review long-running services

    using dotnet-counters, dotMemory and dotTrace to find growth

    why “just add a cap” is often the wrong answer

    replacing unbounded ANN structures with bounded hot caches + compacted persistence

    taking the vector layer from 13GB LOH to <6MB

    The broader point applies to any system that “remembers”:

    bot detection, fraud scoring, recommendations, anomaly detection, RAG pipelines, adaptive systems.

    Fix the shape, not the symptom.

    #dotnet #aspnetcore #performance #architecture #ai #rag #observability

  26. @sayzard This looks like a tool that could actually make LLM evaluation less painful. Cache-aware, cost-aware, and graph-based? Sign me up for the future of AI dev workflows. #LLM #Evaluation #RAG #AIDev

  27. @sayzard This looks like a tool that could actually make LLM evaluation less painful. Cache-aware, cost-aware, and graph-based? Sign me up for the future of AI dev workflows. #LLM #Evaluation #RAG #AIDev

  28. @sayzard This looks like a tool that could actually make LLM evaluation less painful. Cache-aware, cost-aware, and graph-based? Sign me up for the future of AI dev workflows. #LLM #Evaluation #RAG #AIDev

  29. 🤔
    The paper studies what happens when embedding based systems replace many memories, vectors, or retrieved passages with only a few representatives. The central claim: the same spectral structure that governs forgetting under retrieval noise also governs consolidation under compression: efficiency is increasingly becoming a question of representation geometry rather than brute force scaling alone.

    github.com/niashwin/geometry-o
    #AIInfrastructure #RAG #LLM #ArtificialIntelligence #VectorDatabases

  30. 30 секунд вместо 30 минут: как мы автоматизировали генерирование конфигураций потоковой обработки с помощью RAG и A2A

    Привет, Хабр! Меня зовут Дмитрий Титов, я DevOps-инженер в команде интеграционных сервисов Platform V Synapse в СберТехе. Наша команда работает над продуктом Platform V Streaming Event Processing — программным решением для фильтрации и трансформации форматов событий, агрегирования и выявления аномалий и закономерностей. В этой статье я расскажу, как мы создали систему автоматического генерирования конфигураций для одного из компонентов нашего продукта, используя RAG (Retrieval-Augmented Generation), векторные базы данных и межагентное взаимодействие по протоколу A2A.

    habr.com/ru/companies/sberbank

    #сбертех #synapse #platform_v #platform_v_synapse #rag #a2a #автоматизация #dsl

  31. SocratiCode: разбираю MCP-сервер, который даёт ИИ-агенту понимание кодовой базы

    Если ваш ИИ-агент при каждом вопросе начинает grep-ом по всему проекту — у меня есть для вас одна штука. SocratiCode — это MCP-сервер, который индексирует кодовую базу через Qdrant и даёт агенту нормальный поиск вместо построчного чтения. Разобрал, как он устроен внутри, потестировал на нашем монорепе и сравнил с обычным режимом Claude Code

    habr.com/ru/articles/1031878/

    #MCP #Claude_Code #векторный_поиск #Qdrant #Ollama #codebase_intelligence #AIагенты #RAG

  32. Гефестыч: наш опыт автоматизации Code Review через LLM. «Грабли», решения, код

    Привет, Хабр! Меня зовут Данил Чечков, я Team Lead команды High End Meta Backend в «Леста Игры». Мы занимаемся всей web-составляющей «Мира кораблей». В нашем арсенале огромное количество микросервисов, работающих на Python и Go. Мы отвечаем за покупки в meta-валюте, авторизацию, стабильность инвентаря и профиля игрока, клановые сервисы, а также многое-многое другое. Наш основной продукт – высококачественные web-сервисы на стыке интеграции с игрой. И, да, интеграция – часть нашей работы. А ещё мы любим новые технологии и стараемся с ними знакомиться, чтобы оценить, как они могут принести выгоду бизнесу и нам. Одна из таких технологий – LLM

    habr.com/ru/companies/lesta/ar

    #llm #pydanticai #openwebui #llamacpp #ollama #rag #code_review #selfhosted #atlassian

  33. Гефестыч: наш опыт автоматизации Code Review через LLM. «Грабли», решения, код

    Привет, Хабр! Меня зовут Данил Чечков, я Team Lead команды High End Meta Backend в «Леста Игры». Мы занимаемся всей web-составляющей «Мира кораблей». В нашем арсенале огромное количество микросервисов, работающих на Python и Go. Мы отвечаем за покупки в meta-валюте, авторизацию, стабильность инвентаря и профиля игрока, клановые сервисы, а также многое-многое другое. Наш основной продукт – высококачественные web-сервисы на стыке интеграции с игрой. И, да, интеграция – часть нашей работы. А ещё мы любим новые технологии и стараемся с ними знакомиться, чтобы оценить, как они могут принести выгоду бизнесу и нам. Одна из таких технологий – LLM

    habr.com/ru/companies/lesta/ar

    #llm #pydanticai #openwebui #llamacpp #ollama #rag #code_review #selfhosted #atlassian

  34. Гефестыч: наш опыт автоматизации Code Review через LLM. «Грабли», решения, код

    Привет, Хабр! Меня зовут Данил Чечков, я Team Lead команды High End Meta Backend в «Леста Игры». Мы занимаемся всей web-составляющей «Мира кораблей». В нашем арсенале огромное количество микросервисов, работающих на Python и Go. Мы отвечаем за покупки в meta-валюте, авторизацию, стабильность инвентаря и профиля игрока, клановые сервисы, а также многое-многое другое. Наш основной продукт – высококачественные web-сервисы на стыке интеграции с игрой. И, да, интеграция – часть нашей работы. А ещё мы любим новые технологии и стараемся с ними знакомиться, чтобы оценить, как они могут принести выгоду бизнесу и нам. Одна из таких технологий – LLM

    habr.com/ru/companies/lesta/ar

    #llm #pydanticai #openwebui #llamacpp #ollama #rag #code_review #selfhosted #atlassian

  35. Гефестыч: наш опыт автоматизации Code Review через LLM. «Грабли», решения, код

    Привет, Хабр! Меня зовут Данил Чечков, я Team Lead команды High End Meta Backend в «Леста Игры». Мы занимаемся всей web-составляющей «Мира кораблей». В нашем арсенале огромное количество микросервисов, работающих на Python и Go. Мы отвечаем за покупки в meta-валюте, авторизацию, стабильность инвентаря и профиля игрока, клановые сервисы, а также многое-многое другое. Наш основной продукт – высококачественные web-сервисы на стыке интеграции с игрой. И, да, интеграция – часть нашей работы. А ещё мы любим новые технологии и стараемся с ними знакомиться, чтобы оценить, как они могут принести выгоду бизнесу и нам. Одна из таких технологий – LLM

    habr.com/ru/companies/lesta/ar

    #llm #pydanticai #openwebui #llamacpp #ollama #rag #code_review #selfhosted #atlassian

  36. Как я собрал на DGX Spark приватный AI-сервер, и теперь рассказываю, что туда вошло

    У меня на столе стоит небольшая золотистая коробочка размером чуть больше Mac mini. Внутри — приватный AI-сервер: чат с локальной 26B-моделью, поисковая индексация моих документов с GPU-парсингом, конструктор агентов в Dify, RAGFlow для тяжёлого парсинга PDF, мониторинг, бэкапы, опциональный кластер из двух машин по QSFP 200G. Тридцать контейнеров, пять минут на установку через sudo bash install.sh , ноль обращений к внешним API. Я делал это не как pet-project, а под себя — мне нужна была машина для работы с корпоративными документами, договорами и регламентами, которые ни при каких условиях нельзя отдавать в облачные ассистенты. Сборка получилась самостоятельным дистрибутивом — назвал его AGmind, выложил на GitHub под Apache 2.0. В статье разберу: — из чего собран стек и зачем там каждый компонент; — почему RAGFlow пришлось пересобрать с нуля и что я туда добавил; — как устроен кластер из двух Spark'ов; — пять конкретных грабель GB10, которые я ловил вечерами; — почему Claude Code за месяц превратил один из этих компонентов в работающий продукт, но при этом не заменил собственно программиста.

    habr.com/ru/articles/1030802/

    #dgx_spark #gb10 #arm64 #vllm #dify #ragflow #rag #llm

  37. Бенчмарк 7 эмбеддингов и 4 реранкеров на корпусе судебной практики

    Привет, Хабр. Это мой первый пост здесь, поэтому пара слов о себе. Я практикующий юрист, 8+ лет практики, последние годы - в производственном секторе. Веду договорную работу (поставка, подряд, услуги), сопровождаю сделки, закрываю претензионку и представляю компанию в арбитражных судах и спорах по защите прав потребителей - на стороне производителя и поставщика. К коду пришёл через вайбкодинг: захотелось автоматизировать некоторые процессы, начал ковыряться в VS Code, Trae, Cursor и Claude Code, втянулся - и теперь это параллельное хобби рядом с основной практикой. Последние несколько месяцев пилю IP Agent - телеграм-бота, который по запросу находит релевантную судебную практику и даёт прогноз по размеру компенсации в делах об интеллектуальной собственности. Работает на RAG-пайплайне. Когда строишь поиск по узкому домену, рано или поздно встаёт вопрос: какой эмбеддинг брать и нужен ли вообще реранкер. Готовых ответов под русскую судебную практику я не нашёл, поэтому собрал свой бенчмарк. В посте - что меряли, как меряли, что получилось и что в итоге поставил в бота.

    habr.com/ru/articles/1030706/

    #RAG #embeddings #эмбеддинги #реранкер #reranker #nDCG #информационный_поиск #юридический_ИИ #USER2base #бенчмарк

  38. GEO, AIO, AEO: полевое руководство по оптимизации контента под LLM-поиск

    TL;DR: Generative Engine Optimization (GEO) — это новая дисциплина, выросшая из SEO по мере того, как ChatGPT Search, Perplexity и Google AI Overviews начали отвечать на запросы пользователей напрямую, минуя традиционную выдачу. Сайты теряют 20–40% органики, но появляется новый вид трафика — AI-referral. Ключевое отличие GEO от SEO: LLM оптимизируется не под ключевые слова, а под семантическую ясность, авторитет источника и структурную извлекаемость контента. В статье — механика RAG-поиска, конкретные техники оптимизации, новые метрики и FAQ по практическим вопросам.

    habr.com/ru/articles/1030292/

    #SEO #GEO #AIO #AEO #LLM #RAG #поисковая_оптимизация #генеративный_поиск #Perplexity #ChatGPT_Search

  39. GEO, AIO, AEO: полевое руководство по оптимизации контента под LLM-поиск

    TL;DR: Generative Engine Optimization (GEO) — это новая дисциплина, выросшая из SEO по мере того, как ChatGPT Search, Perplexity и Google AI Overviews начали отвечать на запросы пользователей напрямую, минуя традиционную выдачу. Сайты теряют 20–40% органики, но появляется новый вид трафика — AI-referral. Ключевое отличие GEO от SEO: LLM оптимизируется не под ключевые слова, а под семантическую ясность, авторитет источника и структурную извлекаемость контента. В статье — механика RAG-поиска, конкретные техники оптимизации, новые метрики и FAQ по практическим вопросам.

    habr.com/ru/articles/1030292/

    #SEO #GEO #AIO #AEO #LLM #RAG #поисковая_оптимизация #генеративный_поиск #Perplexity #ChatGPT_Search

  40. GEO, AIO, AEO: полевое руководство по оптимизации контента под LLM-поиск

    TL;DR: Generative Engine Optimization (GEO) — это новая дисциплина, выросшая из SEO по мере того, как ChatGPT Search, Perplexity и Google AI Overviews начали отвечать на запросы пользователей напрямую, минуя традиционную выдачу. Сайты теряют 20–40% органики, но появляется новый вид трафика — AI-referral. Ключевое отличие GEO от SEO: LLM оптимизируется не под ключевые слова, а под семантическую ясность, авторитет источника и структурную извлекаемость контента. В статье — механика RAG-поиска, конкретные техники оптимизации, новые метрики и FAQ по практическим вопросам.

    habr.com/ru/articles/1030292/

    #SEO #GEO #AIO #AEO #LLM #RAG #поисковая_оптимизация #генеративный_поиск #Perplexity #ChatGPT_Search