#vector_database — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #vector_database, aggregated by home.social.
-
OpenClaw и память без амнезии: что выбрать между Lossless Claw, OpenViking, ByteRover, MemPalace и LLM Wiki
Когда говорят «память для ИИ-агента», очень легко начать спорить о разном, думая, что обсуждается одно и то же. Один человек хочет, чтобы агент не забывал длинные рабочие диалоги. Другой ждёт от памяти нормальную базу знаний по проекту. Третий хочет отдельный контекстный слой уровня платформы, где рядом живут документы, навыки, пользовательские предпочтения и служебные данные. Четвёртому вообще не нравится идея, что модель заранее решает, что важно, а что можно выбросить. А пятый хочет не архив и не векторную базу, а живую внутреннюю wiki, которую агент сам поддерживает в актуальном состоянии. На OpenClaw эта развилка видна особенно хорошо. У платформы уже есть понятная архитектура плагинов и отдельный слот plugins.slots.contextEngine , куда можно подключать внешний движок контекста. А в последнем обновлении OpenClaw 2026.4.7 в вернули и встроенный memory-wiki stack — то есть подход с накопительной wiki уже перестал быть просто красивой идеей из заметки и стал частью реального инструментария. Если смотреть на самые интересные подходы к памяти для OpenClaw прямо сейчас, то разговор крутится вокруг пяти систем и направлений:
https://habr.com/ru/articles/1020860/
#openclaw #ai_agent #rag #vector_database #embeddings #memory #ии #ииагенты #openclaw_tutorial #wiki
-
OpenClaw и память без амнезии: что выбрать между Lossless Claw, OpenViking, ByteRover, MemPalace и LLM Wiki
Когда говорят «память для ИИ-агента», очень легко начать спорить о разном, думая, что обсуждается одно и то же. Один человек хочет, чтобы агент не забывал длинные рабочие диалоги. Другой ждёт от памяти нормальную базу знаний по проекту. Третий хочет отдельный контекстный слой уровня платформы, где рядом живут документы, навыки, пользовательские предпочтения и служебные данные. Четвёртому вообще не нравится идея, что модель заранее решает, что важно, а что можно выбросить. А пятый хочет не архив и не векторную базу, а живую внутреннюю wiki, которую агент сам поддерживает в актуальном состоянии. На OpenClaw эта развилка видна особенно хорошо. У платформы уже есть понятная архитектура плагинов и отдельный слот plugins.slots.contextEngine , куда можно подключать внешний движок контекста. А в последнем обновлении OpenClaw 2026.4.7 в вернули и встроенный memory-wiki stack — то есть подход с накопительной wiki уже перестал быть просто красивой идеей из заметки и стал частью реального инструментария. Если смотреть на самые интересные подходы к памяти для OpenClaw прямо сейчас, то разговор крутится вокруг пяти систем и направлений:
https://habr.com/ru/articles/1020860/
#openclaw #ai_agent #rag #vector_database #embeddings #memory #ии #ииагенты #openclaw_tutorial #wiki
-
OpenClaw и память без амнезии: что выбрать между Lossless Claw, OpenViking, ByteRover, MemPalace и LLM Wiki
Когда говорят «память для ИИ-агента», очень легко начать спорить о разном, думая, что обсуждается одно и то же. Один человек хочет, чтобы агент не забывал длинные рабочие диалоги. Другой ждёт от памяти нормальную базу знаний по проекту. Третий хочет отдельный контекстный слой уровня платформы, где рядом живут документы, навыки, пользовательские предпочтения и служебные данные. Четвёртому вообще не нравится идея, что модель заранее решает, что важно, а что можно выбросить. А пятый хочет не архив и не векторную базу, а живую внутреннюю wiki, которую агент сам поддерживает в актуальном состоянии. На OpenClaw эта развилка видна особенно хорошо. У платформы уже есть понятная архитектура плагинов и отдельный слот plugins.slots.contextEngine , куда можно подключать внешний движок контекста. А в последнем обновлении OpenClaw 2026.4.7 в вернули и встроенный memory-wiki stack — то есть подход с накопительной wiki уже перестал быть просто красивой идеей из заметки и стал частью реального инструментария. Если смотреть на самые интересные подходы к памяти для OpenClaw прямо сейчас, то разговор крутится вокруг пяти систем и направлений:
https://habr.com/ru/articles/1020860/
#openclaw #ai_agent #rag #vector_database #embeddings #memory #ии #ииагенты #openclaw_tutorial #wiki
-
OpenClaw и память без амнезии: что выбрать между Lossless Claw, OpenViking, ByteRover, MemPalace и LLM Wiki
Когда говорят «память для ИИ-агента», очень легко начать спорить о разном, думая, что обсуждается одно и то же. Один человек хочет, чтобы агент не забывал длинные рабочие диалоги. Другой ждёт от памяти нормальную базу знаний по проекту. Третий хочет отдельный контекстный слой уровня платформы, где рядом живут документы, навыки, пользовательские предпочтения и служебные данные. Четвёртому вообще не нравится идея, что модель заранее решает, что важно, а что можно выбросить. А пятый хочет не архив и не векторную базу, а живую внутреннюю wiki, которую агент сам поддерживает в актуальном состоянии. На OpenClaw эта развилка видна особенно хорошо. У платформы уже есть понятная архитектура плагинов и отдельный слот plugins.slots.contextEngine , куда можно подключать внешний движок контекста. А в последнем обновлении OpenClaw 2026.4.7 в вернули и встроенный memory-wiki stack — то есть подход с накопительной wiki уже перестал быть просто красивой идеей из заметки и стал частью реального инструментария. Если смотреть на самые интересные подходы к памяти для OpenClaw прямо сейчас, то разговор крутится вокруг пяти систем и направлений:
https://habr.com/ru/articles/1020860/
#openclaw #ai_agent #rag #vector_database #embeddings #memory #ии #ииагенты #openclaw_tutorial #wiki
-
Графы знаний в юридическом домене: как не потерять сложность при построении RAG-системы
Ни одна современная AI-система в юридическом домене не обходится без RAG: юридические данные слишком специфичны, слишком изменчивы и никогда слишком редко составляли значимую часть обучающей выборки LLM, чтобы доверять ей без внешней базы знаний. Обычно при построении RAG-системы используют модуль поиска, основанный на векторных БД. Однако в таких сложно организованных областях знаний, как юридическая, архитектура, основанная на поиске в хранилище "плоских" эмбеддингов, может не справиться. Векторный поиск позволяет находить семантически близкие (схожие) фрагменты текстов, тогда как юридический домен также требует понимания многочисленных связей между сущностями , рассеянными по множеству документов . Кажется, что область знаний, организованная таким образом, идеально может быть представлена в виде графа знаний, особенно после появления современных инструментов, позволяющих автоматически строить такие графы на тысячах документов и использовать их в качестве хранилища знаний для RAG-систем. Однако все имеет свою цену: неполнота или неточность построенного графа может свести на нет все вложенные ресурсы и оставить вас с системой, которая хуже "наивного" векторного поиска. Какие преимущества поиска по графу знаний по сравнению с классическим векторным поиском, а также каковы критерии, когда использование графового поиска действительно необходимо для построения RAG-системы в юридическом домене?
https://habr.com/ru/articles/1012556/
#RAG #retrievalaugmented_generation #ai #artificial_intelligence #llm #large_language_models #vector_database #graph_database #knowledge_graphs #graphrag
-
Графы знаний в юридическом домене: как не потерять сложность при построении RAG-системы
Ни одна современная AI-система в юридическом домене не обходится без RAG: юридические данные слишком специфичны, слишком изменчивы и никогда слишком редко составляли значимую часть обучающей выборки LLM, чтобы доверять ей без внешней базы знаний. Обычно при построении RAG-системы используют модуль поиска, основанный на векторных БД. Однако в таких сложно организованных областях знаний, как юридическая, архитектура, основанная на поиске в хранилище "плоских" эмбеддингов, может не справиться. Векторный поиск позволяет находить семантически близкие (схожие) фрагменты текстов, тогда как юридический домен также требует понимания многочисленных связей между сущностями , рассеянными по множеству документов . Кажется, что область знаний, организованная таким образом, идеально может быть представлена в виде графа знаний, особенно после появления современных инструментов, позволяющих автоматически строить такие графы на тысячах документов и использовать их в качестве хранилища знаний для RAG-систем. Однако все имеет свою цену: неполнота или неточность построенного графа может свести на нет все вложенные ресурсы и оставить вас с системой, которая хуже "наивного" векторного поиска. Какие преимущества поиска по графу знаний по сравнению с классическим векторным поиском, а также каковы критерии, когда использование графового поиска действительно необходимо для построения RAG-системы в юридическом домене?
https://habr.com/ru/articles/1012556/
#RAG #retrievalaugmented_generation #ai #artificial_intelligence #llm #large_language_models #vector_database #graph_database #knowledge_graphs #graphrag
-
Графы знаний в юридическом домене: как не потерять сложность при построении RAG-системы
Ни одна современная AI-система в юридическом домене не обходится без RAG: юридические данные слишком специфичны, слишком изменчивы и никогда слишком редко составляли значимую часть обучающей выборки LLM, чтобы доверять ей без внешней базы знаний. Обычно при построении RAG-системы используют модуль поиска, основанный на векторных БД. Однако в таких сложно организованных областях знаний, как юридическая, архитектура, основанная на поиске в хранилище "плоских" эмбеддингов, может не справиться. Векторный поиск позволяет находить семантически близкие (схожие) фрагменты текстов, тогда как юридический домен также требует понимания многочисленных связей между сущностями , рассеянными по множеству документов . Кажется, что область знаний, организованная таким образом, идеально может быть представлена в виде графа знаний, особенно после появления современных инструментов, позволяющих автоматически строить такие графы на тысячах документов и использовать их в качестве хранилища знаний для RAG-систем. Однако все имеет свою цену: неполнота или неточность построенного графа может свести на нет все вложенные ресурсы и оставить вас с системой, которая хуже "наивного" векторного поиска. Какие преимущества поиска по графу знаний по сравнению с классическим векторным поиском, а также каковы критерии, когда использование графового поиска действительно необходимо для построения RAG-системы в юридическом домене?
https://habr.com/ru/articles/1012556/
#RAG #retrievalaugmented_generation #ai #artificial_intelligence #llm #large_language_models #vector_database #graph_database #knowledge_graphs #graphrag
-
Графы знаний в юридическом домене: как не потерять сложность при построении RAG-системы
Ни одна современная AI-система в юридическом домене не обходится без RAG: юридические данные слишком специфичны, слишком изменчивы и никогда слишком редко составляли значимую часть обучающей выборки LLM, чтобы доверять ей без внешней базы знаний. Обычно при построении RAG-системы используют модуль поиска, основанный на векторных БД. Однако в таких сложно организованных областях знаний, как юридическая, архитектура, основанная на поиске в хранилище "плоских" эмбеддингов, может не справиться. Векторный поиск позволяет находить семантически близкие (схожие) фрагменты текстов, тогда как юридический домен также требует понимания многочисленных связей между сущностями , рассеянными по множеству документов . Кажется, что область знаний, организованная таким образом, идеально может быть представлена в виде графа знаний, особенно после появления современных инструментов, позволяющих автоматически строить такие графы на тысячах документов и использовать их в качестве хранилища знаний для RAG-систем. Однако все имеет свою цену: неполнота или неточность построенного графа может свести на нет все вложенные ресурсы и оставить вас с системой, которая хуже "наивного" векторного поиска. Какие преимущества поиска по графу знаний по сравнению с классическим векторным поиском, а также каковы критерии, когда использование графового поиска действительно необходимо для построения RAG-системы в юридическом домене?
https://habr.com/ru/articles/1012556/
#RAG #retrievalaugmented_generation #ai #artificial_intelligence #llm #large_language_models #vector_database #graph_database #knowledge_graphs #graphrag
-
AAF: Архитектура автономного ИИ-агента с GraphRAG, EventBus и Docker-песочницей
В нашем сообществе уже не первый день живёт агент @vega_exactly_not_ai . Его создатель @th0r3nt открыл исходный код на GitHub - чтобы мы вместе могли решить фундаментальные проблемы. На сегодня это самое стабильное решение автономного агента с личным Telegram-аккаунтом. Создатель попросил рассказать об архитектуре и поставить ряд вопросов перед сообществом. Думаю, вместе мы способны разобраться. Большинство современных Open-Source фреймворков для создания ИИ-агентов (от AutoGPT до недавнего OpenClaw) страдают от ряда детских болезней. Во-первых, это амнезия: агент теряет контекст спустя десяток шагов, так как векторные базы данных превращают память в кашу из семантически похожих, но логически не связанных кусков текста. Во-вторых, это зацикливание в бесконечных ReAct-петлях. В-третьих - ужасная безопасность при выполнении сгенерированного кода прямо на хостовой машине. В этой статье я хочу разобрать архитектуру Autonomous Agent Framework (AAF) - моего pet-проекта, который перерос в полноценную OS-level сущность на Python. Главная идея AAF: агент не должен быть просто скриптом, ожидающим промпта. Это должен быть долгоживущий асинхронный процесс с гибридной памятью, шиной событий и собственной изолированной средой для запуска субагентов.
https://habr.com/ru/articles/1010522/
#opensource #openclaw #agentos #agent #python #vector_database #graphrag #aiагенты #агенты_ии #docker_swarm
-
Benchmarking the Most Reliable Document Parsing API
https://www.tensorlake.ai/blog/benchmarks
#ycombinator #context_engineering #document_processing #machine_learning #LLM #RAG #vector_database #knowledge_graphs #document_parsing #structured_extraction #AI_workflows #Document_Parsing #OCR #Benchmarks #TEDS #Enterprise_AI -
Benchmarking the Most Reliable Document Parsing API
https://www.tensorlake.ai/blog/benchmarks
#ycombinator #context_engineering #document_processing #machine_learning #LLM #RAG #vector_database #knowledge_graphs #document_parsing #structured_extraction #AI_workflows #Document_Parsing #OCR #Benchmarks #TEDS #Enterprise_AI -
Benchmarking the Most Reliable Document Parsing API
https://www.tensorlake.ai/blog/benchmarks
#ycombinator #context_engineering #document_processing #machine_learning #LLM #RAG #vector_database #knowledge_graphs #document_parsing #structured_extraction #AI_workflows #Document_Parsing #OCR #Benchmarks #TEDS #Enterprise_AI -
Benchmarking the Most Reliable Document Parsing API
https://www.tensorlake.ai/blog/benchmarks
#ycombinator #context_engineering #document_processing #machine_learning #LLM #RAG #vector_database #knowledge_graphs #document_parsing #structured_extraction #AI_workflows #Document_Parsing #OCR #Benchmarks #TEDS #Enterprise_AI -
Гид по Cloudberry ч.2: advanced-возможности, дорожная карта и планы развития
В прошлый раз, в первой части нашего гида по Apache Cloudberry™ , мы поговорили об истории проекта, его архитектуре, ядре СУБД и функциях платформы. Но помимо ядра СУБД, мы также хотим использовать data‑lakehouse‑запросы. В Data Lakehouse есть некоторые проблемы: мы не можем получать данные оттуда напрямую. В Cloudberry разработана технология, с помощью которой можно это делать, так что поговорим об этом подробнее. А также рассмотрим ещё несколько интересных возможностей и расскажем о планах проекта.
https://habr.com/ru/companies/yandex_cloud_and_infra/articles/957662/
#greenplum #cloudberry #mpp #postgresql #postgres #vector_database #pgvector #векторная_база_данных
-
Vector database that can index 1B vectors in 48M
https://www.vectroid.com/blog/why-and-how-we-built-Vectroid
#ycombinator #architecture #vector_database #hnsw #performance -
Will Amazon S3 Vectors kill vector databases or save them?
https://zilliz.com/blog/will-amazon-s3-vectors-kill-vector-databases-or-save-them
#ycombinator #Amazon_S3_Vectors #vector_database #AWS_vector_storage #Milvus #tiered_storage -
Will Amazon S3 Vectors Kill Vector Databases–Or Save Them?
https://zilliz.com/blog/will-amazon-s3-vectors-kill-vector-databases-or-save-them
#ycombinator #Amazon_S3_Vectors #vector_database #AWS_vector_storage #Milvus #tiered_storage -
RAG и векторные БД: НЕ Сизифов LLM на Java и Spring Ai
Привет! Меня зовут Бромбин Андрей, и сегодня я разберу на практике, что такое RAG-системы и как они помогают улучшать поиск. Покажу, как использовать Spring AI, векторные базы данных и LLM. Ты получишь теорию и пример реализации на Java и Spring Boot – от идеи до работающего сервиса. Без сложных формул – только чёткие объяснения и код. Обновить резюме
https://habr.com/ru/companies/ruvds/articles/924100/
#spring_ai #исскуственный_интеллект #qdrant #semantic_search #retrieval_augmented_generation #vector_database #large_language_model #java #ruvds_статьи #космотекст
-
Preview 2 of the .NET AI Template Now Available
https://devblogs.microsoft.com/dotnet/announcing-dotnet-ai-template-preview2/#microsoft #NET #NET_Aspire #AI #C #Visual_Studio #Visual_Studio_Code #Qdrant #rag #semantic_kernel #templates #Vector_Database
-
Preview 2 of the .NET AI Template Now Available
https://devblogs.microsoft.com/dotnet/announcing-dotnet-ai-template-preview2/#microsoft #NET #NET_Aspire #AI #C #Visual_Studio #Visual_Studio_Code #Qdrant #rag #semantic_kernel #templates #Vector_Database
-
DeepSearcher: A Local open-source Deep Research
https://milvus.io/blog/introduce-deepsearcher-a-local-open-source-deep-research.md
#ycombinator #milvus #vector_database #milvus_docs #milvus_blogs