home.social

#faiss — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #faiss, aggregated by home.social.

  1. Скормил нейросети 40 статей ПИК с Хабра: RAG-бот на GigaChat для BIM без опыта в разработке

    Меня зовут Владислав Пономарев, я архитектор, проектирую дома. Ещё в магистратуре, 10 лет назад я занимался BIM-внедрением в проектной организации в Сочи. Это были Revit, Civil 3D и другие инструменты. Делал это в рамках своей темы магистерской работы. Потом переключился на архитектуру в частном домостроительстве, где больше изучал практические вопросы проектирования и философию архитектуры, ее эстетические качества. Но любовь к более сложному BIM осталась. С энтузиазмом продвигал тему BIM, когда до массового внедрения в РФ было еще далеко. Прошли годы. Многие вопросы, которые были актуальны тогда, еще остались в повестке отрасли. Специалисты до сих пор часто работают по старинке. А ведь теперь пришёл ещё и AI, который ложится только на автоматизированные процессы. Нет BIM – нет данных. Нет данных – нейронка не поможет. При этом автоматизировать стройку – задача очень сложная. Слишком много вопросов, которые пока трудно поддаются оптимизации.

    habr.com/ru/articles/1004802/

    #gigachat #bim #вайбкодинг #строительство #rag #faiss #langchain #streamlit #python

  2. Как гуманитарий за 2 месяца с нуля RAG систему построил, или Парсинг PDF по-хардкору

    Добрый день. Сегодня я расскажу о том, как я за 2 месяца с полного нуля создал доменную RAG систему с корпусом в 20+ книг. В статье затрону проблемы парсинга данных (особенно PDF документов, с которыми приходилось иметь дело), чанкинга, создания и индексации эмбеддингов, а также самого интересного – ретривера. Расскажу о latency, трейд-оффах, и сложностях реализации подобных систем локально на ноутбуке (хоть и «игровом») без использования API LLM. Вся система делалась мной самостоятельно без использования LangChain – это чистый пайплайн от Tesseract, Pillow, MuPDF/Fitz до e5-multilingual, FAISS (+bm25, который я затрону в статье) и Qwen3:8B в качестве LLM.

    habr.com/ru/articles/996144/

    #RAG #машинное_обучение_нейросети_python #NLP #Построение_поисковых_систем #FAISS #BM25 #Tesseract #OCR #PDF #Embeddings

  3. Как гуманитарий за 2 месяца с нуля RAG систему построил, или Парсинг PDF по-хардкору

    Добрый день. Сегодня я расскажу о том, как я за 2 месяца с полного нуля создал доменную RAG систему с корпусом в 20+ книг. В статье затрону проблемы парсинга данных (особенно PDF документов, с которыми приходилось иметь дело), чанкинга, создания и индексации эмбеддингов, а также самого интересного – ретривера. Расскажу о latency, трейд-оффах, и сложностях реализации подобных систем локально на ноутбуке (хоть и «игровом») без использования API LLM. Вся система делалась мной самостоятельно без использования LangChain – это чистый пайплайн от Tesseract, Pillow, MuPDF/Fitz до e5-multilingual, FAISS (+bm25, который я затрону в статье) и Qwen3:8B в качестве LLM.

    habr.com/ru/articles/996144/

    #RAG #машинное_обучение_нейросети_python #NLP #Построение_поисковых_систем #FAISS #BM25 #Tesseract #OCR #PDF #Embeddings

  4. Как гуманитарий за 2 месяца с нуля RAG систему построил, или Парсинг PDF по-хардкору

    Добрый день. Сегодня я расскажу о том, как я за 2 месяца с полного нуля создал доменную RAG систему с корпусом в 20+ книг. В статье затрону проблемы парсинга данных (особенно PDF документов, с которыми приходилось иметь дело), чанкинга, создания и индексации эмбеддингов, а также самого интересного – ретривера. Расскажу о latency, трейд-оффах, и сложностях реализации подобных систем локально на ноутбуке (хоть и «игровом») без использования API LLM. Вся система делалась мной самостоятельно без использования LangChain – это чистый пайплайн от Tesseract, Pillow, MuPDF/Fitz до e5-multilingual, FAISS (+bm25, который я затрону в статье) и Qwen3:8B в качестве LLM.

    habr.com/ru/articles/996144/

    #RAG #машинное_обучение_нейросети_python #NLP #Построение_поисковых_систем #FAISS #BM25 #Tesseract #OCR #PDF #Embeddings

  5. Как гуманитарий за 2 месяца с нуля RAG систему построил, или Парсинг PDF по-хардкору

    Добрый день. Сегодня я расскажу о том, как я за 2 месяца с полного нуля создал доменную RAG систему с корпусом в 20+ книг. В статье затрону проблемы парсинга данных (особенно PDF документов, с которыми приходилось иметь дело), чанкинга, создания и индексации эмбеддингов, а также самого интересного – ретривера. Расскажу о latency, трейд-оффах, и сложностях реализации подобных систем локально на ноутбуке (хоть и «игровом») без использования API LLM. Вся система делалась мной самостоятельно без использования LangChain – это чистый пайплайн от Tesseract, Pillow, MuPDF/Fitz до e5-multilingual, FAISS (+bm25, который я затрону в статье) и Qwen3:8B в качестве LLM.

    habr.com/ru/articles/996144/

    #RAG #машинное_обучение_нейросети_python #NLP #Построение_поисковых_систем #FAISS #BM25 #Tesseract #OCR #PDF #Embeddings

  6. Как мы сделали альтернативную систему метчинга товаров в X5 Digital: опыт, грабли и результат

    Привет, Хабр! Меня всё ещё зовут Данила Федюкин, и я продолжаю быть тимлидом в X5 Digital. Руковожу командой, которая занимается метчингом. В прошлый раз я рассказывал, как мы перешли на собственную систему рекомендаций, а в этот раз о том, как делаем то же самое, но с метчингом товаров. X5 Digital – один из цифровых бизнесов Х5. Мы работаем в режиме Highload с RPS в 7500 и отвечаем за всю онлайн-доставку в более чем 1000 городах и населённых пунктах России. Этот канал постоянно растёт. В 2024 году покупатели Х5 совершили свыше 119,5 млн заказов продуктов на дом. Мы делаем собственную in-house WMS для дарксторов, приложения для сборщиков и курьеров, CRM, каталоги товаров и другие онлайн-продукты, а ещё мобильное приложение для торговых сетей. Всё это, отталкиваясь от разных форматов доставки. В «Перекрёстке» среднее время доставки CTD (Click-to-Delivery — от оформления заказа до его получения клиентом) сократилось до 45 минут, в «Чижике» — до 37 минут, а в «Пятёрочке» порядка 40% заказов доставляются клиентам менее чем за 20 минут.

    habr.com/ru/companies/X5Tech/a

    #машинное_обучение #nlp_обработка_текста #матчинг_товаров #рекомендации #векторный_поиск #faiss #hnsw #e5 #bert #onnx

  7. Как превратить сценарного чат-бота в умного бота на основе ИИ

    Привет, Хабр! На связи Иван Жирнов и Степан Рыбалов, тимлид и QA группы разработки чат-ботов в компании «Передовые Платежные Решения». В работе мы используем чат-боты собственной разработки. До AI-революции чат-боты были сценарные и весьма ограниченные. С нейросетями же их возможности стали головокружительно шире. В этой статье мы расскажем о том, как и зачем перешли на чат-ботов с ИИ, чтобы наш опыт мог помочь в проекте и вам. Ежемесячно клиенты генерируют более 73 тысяч диалогов в текстовых ботах, и более 92% этих диалогов обрабатывается без участия человека — в чатах, мобильном приложении и личном кабинете. Голосовой чат-бот на горячей линии получает в месяц более 15 тысяч звонков, и здесь автоматизация достигает 20–30%. Именно голосовой бот навел нас на мысли об ИИ: здесь вопросы обычно оказывались сложнее и индивидуальнее. Обсуждать переход мы начали в четвертом квартале 2024 года. Нас привлекла возможность LLM решать комплексные вопросы из одного запроса клиента. Сценарный бот же реагирует только на одну команду за раз, выдает целый список возможных связанных вопросов, из которых пользователю снова приходится выбирать. Потом, вероятно, выбирать еще и еще… так что терпения хватает не у всех. Тогда клиент в лучшем случае обращается к голосовому боту или попадает к оператору поддержки. GPT же может сможет понять контекст, разбить сложный вопрос на несколько простых и собрать полноценный ответ.

    habr.com/ru/articles/976782/

    #чатбот #llm #техподдержка #faiss #мультиагентная_архитектура

  8. Три сказа о построении RAG: От выбора модели до форматирования базы знаний

    Привет! Меня зовут Александр Золотых, уже два года я работаю во ВкусВилле разработчиком ИИ-решений. В этой статье хочу рассказать, как мы сделали карманного консультанта по клиентократии — и зачем вообще он понадобился. ВкусВилл работает по клиентократии — модели управления, которую развивает и распространяет система управления Beyond Taylor. Основная особенность клиентократии — фокус на клиенте, когда все процессы компании выстраиваются для удовлетворения его потребности. Модель инновационная: погружаешься, и возникает множество вопросов. Конечно, лучше спросить и узнать, чем не спросить и не узнать, но не всем и не всегда это просто. Значит, нужно снижать порог входа и сделать описание модели ближе к изучающему. Именно из этого понимания у нашей команды и появилась идея карманного консультанта — инструмента, который готов отвечать на все «глупые» и каверзные вопросы. Мы поделились замыслом с коллегами из Beyond Taylor, получили их поддержку и приступили к реализации. Так родилась наша первая задача с тем, что сейчас называется RAG (Retrieval-Augmented Generation). Конечно, есть готовые решения (Notebook LM, Нейроэксперт), но они имеют несколько минусов:

    habr.com/ru/companies/vkusvill

    #rag #llm #langchain #вкусвилл #json #faiss #embeddings #nlp

  9. Okay, Back of the napkin math:
    - There are probably 100 million sites and 1.5 billion pages worth indexing in a #search engine
    - It takes about 1TB to #index 30 million pages.
    - We only care about text on a page.

    I define a page as worth indexing if:
    - It is not a FAANG site
    - It has at least one referrer (no DD Web)
    - It's active

    So, this means we need 40TB of fast data to make a good index for the internet. That's not "runs locally" sized, but it is nonprofit sized.

    My size assumptions are basically as follows:
    - #URL
    - #TFIDF information
    - Text #Embeddings
    - Snippet

    We can store an index for 30kb. So, for 40TB we can store an full internet index. That's about $500 in storage.

    Access time becomes a problem. TFIDF for the whole internet can easily fit in ram. Even with #quantized embeddings, you can only fit 2 million per GB in ram.

    Assuming you had enough RAM it could be fast: TF-IDF to get 100 million candidated, #FAISS to sort those, load snippets dynamically, potentially modify rank by referers etc.

    6 128 MG #Framework #desktops each with 5tb HDs (plus one raspberry pi to sort the final condidates from the six machines) is enough to replace #Google. That's about $15k.

    In two to three years this will be doable on a single machine for around $3k.

    By the end of the decade it should be able to be run as an app on a powerful desktop

    Three years after that it can run on a #laptop.

    Three years after that it can run on a #cellphone.

    By #2040 it's a background process on your cellphone.

  10. Сравниваем быстродействие новой функциональности ClickHouse по поиску ближайших векторов с другими решениями

    Всем привет! Меня зовут Диана Бутько, я студентка 3 курса, изучаю информационные системы и программирование. В InfoWatch я пришла на практику, и одной из моих задач стал сравнительный анализ различных методов поиска похожих векторов. Это один из ключевых аспектов машинного обучения и анализа данных, используемых в рекомендательных системах, кластеризации, семантическом поиске и других областях. Но чем больше объем данных, тем важнее становится выбор инструментов: полный перебор векторов требует больших вычислительных ресурсов, а в других алгоритмах порой необходимо балансировать между точностью и скоростью поиска. В этой статье я сравниваю пять методов поиска похожих векторов: — полный перебор по евклидову расстоянию с реализацией в Python; — FAISS с индексами IndexFlatL2 (полный перебор, евклидово расстояние) и IndexIVFFlat (сегментирование по ячейкам, евклидово расстояние); — векторный поиск в ClickHouse с индексом HNSW и метриками расстояния L2Distance (евклидово расстояние) и cosineDistance (косинусное сходство).

    habr.com/ru/companies/infowatc

    #clickhouse #knn #faiss #hnsw

  11. Как я победил в RAG Challenge: от нуля до SoTA за один конкурс

    Когда новичок пытается построить свою первую вопросно-ответную LLM систему, он быстро узнаёт, что базовый RAG - это для малышей и его нужно "прокачивать" модными техниками: Hybrid Search, Parent Document Retrieval, Reranking и десятки других непонятных терминов. Глаза разбегаются, наступает паралич выбора, ладошки потеют. А что, если попробовать их все? Я решил потратить на подготовку к соревнованию 200+ часов и собственноручно проверить каждую из этих методик. Получилось настолько удачно, что я выиграл конкурс во всех номинациях. Теперь рассказываю, какие техники оказались полезными, а какие нет, и как повторить мой результат.

    habr.com/ru/articles/893356/

    #RAG #Docling #векторный_поиск #retrieval_augmented_generation #question_answering #LLM #FAISS #GPT #ChatGPT #парсинг_PDF

  12. Миллиарды векторов и немного магии: превращаем сырые данные с маркетплейсов в пригодные для анализа

    Привет, Хабр! Я — Игорь Старун, BigData Lead в MPSTATS. Я уже 3 года занимаюсь анализом данных на маркетплейсах, штудируя гигантские объёмы информации и превращая их из непотребного и нечитаемого вида в удобоваримый и анализируемый. Моя задача — собрать и подготовить данные так, чтобы помочь продавцам на маркетплейсах разобраться, что происходит с их товарами, конкурентами и продажами, чтобы они не утонули в хаосе карточек, цен и остатков. В этой статье я расскажу, как мы перерабатываем эти объемы грязных данных и структурируем для дальнейшего анализа. Данные о товарах – это основа всего. Каждую неделю мы обходим более 200 миллионов карточек с Wildberries и Ozon. Названия, описания, характеристики, фотографии — всё это мы аккуратно собираем и складываем в базы данных (для разных задач мы используем ClickHouse, Postgres, MySQL и MongoDB) и облачные хранилища. Зачем? Чтобы потом сделать с этим что-то умное и полезное. Читать дальше

    habr.com/ru/companies/mpstats/

    #аналитика #маркетплейсы #эмбеддинги #faiss #семантический_поиск #обработка_изображений #seoоптимизация #big_data #искусственный_интеллект #нейросети

  13. 🚀 #Rocketnotes: A modern note-taking solution combining #Markdown and #AI capabilities

    📝 Core Features:
    • Code syntax highlighting, #Katex support, and #Mermaid diagram integration
    • Hierarchical document tree with drag-and-drop functionality
    • Document sharing and content search capabilities

    🤖 #AI Integration:
    #LLM-powered text completion similar to GitHub Copilot
    • Chat functionality with documents using serverless RAG pipeline
    • Semantic search powered by #langchain and #faiss

    💻 Technical Implementation:
    • Built as web-based application with 100% serverless architecture
    • Supports both cloud (#OpenAI, #Anthropic) and local deployment (#Ollama)
    #opensource with MIT license

    🔧 Deployment Options:
    • Free signup available
    • Local deployment using Docker
    • AWS cloud hosting support

    Learn more: github.com/fynnfluegge/rocketn

  14. Ускорение и облегчение моделей для поддержания диалога виртуальных ассистентов Салют

    Привет, Хабр! Меня зовут Александр Абрамов и я ML Lead продукта в SberDevices. Эта статья — про обучение core-моделей retrieval-based диалоговых систем, поговорим про хинты для ускорения обучения и сходимости, также затрону тему общей схемы inference и оптимизации её компонентов. Речь пойдёт о ML с позиции пайплайнов и продакшена виртуального ассистента Салют.

    habr.com/ru/companies/oleg-bun

    #NLP #retrieval #виртуальные_ассистенты_салют #machinelearning #архитектура #inference #faiss #консистентность #bert #gpt

  15. RAG: полный гайд

    Если, открывая холодильник вы еще не слышали от него про RAG, то наверняка скоро услышите. Однако, в сети на удивление мало полных гайдов а не обрывочных кусков. Базируясь на опыте нашей работы, я составил гайд который покрывает эту тему наиболее полно. Итак зачем нужен RAG?

    habr.com/ru/companies/raft/art

    #искусственный_интеллект #rag #llm #faiss

  16. Some Friday #AI hacking/prototyping with
    #LangChain

    🔈 Extract the audio stream of any YouTube video
    ✍ Transcribe its contents with #OpenAI whisper
    ⚙ Store embeddings in a #FAISS vector database
    💬 Use an OpenAI #LLM to do a Q&A about the video (timestamps included)

    In years past I couldn't be bothered with blockchains, NFTs, Web3 and basically anything of the metaverse bullshit - but this one hits differently.

    Excited to build some more with it.

  17. 👋 Hello, friends!

    Today I launched my new blog over at shruggingface.com, where I will be sharing my explorations into the world of artificial intelligence 🤖

    In my first post, I explore creating a Cloudflare documentation question-answering AI agent by duct-taping together #OpenAI embeddings, #FAISS vector search, and #GPT3 by using #LangChain

    You can read it here: shruggingface.com/blog/langcha