#ии_поиск — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #ии_поиск, aggregated by home.social.
-
Как редактору повысить качество ответов RAG-поиска
Всем привет! Меня зовут Катя, я развиваю
-
Интеллектуальный поиск: почему RAG уже недостаточно и как мы его превзошли
Каждый день на Хабре появляются статьи и эксперименты с RAG, fine‑tuning и векторными базами. Это интересные опыты, но все они упираются в один и тот же потолок — низкую точность, отсутствие диалога с пользователем, сложность интеграции и риск утечек данных из‑за использования с облачными LLM‑моделями. Меня зовут Кристина Бахмаер, продакт‑менеджер SL Soft AI. В сегодняшней статье расскажу, как мы побороли типичные «болячки», создавая свой промышленный продукт SL Soft AI Search. Собрали не только свой опыт, но и ТОП-5 подводных камней, которые жду при внедрении интеллектуального поиска. А еще — список вопросов к поставщикам, он пригодится компаниям при выборе решения.
https://habr.com/ru/companies/slsoft/articles/963672/
#ai #ии #ииассистент #ии_чатбот #ии_поиск #автоматизация_бизнеса #ai_search
-
Семантический поиск и генерация текста на R. Часть 2
В первой части говорили про использование поиска и генерации ответа с помощью языковых моделей. В этой части рассмотрим память и агентов.
-
Семантический поиск и генерация текста на R. Часть 2
В первой части говорили про использование поиска и генерации ответа с помощью языковых моделей. В этой части рассмотрим память и агентов.
-
Семантический поиск и генерация текста на R. Часть 1
Для этой задачи использую LLM (Large Language Models - например, chatGPT или opensouce модели) для внутренних задач (а-ля поиск или вопрос-ответную систему по необходимым данным). Я пишу на языке R и также увлекаюсь NLP (надеюсь, я не один такой). Но есть сложности из-за того, что основной язык для LLM - это python. Соответственно, на R мало примеров и документации, поэтому приходится больше времени тратить, чтобы “переводить” с питона, но с другой стороны прокачиваюсь от этого. Чтобы не городить свою инфраструктуру, есть уже готовые решения, чтобы быстро и удобно подключить и использовать. Это LangChain и LlamaIndex . Я обычно использую LangChain (дальше он и будет использоваться). Не могу сказать, что лучше, просто так повелось, что использую первое. Они написаны на питоне, но с помощью библиотеки reticulate всё работает и на R.
-
Семантический поиск и генерация текста на R. Часть 1
Для этой задачи использую LLM (Large Language Models - например, chatGPT или opensouce модели) для внутренних задач (а-ля поиск или вопрос-ответную систему по необходимым данным). Я пишу на языке R и также увлекаюсь NLP (надеюсь, я не один такой). Но есть сложности из-за того, что основной язык для LLM - это python. Соответственно, на R мало примеров и документации, поэтому приходится больше времени тратить, чтобы “переводить” с питона, но с другой стороны прокачиваюсь от этого. Чтобы не городить свою инфраструктуру, есть уже готовые решения, чтобы быстро и удобно подключить и использовать. Это LangChain и LlamaIndex . Я обычно использую LangChain (дальше он и будет использоваться). Не могу сказать, что лучше, просто так повелось, что использую первое. Они написаны на питоне, но с помощью библиотеки reticulate всё работает и на R.