#text2sql — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #text2sql, aggregated by home.social.
-
Как OpenAI похоронила традиционный BI — и что пришло ему на смену
Зачем OpenAI купила базу данных Rockset за $117M и тут же убила её для всех клиентов. Как устроена архитектура «пять слоёв контекста». Почему принцип «meaning lives in code» меняет подход к документированию данных. И что из этого может взять обычная компания уже сейчас без GPT-5 и без $117M.
https://habr.com/ru/articles/1002254/
#openai #chat_bi #text2sql #ai_agents #кейс #дашборды_в_компании
-
Выжимаем максимум из опенсорсных моделей и готовим Text2SQL
В любой крупной компании есть повторяющийся сценарий. Аналитик сидит над экспериментом или моделью, строит А/В тесты и дашборды, и в этот момент приходит бизнес и просит быстро посмотреть «продажи жвачки за вчера». Аналитик переключается, пишет запрос, отдаёт результат, а через десять минут прилетает почти такой же вопрос. Потом ещё один и ещё. День заканчивается, а свои задачи стоят и покрываются ржавчиной. Так выглядит ручной доступ к данным. Бизнес понимает, что нужные данные в хранилище есть, но не всегда может их быстро получить. А аналитик становится «бутылочным горлышком», через которое проходит большой поток запросов. Мы хотели упростить работу с данными. Чтобы пользователь задавал вопрос, сервис превращал его в SQL, выполнял в хранилище и возвращал аналитический ответ. Чтобы рутина уходила в инструмент, а аналитик переставал быть «бутылочным горлышком». Вроде ничего нового, но в реальной инфраструктуре вскрывается много интересного: специфическая лексика, свойственная каждому из направлений бизнеса, громоздкие витрины, опыт работы с легаси системами и поведение LLM, которую сначала надо надрессировать.
https://habr.com/ru/companies/oleg-bunin/articles/981494/
#text2sql #large_language_models #open_source_llm #qwen #gpt #аналитика_данных #bird #spider #prompt_engineering #prompt_injection
-
Semantic RAG – как научить AI-ассистентов понимать, а не угадывать
Одна из самых распространённых задач для AI-ассистента — поиск ответов на вопросы. Пользователи ожидают, что он сможет находить информацию во внутренних wiki, базах знаний техподдержки, Word-документах, Excel-файлах и других корпоративных источниках. Сегодня такой поиск чаще всего реализуется с помощью подхода Retrieval-Augmented Generation (RAG). Суть проста: сначала ассистент находит фрагменты документов, которые кажутся релевантными запросу, и уже на их основе формирует связанный ответ. На первый взгляд схема выглядит логичной. Но на практике у классического RAG есть целый ряд ограничений, которые быстро дают о себе знать при реальных внедрениях. В этой статье мы разберём основные проблемы и покажем, как можно их обойти.