#rtk_query — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #rtk_query, aggregated by home.social.
-
Агрегатор LLM, как выбирать живые free-модели и переживать сбои провайдера
Если в проекте появляется выбор LLM, почти сразу возникает соблазн сделать это как можно проще. Взять один большой список моделей, показать его в интерфейсе, выбрать первую free-модель по умолчанию и считать задачу закрытой. На короткой дистанции это выглядит рабочим вариантом. На длинной начинает ломаться сразу в нескольких местах. Часть моделей числится бесплатными, но отвечает нестабильно. Часть внезапно исчезает из выдачи провайдера. Часть формально жива, но по качеству ответа годится только для демо. Иногда пользователь выбрал одну модель, а провайдер вернул ошибку. Иногда ответ пришел, но уже от другой модели. Иногда список моделей на фронте устарел, а backend уже живет в другой реальности. То есть проблема тут не в том, как красиво показать список LLM. Проблема в том, как построить агрегатор, который умеет выбирать живые free-модели, переживать сбои провайдера и не врать интерфейсу о том, какая модель реально ответила. В одном из своих проектов эта задача решалась не через бесконечный каталог моделей, а через более жесткий инженерный контур. Backend получает сырой список моделей от провайдера, очищает его, отбирает только подходящие free-варианты, оставляет по одной модели на бренд, отдает этот набор на фронт, а во время реального запроса умеет сделать fallback на модель другого бренда. При этом в ответе возвращается не только текст, но и actual_model , чтобы интерфейс знал, кто реально сгенерировал результат.
https://habr.com/ru/articles/1033790/
#LLM #OpenRouter #Django #Python #Nextjs #TypeScript #RTK_Query #AI #API #Fullstack
-
Агрегатор LLM, как выбирать живые free-модели и переживать сбои провайдера
Если в проекте появляется выбор LLM, почти сразу возникает соблазн сделать это как можно проще. Взять один большой список моделей, показать его в интерфейсе, выбрать первую free-модель по умолчанию и считать задачу закрытой. На короткой дистанции это выглядит рабочим вариантом. На длинной начинает ломаться сразу в нескольких местах. Часть моделей числится бесплатными, но отвечает нестабильно. Часть внезапно исчезает из выдачи провайдера. Часть формально жива, но по качеству ответа годится только для демо. Иногда пользователь выбрал одну модель, а провайдер вернул ошибку. Иногда ответ пришел, но уже от другой модели. Иногда список моделей на фронте устарел, а backend уже живет в другой реальности. То есть проблема тут не в том, как красиво показать список LLM. Проблема в том, как построить агрегатор, который умеет выбирать живые free-модели, переживать сбои провайдера и не врать интерфейсу о том, какая модель реально ответила. В одном из своих проектов эта задача решалась не через бесконечный каталог моделей, а через более жесткий инженерный контур. Backend получает сырой список моделей от провайдера, очищает его, отбирает только подходящие free-варианты, оставляет по одной модели на бренд, отдает этот набор на фронт, а во время реального запроса умеет сделать fallback на модель другого бренда. При этом в ответе возвращается не только текст, но и actual_model , чтобы интерфейс знал, кто реально сгенерировал результат.
https://habr.com/ru/articles/1033790/
#LLM #OpenRouter #Django #Python #Nextjs #TypeScript #RTK_Query #AI #API #Fullstack
-
WebSocket и RTK Query: живое общение в React-приложении
Представьте, что вы смотрите онлайн-трансляцию матча. Счёт меняется — и вы видите это мгновенно , без перезагрузки страницы. Или вы пишете коллеге в чате — сообщение появляется у него в реальном времени . Это не магия, а технология WebSocket . В этом уроке вы узнаете:
https://habr.com/ru/articles/992526/
#rtk_query #state_management #reduxtoolkit #redux_toolkit #reduxutils #reduxjs #redux #websocket #react #echo
-
WebSocket и RTK Query: живое общение в React-приложении
Представьте, что вы смотрите онлайн-трансляцию матча. Счёт меняется — и вы видите это мгновенно , без перезагрузки страницы. Или вы пишете коллеге в чате — сообщение появляется у него в реальном времени . Это не магия, а технология WebSocket . В этом уроке вы узнаете:
https://habr.com/ru/articles/992526/
#rtk_query #state_management #reduxtoolkit #redux_toolkit #reduxutils #reduxjs #redux #websocket #react #echo
-
WebSocket и RTK Query: живое общение в React-приложении
Представьте, что вы смотрите онлайн-трансляцию матча. Счёт меняется — и вы видите это мгновенно , без перезагрузки страницы. Или вы пишете коллеге в чате — сообщение появляется у него в реальном времени . Это не магия, а технология WebSocket . В этом уроке вы узнаете:
https://habr.com/ru/articles/992526/
#rtk_query #state_management #reduxtoolkit #redux_toolkit #reduxutils #reduxjs #redux #websocket #react #echo
-
WebSocket и RTK Query: живое общение в React-приложении
Представьте, что вы смотрите онлайн-трансляцию матча. Счёт меняется — и вы видите это мгновенно , без перезагрузки страницы. Или вы пишете коллеге в чате — сообщение появляется у него в реальном времени . Это не магия, а технология WebSocket . В этом уроке вы узнаете:
https://habr.com/ru/articles/992526/
#rtk_query #state_management #reduxtoolkit #redux_toolkit #reduxutils #reduxjs #redux #websocket #react #echo
-
Топ-5 библиотек для управления состоянием React в 2025 году
Хранение данных и управление глобальным состоянием в React-приложениях всегда было важной темой среди разработчиков. К 2025 году выбор подходящей библиотеки для решения этих задач стал еще более разнообразным — от проверенного Redux до современных, легковесных решений, таких как Zustand и SWR. Каждое из этих решений имеет свои особенности, плюсы и подводные камни, что делает выбор оптимального инструмента порой непростым. В этой статье я рассмотрю 5 самых популярных библиотек на сегодняшний день, проанализирую их основные преимущества, применение на реальных проектах и актуальность в контексте последних трендов разработки. Привет, Хабр! Меня зовут Мария Кустова, я frontend-разработчик IBS. Подобного рода сравнительные исследования стейт-менеджеров выходят каждый год. Когда я начинала сбор информации, именно перевод похожей статьи стал для меня отправной точкой, но в ней были приведены другие библиотеки. Думаю, эта статья будет интересна тем, кто хочет узнать, что сейчас активно используют коллеги по React.