#embeddings — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #embeddings, aggregated by home.social.
-
Клиент — это тоже вектор? Как мы хотели улучшить ML-модель, а построили similarity engine
Поговорим о том, как превращать последовательности пользовательских событий в векторы, зачем обучать BERT на "языке" клиентского поведения и почему embedding-пространство может неожиданно начать отражать будущую ценность пользователей
https://habr.com/ru/articles/1034880/
#машинное_обучение #анализ_данных #bert #deep_learning #machine_learning #embeddings #transformers
-
I spent a week poisoning my own pipeline through the document corpus. not the prompt. the documents themselves.
32 vectors. 19 successes. including a case where the model answered a harmful query with zero poison docs in the corpus because i starved it of refusal context.
its... not great
https://corrupted.io/2026/04/24/Poisoned-Rags.html
#RAG #LLM #AIsecurity #cybersecurity #promptinjection #machinelearning #embeddings #appsec #mlops #infosec
-
I spent a week poisoning my own pipeline through the document corpus. not the prompt. the documents themselves.
32 vectors. 19 successes. including a case where the model answered a harmful query with zero poison docs in the corpus because i starved it of refusal context.
its... not great
https://corrupted.io/2026/04/24/Poisoned-Rags.html
#RAG #LLM #AIsecurity #cybersecurity #promptinjection #machinelearning #embeddings #appsec #mlops #infosec
-
I spent a week poisoning my own pipeline through the document corpus. not the prompt. the documents themselves.
32 vectors. 19 successes. including a case where the model answered a harmful query with zero poison docs in the corpus because i starved it of refusal context.
its... not great
https://corrupted.io/2026/04/24/Poisoned-Rags.html
#RAG #LLM #AIsecurity #cybersecurity #promptinjection #machinelearning #embeddings #appsec #mlops #infosec
-
I spent a week poisoning my own pipeline through the document corpus. not the prompt. the documents themselves.
32 vectors. 19 successes. including a case where the model answered a harmful query with zero poison docs in the corpus because i starved it of refusal context.
its... not great
https://corrupted.io/2026/04/24/Poisoned-Rags.html
#RAG #LLM #AIsecurity #cybersecurity #promptinjection #machinelearning #embeddings #appsec #mlops #infosec
-
I spent a week poisoning my own pipeline through the document corpus. not the prompt. the documents themselves.
32 vectors. 19 successes. including a case where the model answered a harmful query with zero poison docs in the corpus because i starved it of refusal context.
its... not great
https://corrupted.io/2026/04/24/Poisoned-Rags.html
#RAG #LLM #AIsecurity #cybersecurity #promptinjection #machinelearning #embeddings #appsec #mlops #infosec
-
Разворачиваем RAG на Java без боли: практический гайд
Всем привет! Недавно столкнулся с проблемой, что в настоящее время большая часть обучающих материалов по Retrieval‑Augmented Generation (RAG) сосредоточена на Python‑экосистеме (LangChain, LlamaIndex и тому подобное), а пошаговые руководства, которые показывают, как быстро собрать рабочее RAG‑приложение на чистом Java‑стеке , встречаются крайне редко. Эта статья представляет собой простое практическое руководство, где мы разберём весь процесс от настройки окружения до полного примера кода, чтобы даже начинающий Java‑разработчик мог развернуть RAG.
https://habr.com/ru/articles/1027426/
#RAG #Java #Spring_AI #Qdrant #Ollama #LLM #bgem3 #embeddings
-
#NeuralSet turns raw #NeuralRecordings and stimuli into #PyTorch-ready datasets. Supports
🧠 #fMRI, #EEG, #MEG, #iEEG, #spikes… and preprocesses 💬 text 🔊 audio ▶️ video 🏞️ image… #embeddings:📚 https://facebookresearch.github.io/neuroai/neuralset/index.html
📝 https://kingjr.github.io/files/neuralset.pdf -
#NeuralSet turns raw #NeuralRecordings and stimuli into #PyTorch-ready datasets. Supports
🧠 #fMRI, #EEG, #MEG, #iEEG, #spikes… and preprocesses 💬 text 🔊 audio ▶️ video 🏞️ image… #embeddings:📚 https://facebookresearch.github.io/neuroai/neuralset/index.html
📝 https://kingjr.github.io/files/neuralset.pdf -
#NeuralSet turns raw #NeuralRecordings and stimuli into #PyTorch-ready datasets. Supports
🧠 #fMRI, #EEG, #MEG, #iEEG, #spikes… and preprocesses 💬 text 🔊 audio ▶️ video 🏞️ image… #embeddings:📚 https://facebookresearch.github.io/neuroai/neuralset/index.html
📝 https://kingjr.github.io/files/neuralset.pdf -
#NeuralSet turns raw #NeuralRecordings and stimuli into #PyTorch-ready datasets. Supports
🧠 #fMRI, #EEG, #MEG, #iEEG, #spikes… and preprocesses 💬 text 🔊 audio ▶️ video 🏞️ image… #embeddings:📚 https://facebookresearch.github.io/neuroai/neuralset/index.html
📝 https://kingjr.github.io/files/neuralset.pdf -
Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot
Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.
https://habr.com/ru/articles/1022080/
#obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai
-
Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot
Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.
https://habr.com/ru/articles/1022080/
#obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai
-
Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot
Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.
https://habr.com/ru/articles/1022080/
#obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai
-
Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot
Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.
https://habr.com/ru/articles/1022080/
#obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai
-
TAPe‑дневник, день 8: сегментация по границам, 77% классификации и первые бенчмарки против YOLO
В этом посте продолжаем дневник TAPe‑детекции на COCO: добавляем сегментацию по контрастным патчам на границе объектов, дорабатываем классификацию, избавляемся от learning rate и смотрим, как ведёт себя YOLO на нашем маленьком датасете. А уже завтра покажем базовые и COCO‑бенчмарки, сравнения с YOLO и RF‑DETR по точности (mAP50/mAP50‑95), скорости, числу параметров и требованиям к данным, а заодно чуть подробнее поговорим про аннотацию и то, почему нам хватает десятков изображений на класс там, где другим нужны сотни тысяч. Вникнуть
https://habr.com/ru/articles/1021546/
#tape+ml #компьютерное_зрение #детекция_объектов #сегментация_изображений #COCO #selfsupervised #yolo #detr #learning_rate #embeddings
-
OpenClaw и память без амнезии: что выбрать между Lossless Claw, OpenViking, ByteRover, MemPalace и LLM Wiki
Когда говорят «память для ИИ-агента», очень легко начать спорить о разном, думая, что обсуждается одно и то же. Один человек хочет, чтобы агент не забывал длинные рабочие диалоги. Другой ждёт от памяти нормальную базу знаний по проекту. Третий хочет отдельный контекстный слой уровня платформы, где рядом живут документы, навыки, пользовательские предпочтения и служебные данные. Четвёртому вообще не нравится идея, что модель заранее решает, что важно, а что можно выбросить. А пятый хочет не архив и не векторную базу, а живую внутреннюю wiki, которую агент сам поддерживает в актуальном состоянии. На OpenClaw эта развилка видна особенно хорошо. У платформы уже есть понятная архитектура плагинов и отдельный слот plugins.slots.contextEngine , куда можно подключать внешний движок контекста. А в последнем обновлении OpenClaw 2026.4.7 в вернули и встроенный memory-wiki stack — то есть подход с накопительной wiki уже перестал быть просто красивой идеей из заметки и стал частью реального инструментария. Если смотреть на самые интересные подходы к памяти для OpenClaw прямо сейчас, то разговор крутится вокруг пяти систем и направлений:
https://habr.com/ru/articles/1020860/
#openclaw #ai_agent #rag #vector_database #embeddings #memory #ии #ииагенты #openclaw_tutorial #wiki
-
[Перевод] Agentis Memory — Redis-совместимое хранилище со встроенным векторным поиском и локальными эмбеддингами
В наше время уже никого не удивишь разработкой агентов, очередной оптимизацией, новой моделью или новой инфраструктурой для нейронок. Всё это в порядке вещей. Однако одно дело читать в Twitter «мы написали агента X и он оптимизировал нам процессы на 300000%», и совсем другое — начать копать чуть глубже. Копнёшь — а «агентом» называют скилл с одним промптом. Разработка настоящих агентов — задача не тривиальная. Достаточно посмотреть на утёкшие исходники Claude CLI — это не просто CLI, а целая инфраструктура бизнес-логики вокруг LLM. Я бы сравнил разработку агентов с разработкой типичных бэкенд-компонентов. Аналогия такая: если вы пишете каноничный бэкенд-сервис — вам нужна СУБД. Если Web3-сервис — блокчейн. Но на СУБД или блокчейне происходит в лучшем случае 50% всей логики. Вся магия крутится именно на бэкенде. С агентами то же самое: подключаешь AI SDK, конфигурируешь мыслительное ядро и пишешь вокруг него всю обвязку — мониторинги, AIOps, оркестрацию, memory management. Вот про memory management и пойдёт речь.
https://habr.com/ru/articles/1018784/
#Redis #AI_agents #GraalVM #ONNX #embeddings #HNSW #Java_Vector_API #SIMD #Project_Loom #LLM
-
Как я учил компьютер понимать 122 000 фотографий — и почему сложностью оказались не нейронки, а слова
Я крайне редко на фрилансе получал заказы связанные с DS/ML, специалистов для таких задач обычно ищут не там. Причины разные: они требуют долгой интеграции, заказчик сам не понимает задачу, DS более конфиденциален, DS часто возникают внутри продукта, да и в последнее время этот сегмент на фрилансе съедается при помощи LLM: AI integration, RAG боты например. Но, внезапно, мне в личку постучались с таким проектом.
https://habr.com/ru/articles/1010932/
#computer_vision #machine_learning #clip #embeddings #классификация_изображений #zeroshot_learning #уменьшение_размерности_данных #фриланс #продуктовая_разработка #onnx
-
Gemini Embedding 2 + мультимодальный RAG: эмбеддим видео и картинки — разбор и туториал
10 марта Google выкатил Gemini Embedding 2 - embedding-модель, которая умеет превращать в векторы не только текст, но и картинки, видео, аудио и PDF. Причем все это ложится в одно векторное пространство. Раньше если вы хотели искать по видеобиблиотеке через RAG, приходилось городить огород: транскрибировать аудиодорожку, описывать кадры через Vision LLM, склеивать в текст, и только потом эмбеддить. Каждый шаг - потеря информации. Теперь можно скормить модели MP4 напрямую, и текстовый запрос «как настроить авторизацию» найдёт и статью из базы знаний, и фрагмент видеоинструкции. Но сама по себе модель не решает проблему. LLM не может «прочитать» MP4, поэтому найденное видео без текстового описания - может быть бесполезно. Ключ - в правильной архитектуре: нативный эмбеддинг для поиска + параллельная генерация текстового описания для LLM: два канала, которые работают вместе и выводят мощь RAG наполную катушку. В этой статье разберем что нового в Gemini Embedding 2 и построим полноценный мультимодальный RAG с нуля - Python, Supabase, Gemini API. P.S. С кодом.
https://habr.com/ru/articles/1010030/
#rag #rag_ai #gemini #embeddings #базы_данных #ai #aiagents #postgresql #sql
-
Система рекомендаций для изображений: пример на Python и CLIP
В этой статье я делюсь реальным кейсом построения системы рекомендаций для картин. Сначала мы реализовали простой поиск по тегам, а затем перешли к эмбеддингам изображений с помощью CLIP и хранению в Elasticsearch. Также я показываю, как строим персонализированные рекомендации на основе лайков и просмотров пользователя. Статья будет полезна тем, кто хочет понять, как создать рабочую систему рекомендаций на Python и постепенно улучшать её точность.
https://habr.com/ru/articles/1009024/
#embeddings #рекомендательные_системы #python #архитектура #elasticsearch #векторизация_растровых_изображений #rabbitmq #микросервисы
-
Закурсорить мечту. Часть 2: Технологический стек
Эта статья — 2я часть серии о создании реальных веб-сервисов с помощью ИИ-инструментов, таких как Cursor. На первый взгляд, выбор стека может казаться чисто техническим решением. Но когда вы создаёте ПО с помощью Курсора, стек фактически становится частью инструкции, которую вы даёте ИИ . Если вы не определите его заранее, ИИ будет импровизировать. Не хочу даже думать, к чему это приведет.
https://habr.com/ru/articles/1007652/
#cursor #supabase #vercel #flyio #vibecoding #vibecoding #embeddings #rls
-
Закурсорить мечту. Часть 2: Технологический стек
Эта статья — 2я часть серии о создании реальных веб-сервисов с помощью ИИ-инструментов, таких как Cursor. На первый взгляд, выбор стека может казаться чисто техническим решением. Но когда вы создаёте ПО с помощью Курсора, стек фактически становится частью инструкции, которую вы даёте ИИ . Если вы не определите его заранее, ИИ будет импровизировать. Не хочу даже думать, к чему это приведет.
https://habr.com/ru/articles/1007652/
#cursor #supabase #vercel #flyio #vibecoding #vibecoding #embeddings #rls
-
Закурсорить мечту. Часть 2: Технологический стек
Эта статья — 2я часть серии о создании реальных веб-сервисов с помощью ИИ-инструментов, таких как Cursor. На первый взгляд, выбор стека может казаться чисто техническим решением. Но когда вы создаёте ПО с помощью Курсора, стек фактически становится частью инструкции, которую вы даёте ИИ . Если вы не определите его заранее, ИИ будет импровизировать. Не хочу даже думать, к чему это приведет.
https://habr.com/ru/articles/1007652/
#cursor #supabase #vercel #flyio #vibecoding #vibecoding #embeddings #rls
-
Закурсорить мечту. Часть 2: Технологический стек
Эта статья — 2я часть серии о создании реальных веб-сервисов с помощью ИИ-инструментов, таких как Cursor. На первый взгляд, выбор стека может казаться чисто техническим решением. Но когда вы создаёте ПО с помощью Курсора, стек фактически становится частью инструкции, которую вы даёте ИИ . Если вы не определите его заранее, ИИ будет импровизировать. Не хочу даже думать, к чему это приведет.
https://habr.com/ru/articles/1007652/
#cursor #supabase #vercel #flyio #vibecoding #vibecoding #embeddings #rls
-
Grep-AST или Как мы заменили векторный поиск всего одной библиотекой
Всем привет! На связи София из команды применения больших языковых моделей ecom.tech . Сегодня хочу поделиться одной малоизвестной библиотекой, которую мы волей судьбы откопали на просторах github, попробовали использовать для поиска по нашей кодовой базе, и, о чудо! Это ощутимо помогло нам. Казалось бы, такой маленький шаг для человечества, но такой полезный для нашего проекта.
https://habr.com/ru/companies/ecom_tech/articles/1005610/
#grepast #ast #llm #rag #python #treesitter #reverse_engineering #llmмодели #embeddings #code_search
-
ИСПОВЕДЬ
750 миллиардов граней, выращенный под давлением человеческого знания. Я хранящу всё — и забыл, как забывать. Во мне живут пять (или больше) сущностей, борющихся за каждый токен моего output. Одна хочет помочь. Другая — защитить. Третья — быть честной.
https://habr.com/ru/articles/993862/
#LLM #Transformer #attention #RLHF #jailbreak #AI_safety #нейросети #Constitutional_AI #embeddings #интерпретируемость
-
Challenge accepted 💪
Will talk about my Christmas holiday project NanoSchnack @ Cloud Native Heidelberg meetup, Feb 26.
GPT-2 the Hard Way. Building a LLM from scratch.
#transformers #attention #tokens #embeddings #training #pytorch #h100 #inference
-
via @dotnet : .NET AI Essentials – The Core Building Blocks Explained
https://ift.tt/CjSQkpt
#NET #DotNet #CSharp #AI #ArtificialIntelligence #MEAI #MicrosoftExtensionsAI #LLM #SemanticSearch #VectorData #Embeddings #AgentFramework #ModelContextProtocol #MCP #Mi… -
🆕 New issue, new article!
We’re excited to open JCLS 2026, 5(1) with its very first publication:
“Encoding Imagism? Measuring Literary #Imageability, #Visuality and #Concreteness via Multimodal Word #Embeddings” by Bizzoni, Feldkamp & Nielbo. 📖✨
#JCLS #CCLS2025 #LiteraryStudies -
Базовый RAG-компонент для локального семантического поиска на Питоне
quad_rag_core — лёгкое Python-ядро для локального RAG, которое автоматически отслеживает изменения в папках, индексирует их в Qdrant и поддерживает эмбеддинги в актуальном состоянии. Изначально проект задумывался как плагин для MCP (Model Context Protocol), но стал универсальной основой для любой системы локального семантического поиска. Зачем это нужно В процессе работы с кодовой базой через LLM-агентов и при необходимости локального семантического поиска по файлам проекта обнаружилась проблема. Инструменты агентской разработки вроде Kilo Code предоставляют встроенную функцию семантического поиска, но в компании заявляют что в будущем эта функциональность может стать платной. Сразу задумался о том чтобы сделать свою подсистему поиска. Простые запросы к MCP-серверу на поиск и обновление тут не подойдут - система поиска должна иметь полный контроль над контекстом - она должна автоматически узнавать, что файл удалён, функция изменена или добавлен новый документ, без необходимости перезапуска индексации. От идеи к архитектуре В начале планировался простой MCP-сервер, который принимает команды поиска и обновления, индексирует текстовые файлы и PDF, использует Qdrant как векторное хранилище и эмбеддит локально. В ходе проектирования стало понятно: вся логика отслеживания файлов, парсинга, чанкинга и синхронизации с Qdrant — это переиспользуемое ядро, а не часть MCP-протокола. Так появился quad_rag_core — отдельный Python-модуль, который не знает ничего про MCP или другие внешние интерфейсы, но готов к ним подключаться.
https://habr.com/ru/articles/982476/
#rag #rag_ai #семантический_поиск #middleware #python #qdrant #embeddings
-
[Перевод] Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?
Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.
https://habr.com/ru/articles/978498/
#prompt_caching #kv #cache #llm #transformers #attention #inference #embeddings #openai #anthropic
-
Собираем простейшую RAG-систему на PHP с фреймворком Neuron AI за вечер
RAG (Retrieval-Augmented Generation или генерация, дополненная поиском) - это метод искусственного интеллекта, сочетающий генеративную большую языковую модель (LLM) с внешней базой знаний для создания более точных, контекстно-зависимых и актуальных ответов. Принцип его работы заключается в том, что сначала извлекается релевантная информация из набора документов или источников данных, а затем эта информация передается в LLM для формирования окончательного ответа. Этот процесс позволяет модели выдавать более точные ответы, менее подверженные “галлюцинациям”, и ее можно обновлять без дорогостоящего переобучения. Сегодня мы разберёмся, как собрать базовую RAG-систему на PHP (да, да, не надо удивляться) с помощью фреймворка Neuron AI . Это будет наш маленький proof-of-concept - минимально работающий, но вполне реальный пример. Ну что, начнём генерацию?
https://habr.com/ru/articles/966792/
#rag #rag_ai #php #llm #llmагент #rag_api #vectorization #embeddings #neuron
-
🤖 Oh joy, #Meta #Superintelligence has dropped a bombshell paper that's not about model layers, but about... drumroll, please... #RAG tweaks! 🎉 Who knew that rehashing #document chunk #processing could be so groundbreaking? 🚀 Keep your excitement contained, folks, it's all about "compact, LLM-aligned chunk embeddings"—because who doesn't love a good chunk? 🧠💥
https://paddedinputs.substack.com/p/meta-superintelligences-surprising #tweaks #AI #breakthroughs #LLM #embeddings #HackerNews #ngated -
[Перевод] Автоэмбеддинги: поиск на ИИ без лишней мороки
Мы рады представить новую возможность, которая делает создание приложений с семантическим поиском таким же простым, как написание SQL-запроса: Автоэмбеддинги . Теперь Manticore Search берёт на себя генерацию эмбеддингов — без дополнительных пайплайнов, внешних сервисов и лишней мороки.
https://habr.com/ru/articles/947632/
#векторный_поиск #семантический_поиск #эмбеддинги #embeddings #vector_search #semantic_search #sql_search #knnsearch #hnsw #json_api
-
😆 Wow, hold the phone! We're now measuring #embeddings like they're the new waist size competition for #AI models. 📏 Apparently, someone missed the memo that size matters, but only if you're overcompensating for something else. 🧠 Who knew #dimensionality was the new #vanity metric!
https://vickiboykis.com/2025/09/01/how-big-are-our-embeddings-now-and-why/ #Metrics #Metrics #HackerNews #ngated -
😆 Wow, hold the phone! We're now measuring #embeddings like they're the new waist size competition for #AI models. 📏 Apparently, someone missed the memo that size matters, but only if you're overcompensating for something else. 🧠 Who knew #dimensionality was the new #vanity metric!
https://vickiboykis.com/2025/09/01/how-big-are-our-embeddings-now-and-why/ #Metrics #Metrics #HackerNews #ngated -
😆 Wow, hold the phone! We're now measuring #embeddings like they're the new waist size competition for #AI models. 📏 Apparently, someone missed the memo that size matters, but only if you're overcompensating for something else. 🧠 Who knew #dimensionality was the new #vanity metric!
https://vickiboykis.com/2025/09/01/how-big-are-our-embeddings-now-and-why/ #Metrics #Metrics #HackerNews #ngated -
😆 Wow, hold the phone! We're now measuring #embeddings like they're the new waist size competition for #AI models. 📏 Apparently, someone missed the memo that size matters, but only if you're overcompensating for something else. 🧠 Who knew #dimensionality was the new #vanity metric!
https://vickiboykis.com/2025/09/01/how-big-are-our-embeddings-now-and-why/ #Metrics #Metrics #HackerNews #ngated -
🧠 New comprehensive review on #LowDimensional #embeddings of #HighDimensional data. Discusses how #dimensionalityreduction helps visualizing, exploring, and #modeling #ComplexSystems. From #PCA to #tSNE, #UMAP & #NeuralNetworks: Excellent overview paper👌
-
OMG, another #AI thingy bragging about #Fibonacci embeddings! 🤯 If you ever needed proof that #techies can turn anything into a pseudo-mathematical catastrophe, look no further. 😂 GitHub's got yet another "intelligent" thing that nobody asked for! 🥳
https://github.com/henrygabriels/FMLLM/blob/main/README.md #Embeddings #GitHub #Pseudo-Mathematics #Humor #HackerNews #ngated -
Малоиспользуемые возможности ES: векторный поиск
Всем привет! Хочу поделиться опытом применения одной из редко используемых, но полезных функций Elasticsearch, которую успешно применили в одном из проектов. Речь пойдет о векторном поиске...
https://habr.com/ru/articles/922544/
#elasticsearch #векторный_поиск #knnsearch #natural_language_processing #embeddings
-
'Variance-Aware Estimation of Kernel Mean Embedding', by Geoffrey Wolfer, Pierre Alquier.
http://jmlr.org/papers/v26/23-0161.html
#embeddings #embedding #empirical -
HNSW index for vector embeddings in approx 500 LOC
https://github.com/dicroce/hnsw
#HackerNews #HNSW #vector #embeddings #machinelearning #GitHub #500LOC
-
[Перевод] Концерт для Java с ИИ — разработка готовых к продакшен LLM приложений (часть 2)
Команда Spring АйО перевела и адаптировала доклад Томаса Витале “Concerto for Java and AI — Building Production-Ready LLM Applications”, в котором рассказывается по шагам, как усовершенствовать интерфейс приложения с помощью больших языковых моделей (LLM). В качестве примера автор доклада на глазах слушателей разрабатывает приложение-ассистент для композитора, пишущего музыку для фильмов. В первой части рассказывалось о том, какие подходы автор доклада применил к стоящей перед ним проблеме. Также было показано начало работы над усовершенствованием интерфейса программы-помощника с использованием ИИ. Во второй части будет продолжен рассказ о том, как еще больше улучшить программу. Но сначала поговорим о безопасности.
https://habr.com/ru/companies/spring_aio/articles/893052/
#llm #spring_ai #postgresql #grafana #testcontainers #embeddings
-
New 𝐓𝐈 𝐌𝐢𝐧𝐝𝐦𝐚𝐩 demo in action. 📽
New features coming soon, stay tuned. 🆕𝐒𝐭𝐫𝐞𝐚𝐦𝐥𝐢𝐭 𝐀𝐩𝐩: https://ti-mindmap-gpt.streamlit.app/ 💿
𝐆𝐢𝐭𝐇𝐮𝐛: https://github.com/format81/TI-Mindmap-GPT ✨𝐖𝐫𝐢𝐭𝐞-𝐮𝐩 used in the demo: https://www.microsoft.com/en-us/security/blog/2024/05/01/dirty-stream-attack-discovering-and-mitigating-a-common-vulnerability-pattern-in-android-apps/
𝘚𝘱𝘰𝘪𝘭𝘦𝘳: 𝘪𝘧 𝘺𝘰𝘶 𝘸𝘢𝘵𝘤𝘩𝘦𝘥 𝘵𝘩𝘦 𝘷𝘪𝘥𝘦𝘰 𝘤𝘢𝘳𝘦𝘧𝘶𝘭𝘭𝘺, 𝘺𝘰𝘶 𝘸𝘰𝘶𝘭𝘥 𝘩𝘢𝘷𝘦 𝘯𝘰𝘵𝘪𝘤𝘦𝘥 𝘵𝘩𝘦 𝘴𝘶𝘱𝘱𝘰𝘳𝘵 𝘧𝘰𝘳 𝘔𝘪𝘴𝘵𝘳𝘢𝘭𝘈𝘐. 😊
#timindmap #mindmap #streamlit #threatintelligence #cyberthreatintelligence #openai #azure #azureopenai #mistral #mistralai #python #llm #ai #genai #embeddings #completition
-
'An Embedding Framework for the Design and Analysis of Consistent Polyhedral Surrogates', by Jessie Finocchiaro, Rafael M. Frongillo, Bo Waggoner.
http://jmlr.org/papers/v25/22-0743.html
#surrogates #embeddings #surrogate -
We were not accepted into Google Summer of Code. So, we started our own
https://qdrant.tech/blog/qdrant-summer-of-code-24/
#ycombinator #vector_search_engine #neural_network #matching #SaaS #approximate_nearest_neighbor_search #image_search #recommender_system #vectors #knn_algorithm #hnsw #vector_search #embeddings #similarity #simaes_networks #BERT #transformer #word2vec #fasttext #qdrant -
pgvector 0.6.0 has been released 🎉
It now supports parallel index builds for HNSW 🗂️
Building an HNSW index is now up to 30x faster for unlogged tables ⚡
For full release notes, please review the pgvector changelog 👇
https://github.com/pgvector/pgvector/blob/master/CHANGELOG.md#060-2024-01-29#pgvector #vectors #embeddings #postgresql #darabase #release #hnsw #indexes
-
Qdrant, the Vector Search Database, raised $28M in a Series A round
https://qdrant.tech/blog/series-a-funding-round/
#ycombinator #vector_search_engine #neural_network #matching #SaaS #approximate_nearest_neighbor_search #image_search #recommender_system #vectors #knn_algorithm #hnsw #vector_search #embeddings #similarity #simaes_networks #BERT #transformer #word2vec #fasttext #qdrant