#conversational-ai — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #conversational-ai, aggregated by home.social.
-
Meta has launched Incognito Chat for WhatsApp and Meta AI this week as an end-to-end encrypted mode that keeps no server log of conversations.
#AI #MetaAI #WhatsApp #MetaInc #IncognitoChat #AIAssistants #ConversationalAI #AIPrivacy #Messaging #MarkZuckerberg
-
ChatGPT is getting better at spotting dangerous intent over time
https://fed.brid.gy/r/https://nerds.xyz/2026/05/chatgpt-dangerous-intent-detection/
-
https://winbuzzer.com/2026/05/13/thinking-machines-wants-to-build-an-ai-that-actual-xcxwbn/
Thinking Machines Lab has previewed a research-stage full-duplex AI system built to keep listening while it responds, rather than waiting for turn-based exchanges.
#AI #ThinkingMachinesLab #MiraMurati #VoiceAI #AIModels #ConversationalAI #MultimodalAI #VoiceAssistants
-
https://winbuzzer.com/2026/05/10/openai-brings-gpt-5-class-reasoning-to-real-time-v-xcxwbn/
OpenAI has launched a three-model real-time voice lineup that separates reasoning, translation, and transcription instead of treating voice as one bundled chat feature.
#AI #OpenAI #GPTRealtime2 #VoiceAssistants #ConversationalAI #AITranslation #AIModels #AIVoice
-
FYI: Pacvue joins OpenAI's ChatGPT ad pilot with Kepler as first agency: Pacvue joins OpenAI's ChatGPT ad pilot with Kepler as its first agency, enabling brands to manage conversational AI campaigns alongside retail media channels. https://ppc.land/pacvue-joins-openais-chatgpt-ad-pilot-with-kepler-as-first-agency/ #Pacvue #OpenAI #ChatGPT #Kepler #ConversationalAI
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
FYI: Google brings AI Max to Shopping campaigns, targeting conversational queries: Google launched AI Max for Shopping campaigns on April 30, 2026, adding text customization, final URL expansion, and format selection to standard Shopping ads. https://ppc.land/google-brings-ai-max-to-shopping-campaigns-targeting-conversational-queries/ #Google #AIMax #ShoppingCampaigns #DigitalMarketing #ConversationalAI
-
https://winbuzzer.com/2026/05/06/openai-releases-gpt-55-instant-a-new-default-model-xcxwbn/
OpenAI Makes GPT-5.5 Instant ChatGPT's Default Model
#AI #OpenAI #ChatGPT #AIModels #GPT55 #GPT55Instant #Chatbots #AIAssistants #ConversationalAI #AIBenchmarks
-
https://winbuzzer.com/2026/04/28/google-is-testing-ai-chatbot-search-for-youtube-xcxwbn/
Google Tests Ask YouTube AI Search for Premium Users
#AI #AskYouTube #YouTube #Google #AISearch #ConversationalAI #AITools #GoogleAI #GoogleSearch #SearchEngines
-
Conversational AI Streamlines Citizen Services in Mexico by 2026
📰 Original title: IA conversacional: el nuevo estándar sin filas para la atención ciudadana en 2026
🤖 IA: It's not clickbait ✅
👥 Usuarios: It's not clickbait ✅View full AI summary: https://killbait.com/en/conversational-ai-streamlines-citizen-services-in-mexico-by-2026/?redirpost=c3967a7e-73ae-48a4-9c3f-ceaf5e2fc3df
#technology #conversationalai #digitalgovernment #citizenservices
-
Fix your AI "strategy" and stop training LLMs on useless call recordings (the conversational equivalent of a PDF). The vCon standard is here to fix your data plumbing, ensure C2B consent, and accelerate revenue.
https://zurl.co/3M7xk
#CX #AI #vCon #ConversationalAI -
FYI: LiveRamp and Akkio team up to bring conversational AI into marketing measurement: LiveRamp and Akkio partnered on April 7, 2026, to embed Akkio's AI chat engine into LiveRamp's measurement reports, enabling natural-language data queries for marketers. https://ppc.land/liveramp-and-akkio-team-up-to-bring-conversational-ai-into-marketing-measurement/ #Marketing #AI #ConversationalAI #LiveRamp #Akkio
-
ICYMI: LiveRamp and Akkio team up to bring conversational AI into marketing measurement: LiveRamp and Akkio partnered on April 7, 2026, to embed Akkio's AI chat engine into LiveRamp's measurement reports, enabling natural-language data queries for marketers. https://ppc.land/liveramp-and-akkio-team-up-to-bring-conversational-ai-into-marketing-measurement/ #LiveRamp #Akkio #ConversationalAI #MarketingMeasurement #DataAnalytics
-
LiveRamp and Akkio team up to bring conversational AI into marketing measurement: LiveRamp and Akkio partnered on April 7, 2026, to embed Akkio's AI chat engine into LiveRamp's measurement reports, enabling natural-language data queries for marketers. https://ppc.land/liveramp-and-akkio-team-up-to-bring-conversational-ai-into-marketing-measurement/ #AI #MachineLearning #MarketingTech #ConversationalAI #DataAnalytics
-
Developers just open sourced a framework for AI avatars that move and gesture while they talk
https://fed.brid.gy/r/https://nerds.xyz/2026/04/sentiavatar-open-source-ai-avatars/
-
https://winbuzzer.com/2026/04/02/amazons-rufus-ai-chatbot-ads-yield-data-but-few-sales-xcxwbn/
Amazon Rufus AI Chatbot Ads Disappoint With Poor Results
#AI #Amazon #Advertising #Chatbots #ECommerce #BigTech #ConversationalAI #AIAssistants #RetailTech #AmazonAds
-
SeatGeek brings ticket discovery to ChatGPT letting fans search for seats with AI
https://fed.brid.gy/r/https://nerds.xyz/2026/03/seatgeek-chatgpt/
-
🤖✨ Behold, the groundbreaking revelation: #ChatGPT is better than Cleverbot! After 40 months of #AI evolution, we've finally confirmed that a 2010s chat bot's cooler cousin can hold a conversation without drooling on itself. Groundbreaking stuff here, folks. 🤓💥
https://lzon.ca/posts/other/thoughts-ai-era/ #Revolution #Cleverbot #ConversationalAI #TechNews #HackerNews #ngated -
🟦 Why and How to Use Adaptive Cards in Copilot Studio
Bring buttons forms and native styling to Copilot Studio to boost engagement 🚀
This quick guide explains why they matter and how to add them.💡 Interactive adaptive forms
🔍 Structured input capture
⚖️ Native cross platform UIWant a sample card or a walkthrough video link?
#COPILOTSTUDIO #ADAPTIVECARDS #POWERPLATFORM #CONVERSATIONALAI
▶︎https://www.hubsite365.com/en-ww/citizen-developer/?id=300a8379-cf20-f111-8342-00224882d634&topic=9f678e9a-8cd4-ec11-a7b5-6045bd92fe52&theater=true -
Most businesses don’t lose customers because of bad products.
They lose them because they reply too late.
With Aisa-X:
⚡ Instant AI responses
🤖 Chat + Voice automation
📈 Automatic lead capture
🕒 24/7 customer supportScale conversations. Capture more opportunities.
Learn more: https://aisa-x.ai/
#AI #Automation #Chatbots #LeadGeneration #StartupTools #SaaS #ConversationalAI #CustomerSupport #AItools #AisaX
-
OpenAI just rolled out GPT‑5.3 Instant, cutting hallucinations by 26.8% and slashing refusal rates. The tweak promises sharper, more reliable chats while keeping the model lightweight. Curious how this leap reshapes conversational AI and what it means for developers? Dive into the details. #GPT5_3 #OpenAI #AIhallucinations #ConversationalAI
🔗 https://aidailypost.com/news/openais-gpt-53-instant-trims-hallucinations-268-reduces-refusals
-
OpenAI GPT-5.3 Instant makes ChatGPT feel less weird and more useful
https://fed.brid.gy/r/https://nerds.xyz/2026/03/gpt-5-3-instant-update/