#yandexgpt — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #yandexgpt, aggregated by home.social.
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
-
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре. Из‑за этого русский текст в облачных сервисах вроде OpenAI обходится примерно в 2 раза дороже английского, медленнее обрабатывается, и в одно «контекстное окно» нейросети помещается заметно меньше реального содержания. Эта статья — про то, откуда берётся разница, как её измерить на ваших данных и какие модели лучше работают с русским языком.
https://habr.com/ru/articles/1032610/
#llm #токенизация #нейросети #локальный_ии #selfhosted #кириллица #qwen #gigachat #llama #yandexgpt
-
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре. Из‑за этого русский текст в облачных сервисах вроде OpenAI обходится примерно в 2 раза дороже английского, медленнее обрабатывается, и в одно «контекстное окно» нейросети помещается заметно меньше реального содержания. Эта статья — про то, откуда берётся разница, как её измерить на ваших данных и какие модели лучше работают с русским языком.
https://habr.com/ru/articles/1032610/
#llm #токенизация #нейросети #локальный_ии #selfhosted #кириллица #qwen #gigachat #llama #yandexgpt
-
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре. Из‑за этого русский текст в облачных сервисах вроде OpenAI обходится примерно в 2 раза дороже английского, медленнее обрабатывается, и в одно «контекстное окно» нейросети помещается заметно меньше реального содержания. Эта статья — про то, откуда берётся разница, как её измерить на ваших данных и какие модели лучше работают с русским языком.
https://habr.com/ru/articles/1032610/
#llm #токенизация #нейросети #локальный_ии #selfhosted #кириллица #qwen #gigachat #llama #yandexgpt
-
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре. Из‑за этого русский текст в облачных сервисах вроде OpenAI обходится примерно в 2 раза дороже английского, медленнее обрабатывается, и в одно «контекстное окно» нейросети помещается заметно меньше реального содержания. Эта статья — про то, откуда берётся разница, как её измерить на ваших данных и какие модели лучше работают с русским языком.
https://habr.com/ru/articles/1032610/
#llm #токенизация #нейросети #локальный_ии #selfhosted #кириллица #qwen #gigachat #llama #yandexgpt
-
Робот, способный создать себя сам. Режим «Инженера» в робототехнике
Скажите роботу «настрой манипулятор» — и он напишет драйвер сам. Звучит как фантастика из тех самых фильмов 80-х и 90-х, но мы уже реализовали это в OpenGrall. Рассказываю, как работает режим Инженера и почему последнее слово всегда остаётся за человеком
https://habr.com/ru/articles/1030526/
#LLM #VLM #робототехника #OpenGrall #ИИ #Python #WebSocket #YandexGPT #DeepSeek #самокодинг
-
Робот, способный создать себя сам. Режим «Инженера» в робототехнике Скажите роботу «настрой манипулятор» ...
#LLM #VLM #робототехника #OpenGrall #ИИ #Python #WebSocket #YandexGPT #DeepSeek #самокодинг
Origin | Interest | Match -
LLM бенчмарк «Испытание Дали» Выбирая LLM для своего первого пет-проекта, я случайно создал бенчмарк для LLM "...
#искусственный #интеллект #llm #бенчмарки #prompt-engineering #gpt-5 #claude #gemini #gigachat #yandexgpt #5
Origin | Interest | Match -
max-yandexgpt: YandexGPT в мессенджере MAX за 5 строк кода
Max мессенджер появился недавно, и пока экосистема вокруг него только формируется. YandexGPT - мощная языковая модель с OpenAI-совместимым API. Казалось бы, собрать из этого бота - задача на вечер. На практике оказалось, что готового инструмента, который бы связал эти две вещи, просто нет. Я написал max-yandexgpt - Python-фреймворк, который позволяет запустить AI-бота в Max мессенджере с YandexGPT за 5 строк кода. Со стримингом ответов, выбором модели и нормальной конфигурацией. В этой статье расскажу, как он устроен и зачем.
https://habr.com/ru/articles/1021740/
#max #yandexgpt #yandexgpt_5 #мессенджер #макс #яндекс #yandexgpt5pro #yandexgpt5lite #api #интеграция
-
max-yandexgpt: YandexGPT в мессенджере MAX за 5 строк кода
Max мессенджер появился недавно, и пока экосистема вокруг него только формируется. YandexGPT - мощная языковая модель с OpenAI-совместимым API. Казалось бы, собрать из этого бота - задача на вечер. На практике оказалось, что готового инструмента, который бы связал эти две вещи, просто нет. Я написал max-yandexgpt - Python-фреймворк, который позволяет запустить AI-бота в Max мессенджере с YandexGPT за 5 строк кода. Со стримингом ответов, выбором модели и нормальной конфигурацией. В этой статье расскажу, как он устроен и зачем.
https://habr.com/ru/articles/1021740/
#max #yandexgpt #yandexgpt_5 #мессенджер #макс #яндекс #yandexgpt5pro #yandexgpt5lite #api #интеграция
-
max-yandexgpt: YandexGPT в мессенджере MAX за 5 строк кода
Max мессенджер появился недавно, и пока экосистема вокруг него только формируется. YandexGPT - мощная языковая модель с OpenAI-совместимым API. Казалось бы, собрать из этого бота - задача на вечер. На практике оказалось, что готового инструмента, который бы связал эти две вещи, просто нет. Я написал max-yandexgpt - Python-фреймворк, который позволяет запустить AI-бота в Max мессенджере с YandexGPT за 5 строк кода. Со стримингом ответов, выбором модели и нормальной конфигурацией. В этой статье расскажу, как он устроен и зачем.
https://habr.com/ru/articles/1021740/
#max #yandexgpt #yandexgpt_5 #мессенджер #макс #яндекс #yandexgpt5pro #yandexgpt5lite #api #интеграция
-
max-yandexgpt: YandexGPT в мессенджере MAX за 5 строк кода
Max мессенджер появился недавно, и пока экосистема вокруг него только формируется. YandexGPT - мощная языковая модель с OpenAI-совместимым API. Казалось бы, собрать из этого бота - задача на вечер. На практике оказалось, что готового инструмента, который бы связал эти две вещи, просто нет. Я написал max-yandexgpt - Python-фреймворк, который позволяет запустить AI-бота в Max мессенджере с YandexGPT за 5 строк кода. Со стримингом ответов, выбором модели и нормальной конфигурацией. В этой статье расскажу, как он устроен и зачем.
https://habr.com/ru/articles/1021740/
#max #yandexgpt #yandexgpt_5 #мессенджер #макс #яндекс #yandexgpt5pro #yandexgpt5lite #api #интеграция
-
Мультиагентная система без LangChain: почему абстракции ломаются и как строить production на чистом Python
LangChain обещает: переключите модель одной строкой, подключите RAG за две. У меня в production мультиагентная система с RAG, CRM и тремя мессенджерами — и я построил её без LangChain. Под катом — почему абстракции ломаются, сколько стоит фоллбек на YandexGPT и при чём тут медведь с удочкой.
https://habr.com/ru/articles/1020810/
#LangChain #Python #мультиагентная_система #RAG #LLM #YandexGPT #OpenAI #FastAPI #production #ChromaDB
-
Антиспам на нейронках: Gemini Flash в 1000 раз дешевле чем GigaChat
Сравниваю бесплатные лимиты GigaChat, YandexGPT и Gemini Flash для реальной задачи: антиспам-бот в Telegram, 5000 сообщений в сутки. Считаю токены, потоки и рублики. Разница в лимитах оказалась в 1000 раз.
https://habr.com/ru/articles/1018674/
#LLM #GigaChat #YandexGPT #Gemini #антиспам #Telegram #нейросети #API #сравнение #бесплатный_тир
-
Kimi K2.5 наступает на пятки GPT-5.4. И работает из России без VPN
Бенчмарков сейчас – как нейросетей: каждую неделю новый. GPQA Diamond тестирует PhD-знания. Lexometrica проверяет фактическую точность. LLM Persuasion Benchmark – способность убеждать в дебатах. Chatbot Arena – предпочтения живых людей. Резонный вопрос: зачем ещё один? Два ответа. Первый: ценность бенчмарков – в перекрёстном подтверждении. GPT-5.4 – первое место у нас, в GPQA Diamond, в Lexometrica и в Persuasion Benchmark. Kimi K2.5 – шестое и у нас, и у Lexometrica. YandexGPT и GigaChat – внизу везде, где они вообще есть (в GPQA Diamond из 154 моделей – не попали). Четыре независимых бенчмарка – один и тот же вердикт. Второй – важнее. Мы не нашли ни одного систематического бенчмарка, который тестирует российские модели бок о бок с глобальными на практических задачах. Если знаете такой – напишите в комментариях. Наше исследование: 54 модели, 32 сценария на русском языке, промпты как пишет живой менеджер, два LLM-судьи с калибровкой. Обновление предыдущей статьи . Интерактивные результаты – на сайте . Детали по исследованию
-
RAG-бот на YandexGPT без Python и оркестраторов. Кейс внедрения «Яндекс Агента» в медицине
Автоматизация клиентского сервиса в медицине — это всегда баланс между точностью данных и скоростью ответа. Рассказываем, как мы создавали для фармацевтической компании «Буарон» умного помощника на базе Yandex Cloud Agent, который обеспечивает круглосуточную обработку запросов и использует связку PHP и WordPress. Есть два фактора, которые гарантированно дают большую нагрузку на службу поддержки портала – это сложный продукт и широкий ассортимент. Фармацевтическая компания «Буарон» объединила оба. «Буарон» (Boiron) – один из мировых лидеров в производстве лекарств на основе природных субстанций, который в России представляет 130 гомеопатических монопрепаратов и 10 комплексных лекарств. База знаний включает в себя не только описания отдельных средств, но и комплексные решения, такие как «ЛОР-протокол», что требует от ИИ-ассистента высокой точности при сопоставлении запроса пользователя с нужным разделом. Портал компании заключает в себе огромный объем информации, в которой посетителю непросто ориентироваться. В год пользователи оставляют на сайте более 300 000 запросов – это больше 800 в сутки, при этом ответы не всегда находились, а часть обращений терялась или требовала личного участия специалистов. Перед нами в QSOFT стояла задача автоматизировать обработку пользовательских запросов на сайте о клинической гомеопатии, снизить нагрузку на специалистов и сократить число пропущенных обращений. Для этого было решено создать умного помощника на базе Yandex Cloud Agent.
-
Россия — третий полюс мирового AI. Агентов запускаем на Raspberry Pi
a16z включил Россию в тройку AI-держав - наряду с Западом и Китаем. Яндекс Браузер в топ-10 мировых AI-приложений. GigaChat дебютировал в глобальном рейтинге. А потом смотришь на цифры изнутри - и видишь 48-е место, GPU-голод и агентов на Raspberry Pi.
-
Мы протестировали 33 AI-модели на задачах менеджера. Вот что доступно в России без VPN
Каждый производитель LLM заявляет о лидерстве. OpenAI – «самая мощная модель». Anthropic – «самая безопасная». Яндекс – «лучше всех понимает русский». Проверить эти заявления, не потратив месяц на ручное тестирование, – задача нетривиальная. Мы решили попробовать.
-
Мы протестировали 33 AI-модели на задачах менеджера. Вот что доступно в России без VPN Каждый производитель LLM з...
#Исследование #ИИ #yandexgpt #deepseek
Origin | Interest | Match -
Этот продукт Google растет так быстро, что оставил конкурентов далеко позади Сервис Gemini стал настоящим локомо...
#Искусственный #интеллект #Claude #DeepSeek #Google #Gemini #Grok #OpenAI #ChatGPT #YandexGPT
Origin | Interest | Match -
Перспективы национальной LLM. Личное мнение
Полностью самостоятельная разработка LLM дело дорогое, требующее высококвалифицированных кадров (математиков и инженеров), высокопроизводительного оборудования (графических ускорителей, быстрой памяти и процессоров), и, самое главное, наличие школы. Часто эффективные менеджеры недооценивают необходимость опыта в разработке и производстве чего-либо. Наличие желания и денег не всегда приводит к нужному результату. В этой статье я рассмотрю возможное развитие национальной LLM со своей точки зрения, которая, как вы понимаете, может быть ошибочной, либо меняться под давлением обстоятельств.
-
RAG на PHP + Qdrant: быстрый MVP для внутренней базы знаний
RAG на PHP - звучит непривычно. Делюсь опытом построения чат-бота для поиска по внутренней базе документов: Symfony, Qdrant с гибридным поиском, YandexGPT для embedding и генерации ответов. Внутри — готовый код, подводные камни чанкинга и советы, которые сэкономят вам время.
https://habr.com/ru/articles/1001156/
#rag #retrieval_augmented_generation #llm #qdrant #yandexgpt #php #rag_pipeline #neuron
-
Подключаем российские AI-сервисы к OpenClaw: GigaChat, YandexGPT и Yandex 360
Интегрируем российские AI-сервисы (GigaChat от Сбера, YandexGPT и Yandex 360) с OpenClaw — open-source платформой для AI-агентов. Создаём русскоязычных агентов, подключаем CalDAV календарь и Yandex Disk. Все с нуля, с кодом и troubleshooting.
https://habr.com/ru/articles/996966/
#openclaw #gigachat #yandexgpt #yandex_360 #ai_агенты #chatbot #claude #llm #telegram_bot #multiagent
-
Юрист нашёл в договоре 32 проблемы, AI — 41. Разбираю, кто что пропустил
Как детекторы на основе судебной практики довели AI-анализатор до 41 находки при 0 ложных срабатываний. Как анализ работы юриста превратился в 23 новых проверки. И почему юрист до сих пор незаменим — но уже в другом.
https://habr.com/ru/articles/994794/
#ai #llm #nlp #claude #yandexgpt #юридический_анализ #анализ_договоров #legaltech #автоматизация #рискменеджмент
-
Как оптимизация промптов превратилась из шаманства в инженерную дисциплину
Ещё пару лет назад промпт-инжиниринг выглядел как подбор удачного заклинания: "а давай добавим think step by step , "а давай попросим быть аккуратнее" и о приправим xml-тегами". Сегодня это типовая задача оптимизации в условиях чёрного ящика . Уже 2026 год и современные LLM одновременно:
https://habr.com/ru/articles/994624/
#promptengineering #prompt_tuning #prompt_library #prompting #gemini #claude #chatgpt #deepseek #gigachat #yandexgpt
-
Карта российских ИИ-платформ для аналитика
GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.
https://habr.com/ru/articles/992872/
#GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering
-
Карта российских ИИ-платформ для аналитика
GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.
https://habr.com/ru/articles/992872/
#GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering
-
Карта российских ИИ-платформ для аналитика
GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.
https://habr.com/ru/articles/992872/
#GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering
-
Карта российских ИИ-платформ для аналитика
GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.
https://habr.com/ru/articles/992872/
#GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering
-
Добавил Claude к YandexGPT в анализатор договоров — нашёл в 2.5 раза больше рисков
Две недели назад я рассказывал про AI-анализатор договоров на YandexGPT. Система находила риски, но были проблемы: ложные срабатывания и пропуски. Добавил Claude как второй LLM-провайдер и написал 25 текстовых детекторов, которые проверяют математику за нейросетью. На том же договоре поставки Claude нашёл 27 рисков против 11 у YandexGPT. В статье — архитектура двухслойной валидации, сравнение моделей и экономика для бизнеса.
https://habr.com/ru/articles/992074/
#анализ_договоров #проверка_договора #LLM #Claude #YandexGPT #юридические_риски #Legal_Tech #NLP #автоматизация #GPT_договор
-
Я сделал AI-анализатор договоров и проверил его на 5 кейсах, где люди потеряли 1,6 млн
Как я построил модульную систему промптов для YandexGPT, почему GPT из коробки галлюцинирует на юридических документах, и что из этого получилось.
https://habr.com/ru/articles/986964/
#yandexgpt #искусственный_интеллект #право #llm #LegalTech #договоры #автоматизация #анализ_документов #prompt_engineering
-
Электроналиватор: делаем автомат для коктейлей с помощью Raspberry Pi, нейросети и фанеры
Привет, Хабр! Меня зовут Владислав Волох, я руковожу группой разработки сервиса DataSphere в Yandex Cloud — и я люблю учить нейросети тому, что делать вручную не хочется. Эта любовь к инженерным решениям и ML пригодилась в быту: так появился мой пет‑проект автомата для приготовления простых коктейлей со встроенной базой рецептов, который уже полюбился многим коллегам. В этой статье расскажу, как это работает и как я собирал свой аппарат под управлением iOS, не написав при этом ни одной строчки кода.
https://habr.com/ru/companies/yandex/articles/985556/
#ai #raspberry_pi #cursor #yandexgpt #alice_ai #alice_ai_llm #роботбариста #автоматизация_дома
-
Взаимодействие джунов и AI-помощников
Всем привет! В настоящее время очень активно насаждается использование AI программистам, так было в зелёном банке, в котором я отработал последние три года. Использование AI-помощников в основном продвигалось у нас сверху, людьми, которые никак не связаны с IT и не имеют технического образования. В общем я хочу подсветить те проблемы, которые наблюдал за время работы, когда джуны взаимодействовали с AI для написания кода, такими как ChatGPT, GigaChat или YandexGPT. Статья рассчитана на людей, которые пропагандируют эти инструменты и не разбираются в них, возможно это поможет им лучше понять, сильные и слабые стороны использования AI-помощников. Впрочем, прошу под кат всех желающих, в любом случае я постараюсь не использовать код, а передать именно суть на примерах из своего личного опыта.
https://habr.com/ru/articles/978174/
#aiассистент #aiпомощник #джуниор #джун #ChatGPT #GigaChat #YandexGPT
-
Как LLM-вендоры обращаются с вашими данными: подробный разбор безопасности и конфиденциальности
Привет, Хабр! Я Андрей Яковлев , исследователь в области информационной безопасности . Работаю с корпоративными AI‑сервисами и активно внедряю технологии искусственного интеллекта в продукты Positive Technologies. 2025 год перевернул привычные ожидания и практики, связанные с конфиденциальностью больших языковых моделей (LLM) Представьте ситуацию: вы технологическая компания, которая несколько лет использует ChatGPT для быстрого прототипирования и поддержки клиентских запросов. Раньше казалось, что раз диалог удалён — значит, данные исчезают навсегда. Но в мае 2025 года федеральный суд США в рамках искового дела The New York Times к OpenAI поставил точку в этом заблуждении — OpenAI обязали бессрочно хранить все пользовательские данные (включая удалённые через пользовательский интерфейс). В этой статье я разберу различные LLM-ки и расскажу, как их разработчики решают проблему конфиденциальности. Предупреждаю – достанется всем :) Исследование охватывает западных вендоров ( OpenAI , Anthropic , Google AI , GitHub Copilot ), российские решения ( GigaChat , YandexGPT ), китайскую платформу DeepSeek , а также ключевых провайдеров-агрегаторов ( OpenRouter , Cursor , Windsurf ). Анализ включает детальное сравнение политик для частного и корпоративного использования, документированные случаи утечек данных и их последствия, а также практические рекомендации по выбору решений в зависимости от требований к безопасности данных.
https://habr.com/ru/companies/pt/articles/973402/
#LLM #cursor #безопасность #хранение_данных #chatgpt #deepseek #yandexgpt #openai #copilot #gigachat
-
Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)
Привет, Хабр! 👋 Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат. В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ... , и я решил создать универсальный слой абстракции . Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке). Сегодня расскажу, как я её проектировал, с какими сложностями столкнулся при интеграции GigaChat и YandexGPT, и как за пару дней довел проект до релиза v0.2.0 на PyPI с 88% покрытия тестами.
https://habr.com/ru/articles/972740/
#python #open_source #llm #gigachat #yandexgpt #api #ollama #langchain
-
Протестировал 8 брендов LLM на честность, логику и креатив. Claude победил, но Алиса неожиданно в топ-3
Бенчмарки LLM множатся как грибы после дождя, но обычному пользователю от них мало толку. Оценки программирования, математики, этики — всё это важно для разработчиков, но что, если вы просто хотите получить помощь в повседневных задачах? Я решил проверить популярные модели на том, что действительно важно: - Креативность без потери здравого смысла - Логика без галлюцинаций - Внимание к деталям без педантизма Все промпты — в статье. Можете повторить и проверить мои выводы.
https://habr.com/ru/articles/971600/
#искусственный_интеллект #llm #бенчмарк #сезон_ии_в_разработке #yandexgpt #gigachat
-
Как я создал тиндер для подбора подарков, не умея кодить
Всем привет! Меня зовут Андрей. По профессии я занимаюсь стратегией и развитием нового бизнеса в российском телекоме. Но мне всегда была близка история создать что-то своё, полезное, красивое и технологичное. И недавно я это сделал, создав GIFTbase. Ниже, кратко расскажу про путь, который прошли я и моя идея, зародившаяся ещё в 2018 году, в эпоху отсутствия продвинутых языковых моделей, до наших дней и недавнего релиза приложения в Play Store. Возможно, эта история будет полезна или поучительна некоторым читателям с такими же планами, как были у меня.
https://habr.com/ru/articles/965112/
#вайбкодинг #мобильные_приложения #android #yandexgpt #программирование_для_начинающих #подарки #вишлист #ииагенты #ии
-
ReVu — Open Source AI-ревьюер для ваших Pull Request
Всем привет! Недавно мы с приятелем обсуждали, как устроены рабочие процессы в бигтех-компаниях и какую роль в них уже играет ИИ. Речь в основном шла о зарубежных компаниях — у него там есть знакомые, которые делились опытом изнутри. Один из самых любопытных моментов — использование искусственного интеллекта для предварительного код-ревью в Pull Request : прежде чем коллеги возьмутся проверять изменения, PR уже анализирует ИИ и указывает на потенциальные проблемы. Эта идея меня зацепила, и я решил изучить, какие готовые решения уже существуют (кроме встроенного в GitHub Copilot). Из более-менее крупных нашёл только PR Agent . Я протестировал его, но по ряду причин он мне не подошёл: хотелось больше гибкости , настройки под свои нужды и возможности запускать всё самостоятельно, без передачи кода сторонним сервисам . Так родился проект ReVu — self-hosted инструмент для автоматического код-ревью в Pull Request с помощью ИИ. Он универсален, легко кастомизируется и не требует доверять исходный код внешним платформам. Если вам интересны подобные материалы и проекты, подписывайтесь на Telegram-канал «Код на салфетке» — там я делюсь гайдами для новичков, историями разработки и полезными инструментами.
https://habr.com/ru/articles/954860/
#Код_без_границ #python #open_source #fastapi #openai #gigachat #yandexgpt #ревью_кода #ревью_pull_request #ai_code_review
-
ReVu — Open Source AI-ревьюер для ваших Pull Request
Всем привет! Недавно мы с приятелем обсуждали, как устроены рабочие процессы в бигтех-компаниях и какую роль в них уже играет ИИ. Речь в основном шла о зарубежных компаниях — у него там есть знакомые, которые делились опытом изнутри. Один из самых любопытных моментов — использование искусственного интеллекта для предварительного код-ревью в Pull Request : прежде чем коллеги возьмутся проверять изменения, PR уже анализирует ИИ и указывает на потенциальные проблемы. Эта идея меня зацепила, и я решил изучить, какие готовые решения уже существуют (кроме встроенного в GitHub Copilot). Из более-менее крупных нашёл только PR Agent . Я протестировал его, но по ряду причин он мне не подошёл: хотелось больше гибкости , настройки под свои нужды и возможности запускать всё самостоятельно, без передачи кода сторонним сервисам . Так родился проект ReVu — self-hosted инструмент для автоматического код-ревью в Pull Request с помощью ИИ. Он универсален, легко кастомизируется и не требует доверять исходный код внешним платформам. Если вам интересны подобные материалы и проекты, подписывайтесь на Telegram-канал «Код на салфетке» — там я делюсь гайдами для новичков, историями разработки и полезными инструментами.
https://habr.com/ru/articles/954860/
#Код_без_границ #python #open_source #fastapi #openai #gigachat #yandexgpt #ревью_кода #ревью_pull_request #ai_code_review
-
ReVu — Open Source AI-ревьюер для ваших Pull Request
Всем привет! Недавно мы с приятелем обсуждали, как устроены рабочие процессы в бигтех-компаниях и какую роль в них уже играет ИИ. Речь в основном шла о зарубежных компаниях — у него там есть знакомые, которые делились опытом изнутри. Один из самых любопытных моментов — использование искусственного интеллекта для предварительного код-ревью в Pull Request : прежде чем коллеги возьмутся проверять изменения, PR уже анализирует ИИ и указывает на потенциальные проблемы. Эта идея меня зацепила, и я решил изучить, какие готовые решения уже существуют (кроме встроенного в GitHub Copilot). Из более-менее крупных нашёл только PR Agent . Я протестировал его, но по ряду причин он мне не подошёл: хотелось больше гибкости , настройки под свои нужды и возможности запускать всё самостоятельно, без передачи кода сторонним сервисам . Так родился проект ReVu — self-hosted инструмент для автоматического код-ревью в Pull Request с помощью ИИ. Он универсален, легко кастомизируется и не требует доверять исходный код внешним платформам. Если вам интересны подобные материалы и проекты, подписывайтесь на Telegram-канал «Код на салфетке» — там я делюсь гайдами для новичков, историями разработки и полезными инструментами.
https://habr.com/ru/articles/954860/
#Код_без_границ #python #open_source #fastapi #openai #gigachat #yandexgpt #ревью_кода #ревью_pull_request #ai_code_review