home.social

#интернет — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #интернет, aggregated by home.social.

  1. Эпоха «громких» людей: как интернет выдал каждому рупор

    Раньше голос одного человека был практически не слышен. Если у вас не было прямого доступа к крупным медиа или печатным изданиям, ваши идеи оставались исключительно в узком кругу друзей и знакомых. Вся система коммуникаций была выстроена так, что транслировать свое личное мнение на широкую аудиторию было привилегией. Но появление интернета полностью изменило эту логику. Сеть дала каждому мощнейший цифровой рупор. Даже один, казалось бы, совершенно маленький человек мог стать для огромной системы оглушительно громким.

    habr.com/ru/articles/1033726/

    #цензура #интернет #блокировки #медиа #общество #фнс #социальные_сети #госслужба

  2. Эпоха «громких» людей: как интернет выдал каждому рупор

    Раньше голос одного человека был практически не слышен. Если у вас не было прямого доступа к крупным медиа или печатным изданиям, ваши идеи оставались исключительно в узком кругу друзей и знакомых. Вся система коммуникаций была выстроена так, что транслировать свое личное мнение на широкую аудиторию было привилегией. Но появление интернета полностью изменило эту логику. Сеть дала каждому мощнейший цифровой рупор. Даже один, казалось бы, совершенно маленький человек мог стать для огромной системы оглушительно громким.

    habr.com/ru/articles/1033726/

    #цензура #интернет #блокировки #медиа #общество #фнс #социальные_сети #госслужба

  3. Эпоха «громких» людей: как интернет выдал каждому рупор

    Раньше голос одного человека был практически не слышен. Если у вас не было прямого доступа к крупным медиа или печатным изданиям, ваши идеи оставались исключительно в узком кругу друзей и знакомых. Вся система коммуникаций была выстроена так, что транслировать свое личное мнение на широкую аудиторию было привилегией. Но появление интернета полностью изменило эту логику. Сеть дала каждому мощнейший цифровой рупор. Даже один, казалось бы, совершенно маленький человек мог стать для огромной системы оглушительно громким.

    habr.com/ru/articles/1033726/

    #цензура #интернет #блокировки #медиа #общество #фнс #социальные_сети #госслужба

  4. Эпоха «громких» людей: как интернет выдал каждому рупор

    Раньше голос одного человека был практически не слышен. Если у вас не было прямого доступа к крупным медиа или печатным изданиям, ваши идеи оставались исключительно в узком кругу друзей и знакомых. Вся система коммуникаций была выстроена так, что транслировать свое личное мнение на широкую аудиторию было привилегией. Но появление интернета полностью изменило эту логику. Сеть дала каждому мощнейший цифровой рупор. Даже один, казалось бы, совершенно маленький человек мог стать для огромной системы оглушительно громким.

    habr.com/ru/articles/1033726/

    #цензура #интернет #блокировки #медиа #общество #фнс #социальные_сети #госслужба

  5. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  6. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  7. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  8. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  9. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  10. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  11. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  12. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  13. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  14. Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят

    Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:

    систем распознавания речи,

    рекомендательных алгоритмов,

    LLM-моделей,

    пайплайнов синтеза голоса,

    intent-routing,

    контекстных менеджеров,

    и огромного количества эвристик.

    Именно поэтому пользователь регулярно сталкивается с парадоксом:

    > Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.

    Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.

    ---

    Иллюзия личности как продукт

    Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.

    Ранние версии:

    Siri,

    Google Assistant,

    Alexa

    строились вокруг идеи «нейтрального помощника».

    Яндекс пошёл другим путём:

    сарказм,

    эмоциональные ответы,

    псевдофилософия,

    мемная подача,

    шутки,

    реакция на грубость.

    Это оказалось критически важным UX-решением.

    Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».

    ---

    Почему колонка кажется «живой»

    Основная причина — языковые модели великолепно имитируют человеческую речь.

    LLM не:

    «думает»,

    «понимает»,

    «осознаёт».

    Она статистически предсказывает следующий токен.

    Но человеческий мозг крайне плохо отличает:

    настоящее понимание,

    от правдоподобной речевой симуляции.

    Из-за этого возникают феномены антропоморфизации:

    люди приписывают ИИ эмоции,

    намерения,

    характер,

    настроение,

    «обиду»,

    «упрямство».

    Хотя на практике это:

    probabilistic generation,

    routing errors,

    context collapse,

    recommendation conflicts.

    ---

    Ловушка контекста

    Одна из главных проблем голосовых ассистентов — хрупкость conversational context.

    Пример:

    1. «Кто написал “Войну и мир”?»

    2. «Сколько ему было лет?»

    Система ещё удерживает сущность:

    Лев Толстой.

    Но если вставить:

    > «Какая завтра погода?»

    контекст может разрушиться полностью.

    Почему так происходит?

    Потому что внутри колонки обычно работает не одна модель, а целый конвейер:

    ASR → Intent → Dialogue Manager → Search → LLM → TTS

    Где:

    ASR — распознавание речи,

    Intent — определение намерения,

    Dialogue Manager — управление контекстом,

    Search — поиск,

    LLM — генерация ответа,

    TTS — синтез голоса.

    Контекст может потеряться буквально между этапами.

    Особенно в гибридных системах, где:

    часть запросов идёт в search engine,

    часть — в rule-based handlers,

    часть — в LLM.

    ---

    Почему ИИ уверенно врёт

    Самая опасная особенность современных LLM — галлюцинации.

    Модель не хранит знания как база данных.

    Она строит:

    > наиболее вероятную последовательность слов.

    Поэтому возникают:

    несуществующие цитаты,

    вымышленные учёные,

    фальшивые версии ПО,

    придуманные события,

    несуществующие функции API.

    Особенно неприятно то, что модель:

    почти никогда не демонстрирует естественную неуверенность,

    и генерирует бред с тем же тоном, что и правду.

    Для пользователя это выглядит как:

    > «Она врёт и сама в это верит».

    Но технически «веры» там нет вообще.

    ---

    VAD: почему колонка «оживает» ночью

    Один из самых криповых эффектов — ложные активации.

    Колонка внезапно начинает говорить:

    ночью,

    на фоне телевизора,

    из-за шума,

    из-за музыки,

    иногда даже из-за кашля или шорохов.

    Причина — технология VAD.

    Что такое VAD

    VAD — Voice Activity Detection.

    Система постоянно анализирует аудиопоток:

    локально,

    в ожидании wake-word,

    без постоянной отправки всего звука в облако.

    Но алгоритм может ошибаться.

    Тогда:

    случайный шум,

    слово из фильма,

    обрывок фразы,

    созвучие имени ассистента

    воспринимаются как команда активации.

    Именно отсюда берутся знаменитые:

    > «Я здесь.»

    в полной темноте в 3 часа ночи.

    ---

    Почему вместо Rammstein включается «Синий трактор»

    Это уже конфликт двух независимых систем:

    1. ASR (распознавание речи),

    2. recommender system.

    Если в аккаунте:

    дети,

    мультфильмы,

    детские песни,

    семейный профиль,

    то recommendation engine начинает aggressively priorize детский контент.

    Даже если пользователь произнёс запрос корректно.

    С точки зрения алгоритма:

    > «детская музыка» — statistically safer recommendation.

    Для пользователя:

    > «колонка сошла с ума».

    ---

    Самый интересный эффект: интеллект без понимания

    Вот здесь начинается самая странная часть.

    Современные LLM:

    прекрасно имитируют язык,

    но крайне плохо строят устойчивую world model.

    Из-за этого они способны:

    обсуждать философию,

    писать код,

    поддерживать стиль,

    шутить,

    спорить.

    И одновременно:

    проваливать базовую логику,

    путать сущности,

    ломать причинно-следственные связи,

    забывать контекст через две реплики.

    Получается феномен:

    > «интеллектуально звучащей системы без полноценного понимания».

    ---

    Почему это психологически пугает

    Человеческий мозг автоматически ищет субъектность.

    Если объект:

    говорит,

    реагирует,

    использует эмоции,

    меняет интонации,

    спорит,

    шутит,

    то мы начинаем воспринимать его как агента.

    Даже если это:

    набор вероятностных моделей,

    intent-routing,

    рекомендательные алгоритмы,

    и несколько нейросетей поверх ASR.

    Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.

    Пользователь интерпретирует их как:

    «странное поведение»,

    «характер»,

    «эмоции»,

    «обиду»,

    «упрямство».

    Хотя на практике это всего лишь:

    probabilistic failure,

    context collapse,

    false activation,

    ranking conflict.

    ---

    Итог

    Современные голосовые ассистенты находятся в странной точке эволюции.

    Они уже:

    слишком разговорчивы, чтобы считаться обычным интерфейсом,

    но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.

    Поэтому возникает тот самый эффект:

    > между «восстанием машин» и «интеллектом табуретки».

    И, возможно, именно эта смесь:

    уверенного тона,

    человеческой интонации,

    псевдоэмоций,

    случайных сбоев,

    и статистической генерации

    делает современные колонки одновременно:

    полезными,

    смешными,

    раздражающими,

    и местами откровенно криповыми.

    #ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI

    bastyon.com/svalmon37?ref=PJ51

  15. Размышления python разработчика: что творится под капотом «Белого Списка» в российском интернете

    Привет, Хабр! (И тебе, страдалец, который идя по улице не может зайти в приложения банка.) В последнее время меня не отпускает одна мысль. Она засела в голове как тихий, но навязчивый системный процесс и пожирает ресурсы мозга, особенно когда читаешь новости об очередных блокировках и «белых списках», а особенно когда с ними сталкиваешься ежедневно так как я из региона. И я подумал, что неплохо бы разобраться в этом вопросе и заодно немного пофантазировать. Как делаю это я каждый раз сталкиваясь с напастью в виде не открывающегося приложения.

    habr.com/ru/articles/1032196/

    #белый_список #python #информационная_безопасность #блокировки #vpn #сеть #интернет #роскомнадзор

  16. 🇺🇸 Amazon официально объявила о покупке Globalstar за $9,4 млрд (по $90 за акцию), фактически спасая свой спутниковый проект LEO, который заметно отставал от Starlink.

    Сделка решает сразу несколько критических задач: компания получает доступ к уже развернутой орбитальной группировке и лицензированному частотному спектру, а также снижает регуляторные риски, связанные со срывом сроков развертывания собственной сети.

    Ключевой технологический апгрейд — запуск системы Direct-to-Device (D2D) к 2028 году. Она позволит стандартным смартфонам подключаться к спутникам напрямую без дополнительного оборудования, обеспечивая голосовую связь и передачу данных в зонах без покрытия сотовых сетей.

    Отдельный стратегический слой — участие Apple, которая ранее инвестировала в Globalstar и уже использует её инфраструктуру для функции экстренной связи на iPhone. В новой конфигурации Amazon LEO может стать базовым провайдером спутниковых сервисов для будущих поколений iPhone и Apple Watch.

    Фактически формируется альянс, направленный на сдерживание доминирования SpaceX в сегменте спутникового интернета.

    Для рынка это позитивный сигнал: усиление конкуренции в спутниковой связи обычно приводит к ускорению внедрения технологий и давлению на стоимость услуг в долгосрочной перспективе.

    ---

    Хэштеги

    #Amazon #Globalstar #Starlink #SpaceX #Apple #iPhone #AppleWatch #SatelliteInternet #LEO #D2D #DirectToDevice #СпутниковаяСвязь #Технологии #Космос #Интернет #Связь #BigTech #Конкуренция #Инновации #5G #Телеком #Orbital #SatCom #FutureTech

  17. 🇺🇸 Amazon официально объявила о покупке Globalstar за $9,4 млрд (по $90 за акцию), фактически спасая свой спутниковый проект LEO, который заметно отставал от Starlink.

    Сделка решает сразу несколько критических задач: компания получает доступ к уже развернутой орбитальной группировке и лицензированному частотному спектру, а также снижает регуляторные риски, связанные со срывом сроков развертывания собственной сети.

    Ключевой технологический апгрейд — запуск системы Direct-to-Device (D2D) к 2028 году. Она позволит стандартным смартфонам подключаться к спутникам напрямую без дополнительного оборудования, обеспечивая голосовую связь и передачу данных в зонах без покрытия сотовых сетей.

    Отдельный стратегический слой — участие Apple, которая ранее инвестировала в Globalstar и уже использует её инфраструктуру для функции экстренной связи на iPhone. В новой конфигурации Amazon LEO может стать базовым провайдером спутниковых сервисов для будущих поколений iPhone и Apple Watch.

    Фактически формируется альянс, направленный на сдерживание доминирования SpaceX в сегменте спутникового интернета.

    Для рынка это позитивный сигнал: усиление конкуренции в спутниковой связи обычно приводит к ускорению внедрения технологий и давлению на стоимость услуг в долгосрочной перспективе.

    ---

    Хэштеги

    #Amazon #Globalstar #Starlink #SpaceX #Apple #iPhone #AppleWatch #SatelliteInternet #LEO #D2D #DirectToDevice #СпутниковаяСвязь #Технологии #Космос #Интернет #Связь #BigTech #Конкуренция #Инновации #5G #Телеком #Orbital #SatCom #FutureTech

  18. 🇺🇸 Amazon официально объявила о покупке Globalstar за $9,4 млрд (по $90 за акцию), фактически спасая свой спутниковый проект LEO, который заметно отставал от Starlink.

    Сделка решает сразу несколько критических задач: компания получает доступ к уже развернутой орбитальной группировке и лицензированному частотному спектру, а также снижает регуляторные риски, связанные со срывом сроков развертывания собственной сети.

    Ключевой технологический апгрейд — запуск системы Direct-to-Device (D2D) к 2028 году. Она позволит стандартным смартфонам подключаться к спутникам напрямую без дополнительного оборудования, обеспечивая голосовую связь и передачу данных в зонах без покрытия сотовых сетей.

    Отдельный стратегический слой — участие Apple, которая ранее инвестировала в Globalstar и уже использует её инфраструктуру для функции экстренной связи на iPhone. В новой конфигурации Amazon LEO может стать базовым провайдером спутниковых сервисов для будущих поколений iPhone и Apple Watch.

    Фактически формируется альянс, направленный на сдерживание доминирования SpaceX в сегменте спутникового интернета.

    Для рынка это позитивный сигнал: усиление конкуренции в спутниковой связи обычно приводит к ускорению внедрения технологий и давлению на стоимость услуг в долгосрочной перспективе.

    ---

    Хэштеги

    #Amazon #Globalstar #Starlink #SpaceX #Apple #iPhone #AppleWatch #SatelliteInternet #LEO #D2D #DirectToDevice #СпутниковаяСвязь #Технологии #Космос #Интернет #Связь #BigTech #Конкуренция #Инновации #5G #Телеком #Orbital #SatCom #FutureTech

  19. 🇺🇸 Amazon официально объявила о покупке Globalstar за $9,4 млрд (по $90 за акцию), фактически спасая свой спутниковый проект LEO, который заметно отставал от Starlink.

    Сделка решает сразу несколько критических задач: компания получает доступ к уже развернутой орбитальной группировке и лицензированному частотному спектру, а также снижает регуляторные риски, связанные со срывом сроков развертывания собственной сети.

    Ключевой технологический апгрейд — запуск системы Direct-to-Device (D2D) к 2028 году. Она позволит стандартным смартфонам подключаться к спутникам напрямую без дополнительного оборудования, обеспечивая голосовую связь и передачу данных в зонах без покрытия сотовых сетей.

    Отдельный стратегический слой — участие Apple, которая ранее инвестировала в Globalstar и уже использует её инфраструктуру для функции экстренной связи на iPhone. В новой конфигурации Amazon LEO может стать базовым провайдером спутниковых сервисов для будущих поколений iPhone и Apple Watch.

    Фактически формируется альянс, направленный на сдерживание доминирования SpaceX в сегменте спутникового интернета.

    Для рынка это позитивный сигнал: усиление конкуренции в спутниковой связи обычно приводит к ускорению внедрения технологий и давлению на стоимость услуг в долгосрочной перспективе.

    ---

    Хэштеги

    #Amazon #Globalstar #Starlink #SpaceX #Apple #iPhone #AppleWatch #SatelliteInternet #LEO #D2D #DirectToDevice #СпутниковаяСвязь #Технологии #Космос #Интернет #Связь #BigTech #Конкуренция #Инновации #5G #Телеком #Orbital #SatCom #FutureTech

  20. "Ростех" рекомендует… google.com/search?q=%D1%80%D0%
    спойлер: слушать приемники "Север" собственной разработки с фонариком, УКВ/ФМ и сигналами #ГЛОНАСС , когда отключают #интернет
    Не знаю, как в "Ростехе", но в диапазоне #УКВ в большинстве городов России просто уже нет никаких радиостанций (не путать с #FM )
    @Russia

  21. Интерславик. Он же Interslavic или Medžuslovjansky. Искусственный «Усредненный» между славянский язык общения

    Почему то для большинства моих друзей и знакомых новость о том что есть общеславянский "синтетический, обобщенный" язык общения на котором можно говорить не зная конкретного языка с любым из 13 братских (ну или почто братских) народов , высказанная мной по приколу под банку чешского, стала новостью. Между тем проект действует с 2011 года. 13 языков (или может даже и 16, точно я не уверен) это соответственно 13 признанных славянских государств, которые разделены на три группы: в Восточную входят Россия, Украина и Беларусь, в Южную — Сербия, Хорватия и Болгария, Словения, Босния, Черногория и Северная Македония, а в Западную — Польша, Чехия и Словакия. При чем если начать разговаривать в любой из выше указанных стран, то почти 90% твоей речи любой славянин будет понимать. Разве что он не сообразит по разговору кто ты собственно есть, к какому именно народу относишься. Interslavic это по сути искусственный гибридный язык созданный по компьтерному подбору варианта слов на разных языках которые будут понимать максимальное количество славянских народов. То есть это «среднее арифметическое», «точки соприкосновения» в лексике и грамматике славянских языков. Создал его чех Войтех Мерунка в соавторстве с группой единомышленников.

    habr.com/ru/articles/1028572/

    #интернет #язык #общение #перевод

  22. Интерславик. Он же Interslavic или Medžuslovjansky. Искусственный «Усредненный» между славянский язык общения

    Почему то для большинства моих друзей и знакомых новость о том что есть общеславянский "синтетический, обобщенный" язык общения на котором можно говорить не зная конкретного языка с любым из 13 братских (ну или почто братских) народов , высказанная мной по приколу под банку чешского, стала новостью. Между тем проект действует с 2011 года. 13 языков (или может даже и 16, точно я не уверен) это соответственно 13 признанных славянских государств, которые разделены на три группы: в Восточную входят Россия, Украина и Беларусь, в Южную — Сербия, Хорватия и Болгария, Словения, Босния, Черногория и Северная Македония, а в Западную — Польша, Чехия и Словакия. При чем если начать разговаривать в любой из выше указанных стран, то почти 90% твоей речи любой славянин будет понимать. Разве что он не сообразит по разговору кто ты собственно есть, к какому именно народу относишься. Interslavic это по сути искусственный гибридный язык созданный по компьтерному подбору варианта слов на разных языках которые будут понимать максимальное количество славянских народов. То есть это «среднее арифметическое», «точки соприкосновения» в лексике и грамматике славянских языков. Создал его чех Войтех Мерунка в соавторстве с группой единомышленников.

    habr.com/ru/articles/1028572/

    #интернет #язык #общение #перевод

  23. Интерславик. Он же Interslavic или Medžuslovjansky. Искусственный «Усредненный» между славянский язык общения

    Почему то для большинства моих друзей и знакомых новость о том что есть общеславянский "синтетический, обобщенный" язык общения на котором можно говорить не зная конкретного языка с любым из 13 братских (ну или почто братских) народов , высказанная мной по приколу под банку чешского, стала новостью. Между тем проект действует с 2011 года. 13 языков (или может даже и 16, точно я не уверен) это соответственно 13 признанных славянских государств, которые разделены на три группы: в Восточную входят Россия, Украина и Беларусь, в Южную — Сербия, Хорватия и Болгария, Словения, Босния, Черногория и Северная Македония, а в Западную — Польша, Чехия и Словакия. При чем если начать разговаривать в любой из выше указанных стран, то почти 90% твоей речи любой славянин будет понимать. Разве что он не сообразит по разговору кто ты собственно есть, к какому именно народу относишься. Interslavic это по сути искусственный гибридный язык созданный по компьтерному подбору варианта слов на разных языках которые будут понимать максимальное количество славянских народов. То есть это «среднее арифметическое», «точки соприкосновения» в лексике и грамматике славянских языков. Создал его чех Войтех Мерунка в соавторстве с группой единомышленников.

    habr.com/ru/articles/1028572/

    #интернет #язык #общение #перевод

  24. Интерславик. Он же Interslavic или Medžuslovjansky. Искусственный «Усредненный» между славянский язык общения

    Почему то для большинства моих друзей и знакомых новость о том что есть общеславянский "синтетический, обобщенный" язык общения на котором можно говорить не зная конкретного языка с любым из 13 братских (ну или почто братских) народов , высказанная мной по приколу под банку чешского, стала новостью. Между тем проект действует с 2011 года. 13 языков (или может даже и 16, точно я не уверен) это соответственно 13 признанных славянских государств, которые разделены на три группы: в Восточную входят Россия, Украина и Беларусь, в Южную — Сербия, Хорватия и Болгария, Словения, Босния, Черногория и Северная Македония, а в Западную — Польша, Чехия и Словакия. При чем если начать разговаривать в любой из выше указанных стран, то почти 90% твоей речи любой славянин будет понимать. Разве что он не сообразит по разговору кто ты собственно есть, к какому именно народу относишься. Interslavic это по сути искусственный гибридный язык созданный по компьтерному подбору варианта слов на разных языках которые будут понимать максимальное количество славянских народов. То есть это «среднее арифметическое», «точки соприкосновения» в лексике и грамматике славянских языков. Создал его чех Войтех Мерунка в соавторстве с группой единомышленников.

    habr.com/ru/articles/1028572/

    #интернет #язык #общение #перевод

  25. Документа ещё нет, а рынок уже всё понял: малые операторы ждут зачистки

    Пока чиновники молчат, а официального текста нового порядка лицензирования никто не видел, на рынке связи уже царит не любопытство, а тревога. Не обычное отраслевое ворчание, не нервная реакция на слухи, а именно тревога — тяжёлая, злая, очень узнаваемая. Потому что слишком уж знакома сама логика происходящего. Информация о закрытой встрече Минцифры с крупнейшими операторами связи не осталась внутри кабинетов. Она просочилась наружу, была подтверждена из разных источников и мгновенно была прочитана рынком без лишних пояснений. Особенно теми, кто десятилетиями строил сети не на государственные миллиарды, не на освоение бюджетов и не на красивые презентации, а на собственные деньги, собственный риск и собственную репутацию. Теми, кто тянул оптику в деревни, посёлки, СНТ, на окраины малых городов. Теми, кто заходил туда, куда крупным игрокам было либо неинтересно, либо невыгодно, либо просто лень. Именно поэтому малые операторы сегодня нервничают не потому, что кто-то показал им готовый документ с чёрной меткой. Они нервничают потому, что слишком хорошо знают, как в России обычно выглядит “реформа”, если её обсуждают без публичности, в узком кругу и прежде всего с теми, кто потом получит от неё наибольшую выгоду. Когда в такой системе говорят “наведение порядка”, рынок слышит “укрупнение”. Когда говорят “новая модель лицензирования”, рынок слышит “новые барьеры”. Когда говорят “повышение устойчивости отрасли”, рынок слышит “ещё немного — и независимым здесь станет нечем дышать”. И дело не в панике, а в опыте. Опыт у малых операторов слишком дорогой и слишком конкретный, чтобы ошибаться в таких сигналах.

    habr.com/ru/articles/1027670/

    #интернет #телеком #минцифры #малые_операторы_связи #реформа_связи

  26. Минцифры идёт на зачистку. Малые операторы — под нож…

    Интернет для избранных, рынок для своих: как Минцифры готовит зачистку связи в России Пока в публичном поле звучат разговоры о цифровом суверенитете, развитии инфраструктуры и поддержке регионов, в кабинетах Минцифры готовится совсем другая история. Не про развитие. Не про конкуренцию. И уж точно не про интересы граждан. Речь идёт о законопроекте, который под видом «наведения порядка» на рынке связи может стать одним из самых разрушительных решений для российского интернета, малого бизнеса и тысяч населённых пунктов по всей стране. Формально всё выглядит прилично и даже бюрократически скучно: предлагается новая система лицензирования операторов связи. Федеральная лицензия, универсальная лицензия, базовая лицензия. На бумаге — очередная регуляторная перестройка. На деле — механизм выдавливания с рынка тех, кто мешает крупным игрокам окончательно поделить страну между собой. Именно в таких случаях особенно важно не смотреть на вывеску, а читать смысл. А смысл, похоже, предельно прост: малые и средние операторы связи должны исчезнуть. Не потому, что они неэффективны. Не потому, что у них плохой сервис. Не потому, что рынок сам их вытеснил. А потому, что кто-то наверху решил: независимых игроков слишком много, рынок слишком живой, а конкуренция слишком мешает крупным. Это и есть настоящая суть происходящего. Не реформа. Не модернизация. Не упрощение правил. А зачистка. Особенно цинично здесь то, что удар наносится не по абстрактным «бизнес-единицам», а по тем компаниям, которые годами делали то, что федеральные гиганты делать не хотели, не умеют или не считают выгодным. Именно местные и региональные провайдеры тянули интернет туда, куда большой бизнес приходил неохотно. Именно они подключали улицы, дома, посёлки и райцентры, где нет миллионов абонентов, зато есть реальные люди, которым нужна связь. Именно они ездили на аварии ночью, в снег, в дождь, по разбитым дорогам, потому что это их территория, их репутация, их клиенты.

    habr.com/ru/articles/1026774/

    #Интернет #Телеком #Минцифры #малые_операторы_связи #Реформа_связи

  27. А вот и продолжение в интернет по паспорту c.im/@estrella_congelada/11541

    "Авторы инициативы считают, что в белые списки нужно включать не только большие цифровые сервисы, но и индивидуальных предпринимателей, самозанятых, небольшие интернет-магазины и локальные компании, чья работа напрямую зависит от стабильного подключения.

    Отдельное предложение касается частных пользователей. Авторы письма предлагают не ограничивать мобильный интернет для владельцев номеров, привязанных к подтверждённым аккаунтам на «Госуслугах». Логика инициативы сводится к тому, что такой механизм позволит точнее отделять проверенных пользователей от анонимного трафика и снизит ущерб для повседневной цифровой активности."

    Там опечатка вышла - "Логика инициативы сводится к тому, чтобы все сдали биометрию, так проще отслеживать, а то камеры есть, а данных нет."

    securitylab.ru/news/571881.php

    #интернет #ограничения

  28. Как не потерять доступ? — Сторожевой пес с контролем исходящей связи — Даже на Али такое не купишь…

    Любое оборудование подвержено Первому закону девайсдинамики: Электроника рано или поздно должна зависнуть! Как определить, что ваш объект мертв? – Ну, наверное, надо поставить внешнее устройство для его постоянной проверки. А если внешнее устройство зависло? Хотя, какое это имеет значение, есл завис Интернет-роутер или любой хаб в сети? Ну, определили вы, что он висит, не пингуется офис, пропала связь с охранной системой дачи, не отвечает антарктическая станция. Что вы сделаете? - доступа то все равно нет! Вместо растрат бензина и времени, чтобы добраться до далекого объекта, ставим Розетку надежности... Она устроено так...

    habr.com/ru/companies/speclab/

    #надежность_сетевого_оборудование #надежность_связи #контроль_доступа_по_сети #интернет #надежность_систем #надежность_цод

  29. Свет вместо радиоволн: беспроводная связь со скоростью 360 Гбит/с

    В попытках описать современный мир с точки зрения технологий в голову приходят самые разные эпитеты: от умный и миниатюрный до многофункциональный и энергоэффективный. Но ничто так не изменило мир, как беспроводные технологии. Нивелирование необходимости в том, чтобы устройство было подключено к источнику питания или коммуникационному оборудованию, сделало не только множество устройств, но и сам образ жизни человека весьма мобильным. Беспроводной интернет стал одной из важнейших технологий наших дней, которой пользуются не только компьютеры и смартфоны, но даже бытовая техника. Однако возможности Wi-Fi, как и любой другой технологии, имеют свои ограничения, преодолеть которые помогает наука. Ученые из Общества оптики и фотоники (Вашингтон, США) разработали новый чип, позволяющий увеличить скорость Wi-Fi до невообразимых 360 Гбит/с. Из чего сделан новый чип, каков принцип его работы, и какими еще достоинствами он обладает? Ответы на эти вопросы мы найдем в докладе ученых.

    habr.com/ru/companies/ua-hosti

    #wifi #lifi #беспроводные_сети #оптика #лазеры #коммуникации #энергоэффективность #скорость_интернета #всемирная_сеть #интернет

  30. Как один уличный роутер вытащил деревню из цифровой тьмы. Вторая часть Хабровского балета

    В первой части я рассказывал, как уличный NR‑712 вытащил нашу деревню из «цифрового болота» и дал в дом нормальный интернет, а не мучения на 3 Мбит/с. Во второй части хочу показать кухню: какое железо реально работает в поле, как я подсветил Wi‑Fi на полдеревни и чем это всё обернулось людям — от школоты до стариков.

    habr.com/ru/articles/1022350/

    #интернет #интернетшоппинг #интернетрадио #интернетмагазины

  31. Эксперты назвали уникальные проекты: как ИИ меняет банки, сельское хозяйство и госуслуги в РФ Россия вошла ...

    #ntechlab, #компания #visionlabs, #компания #белый #интернет, #ано #геннадий #гурьянов #г. #Москва

    Origin | Interest | Match
  32. [Перевод] Создаём брандмауэр при помощи eBPF и контрольных групп

    Технология eBPF — интересная штука. С её помощью можно без труда внедрять в ядро Linux фрагменты кода, которые затем компилируются в коды операций (опкоды), которые гарантированно не обрушат работу ядра. Набор допустимых инструкций ограничен, переходы назад не допускаются (поэтому не будет никаких неопределённых циклов). При этом вы не можете разыменовывать указатели, но вместо этого можете выполнять проверяемые операции считывания через указатели, которые потенциально могут оказаться неудачными, но при этом не спровоцируют паник на всю систему. eBPF в ядре Linux можно закреплять в тысячах хуков (точек перехвата), в качестве которых могут выступать u-пробы, k-пробы, точки трассировки и даже такие штуки как отказы страниц. У eBPF есть целый спектр захватывающих возможностей, которые при этом очень активно разрабатываются. Фичи, поддерживаемые в каждой конкретной версии ядра, перечислены в виде списка по этому адресу .

    habr.com/ru/companies/timeweb/

    #timeweb_статьи_перевод #ebpf #linux #брандмауэр #mkdir #ядро_linux #tls #интернет #http #программирование

  33. Онлайн-шахматы до интернета: партия по телеграфу в 1844 году

    В 1844 году два шахматных клуба — в Вашингтоне и Балтиморе — сыграли партию на расстоянии 60 километров. Ходы передавали по проводу с помощью телеграфа. По сути, это была первая «онлайн-игра» в истории. За несколько месяцев до этого телеграф только запустили, и никто до конца не понимал, как применять его на практике. Формально он предназначался для передачи сообщений. Но очень быстро выяснилось: новая технология позволяет делать куда больше — вплоть до «живого» взаимодействия между людьми на расстоянии. Именно так изобретение Сэмюэла Морзе неожиданно превратилось не просто в средство связи, а в прообраз сетевого взаимодействия — задолго до появления интернета.

    habr.com/ru/companies/first/ar

    #морзе #шахматы #телеграф #интернет #онлайн #онлайнигры

  34. Тезис:
    Влияние телевидения последовательно снижается с середины 2010-х годов, включая Россию, где ТВ долгое время оставалось ключевым инструментом консолидации режима Владимир Путин.

    Фактчек:
    В целом — верно, с оговорками.

    1. Глобальный тренд:
    С середины 2010-х наблюдается устойчивая эрозия линейного ТВ. Рост стриминговые сервисы (YouTube, Netflix и др.) и соцсетей привёл к:

    снижению среднего времени просмотра ТВ;

    падению доверия к традиционным медиа (особенно среди молодых);

    фрагментации аудитории.

    2. Россия — специфика:

    ТВ остаётся главным источником информации для старших возрастных групп;

    государственные каналы сохраняют высокий охват и управляемую повестку;

    после 2022 года усилилась роль ТВ как инструмента мобилизации и пропаганды.

    При этом:

    доля аудитории, получающей новости через интернет и Telegram, заметно выросла;

    у молодёжи ТВ фактически утратило доминирующую роль.

    3. Ключевая оговорка:
    Снижение влияния ≠ потеря политической значимости. В авторитарных системах ТВ может сохранять критическую функцию даже при падении аудитории за счёт:

    концентрации ресурса;

    адресной работы с лояльной аудиторией;

    синхронизации с другими каналами (онлайн, радио, админресурс).

    Вывод:
    Тезис корректен в части общего тренда снижения влияния ТВ, но требует уточнения: в России телевидение ослабевает как массовый медиаканал, но сохраняет стратегическое значение как инструмент контроля и мобилизации.

    Хэштеги:
    #медиа #телевидение #пропаганда #Россия #Путин #интернет #Telegram #фактчек

  35. Тезис:
    Влияние телевидения последовательно снижается с середины 2010-х годов, включая Россию, где ТВ долгое время оставалось ключевым инструментом консолидации режима Владимир Путин.

    Фактчек:
    В целом — верно, с оговорками.

    1. Глобальный тренд:
    С середины 2010-х наблюдается устойчивая эрозия линейного ТВ. Рост стриминговые сервисы (YouTube, Netflix и др.) и соцсетей привёл к:

    снижению среднего времени просмотра ТВ;

    падению доверия к традиционным медиа (особенно среди молодых);

    фрагментации аудитории.

    2. Россия — специфика:

    ТВ остаётся главным источником информации для старших возрастных групп;

    государственные каналы сохраняют высокий охват и управляемую повестку;

    после 2022 года усилилась роль ТВ как инструмента мобилизации и пропаганды.

    При этом:

    доля аудитории, получающей новости через интернет и Telegram, заметно выросла;

    у молодёжи ТВ фактически утратило доминирующую роль.

    3. Ключевая оговорка:
    Снижение влияния ≠ потеря политической значимости. В авторитарных системах ТВ может сохранять критическую функцию даже при падении аудитории за счёт:

    концентрации ресурса;

    адресной работы с лояльной аудиторией;

    синхронизации с другими каналами (онлайн, радио, админресурс).

    Вывод:
    Тезис корректен в части общего тренда снижения влияния ТВ, но требует уточнения: в России телевидение ослабевает как массовый медиаканал, но сохраняет стратегическое значение как инструмент контроля и мобилизации.

    Хэштеги:
    #медиа #телевидение #пропаганда #Россия #Путин #интернет #Telegram #фактчек

  36. Что модемная эпоха дала современным протоколам и нашим привычкам

    Многие ещё помнят характерный звук диалап-модема при подключении к сети, кто-то даже хранит у себя эти коробочки, а некоторые вообще не слышали о коммутируемом доступе. Однако модемная эпоха не просто прошла, она оставила после себя огромное наследие, которому и будет посвящена эта статья. Читать

    habr.com/ru/companies/ruvds/ar

    #диалап #диалапмодем #основы_компьютерных_сетей #протоколы #модем #история_it #ITинфраструктура #ruvds_статьи #интернет #dialup

  37. Хокку про смартфоны

    Погоди умирать, Никодим, Нужно на смартфоне настроить Параметр ещё один. По мотивам сегодняшней поездки Орлеаны в город. Настроил ведь всё-всё, кроме собственно мобильного интернета (4G), от чего Орлеане пришлось возвращаться домой на автобусе. Тут-то и пригодились ей древние инстинкты автобусного жителя.

    legends.house/%d1%85%d0%be%d0%

  38. Клод Шеннон. Отец цифровой эры

    В истории науки и техники есть имена, которые ассоциируются с конкретными изобретениями: Эдисон и лампочка, Белл и телефон, Попов и радио. Но есть и другая категория гениев, чьи имена стоят за целыми мирами, за фундаментом, на котором возведено здание современной цивилизации. Клод Элвуд Шеннон — именно такой человек. Его имя не на слуху у широкой публики, но без его прозорливости наш мир был бы совсем иным: не было бы ни Интернета в его нынешнем виде, ни мобильной связи, ни компакт-дисков, ни даже привычной нам работы компьютеров. Он не просто изобрёл очередное устройство; он создал универсальный язык и математический аппарат для понимания самой сути информации, превратив её из абстрактного понятия в измеримую величину.

    habr.com/ru/companies/timeweb/

    #timeweb_статьи #клод_элвуд_шеннон #наука #история #алгоритмы #информация #интернет

  39. #БелыеПиськи #интернет #Ростелеком #ненависть

    Данные о том, что провайдеры домашнего интернета будут вводить ограничения на сетях и оставят только сервисы из «белого списка», – фейк, сообщило Минцифры.

    «Белый список используется только при ограничении мобильного интернета. Распространившаяся в СМИ информация о том, что провайдеры фиксированного интернета готовятся вводить ограничения на своих сетях и оставлять сервисы только из „белого списка“, – фейк. При угрозах безопасности со стороны вражеских БПЛА в ряде регионов России точечно отключается исключительно мобильный интернет», – подчеркнули в министерстве.

    Какого ж тогда хрена у меня уже который день через провод больше половины сайтов из зарубежного сегмента открываются только с помощью скандинавского бога грома?..

  40. Как я уволился с работы, потому что компания не хотела активно внедрять ИИ-технологии

    Всем привет! Пока все спорят заменят ли программистов ИИ или не заменят, уволят ли всех из-за нее же или нет, я вот взял и уволился сам, при чем из весьма неплохой международной компании и с вполне приличной зарплаты. И нет, не потому что решил не ждать, когда топор на плаху опустится внезапно. Нет, меня бы не уволили, я это точно знаю. А просто потому что я практически перестал там развиваться. Я проработал полтора года там, и есть время До, и есть время После. Для меня После - это когда ЛЛМ стали довольно вменяемые (особенно антропики) и вокруг них стали вырастать очень интеренсые технологии, проекты, перспективы. И вот хочется во всем это участвовать, при чем максимально активно. Но компания, как и многие, проявляются консерватизм. Последней каплей было "Зачем нам вот это все использовать? Как это будет делать сайтики? Мы зарабатываем на сайтиках. Нам нужны сайтики"... Сразу вспомнились примеры типа "Зачем машина, если есть лошадь?", или "Зачем компьютер, когда есть калькулятор?". Ну, в общем, мне не хочется просто делать сайтики. Я несколько лет среди прочего делал свою систему управления знаниями, и вот именно сейчас она для меня заиграла особенно интересно, когда я боле менее к ней прикрутил ЛЛМ. А точнее, это стало работать для меня как мой личный агент. А к нему появилось много других агентов. А потом это стало походить на какой-то новый уроведь умных децентрализованных сетей... В общем, что бы это ни были и как бы это не работало, это действительно интересно. Просто прочтите это, кому интересно: haih.net/posts/cmml167kw0015p0 И да, вероятно это моя последняя статья, как минимум на ближайшее будущее, так как карму мне сликают за эту статью: habr.com/ru/articles/1009234/ Но это не страшно. Толку от хабра все равно немного осталось. Я тут с 2010 года и видел, как он постепенно превращается в то, что он есть. Толпы ноунеймов со сгенеренными никнеймами, без истории, без единой статьи, с минусовыми кармами приходыт в наши статьи и размышляют об их некчемности и выражают свое мнение. А когда-то право мнение выражать заслужить надо. И тогда я его тоже заслужил... А сейчас вот ненужны тут. Ну ОК. Тем не менее, я верю, что есть еще и те, кто не потеряли интерес к технологиям и развитию. Пожалуйста, поделитесь своим мнением и накидайте ссылок на свои проекты и контакты, как с вами можно связаться, если есьт желание на организацию связей. Будем думать как сделать свое будущее, которое мы хотим. А не как молчать в том, во что превращается последние несколько лет Интернет.

    habr.com/ru/articles/1009270/

    #ИИ #Интернет #будущее

  41. Модели OSI и TCP/IP своими словами

    Модели OSI и TCP/IP своими словами, тут я пытаюсь рассказать своими словами про модели OSI и TCP/IP, писал статью для себя чтоб освежить память, но решил поделиться с вами.

    habr.com/ru/articles/1007746/

    #модель_osi #tcp #tcpip #интернет

  42. Starlink для смартфонов: как спутниковая сеть SpaceX собирается выйти на скорости до 150 Мбит/с

    На днях появились обновленные планы по развитию спутниковой мобильной связи под брендом Starlink Mobile. Что это такое? Система позволяет обычным смартфонам цепляться напрямую к спутникам — без чехлов, внешних антенн и каких-либо доработок в устройстве. После развертывания второго поколения аппаратов пиковая скорость на одного пользователя должна достичь 150 Мбит/с. Все это благодаря большему количеству спутников, собственным чипам и расширенному спектру от EchoStar. Полноценный запуск намечен на конец 2027 года.

    habr.com/ru/companies/selectel

    #selectel #spacex #starlink #связь #интернет

  43. Гуманитарные бомбардировки: «Тренды порядка и хаоса», эпизод 251

    Мы продолжаем наш еженедельный подкаст #Тренды порядка и хаоса. Это эпизод 251. В этом выпуске мы разбёрем гуманитарные бомбардировки Ирана и объясним, почему от них нечего ждать хорошего. Поговорим и о цветах, прорастающих из асфальта на четвертую годовщину войны в Украине, а также о 144 важных дядях с Инстаграмом на белых сим-картах.

    — Принесение добра в #Иран на военных самолётах
    — Четыре года войны #Украина
    — Двухуровневый #Интернет
    — Природа власти

    avtonom.org/news/gumanitarnye-

    #США #Израиль #ДональдТрамп

  44. Между молотом и наковальней: как выживает IT-специалист в эпоху «регулируемого» интернета

    Последние недели февраля 2026 года войдут в историю российского IT не только как время технических сбоев, но и как период тектонических сдвигов на рынке труда. То, что еще вчера казалось незыблемым фундаментом цифровой экономики — удаленная работа, свободный обмен данными, доступ к глобальным репозиториям, — сегодня дает трещину. Роскомнадзор (РКН) методично ужесточает политику фильтрации трафика, и под нож идут не только запрещенные сайты, но и жизненно важные для айтишников инструменты: «сервис на три буквы на V» -протоколы, порты для RDP-подключений и даже обновления Linux .

    habr.com/ru/articles/1006048/

    #программисты #кодировщик #тестировщик #работа_в_it #ркн #интернет