#машинное — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #машинное, aggregated by home.social.
-
Шайтан-коробочка: Как карманная игра из 90-х научилась читать мысли людей
90-е запомнились везде по разному: где-то они были лихие, где-то благословенные. Но для ИИ это десятилетие было настоящим ренессансом. Что поделать, закон Мура в действии: оперативка резко поумнела, процессоры стали быстрее истребителя, а еще алгоритмические прорывы случались один за другим. Но среди всего этого великолепия особенно выделялся один странный, безымянный алгоритм, который долгое время оставался загадкой для посторонних. Никто не знал откуда он взялся, как и кем был натренирован, хотя при этом он умел всего лишь одну простую вещь: читать чужие мысли .
https://habr.com/ru/companies/studyai/articles/1034808/
#ИИ #ai #genai #интересное #научнопопулярное #научпоп #машинное+обучение #история
-
Опыт использования сабагентов в AI-агенте для IDE: что реально работает на больших задачах, а что нет
Архитектура «оркестратор + сабагенты» на одном экране: ведущий агент держит план и раздаёт подзадачи изолированным сабагентам. Один AI-агент в чате – это удобно, пока задача помещается в контекст. Как только она начинает разъезжаться по 30 файлам, четырём ролям и циклу «исследуй – реализуй – отревьюй – поправь», единый чат превращается в свалку: модель путает, какой шаг где, тащит решения из первой задачи в третью и стабильно проседает по качеству начиная с заполнения окна примерно наполовину. Схема «оркестратор + сабагенты» – это инженерный ответ на проблему: один ведущий агент держит план и раздаёт подзадачи изолированным сабагентам с пустым контекстом. Мы у себя в Veai полгода живём с этой архитектурой в IDE-плагине под JetBrains. За это время накопилось достаточно граблей, чтобы написать честный текст: как это устроено, на каких задачах команда из агентов реально лучше одного, и где она проигрывает с разгромом.
https://habr.com/ru/companies/veai/articles/1034208/
#программирование #java #c++ #машинное+обучение #машинное_зрение #аналитика_данных #аналитика
-
Опыт использования сабагентов в AI-агенте для IDE: что реально работает на больших задачах, а что нет
Архитектура «оркестратор + сабагенты» на одном экране: ведущий агент держит план и раздаёт подзадачи изолированным сабагентам. Один AI-агент в чате – это удобно, пока задача помещается в контекст. Как только она начинает разъезжаться по 30 файлам, четырём ролям и циклу «исследуй – реализуй – отревьюй – поправь», единый чат превращается в свалку: модель путает, какой шаг где, тащит решения из первой задачи в третью и стабильно проседает по качеству начиная с заполнения окна примерно наполовину. Схема «оркестратор + сабагенты» – это инженерный ответ на проблему: один ведущий агент держит план и раздаёт подзадачи изолированным сабагентам с пустым контекстом. Мы у себя в Veai полгода живём с этой архитектурой в IDE-плагине под JetBrains. За это время накопилось достаточно граблей, чтобы написать честный текст: как это устроено, на каких задачах команда из агентов реально лучше одного, и где она проигрывает с разгромом.
https://habr.com/ru/companies/veai/articles/1034208/
#программирование #java #c++ #машинное+обучение #машинное_зрение #аналитика_данных #аналитика
-
Опыт использования сабагентов в AI-агенте для IDE: что реально работает на больших задачах, а что нет
Архитектура «оркестратор + сабагенты» на одном экране: ведущий агент держит план и раздаёт подзадачи изолированным сабагентам. Один AI-агент в чате – это удобно, пока задача помещается в контекст. Как только она начинает разъезжаться по 30 файлам, четырём ролям и циклу «исследуй – реализуй – отревьюй – поправь», единый чат превращается в свалку: модель путает, какой шаг где, тащит решения из первой задачи в третью и стабильно проседает по качеству начиная с заполнения окна примерно наполовину. Схема «оркестратор + сабагенты» – это инженерный ответ на проблему: один ведущий агент держит план и раздаёт подзадачи изолированным сабагентам с пустым контекстом. Мы у себя в Veai полгода живём с этой архитектурой в IDE-плагине под JetBrains. За это время накопилось достаточно граблей, чтобы написать честный текст: как это устроено, на каких задачах команда из агентов реально лучше одного, и где она проигрывает с разгромом.
https://habr.com/ru/companies/veai/articles/1034208/
#программирование #java #c++ #машинное+обучение #машинное_зрение #аналитика_данных #аналитика
-
Опыт использования сабагентов в AI-агенте для IDE: что реально работает на больших задачах, а что нет
Архитектура «оркестратор + сабагенты» на одном экране: ведущий агент держит план и раздаёт подзадачи изолированным сабагентам. Один AI-агент в чате – это удобно, пока задача помещается в контекст. Как только она начинает разъезжаться по 30 файлам, четырём ролям и циклу «исследуй – реализуй – отревьюй – поправь», единый чат превращается в свалку: модель путает, какой шаг где, тащит решения из первой задачи в третью и стабильно проседает по качеству начиная с заполнения окна примерно наполовину. Схема «оркестратор + сабагенты» – это инженерный ответ на проблему: один ведущий агент держит план и раздаёт подзадачи изолированным сабагентам с пустым контекстом. Мы у себя в Veai полгода живём с этой архитектурой в IDE-плагине под JetBrains. За это время накопилось достаточно граблей, чтобы написать честный текст: как это устроено, на каких задачах команда из агентов реально лучше одного, и где она проигрывает с разгромом.
https://habr.com/ru/companies/veai/articles/1034208/
#программирование #java #c++ #машинное+обучение #машинное_зрение #аналитика_данных #аналитика
-
На периферии трёх миров: ещё один шаг к нейронной операционной системе
Я в Termux (планшет, смартфон) пытаюсь понять, как из нескольких строк на чистом Си рождается свободная и не зависимая личность - Нейрон. Этот проект об искусственном интеллекте, который начался не с установки библиотек, а с чертежа в тетради. Здесь машинное обучение - это не абстрактный т тоермин, а физическая подстройка " Виртуальных резисторов ". На нахожусь на периферии трёх миров :
https://habr.com/ru/articles/1031400/
#си #termux #нейронные_сети #машинное+обучение #планшет #смартфон #обучение_с_нуля
-
На периферии трёх миров: ещё один шаг к нейронной операционной системе
Я в Termux (планшет, смартфон) пытаюсь понять, как из нескольких строк на чистом Си рождается свободная и не зависимая личность - Нейрон. Этот проект об искусственном интеллекте, который начался не с установки библиотек, а с чертежа в тетради. Здесь машинное обучение - это не абстрактный т тоермин, а физическая подстройка " Виртуальных резисторов ". На нахожусь на периферии трёх миров :
https://habr.com/ru/articles/1031400/
#си #termux #нейронные_сети #машинное+обучение #планшет #смартфон #обучение_с_нуля
-
На периферии трёх миров: ещё один шаг к нейронной операционной системе
Я в Termux (планшет, смартфон) пытаюсь понять, как из нескольких строк на чистом Си рождается свободная и не зависимая личность - Нейрон. Этот проект об искусственном интеллекте, который начался не с установки библиотек, а с чертежа в тетради. Здесь машинное обучение - это не абстрактный т тоермин, а физическая подстройка " Виртуальных резисторов ". На нахожусь на периферии трёх миров :
https://habr.com/ru/articles/1031400/
#си #termux #нейронные_сети #машинное+обучение #планшет #смартфон #обучение_с_нуля
-
На периферии трёх миров: ещё один шаг к нейронной операционной системе
Я в Termux (планшет, смартфон) пытаюсь понять, как из нескольких строк на чистом Си рождается свободная и не зависимая личность - Нейрон. Этот проект об искусственном интеллекте, который начался не с установки библиотек, а с чертежа в тетради. Здесь машинное обучение - это не абстрактный т тоермин, а физическая подстройка " Виртуальных резисторов ". На нахожусь на периферии трёх миров :
https://habr.com/ru/articles/1031400/
#си #termux #нейронные_сети #машинное+обучение #планшет #смартфон #обучение_с_нуля
-
Книга: «Машинное обучение на табличных данных: XGBoost, глубокое обучение и ИИ»
Привет, Хаброжители! Машинное обучение может ускорить выполнение повседневных бизнес-задач, таких как сверка счетов, прогнозирование спроса или автоматизация обслуживания клиентов, не говоря уже о более сложных задачах, например выявление мошенничества, прогнозное техническое обслуживание и персонализированный маркетинг. Извлекайте важную информацию из электронных таблиц, реестров, баз данных и других источников, используя градиентный бустинг, глубокое обучение и генеративный ИИ.
-
Книга: «Машинное обучение на табличных данных: XGBoost, глубокое обучение и ИИ»
Привет, Хаброжители! Машинное обучение может ускорить выполнение повседневных бизнес-задач, таких как сверка счетов, прогнозирование спроса или автоматизация обслуживания клиентов, не говоря уже о более сложных задачах, например выявление мошенничества, прогнозное техническое обслуживание и персонализированный маркетинг. Извлекайте важную информацию из электронных таблиц, реестров, баз данных и других источников, используя градиентный бустинг, глубокое обучение и генеративный ИИ.
-
Книга: «Машинное обучение на табличных данных: XGBoost, глубокое обучение и ИИ»
Привет, Хаброжители! Машинное обучение может ускорить выполнение повседневных бизнес-задач, таких как сверка счетов, прогнозирование спроса или автоматизация обслуживания клиентов, не говоря уже о более сложных задачах, например выявление мошенничества, прогнозное техническое обслуживание и персонализированный маркетинг. Извлекайте важную информацию из электронных таблиц, реестров, баз данных и других источников, используя градиентный бустинг, глубокое обучение и генеративный ИИ.
-
Книга: «Машинное обучение на табличных данных: XGBoost, глубокое обучение и ИИ»
Привет, Хаброжители! Машинное обучение может ускорить выполнение повседневных бизнес-задач, таких как сверка счетов, прогнозирование спроса или автоматизация обслуживания клиентов, не говоря уже о более сложных задачах, например выявление мошенничества, прогнозное техническое обслуживание и персонализированный маркетинг. Извлекайте важную информацию из электронных таблиц, реестров, баз данных и других источников, используя градиентный бустинг, глубокое обучение и генеративный ИИ.
-
Как я создал альтернативу трансформерам
В этой статье я хочу остановиться на разборе предложенной мной архитектуры декодера и тех вариантов, с которыми я сравниваю её в исследовании, но сделать это проще и интуитивнее, чем в самой работе. На мой взгляд, существующие объяснения архитектур декодеров часто подаются разрозненно. Каждый подход описывают отдельно, без общей опоры. А ведь всё можно свести к одному фундаменту, и тогда становятся гораздо заметнее как сильные стороны каждого решения, так и их ограничения.
https://habr.com/ru/articles/990704/
#искусственный_интеллект #машинное+обучение #transformers #mamba #llm #глубокое_обучение #нейросети
-
Как я создал альтернативу трансформерам
В этой статье я хочу остановиться на разборе предложенной мной архитектуры декодера и тех вариантов, с которыми я сравниваю её в исследовании, но сделать это проще и интуитивнее, чем в самой работе. На мой взгляд, существующие объяснения архитектур декодеров часто подаются разрозненно. Каждый подход описывают отдельно, без общей опоры. А ведь всё можно свести к одному фундаменту, и тогда становятся гораздо заметнее как сильные стороны каждого решения, так и их ограничения.
https://habr.com/ru/articles/990704/
#искусственный_интеллект #машинное+обучение #transformers #mamba #llm #глубокое_обучение #нейросети
-
Как я создал альтернативу трансформерам
В этой статье я хочу остановиться на разборе предложенной мной архитектуры декодера и тех вариантов, с которыми я сравниваю её в исследовании, но сделать это проще и интуитивнее, чем в самой работе. На мой взгляд, существующие объяснения архитектур декодеров часто подаются разрозненно. Каждый подход описывают отдельно, без общей опоры. А ведь всё можно свести к одному фундаменту, и тогда становятся гораздо заметнее как сильные стороны каждого решения, так и их ограничения.
https://habr.com/ru/articles/990704/
#искусственный_интеллект #машинное+обучение #transformers #mamba #llm #глубокое_обучение #нейросети
-
Как я создал альтернативу трансформерам
В этой статье я хочу остановиться на разборе предложенной мной архитектуры декодера и тех вариантов, с которыми я сравниваю её в исследовании, но сделать это проще и интуитивнее, чем в самой работе. На мой взгляд, существующие объяснения архитектур декодеров часто подаются разрозненно. Каждый подход описывают отдельно, без общей опоры. А ведь всё можно свести к одному фундаменту, и тогда становятся гораздо заметнее как сильные стороны каждого решения, так и их ограничения.
https://habr.com/ru/articles/990704/
#искусственный_интеллект #машинное+обучение #transformers #mamba #llm #глубокое_обучение #нейросети
-
Правильная агентская архитектура в 2026 г. Часть 1. Долговременное состояние (durable state): ход, шаг, событие
Практическое пособие по устройству production-ready агента. Часть 1. Долговременное состояние (durable state): ход, шаг, событие
https://habr.com/ru/articles/1028290/
#ml #ai #машинное+обучение #ии #ииагенты #иимодель #ии_чатбот #ии_и_машинное_обучение #питон
-
[Перевод] Альтман в панике: зачем ChatGPT превратили в рекламную помойку и почему это не спасёт OpenAI
Ещё в феврале OpenAI начала пичкать ChatGPT таргетированной рекламой, паразитирующей на личной привязанности пользователей к этому ИИ-генератору. Сам Сэм Альтман изначально называл такой шаг «крайней мерой». А теперь, по данным Axios , OpenAI уже планирует получить от этой рекламы $2,6 млрд до конца текущего года, а к 2030 году компания ожидает, что рекламная выручка (ARR) достигнет $100 млрд! Возникает главный вопрос: оправдала ли себя эта крайняя мера? Спасло ли будущее OpenAI превращение ChatGPT в рекламную помойку, торгующую пользовательскими данными? Чёрта с два! Мне кажется, люди просто не осознают, насколько глубокую яму вырыл себе Альтман. Ранее в этом году финансовый директор OpenAI Сара Фрайар заявляла, что в декабре 2025 года компания достигла регулярной годовой выручки (ARR) в $20 млрд от платящих пользователей . Это значит, что за один только декабрь OpenAI заработала $1,66 млрд. Недавно произошел массовый уход пользователей из ChatGPT (об этом чуть позже), так что давайте предположим, что их ARR остался примерно на том же уровне. Это означает, что внедрение рекламы увеличило доходы OpenAI... всего на 0,5% . Стрелка на спидометре едва дрогнула! Да, OpenAI заявляет, что к концу года планирует получить от рекламы $2,6 млрд. Но прогнозы OpenAI почти всегда раздуты. Ранее я подсчитывал , что если выручка OpenAI продолжит расти текущими темпами, то в 2026 году она составит около $30,8 млрд. То есть даже при самом идеальном сценарии реклама увеличит их доходы лишь на 8,4%. Заметьте: речь идёт о выручке , а не о прибыли. В той же статье я прикинул, что убытки OpenAI за 2026 год составят как минимум $22,2 млрд. И снова: даже в лучшем случае эти рекламные копейки сократят убытки компании чуть больше чем на 10%.
https://habr.com/ru/companies/bothub/articles/1028070/
#ии #нейросети #машинное+обучение #ai #openai #chatgpt #реклама
-
Контент-модерация в ретроспективе: почему тексты 100-летней давности не проходят фильтры 2026 года
Дисклеймер: Статья не даёт правовой оценки историческим деятелям и событиям. Цель — показать, как изменились юридические и платформенные нормы в отношении публичных призывов. Все цитаты из архивных источников приведены исключительно в исследовательских целях. Читать статью
https://habr.com/ru/articles/1027766/
#модерация #модерация_сообществ #научнопопулярное #научпоп #машинное+обучение #машинное_обучение #правила #история #контекст
-
Контент-модерация в ретроспективе: почему тексты 100-летней давности не проходят фильтры 2026 года
Дисклеймер: Статья не даёт правовой оценки историческим деятелям и событиям. Цель — показать, как изменились юридические и платформенные нормы в отношении публичных призывов. Все цитаты из архивных источников приведены исключительно в исследовательских целях. Читать статью
https://habr.com/ru/articles/1027766/
#модерация #модерация_сообществ #научнопопулярное #научпоп #машинное+обучение #машинное_обучение #правила #история #контекст
-
Контент-модерация в ретроспективе: почему тексты 100-летней давности не проходят фильтры 2026 года
Дисклеймер: Статья не даёт правовой оценки историческим деятелям и событиям. Цель — показать, как изменились юридические и платформенные нормы в отношении публичных призывов. Все цитаты из архивных источников приведены исключительно в исследовательских целях. Читать статью
https://habr.com/ru/articles/1027766/
#модерация #модерация_сообществ #научнопопулярное #научпоп #машинное+обучение #машинное_обучение #правила #история #контекст
-
Контент-модерация в ретроспективе: почему тексты 100-летней давности не проходят фильтры 2026 года
Дисклеймер: Статья не даёт правовой оценки историческим деятелям и событиям. Цель — показать, как изменились юридические и платформенные нормы в отношении публичных призывов. Все цитаты из архивных источников приведены исключительно в исследовательских целях. Читать статью
https://habr.com/ru/articles/1027766/
#модерация #модерация_сообществ #научнопопулярное #научпоп #машинное+обучение #машинное_обучение #правила #история #контекст
-
LLM как декодер в ASR: опыт адаптации SOTA архитектуры для спонтанной русскоязычной речи
Привет, Хабр! Меня зовут Коля, я разработчик машинного обучения в команде речевых технологий Контура. Мы разрабатываем собственную систему распознавания речи (ASR), которая ежедневно переваривает миллионы звонков и записей видеоконференций, чтобы потом использовать их для речевой аналитики качества коммуникаций с клиентами и для создания протоколов и резюме встреч в Контур.Толке. Мы постоянно работаем над тем, чтобы дать пользователям лучшее качество и опыт взаимодействия с нашими продуктами: борьба уже давно идет за десятые доли процента WER (Word Error Rate) – особенно сложные и трудные для распознавания случаи. В конце прошлого года Nvidia изрядно встряхнула Open Source комьюнити, выкатив серию новеньких моделей распознавания речи. Одна из них нам особенно приглянулась: Canary-Qwen-2.5B на архитектуре SALM (Speech Augmented Language Model), установившая новый рекорд по качеству в HuggingFace OpenASR, благодаря использованию гибридного подхода, совмещающего речевой энкодер и LLM в своей работе. Мы в Контуре решили не проходить мимо и проверить: а как эта новоиспеченная SOTA покажет себя на наших реалиях — на русском языке, в домене телефонии и видеоконференций, в условиях, когда у нас нет десятков тысяч часов размеченных людьми данных.
https://habr.com/ru/companies/skbkontur/articles/1024206/
#машинное+обучение #распознавание_речи #asr #llm
-
Slow Feature Analysis. Разбор метода и реализация на Python с нуля
Slow Feature Analysis - метод обучения без учителя, который извлекает из входного сигнала наиболее медленно меняющиеся признаки, решая задачу минимизации производной выходного сигнала. Главная ценность метода заключается в способности отфильтровывать шум и быстрые колебания, фокусируясь на фундаментальных, устойчивых закономерностях.
https://habr.com/ru/companies/okama/articles/1025754/
#машинное_обучение #математика #анализ_данных #машинное+обучение #алгоритмы #программирование #python
-
[Перевод] Linux 7.0: один Bash-скрипт, одни выходные, 23 года багов в ядре
Релиз Linux 7.0 состоялся 12 апреля. Rust теперь официально в деле. ИИ стал полноправным «соавтором» ядра. Линус Торвальдс называет это «новой нормальностью». Двадцать три года. И один вечер. Bash-скрипт крутится в цикле на ноутбуке Николаса Карлини. Ничего хитрого он не делает. Просто открывает файл с исходниками ядра, скармливает его модели Claude Opus 4.6, просит её представить, что она участвует в CTF-соревновании (Capture the Flag), и спрашивает, что тут можно сломать. Затем открывает следующий файл. И следующий. Карлини даже не следит за процессом. Он запускал подобное и раньше. Месяцами запускал. И всегда в ответ получал только белый шум. А потом приходит результат... И заставляет его перестать печатать. Модель нашла дыру в коде, который Linux использует для сетевого обмена файлами. Тот самый код крутится на файловом сервере в вашей компании, в хранилище вашей больницы, на общих дисках в школе вашего ребенка и на изрядной доле бэкендов в AWS, Google Cloud и Azure. Благодаря этому багу стажер в свой первый рабочий день, просто подключившись к гостевому Wi-Fi в офисе, может запустить коротенький скрипт и захватить файловый сервер. «Захватить» — в смысле: прочитать табличку с зарплатами HR-отдела, удалить зарплатный архив, скопировать бэкапы почты гендиректора и поставить вечный бэкдор, который переживет три следующие перезагрузки. Никакого пароля админа. Никаких украденных учеток. Никакой цепочки из других уязвимостей. Эта дыра была в каждом файловом сервере на базе Linux, выпущенном с марта 2003 года по апрель 2026-го.
https://habr.com/ru/companies/bothub/articles/1025404/
#ии #нейросети #машинное+обучение #ai #linux_70
-
ИИ Анализ новостного сентимента как торговый сигнал
🧠ИИ анализ новостного сентимента как источник торгового сигнала 🐻🔄🐂 Рынок меняет тренд с бычего на медвежий несколько раз в день - это обусловлено новостными настроениями, а не историей цен. Индикаторы не работают Используем изменение настроений в соцсетях как торговый сигнал
https://habr.com/ru/articles/1025238/
#сезон_ии_в_разработке #gptoss20b #vllm #llm #новости #исскуственный_интеллект #машинное+обучение #бизнесалгоритмы #typescript #python
-
[Перевод] Claude Mythos Preview уже здесь. Я прочитал все 244 страницы system card, чтобы вам не пришлось
Раз в несколько месяцев выходит новая флагманская модель. Бенчмарки растут. Появляется пост в блоге. Разработчики пару дней ковыряют API, пишут треды, и новостной цикл едет дальше. Claude Mythos Preview — это не тот случай. Вместе с релизом вышла огромная system card на 244 страницы — документ, в котором очень подробно расписано, на что способна модель. И, судя по этому документу, мы имеем дело с возможностями такого уровня, которых раньше просто не показывали. Я прочитал всё. Целиком. И то, что там внутри, сильно отличается от всего, что раньше публиковала Anthropic — да и вообще любая лаборатория фронтирного ИИ. Это не обычный запуск продукта. Anthropic не открывает Claude Mythos Preview для всех желающих, а вместо этого описывает поведение модели через её system card. И, судя по всему, причина простая: возможности Mythos слишком серьёзные и слишком широкие, чтобы просто выкатить её в мир по принципу «а там посмотрим». Ниже — что именно говорится в этой system card: бенчмарки, тревожные эпизоды поведения, последствия для кибербезопасности и те моменты, которые действительно заставляют задуматься.
https://habr.com/ru/companies/bothub/articles/1024428/
#ии #нейросети #машинное+обучение #научнопопулярное #ai
-
[Перевод] Я запустил Gemma 4 как локальную модель в Codex CLI
Я хотел понять, может ли Gemma 4 заменить облачную модель в моей обычной повседневной работе с кодом через агента. Не в теории, а по-настоящему. Я каждый день пользуюсь Codex CLI, и модель по умолчанию у меня — GPT-5.4. Работает она хорошо, но есть два нюанса: каждый токен стоит денег, и каждый промпт уводит мой код на чужие серверы. Плюс у меня есть друзья, которые всерьёз думают вложиться в локальные сетапы, а я до сих пор не был уверен, что для такой работы это вообще имеет смысл. Я допускал, что могу ошибаться. Gemma 4 обещала рабочий локальный tool calling. И я решил потратить день, чтобы проверить, не развалится ли всё это, как только Codex CLI начнёт читать файлы, писать патчи и гонять тесты. Я собрал два стенда:
https://habr.com/ru/companies/bothub/articles/1024424/
#ии #машинное+обучение #ai #машинное_творчество
-
Топ-10 бесплатных нейросетей для создания видео в 2026 году
Пару лет назад весь интернет хохотал над нейросетевым Уиллом Смитом, который с выпученными глазами запихивал в себя спагетти. Это было смешно, жутко и немного завораживающе. Сегодняшние генераторы выдают совершенно другую картинку. Проблема теперь другая. Сервисов - как грибов после дождя. Одни требуют подписку, другие VPN, третьи обещают кинематограф, а выдают мыльную кашу. Как понять, кому верить? Мы решили не спорить на словах, а посмотреть сами. Взяли топовые генераторы — Google Veo, Runway, Kling, Hailuo и ещё несколько громких имён — и проверили их на прочность. Главным героем тестового ролика стал енот. Не случайно: вокруг него мы собрали всё, от чего нейросети до сих пор страдают - детализированная шерсть, стеклянные поверхности, сложное освещение и физика мелких частиц.
https://habr.com/ru/companies/bothub/articles/1023854/
#ии #нейросети #машинное+обучение #ai #генерация_видео
-
Топ-10 бесплатных нейросетей для создания видео в 2026 году
Пару лет назад весь интернет хохотал над нейросетевым Уиллом Смитом, который с выпученными глазами запихивал в себя спагетти. Это было смешно, жутко и немного завораживающе. Сегодняшние генераторы выдают совершенно другую картинку. Проблема теперь другая. Сервисов - как грибов после дождя. Одни требуют подписку, другие VPN, третьи обещают кинематограф, а выдают мыльную кашу. Как понять, кому верить? Мы решили не спорить на словах, а посмотреть сами. Взяли топовые генераторы — Google Veo, Runway, Kling, Hailuo и ещё несколько громких имён — и проверили их на прочность. Главным героем тестового ролика стал енот. Не случайно: вокруг него мы собрали всё, от чего нейросети до сих пор страдают - детализированная шерсть, стеклянные поверхности, сложное освещение и физика мелких частиц.
https://habr.com/ru/companies/bothub/articles/1023854/
#ии #нейросети #машинное+обучение #ai #генерация_видео
-
Топ-10 бесплатных нейросетей для создания видео в 2026 году
Пару лет назад весь интернет хохотал над нейросетевым Уиллом Смитом, который с выпученными глазами запихивал в себя спагетти. Это было смешно, жутко и немного завораживающе. Сегодняшние генераторы выдают совершенно другую картинку. Проблема теперь другая. Сервисов - как грибов после дождя. Одни требуют подписку, другие VPN, третьи обещают кинематограф, а выдают мыльную кашу. Как понять, кому верить? Мы решили не спорить на словах, а посмотреть сами. Взяли топовые генераторы — Google Veo, Runway, Kling, Hailuo и ещё несколько громких имён — и проверили их на прочность. Главным героем тестового ролика стал енот. Не случайно: вокруг него мы собрали всё, от чего нейросети до сих пор страдают - детализированная шерсть, стеклянные поверхности, сложное освещение и физика мелких частиц.
https://habr.com/ru/companies/bothub/articles/1023854/
#ии #нейросети #машинное+обучение #ai #генерация_видео
-
Топ-10 бесплатных нейросетей для создания видео в 2026 году
Пару лет назад весь интернет хохотал над нейросетевым Уиллом Смитом, который с выпученными глазами запихивал в себя спагетти. Это было смешно, жутко и немного завораживающе. Сегодняшние генераторы выдают совершенно другую картинку. Проблема теперь другая. Сервисов - как грибов после дождя. Одни требуют подписку, другие VPN, третьи обещают кинематограф, а выдают мыльную кашу. Как понять, кому верить? Мы решили не спорить на словах, а посмотреть сами. Взяли топовые генераторы — Google Veo, Runway, Kling, Hailuo и ещё несколько громких имён — и проверили их на прочность. Главным героем тестового ролика стал енот. Не случайно: вокруг него мы собрали всё, от чего нейросети до сих пор страдают - детализированная шерсть, стеклянные поверхности, сложное освещение и физика мелких частиц.
https://habr.com/ru/companies/bothub/articles/1023854/
#ии #нейросети #машинное+обучение #ai #генерация_видео
-
[Перевод] Claude Mythos: божественная модель или самая дорогая ролевая игра в истории?
Разница между Сэмом Альтманом и Дарио Амодеи лежит не в моральной плоскости. К сожалению, многие этого не понимают. Дело в уровне изощрённости, с которой они дурачат публику. И, как я писал ранее, в этом отношении Амодеи превосходит Альтмана. Сэма легко поймать на лжи. Сегодня он говорит одно, завтра — другое, и его бывшие сотрудники, партнёры и СМИ постоянно об этом пишут. Но Дарио действует осторожно. Он не оставляет улик. У него всегда есть алиби. И, разумеется, в каждом подкасте и каждом интервью он демонстрирует пылкую заботу о благополучии человечества. Как вы знаете, сердце его обливается кровью при мысли о том, сколько людей могут потерять работу из-за ИИ . Из-за того самого ИИ, который — по трагической иронии — разрабатывает Anthropic. И днём и ночью он думает о безопасности Claude. Словом, Дарио — это реинкарнация матери Терезы. Версия 2.0, аффилированная с ИИ-индустрией. И вот перед Амодеи вновь встаёт серьёзный вызов.
https://habr.com/ru/companies/bothub/articles/1023842/
#ии #нейросети #машинное+обучение #ai #anth
-
[Перевод] Альтман обманул Маска, выдавил Суцкевера и подчинил Microsoft. Кто следующий?
Ложь, которую нам продают надуватели пузыря ИИ, состоит в том, что путь, по которому пошло его развитие, — единственно возможный. Эксперты и добросовестные журналисты утверждают обратное. И вы сами можете убедиться, что они правы. Я лишь хочу добавить следующее: тот ИИ, который попал в нашу питьевую воду , — это не просто неоптимальная реализация. Это извращение науки и здравого смысла, отражающее особенности личности Сэма Альтмана. И хотя помимо ChatGPT существуют другие системы — Claude, Gemini, Perplexity и прочие, — их развитие негласно определяется рамками, допускающими лишь одну перспективу. И эти рамки сформированы отношением Альтмана к таким вещам, как правда, ложь, власть и ответственность.
https://habr.com/ru/companies/bothub/articles/1023178/
#ии #нейросети #машинное+обучение #ai #сэм_альтман #дарио_амодеи #илон_маск #openai
-
[Перевод] Маск появляется в Tesla один день в неделю, и управляет Tesla вслепую
Мы все знаем, что Маск помешан на автоматизации. От Optimus до беспилотных автомобилей — он хочет, чтобы его роботы захватили мир. Но, как выясняется, нечто похожее Маск проделывает и со своей ролью генерального директора Tesla. Washington Post недавно опубликовала интервью с одним из бывших топ-менеджеров Tesla, который проговорился: Маск хотел тратить на работу в компании как можно меньше времени. На первый взгляд звучит безобидно. Но для любого, кто разбирается в управлении бизнесом и корпоративной культуре, это — кошмар. Это означает, что Маск фактически задремал за рулём и позволяет Tesla самой ехать к обрыву. Но это не случайность. Если рассмотреть происходящее в контексте того, чем стала Tesla, всё встаёт на свои места. По моему мнению, это доказывает: Маск делает это намеренно.
https://habr.com/ru/companies/bothub/articles/1023164/
#ии #нейросети #машинное+обучение #ai #маск #spacex #grok #xai #tesla
-
Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных
В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |
https://habr.com/ru/articles/1022346/
#gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение
-
Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных
В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |
https://habr.com/ru/articles/1022346/
#gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение
-
Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных
В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |
https://habr.com/ru/articles/1022346/
#gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение
-
Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных
В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |
https://habr.com/ru/articles/1022346/
#gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение
-
Команда не стала работать быстрее: 8 уровней агентной инженерии
Способности LLM писать код растут очень быстро. А вот инженерные практики вокруг них – заметно медленнее. Поэтому на рынке одновременно существуют две реальности. В одной AI действительно ускоряет разработку: команда быстрее выполняет задачи, реже тонет в рутине и, что немаловажно, не проигрывает в качестве. В другой – тот же самый AI плодит тонны кода, который потом приходится дольше ревьюить, переписывать и отлаживать. Именно поэтому главный вопрос сегодня состоит уже не в том, насколько мощную модель вы смогли себе позволить, а на каком уровне зрелости находится ваша работа с агентами. Однако на пути к автоматизации становится заметнее другой тренд: AI выходит за пределы автодополнения и простого чата и движется в сторону более автономной работы. Но с ростом автономности ключевым становится уже не сам факт генерации кода и не интерфейс как таковой, а инженерный контур, в котором агент видит контекст задачи, понимает ограничения, проходит проверки и может оценивать последствия своих действий. На этом фоне меняется и роль самой IDE: она постепенно становится не просто местом редактирования кода, а рабочей средой, где агентами управляют и где им задают рамки для работы. Удобную рамку из восьми уровней agentic engineering предложил Bassim Eledath: от tab completion и агентов в IDE до асинхронных AI-помощников и даже систем из нескольких AI-агентов: 1–2. Копилоты помогают быстрее писать и править код, но почти не меняют сам процесс разработки. 3. Инженерия контекста задает, какой контекст агент видит в конкретной задаче и в каких границах работает.
https://habr.com/ru/companies/veai/articles/1021816/
#ai #программирование #машинное+обучение #llmагент #java #аналитика #анализ_данных
-
Квантовые данные для ML-инженера: без формул, но с реальными примерами
Доброго времени суток, уважаемые хаброжители! Сегодня поговорим о данных — о той самой основе, без которой в классическом машинном обучении да и в deeplearning, по большому счёту, не происходит вообще ничего, от слова совсем: ни обучения моделей, ни проверки гипотез, ни сколько-нибудь осмысленных выводов, ни построение пайплайнов. И в квантовом машинном обучении история, в сущности, та же самая. Только вот сами данные здесь устроены несколько иначе — и вот здесь как раз начинается самое интересное ;) Когда впервые слышишь словосочетание квантовые данные, реакция, как правило, одна из двух: либо это звучит как что-то из научной фантастики, где сейчас из-за угла выйдет кот Шрёдингера и испортит вам датасет, либо как "ну хорошо, ещё один датасет, просто теперь с модной квантовой приставкой" и всякими наворотами. Сразу скажу: на практике всё интереснее и более вариативно. Именно, последнее и приобретает особо важную роль в современном мире ИИ. В этой статье мы разберём следующие важные положения:
https://habr.com/ru/articles/1021412/
#квантовые_вычисления #квантовые_алгоритмы #квантовый_компьютер #машинное+обучение #оптимизация #системный_анализ #разработка #аналитика #анализ_данных #анализ_и_проектирование_систем
-
Что не так с оценкой RAG-системи какое решение предлагает динамический бенчмарк DRAGOn
Привет, Хабр! В этот раз предлагаю разбор научной статьи DRAGOn: Designing RAG On Periodically Updated Corpus — будет полезна всем, кто интересуется RAG и хочет знать, как оценивать такие системы. Структура 1. Почему RAG сложно оценивать 2. Идея DRAGOn 3. Как строится бенчмарк 4. Проверка качества QA 5. Проверка бенчмарка на RAG-системах 6. Публичный лидерборд 7. Ограничения, проблемы и практические выводы
https://habr.com/ru/companies/ru_mts/articles/1021202/
#искусственный_интеллект #rag #бенчмарк #nlp #машинное+обучение #llm #llm_as_a_judge #датасет
-
Топ инструментов для перевода голоса в текст: Speech2Text, BotHub, Yandex SpeechKit и другие
Помните, как мы смотрели фантастику и завидовали Тони Старку с его Джарвисом? Казалось, еще чуть-чуть, и машины заговорят с нами голосами британских дворецких. Но реальность долго била по ушам: ранние синтезаторы речи звучали как робот Вертер с хроническим насморком, а навигаторы ставили такие ударЕния, что хотелось выйти из машины. Но добро пожаловать в 2026 год. Нейросети наконец-то научились дышать, делать драматические паузы и играть интонациями. Теперь искусственные голоса озвучивают аудиокниги, подкасты, YouTube-каналы и даже не пытаются выдать свое машинное происхождение. Кажется, будущее наступило, но везде ли оно одинаково качественное? В этом материале мы собрали 5 сервисов для синтеза речи - от мастодонтов рынка до дерзких новичков - и прогнали их через суровые тесты. Поехали слушать, кто из них уже готов заменить живого диктора, а кому еще учить азбуку!
https://habr.com/ru/companies/bothub/articles/1020424/
#ии #нейросети #ai #синтез_речи #голос #машинное+обучение
-
Топ инструментов для перевода голоса в текст: Speech2Text, BotHub, Yandex SpeechKit и другие
Помните, как мы смотрели фантастику и завидовали Тони Старку с его Джарвисом? Казалось, еще чуть-чуть, и машины заговорят с нами голосами британских дворецких. Но реальность долго била по ушам: ранние синтезаторы речи звучали как робот Вертер с хроническим насморком, а навигаторы ставили такие ударЕния, что хотелось выйти из машины. Но добро пожаловать в 2026 год. Нейросети наконец-то научились дышать, делать драматические паузы и играть интонациями. Теперь искусственные голоса озвучивают аудиокниги, подкасты, YouTube-каналы и даже не пытаются выдать свое машинное происхождение. Кажется, будущее наступило, но везде ли оно одинаково качественное? В этом материале мы собрали 5 сервисов для синтеза речи - от мастодонтов рынка до дерзких новичков - и прогнали их через суровые тесты. Поехали слушать, кто из них уже готов заменить живого диктора, а кому еще учить азбуку!
https://habr.com/ru/companies/bothub/articles/1020424/
#ии #нейросети #ai #синтез_речи #голос #машинное+обучение
-
Топ инструментов для перевода голоса в текст: Speech2Text, BotHub, Yandex SpeechKit и другие
Помните, как мы смотрели фантастику и завидовали Тони Старку с его Джарвисом? Казалось, еще чуть-чуть, и машины заговорят с нами голосами британских дворецких. Но реальность долго била по ушам: ранние синтезаторы речи звучали как робот Вертер с хроническим насморком, а навигаторы ставили такие ударЕния, что хотелось выйти из машины. Но добро пожаловать в 2026 год. Нейросети наконец-то научились дышать, делать драматические паузы и играть интонациями. Теперь искусственные голоса озвучивают аудиокниги, подкасты, YouTube-каналы и даже не пытаются выдать свое машинное происхождение. Кажется, будущее наступило, но везде ли оно одинаково качественное? В этом материале мы собрали 5 сервисов для синтеза речи - от мастодонтов рынка до дерзких новичков - и прогнали их через суровые тесты. Поехали слушать, кто из них уже готов заменить живого диктора, а кому еще учить азбуку!
https://habr.com/ru/companies/bothub/articles/1020424/
#ии #нейросети #ai #синтез_речи #голос #машинное+обучение
-
Топ инструментов для перевода голоса в текст: Speech2Text, BotHub, Yandex SpeechKit и другие
Помните, как мы смотрели фантастику и завидовали Тони Старку с его Джарвисом? Казалось, еще чуть-чуть, и машины заговорят с нами голосами британских дворецких. Но реальность долго била по ушам: ранние синтезаторы речи звучали как робот Вертер с хроническим насморком, а навигаторы ставили такие ударЕния, что хотелось выйти из машины. Но добро пожаловать в 2026 год. Нейросети наконец-то научились дышать, делать драматические паузы и играть интонациями. Теперь искусственные голоса озвучивают аудиокниги, подкасты, YouTube-каналы и даже не пытаются выдать свое машинное происхождение. Кажется, будущее наступило, но везде ли оно одинаково качественное? В этом материале мы собрали 5 сервисов для синтеза речи - от мастодонтов рынка до дерзких новичков - и прогнали их через суровые тесты. Поехали слушать, кто из них уже готов заменить живого диктора, а кому еще учить азбуку!
https://habr.com/ru/companies/bothub/articles/1020424/
#ии #нейросети #ai #синтез_речи #голос #машинное+обучение
-
Синтетика как топливо: почему self-training работает и где начинается model collapse
В индустрии ИИ случилось одно пренеприятное открытие: GPU можно купить, а качественные человеческие данные — все сложнее. Логичный шаг: если «топлива» не хватает, давайте синтезируем его сами. Звучит как вечный двигатель и на короткой дистанции, почти так и ощущается. Но есть нюанс. Если увлечься рекурсией «модель учится на своих же генерациях», можно попасть в режим model collapse — деградации распределения, исчезновению редких случаев и потери разнообразия. Эта статья продолжает цикл о новой парадигме ИИ, на этот раз предлагаем обудить, как синтетика помогает и где начинается опасность. Об авторе: Антон Пчелинцев, эксперт онлайн-магистратур
https://habr.com/ru/articles/1018800/
#искусственный_интеллект #машинное+обучение #большие_данные #bigdata #ai #стена_данных #gpu #пайплайн #качество_данных #синтетические_данные