#deep_learning — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #deep_learning, aggregated by home.social.
-
Клиент — это тоже вектор? Как мы хотели улучшить ML-модель, а построили similarity engine
Поговорим о том, как превращать последовательности пользовательских событий в векторы, зачем обучать BERT на "языке" клиентского поведения и почему embedding-пространство может неожиданно начать отражать будущую ценность пользователей
https://habr.com/ru/articles/1034880/
#машинное_обучение #анализ_данных #bert #deep_learning #machine_learning #embeddings #transformers
-
Beyond Context Graphs : Agentic Memory , Causual Graphs , Promise Graphs and decision traces by Volodymyr Pavlyshyn is the featured bundle of ebooks 📚 on Leanpub!
How to make agents adopted to enterprice grade tasks
Link: https://leanpub.com/b/beyondcontextgraphs-agenticai
#ai #deep_learning #data_science #software_architecture #databases #data_structures #software_engineering
-
Beyond Context Graphs : Agentic Memory , Causual Graphs , Promise Graphs and decision traces by Volodymyr Pavlyshyn is the featured bundle of ebooks 📚 on Leanpub!
How to make agents adopted to enterprice grade tasks
Link: https://leanpub.com/b/beyondcontextgraphs-agenticai
#ai #deep_learning #data_science #software_architecture #databases #data_structures #software_engineering
-
Beyond Context Graphs : Agentic Memory , Causual Graphs , Promise Graphs and decision traces by Volodymyr Pavlyshyn is the featured bundle of ebooks 📚 on Leanpub!
How to make agents adopted to enterprice grade tasks
Link: https://leanpub.com/b/beyondcontextgraphs-agenticai
#ai #deep_learning #data_science #software_architecture #databases #data_structures #software_engineering
-
Beyond Context Graphs : Agentic Memory , Causual Graphs , Promise Graphs and decision traces by Volodymyr Pavlyshyn is the featured bundle of ebooks 📚 on Leanpub!
How to make agents adopted to enterprice grade tasks
Link: https://leanpub.com/b/beyondcontextgraphs-agenticai
#ai #deep_learning #data_science #software_architecture #databases #data_structures #software_engineering
-
The Agentic AI book: From Language Models to Multi-Agent Systems by Dr. Ryan Rad is the featured book 📖 on Leanpub!
It's never been easier to build an AI agent—and never been harder to make one that actually works. This book takes you from language model foundations to production-ready multi-agent systems, with the depth to understand what you're building and why it fails.
Link: https://leanpub.com/TheAgenticAIbook
#ai #computer_science #deep_learning #data_science #gpt #neural_networks
-
Обратное распространение ошибки: от интуиции до кода
Многие умеют вызывать loss.backward() в PyTorch, но не всегда понимают, что именно происходит под капотом. Как сеть вычисляет, какой из миллионов весов нужно изменить? В этой статье мы развеем магию обратного распространения ошибки (backprop). Разберем алгоритм на простых аналогиях с заводским конвейером, вспомним школьное правило дифференцирования и, чтобы закрепить понимание, напишем свой микро-фреймворк для автоматического вычисления градиентов на чистом Python с нуля.
https://habr.com/ru/articles/1031986/
#машинное_обучение #нейросети #backpropagation #обратное_распространение_ошибки #градиентный_спуск #deep_learning #python #математика #вычислительные_графы #micrograd
-
Обратное распространение ошибки: от интуиции до кода
Многие умеют вызывать loss.backward() в PyTorch, но не всегда понимают, что именно происходит под капотом. Как сеть вычисляет, какой из миллионов весов нужно изменить? В этой статье мы развеем магию обратного распространения ошибки (backprop). Разберем алгоритм на простых аналогиях с заводским конвейером, вспомним школьное правило дифференцирования и, чтобы закрепить понимание, напишем свой микро-фреймворк для автоматического вычисления градиентов на чистом Python с нуля.
https://habr.com/ru/articles/1031986/
#машинное_обучение #нейросети #backpropagation #обратное_распространение_ошибки #градиентный_спуск #deep_learning #python #математика #вычислительные_графы #micrograd
-
The Hundred-Page Language Models Course by Andriy Burkov is the featured course 🎓 on Leanpub!
Master language models through mathematics, illustrations, and code―and build your own from scratch! This course includes nearly three hours of exclusive video interviews with the author, covering questions related to each of the six lessons included in the course.
Link: https://leanpub.com/courses/leanpub/theLMcourse
#ai #gpt #textbooks #data_science #computer_science #neural_networks #deep_learning #linguistics
-
Generative AI for Science: A Hands-On Guide for Students and Researchers by J. Paul Liu is the featured book 📖 on Leanpub!
Link: https://leanpub.com/generativeaiforscience
#ai #machine_learning #data_science #neural_networks #deep_learning
-
My Adventures with Large Language Models: Build foundational LLMs from Transformers to DeepSeek, from scratch, in PyTorch. by Prathamesh S. is a new release on Leanpub!
Link: https://leanpub.com/adventures-with-llms
#books #ebooks #newreleases #leanpublishing #selfpublishing #machine_learning #deep_learning #ai #python #computer_science #computer_programming #data_science #neural_networks
-
My Adventures with Large Language Models: Build foundational LLMs from Transformers to DeepSeek, from scratch, in PyTorch. by Prathamesh S. is the featured book 📖 on Leanpub!
Build GPT-2, Llama 3, and DeepSeek from scratch in PyTorch. Every chapter has runnable end-to-end code and loads real pretrained weights. Goes well past where most LLM tutorials stop.
Link: https://leanpub.com/adventures-with-llms
#machine_learning #deep_learning #ai #python #computer_science #computer_programming #data_science
-
The Hundred-Page Language Models Course by Andriy Burkov is the featured course 🎓 on Leanpub!
Master language models through mathematics, illustrations, and code―and build your own from scratch! This course includes nearly three hours of exclusive video interviews with the author, covering questions related to each of the six lessons included in the course.
Link: https://leanpub.com/courses/leanpub/theLMcourse
#ai #gpt #textbooks #data_science #computer_science #neural_networks #deep_learning #linguistics
-
DiffQuant: прямая оптимизация коэффициента Шарпа через дифференцируемый торговый симулятор
Большинство ML -систем для трейдинга оптимизируют MSE , а оценивают по коэффициенту Sharpe . В DiffQuant этот разрыв убран: весь путь от рыночных признаков до позиции, PnL и издержек собран в единый дифференцируемый граф. Градиент проходит не через proxy -цель, а через саму торговую механику. На двух последовательных held-out кварталах прототип показал Sharpe +1.73 и +1.15 после учёта комиссий. Код, данные и протокол эксперимента открыты. Это не готовая торговая система - это другая постановка задачи.
https://habr.com/ru/articles/1022254/
#machine_learning #алгоритмическая_торговля #deep_learning #pytorch #quantitative_finance #algorithmic_trading #quantitative_research #differentiable_programming #itransformer #backtesting
-
[Перевод] Аугментация ограничивающих боксов в детекции: форматы, `BboxParams` и типичные ошибки
Когда аугментации в детекции «не работают», проблема часто не в модели, а в bbox после преобразований. Неверный coord_format , перепутанные нормализованные и абсолютные координаты, агрессивные кропы, пустые боксы после фильтрации — всё это не ломает код, но quietly ломает обучение. В статье разбираю: — какие форматы bbox поддерживает Albumentations — как правильно настраивать A.BboxParams — когда использовать min_area и min_visibility — почему обычный RandomCrop часто плохая идея для detection — и где пайплайн чаще всего ломается на практике Если вы работаете с COCO , YOLO , pascal_voc или просто хотите перестать обучать модель на испорченной разметке — этот материал для вас.
https://habr.com/ru/articles/1020618/
#albumentations #bounding_boxes #object_detection #computer_vision #data_augmentation #bbox #coco #yolo #python #deep_learning
-
WACV 2026 в Тусоне: конференция, пустыня и немного экзистенции
Привет, Хабр! Я — Максим Куркин из лаборатории FusionBrain AIRI. Когда мне сказали «поедешь на WACV», первая мысль была — отлично, конференция. Вторая мысль — Тусон, Аризона. Пустыня Сонора. Кактусы‑сагуаро высотой с двухэтажный дом. +25°C в начале марта, когда в Москве ещё лежит снег. Круто! В итоге я провёл в командировке девять дней — с 5 по 13 марта. Два дня дороги в каждую сторону, пять дней конференции, немного пустыни вокруг. Поездка получилась насыщенной: и по науке, и по ощущениям, и очень хочется поделиться увиденным!
https://habr.com/ru/companies/airi/articles/1018010/
#WACV_2026 #Computer_Vision #Машинное_обучение #Искусственный_интеллект #Конференции #Vision_Encoders #Deep_Learning #Интерпретируемость_нейросетей #VLM
-
[Перевод] Как подбирать аугментации: гипотезы, протокол и метрики
Новый пайплайн аугментаций редко собирается за один раз: базовые кропы и отражения, потом куски из старых проектов, статей и соревнований — и в какой-то момент уже много трансформаций, а ясной логики выбора нет. Статья про то, как к этому подойти системно: зачем конкретная трансформация, что она симулирует, насколько сильно её включать и какое допущение о данных она закладывает. Ключевая мысль: аугментация — явное утверждение о том, какие вариации не должны менять смысл метки. Отсюда проще решать, что оставить и что убрать, и отличить реальную пользу от ситуации, когда обучение просто стало шумнее. Без «волшебной таблетки»: не готовая формула, а интуиция, ментальная модель и пошаговый протокол для реальных систем. Внутри — инженерный взгляд, два уровня, пайплайн в семь шагов, настройка силы и бюджета, продвинутые приёмы, диагностика и метрики, признаки вреда, автопоиск, выкат и примеры. Исходный гайд в документации . (Документация)[ https://albumentations.ai/docs/ ] Репозиторий Albumentations — открытая библиотека аугментаций изображений (15k+ звёзд на GitHub, 140M+ загрузок).
https://habr.com/ru/articles/1016172/
#computer_vision #deep_learning #machine_learning #albumentations #нейронные_сети #data_augmentation #image_augmentation #аугментация_изображений #машинное_обучение #компьютерное_зрение
-
[Перевод] Аугментации изображений: как улучшить качество моделей без новых данных
Аугментация данных — один из самых мощных инструментов улучшения качества моделей машинного обучения. В компьютерном зрении она почти всегда критична: без неё модели быстро переобучаются и плохо обобщаются. Но на практике её часто используют поверхностно: «добавим флип, поворот и color jitter». В этой статье разбираем аугментации глубже: — два режима аугментаций (in-distribution и out-of-distribution) — почему нереалистичные трансформации могут улучшать обобщающую способность — когда аугментации начинают вредить — как строить устойчивый пайплайн аугментаций Материал основан на ~10 годах практики обучения моделей компьютерного зрения (на работе, при написании научных статей, в ML соревнованиях) и ~7 годах разработки библиотеки Albumentations.
https://habr.com/ru/articles/1008560/
#computer_vision #deep_learning #machine_learning #albumentations #нейронные_сети #data_augmentation #image_augmentation #аугментации_изображений #машинное_обучение #компьютерное_зрение
-
Лес под прицелом нейросетей: сравниваем модели для выявления рубок со спутника
Ханты-Мансийский автономный округ (ХМАО) – это не только 50% российской нефти, но и 530 тыс. кв. км лесов. Развитие инфраструктуры месторождений и интенсивные заготовки требуют жесткого контроля вырубок. С 2014 года здесь ведут мониторинг по снимкам со спутников, собрав базу из 15000 записей, включающих информацию о выявленных лесных рубках, но есть проблема: ручное дешифрирование происходит слишком долго и дорого.
https://habr.com/ru/articles/1000920/
#Нейросети #Deep_Learning #Семантическая_сегментация #SegFormer #Sentinel2 #Анализ_космических_снимков #Мониторинг_вырубок #дзз
-
Архитектура «Обратного Хэша»: Нейросети без умножения
Современный Deep Learning уперся в производительность вычислений с плавающей точкой (float) и пропускную способность памяти. Мы предлагаем архитектуру «Обратного Хэша» , где нейрон — это не сумма произведений, а битовая функция. Ноль умножений. Ноль сложений. Только логика (XOR), статистика и скорость света. Let the bitwise revolution begin.
https://habr.com/ru/articles/996268/
#нейросети #deep_learning #оптимизация #алгоритмы #xor #битовые_операции #machine_learning #искусственный_интеллект #FPGA #BNN
-
PyTorch vs TensorFlow: что выбрать для deep learning в 2026 году
Выбор фреймворка для глубокого обучения — это стратегическое решение, влияющее на скорость разработки, стоимость и масштабируемость. Правило «PyTorch — для исследований, TensorFlow — для продакшена» больше не работает. К 2026 году оба фреймворка активно заимствуют лучшее друг у друга: PyTorch наращивает промышленные возможности (TorchServe, ExecuTorch), а TensorFlow с Keras 3 становится гибче для исследований. Согласно опросу Stack Overflow Developer Survey 2024 , PyTorch (10,6%) и TensorFlow (10,1%) находились примерно на одной отметке по частоте использования у разработчиков, а в исследовательских и AI-first-компаниях уверенно лидирует PyTorch . Но есть нюансы. Разобраться в особенностях фреймворков →
https://habr.com/ru/companies/netologyru/articles/995500/
#pytorch #tensorflow #глубокое_обучение #установка_окружения #MNIST #keras #тензоры #deep_learning #цикл_обучения #нейронные_сети
-
NEWAVE. Делаем интеллектуальный ретривал музыки
Двуэнкодерные нейросети, контрастивное обучение, десять датасетов и late fusion. Как мы строили ML-систему ретривала, понимающую человеческий язык вместо фильтров Ну и как же?
https://habr.com/ru/articles/989756/
#CLAP #biencoder #contrastive_learning #retrieval #feature_engineering #ML #DL #machine_learning #project #deep_learning
-
Query Prediction, или как мы отказались от ANN и полюбили обратный индекс
Всем привет! Меня зовут Антон Пилькевич, я более четырёх лет занимаюсь ранжированием и текстовой релевантностью в поиске Ozon. И вот настал момент, когда у меня появилось время поделиться своими мыслями. В этой статье вас ждёт увлекательное путешествие в ML-мир текстового поиска Ozon, а также знакомство с флорой и фауной существующих решений в этой области!
https://habr.com/ru/companies/ozontech/articles/990180/
#поиск #machine_learning #deep_learning #big_data #nlp #ozon_tech
-
SoftMax: как нейросети превращают сырые числа в уверенные вероятности — разбор с примерами и математикой
В реальности всё полно оттенков: ничего чисто чёрного или белого, то же в машинном обучении, тк решения редко бывают абсолютными. Возьмём задачу: нейросеть анализирует фото еды и определяет, это пицца, суши или салат. Для двух классов хватит сигмоиды, но с несколькими нужна функция, которая раздаст вероятности по всем вариантам, чтобы их сумма была точно 1. Вот где и выходит SoftMax- стандарт для многоклассовой классификации. Сегодня разберём её от А до Я: интуицию, шаги, формулы и хитрости.
https://habr.com/ru/articles/988936/
#softmax #pytorch #функция_активации #backpropagation #deep_learning #нейросети #нейронные_сети #tensorflow #вероятностное_моделирование #функция_потерь
-
SoftMax: как нейросети превращают сырые числа в уверенные вероятности — разбор с примерами и математикой
В реальности всё полно оттенков: ничего чисто чёрного или белого, то же в машинном обучении, тк решения редко бывают абсолютными. Возьмём задачу: нейросеть анализирует фото еды и определяет, это пицца, суши или салат. Для двух классов хватит сигмоиды, но с несколькими нужна функция, которая раздаст вероятности по всем вариантам, чтобы их сумма была точно 1. Вот где и выходит SoftMax- стандарт для многоклассовой классификации. Сегодня разберём её от А до Я: интуицию, шаги, формулы и хитрости.
https://habr.com/ru/articles/988936/
#softmax #pytorch #функция_активации #backpropagation #deep_learning #нейросети #нейронные_сети #tensorflow #вероятностное_моделирование #функция_потерь
-
Трёхстрочный Deep Learning: 20 примеров нейросетевой магии
В 2012 году AlexNet потряс мир — тысячи строк кода, две видеокарты, недели обучения. Сегодня вы превзойдёте его одной строкой, а модель загрузится за секунды. В статье — 20 полностью рабочих примеров глубокого обучения, каждый ровно в три строки Python. Анализ тональности, резюмирование текста, вопросно-ответные системы, генерация текста, перевод, NER. Детекция объектов, сегментация, оценка глубины, поиск изображений по описанию. Мультимодальные модели, которые отвечают на вопросы о картинках. Это не упрощение и не обман. За тремя строками скрываются модели с миллиардами параметров: BERT прочитал всю Википедию, GPT-2 обработал 40 ГБ текста, CLIP просмотрел 400 миллионов пар «картинка-описание». Всё это знание теперь доступно через один вызов функции. Никакой дополнительной подготовки данных, никаких конфигурационных файлов, GPU не требуется. Скопируйте код — и получите результат, на который ещё пять лет назад ушли бы недели. Те же модели прямо сейчас работают в production у Netflix, Google и тысяч стартапов. К концу статьи вы освоите 20 техник, покрывающих большинство задач NLP и компьютерного зрения — и каждая уместится в твит.
https://habr.com/ru/articles/986782/
#нейросети #deep_learning #transformers #BERT #GPT #компьютерное_зрение #NLP
-
ML на Мосбирже — почему мой грааль не работает?
Время после нового года решил провести с пользой и окунуться в машинное обучение. Заняться Machine Learning — и посмотреть получится что‑то или нет с российским рынком акций на Московской бирже. Моей целью было построить такую систему, которая будет учиться на истории и в перспективе торговать лучше чем случайное блуждание 50/50. Но из‑за комиссий и спреда подобные блуждания изначально отрицательны — чтобы выйти в плюс надо как минимум покрывать комиссии. Если говорить о результатах очень кратко, то технически всё работает, но вот финансовый результат на грани безубыточности. Если Вы только интересуетесь этой темой Вы можете посмотреть какие‑то шаги в моей статье, а если Вы уже опытный разработчик подобных систем, то можете подсказать что‑нибудь в комментариях. Причём вся эта работа выглядит совершенно не так как показывается в фильмах про уолл‑стрит: фактически это написание скриптов и монотонный запуск и всё происходит полностью локально на компьютере.
https://habr.com/ru/articles/984190/
#machine_learning #deep_learning #московская_биржа #мосбиржа #auc #Сезон_ИИ_в_разработке #алгоритмическая_торговля
-
ML на Мосбирже — почему мой грааль не работает?
Время после нового года решил провести с пользой и окунуться в машинное обучение. Заняться Machine Learning — и посмотреть получится что‑то или нет с российским рынком акций на Московской бирже. Моей целью было построить такую систему, которая будет учиться на истории и в перспективе торговать лучше чем случайное блуждание 50/50. Но из‑за комиссий и спреда подобные блуждания изначально отрицательны — чтобы выйти в плюс надо как минимум покрывать комиссии. Если говорить о результатах очень кратко, то технически всё работает, но вот финансовый результат на грани безубыточности. Если Вы только интересуетесь этой темой Вы можете посмотреть какие‑то шаги в моей статье, а если Вы уже опытный разработчик подобных систем, то можете подсказать что‑нибудь в комментариях. Причём вся эта работа выглядит совершенно не так как показывается в фильмах про уолл‑стрит: фактически это написание скриптов и монотонный запуск и всё происходит полностью локально на компьютере.
https://habr.com/ru/articles/984190/
#machine_learning #deep_learning #московская_биржа #мосбиржа #auc #Сезон_ИИ_в_разработке #алгоритмическая_торговля
-
ML на Мосбирже — почему мой грааль не работает?
Время после нового года решил провести с пользой и окунуться в машинное обучение. Заняться Machine Learning — и посмотреть получится что‑то или нет с российским рынком акций на Московской бирже. Моей целью было построить такую систему, которая будет учиться на истории и в перспективе торговать лучше чем случайное блуждание 50/50. Но из‑за комиссий и спреда подобные блуждания изначально отрицательны — чтобы выйти в плюс надо как минимум покрывать комиссии. Если говорить о результатах очень кратко, то технически всё работает, но вот финансовый результат на грани безубыточности. Если Вы только интересуетесь этой темой Вы можете посмотреть какие‑то шаги в моей статье, а если Вы уже опытный разработчик подобных систем, то можете подсказать что‑нибудь в комментариях. Причём вся эта работа выглядит совершенно не так как показывается в фильмах про уолл‑стрит: фактически это написание скриптов и монотонный запуск и всё происходит полностью локально на компьютере.
https://habr.com/ru/articles/984190/
#machine_learning #deep_learning #московская_биржа #мосбиржа #auc #Сезон_ИИ_в_разработке #алгоритмическая_торговля
-
ML на Мосбирже — почему мой грааль не работает?
Время после нового года решил провести с пользой и окунуться в машинное обучение. Заняться Machine Learning — и посмотреть получится что‑то или нет с российским рынком акций на Московской бирже. Моей целью было построить такую систему, которая будет учиться на истории и в перспективе торговать лучше чем случайное блуждание 50/50. Но из‑за комиссий и спреда подобные блуждания изначально отрицательны — чтобы выйти в плюс надо как минимум покрывать комиссии. Если говорить о результатах очень кратко, то технически всё работает, но вот финансовый результат на грани безубыточности. Если Вы только интересуетесь этой темой Вы можете посмотреть какие‑то шаги в моей статье, а если Вы уже опытный разработчик подобных систем, то можете подсказать что‑нибудь в комментариях. Причём вся эта работа выглядит совершенно не так как показывается в фильмах про уолл‑стрит: фактически это написание скриптов и монотонный запуск и всё происходит полностью локально на компьютере.
https://habr.com/ru/articles/984190/
#machine_learning #deep_learning #московская_биржа #мосбиржа #auc #Сезон_ИИ_в_разработке #алгоритмическая_торговля
-
🤔 Why use a deep learning library when you can painstakingly recreate one from scratch and rediscover every bug solved since 1970? 🚀 Just grab #NumPy, type until your fingers bleed, and hope for #MNIST magic. 💻✨ Perfect for those who love reinventing the wheel... with square edges. 🛞
https://zekcrates.quarto.pub/deep-learning-library/ #deep_learning #reinvent_the_wheel #programming #challenges #HackerNews #ngated -
Трансформеры для персональных рекомендаций на маркетплейсе: от гипотез до A/B-тестирования
Всем привет! На связи Ваня Ващенко, и я лид по развитию нейросетевых моделей в команде персональных рекомендаций Wildberries. Раньше я развивал B2C-рекомендации и нейросети кредитного скоринга в крупнейшем банке, а теперь вы видите результаты моей работы каждый раз, когда заходите на главную страницу любимого маркетплейса. Сегодняшний рассказ — о том, как мы развиваем WildBERT.
https://habr.com/ru/companies/wildberries/articles/972082/
#рекомендации #рекомендательные_системы #deep_learning #machine_learning #bert4rec #абтесты #recsys #маркетплейс #wildberries #data_science
-
GR00T N1.5: архитектура, данные и эволюция VLA-моделей
Начинаем серию разборов современных Vision-Language-Action (VLA) моделей для манипуляции. Несмотря на то, что им всего около года (π₀ была представлена ровно год назад — 31 октября 2024), текущие системы уже можно считать вторым поколением VLA-подходов . Их ключевое отличие — появление дополнительного модуля action head , который представляет собой не просто голову над представлениями, а отдельный диффузионный трансформер , обучаемый по задаче flow matching . Сегодня — разбор GR00T от NVIDIA, который с момента релиза N1 уже успел обновиться до версии N1.5 , а на днях ожидается N1.6 . Концепция VLA и постановка задачи VLA-модель — это end-to-end система , принимающая на вход «сырые» сенсорные сигналы различных модальностей (видео, текст, состояния сочленений робота) и напрямую предсказывающая управляющие действия , без внешнего планировщика или постобработки. Для человекоподобного робота входные данные включают:
-
Умный Learning Rate Scheduler: Управляем скоростью обучения, анализируя ускорение
Классический ReduceLROnPlateau снижает скорость обучения, когда уже поздно модель упёрлась в плато. Я покажу, как сделать шедулер, который замечает замедление заранее, анализируя ускорение улучшений.
https://habr.com/ru/articles/960340/
#deep_learning #pytorch #machine_learning #learning_rate #optimization #ai
-
Diffusion Beats Autoregressive in Data-Constrained Settings
https://blog.ml.cmu.edu/2025/09/22/diffusion-beats-autoregressive-in-data-constrained-settings/
#ycombinator #Machine_learning #artificial_intelligence #deep_learning #natural_language_processing #automated_machine_learning #big_data #data_science #neural_networks #ethics_and_ai #computer_science #research -
Полезные задачи на Kaggle ( LLM, Diffusion Models)
В мире Data Science и Data Engineering ценится не только теория, но и практический опыт: умение работать с реальными данными, строить модели и доводить решения до результата. Однако получить такой опыт непросто: рабочие проекты часто закрыты NDA, а учебные кейсы не отражают сложность реальных задач. Именно поэтому платформа Kaggle заняла особое место в индустрии. Это крупнейшее мировое сообщество специалистов по данным:
https://habr.com/ru/articles/947530/
#kaggle #AI #Machine_Learning #deep_learning #LLM #diffusion_models
-
Полезные задачи на Kaggle ( LLM, Diffusion Models)
В мире Data Science и Data Engineering ценится не только теория, но и практический опыт: умение работать с реальными данными, строить модели и доводить решения до результата. Однако получить такой опыт непросто: рабочие проекты часто закрыты NDA, а учебные кейсы не отражают сложность реальных задач. Именно поэтому платформа Kaggle заняла особое место в индустрии. Это крупнейшее мировое сообщество специалистов по данным:
https://habr.com/ru/articles/947530/
#kaggle #AI #Machine_Learning #deep_learning #LLM #diffusion_models
-
Полезные задачи на Kaggle ( LLM, Diffusion Models)
В мире Data Science и Data Engineering ценится не только теория, но и практический опыт: умение работать с реальными данными, строить модели и доводить решения до результата. Однако получить такой опыт непросто: рабочие проекты часто закрыты NDA, а учебные кейсы не отражают сложность реальных задач. Именно поэтому платформа Kaggle заняла особое место в индустрии. Это крупнейшее мировое сообщество специалистов по данным:
https://habr.com/ru/articles/947530/
#kaggle #AI #Machine_Learning #deep_learning #LLM #diffusion_models
-
Полезные задачи на Kaggle ( LLM, Diffusion Models)
В мире Data Science и Data Engineering ценится не только теория, но и практический опыт: умение работать с реальными данными, строить модели и доводить решения до результата. Однако получить такой опыт непросто: рабочие проекты часто закрыты NDA, а учебные кейсы не отражают сложность реальных задач. Именно поэтому платформа Kaggle заняла особое место в индустрии. Это крупнейшее мировое сообщество специалистов по данным:
https://habr.com/ru/articles/947530/
#kaggle #AI #Machine_Learning #deep_learning #LLM #diffusion_models
-
Играемся с видеокартой Tesla H100 (GH100)
Продолжаем статьи про практические тесты актуальных картонок от Nvidia ( RTX 5090 , A5000 Ada , A100 , 3090 и A10 ). В этот раз мне уже предложили покрутить на несколько часиков H100 с 80 GB VRAM. Тренировать опять ничего не будем, снимем попугаев через gpu-burn , попробуем MIG (multi-instance GPU) и также замерим инференс одной нашей прожорливой сетки. С A100 и MIG мне как-то тоже пришлось поиграться, но я не думал, что в России в принципе когда-либо появятся H100. Поэтому в этот раз главная шутка будет про санкции и про сумочку , сделанную из H100. Также пару слов расскажем про "фишку" MIG, доступную для самых толстых карт в линейках NVIDIA (из "доступных" в основном A100 и H100, но есть и экзотика). В конце даже получилась небольшая детективная история. Поехали
https://habr.com/ru/articles/945290/
#nvidia #H100 #hopper #deep_learning #машинное_обучение #видеокарта #nvidia_tesla #nvidia_tesla_h100
-
RL-агент для алгоритмической торговли на Binance Futures: архитектура, бэктест, результаты
Цель данной статьи - предоставить полное техническое руководство по созданию торгового агента, обученного с помощью Reinforcement Learning , на основе архитектуры Dueling Double Deep Q-Network с использованием Prioritized Experience Replay . Агент разработан для ведения краткосрочной торговли на Binance Futures . Он принимает решения на основе минутных рыночных данных, включая: open , high , low , close , volume , volume_weighted_average , num_trades . Основная цель агента — максимизировать итоговую прибыль PnL с учётом комиссий и проскальзываний, в данном проекте ключевым этапом оценки стратегии агента выступает реалистичный бэктест, моделирующий поведение в условиях, максимально приближенных к реальной торговле.
https://habr.com/ru/articles/934258/
#reinforcementlearning #quantitative_finance #machine_learning #deep_learning #binance #cryptocurrency #finance #investment #python #time_series
-
От мозга к мультиагентным системам: как устроены Foundation Agents нового поколения
Аналитический центр red_mad_robot разобрал объёмную научную статью «Advances and Challenges in Foundation Agents» от группы исследователей AI из передовых международных университетов и технологических компаний. Работа предлагает новый взгляд на текущее состояние и развитие «интеллектуальных агентов», которые могут адаптироваться к множеству задач и контекстов. Рассказываем, какие идеи лежат в основе Foundation Agents, с какими проблемами предстоит столкнуться, и что ждёт нас в будущем.
https://habr.com/ru/companies/redmadrobot/articles/930916/
#ai #machine_learning #deep_learning #large_language_models #multiagent_systems #reinforcement_learning #prompt_engineering #rag #alignment #jailbreak
-
Правда ли KAN лучше MLP? Свойство разделения глубины между двумя архитектурами
Прошлым летом в свет вышла новая архитектура нейронных сетей под названием Kolmogorov-Arnold Networks (KAN). На момент выхода статьи про KAN эта новость произвела фурор в мире машинного обучение, так как KAN показывала существенный прирост в качестве аппроксимации различных сложных функций. Ошибка новых сетей падает значительно быстрее при увеличении числа параметров. Однако, за все приходится платить, и цена таких маленьких значений функции ошибки - медленное обучение: KAN обучается примерно в 10 раз медленнее, чем старый добрый MLP. Из всего этого возникает вопрос: насколько все же уместно использование новой архитектуры вместо привычных всем MLP? В данной статье будет найдена функция, которая может быть реализована с помощью двухслойного KAN полиномиальной ширины, но не может быть приближена никакой двухслойной ReLU MLP сетью с полиномиальной шириной
https://habr.com/ru/articles/929972/
#kan #mlp #approximation #math #machine_learning #deep_learning #science #neural_networks #research
-
Это камень? Это ветка? Это нос! Разбираем подходы, помогающие ИИ распознавать лица на картинках с низким разрешением
Привет, Хабр! Мы – Даниил Соловьев и Михаил Никитин из команды направления распознавания лиц. Сегодня фокусируемся на задаче распознавания лиц на изображениях низкого разрешения (low resolution face recognition, low-res FR). Она актуальна в первую очередь при анализе данных видеонаблюдения, так что если перед вами сейчас стоит подобная задача (или просто интересно, как она решается) — статья для вас. Расскажем про проблемы и сложности распознавания лиц низкого разрешения, подходы к решению задачи, в том числе свежий PETALface с конференции WACV 2025 . Также поделимся ссылками на исследования, которые подробнее освещают каждый подход.
https://habr.com/ru/companies/tevian/articles/921660/
#низкое_качество #низкое_разрешение #распознавание_лиц #глубокое_обучение #компьютерное_зрение #машинное_обучение #обработка_изображений #deep_learning #computer_vision #face_recognition
-
NoProp: Реальный опыт обучения без Backprop – от провала к 99% на MNIST
Всем привет! Обучение нейронных сетей с помощью обратного распространения ошибки (backpropagation) — это стандарт де‑факто. Но у него есть ограничения: память, последовательные вычисления, биологическая неправдоподобность. Недавно я наткнулся на интересную статью « NOPROP: TRAINING NEURAL NETWORKS WITHOUT BACK‑PROPAGATION OR FORWARD‑PROPAGATION » (Li, Teh, Pascanu, arXiv:2403.13 502), которая обещает обучение вообще без сквозного backprop и даже без полного прямого прохода во время обучения ! Идея показалась захватывающей, и мы (я и ИИ‑ассистент Gemini) решили попробовать ее реализовать на PyTorch для MNIST. В этой статье я хочу поделиться нашим путешествием: как мы пытались следовать описанию из статьи, с какими трудностями столкнулись, как анализ связанных работ помог найти решение (которое, правда, отличается от оригинала) и каких впечатляющих результатов удалось достичь в итоге. Спойлер: получилось интересно, совсем не так, как ожидалось, но результат превзошел ожидания от процесса отладки. Дисклеймер 1: Это рассказ об учебном эксперименте. Результаты и выводы основаны на нашем опыте и могут не полностью отражать возможности оригинального метода при наличии всех деталей реализации.)
https://habr.com/ru/articles/900186/
#нейронные_сети #нейронные_сети_и_машинное_обучение #машинное_обучение #deep_learning #noprop #DDPM #backpropagation #research #искусственный_интеллект
-
NoProp: Реальный опыт обучения без Backprop – от провала к 99% на MNIST
Всем привет! Обучение нейронных сетей с помощью обратного распространения ошибки (backpropagation) — это стандарт де‑факто. Но у него есть ограничения: память, последовательные вычисления, биологическая неправдоподобность. Недавно я наткнулся на интересную статью « NOPROP: TRAINING NEURAL NETWORKS WITHOUT BACK‑PROPAGATION OR FORWARD‑PROPAGATION » (Li, Teh, Pascanu, arXiv:2403.13 502), которая обещает обучение вообще без сквозного backprop и даже без полного прямого прохода во время обучения ! Идея показалась захватывающей, и мы (я и ИИ‑ассистент Gemini) решили попробовать ее реализовать на PyTorch для MNIST. В этой статье я хочу поделиться нашим путешествием: как мы пытались следовать описанию из статьи, с какими трудностями столкнулись, как анализ связанных работ помог найти решение (которое, правда, отличается от оригинала) и каких впечатляющих результатов удалось достичь в итоге. Спойлер: получилось интересно, совсем не так, как ожидалось, но результат превзошел ожидания от процесса отладки. Дисклеймер 1: Это рассказ об учебном эксперименте. Результаты и выводы основаны на нашем опыте и могут не полностью отражать возможности оригинального метода при наличии всех деталей реализации.)
https://habr.com/ru/articles/900186/
#нейронные_сети #нейронные_сети_и_машинное_обучение #машинное_обучение #deep_learning #noprop #DDPM #backpropagation #research #искусственный_интеллект
-
Мир будущего: управление устройствами с помощью жестов
Видели в кино, как устройствами управляют с помощью жестов? Сделать такую систему очень просто, а ещё очень дорого. Но всё-таки есть способ сделать её достаточно лёгкой и простой — настолько, чтобы можно было интегрировать в любое устройство с любым процессором, потратив минимальное количество денег. Привет, Хабр! Это Александр Нагаев, техлид из SberDevices команды R&D компьютерного зрения. Расскажу, как создавать и использовать оптимизированные модели для управления устройствами с помощью жестов.
https://habr.com/ru/companies/oleg-bunin/articles/891860/
#data_mining #computer_vision #detection #neural_networks #data_science #deep_learning #device_control #gesture_recognition #datasets #humancomputerinteraction
-
Arbitrary-Scale Super-Resolution with Neural Heat Fields
https://therasr.github.io/
#ycombinator #Thera #Super_Resolution #Neural_Heat_Fields #Arbitrary_Scale #Anti_aliasing #Deep_Learning #Neural_Radiance_Fields -
HaGRIDv2-1M: 1 миллион изображений для распознавания статичных и динамических жестов
Датасет HaGRID , о котором мы писали в одном из постов , — это самый полный набор данных для построения системы распознавания жестов. Он стал очень популярным внутри комьюнити и нашел применение в таких задачах, как обучение и оценка нейронных сетей для распознавания жестов (о чем писали, например, тут и тут ), а также в таких неочевидных приложениях, как генерация анатомически корректных рук с помощью диффузионных моделей (об этом можно почитать тут , тут и тут ). Данная статья посвящена расширенной версии датасета — HaGRIDv2-1M . Тут мы подробно расскажем о её отличиях от первой версии, поделимся результатами экспериментов и обсудим новые возможности. Кроме того, мы представляем новый real-time алгоритм для детекции динамических жестов, полностью обученный на HaGRIDv2-1M . Данные, код и предобученные модели можно найти в репозиториях HaGRID , dynamic gestures , а более подробно ознакомиться с работой можно в статьях HaGRIDv2-1M , HaGRID .
https://habr.com/ru/companies/sberdevices/articles/888896/
#data_mining #computer_vision #humancomputerinteraction #gesture_recognition #device_control #datasets #data_science #deep_learning #neural_networks #detection
-
Искусственный интеллект в ритейле: как он предсказывает вашу следующую покупку в приложении
Привет, Хабр! На связи подразделение ad-hoc аналитики X5 Tech. Сегодня мы расскажем о задаче Next Basket Recommendation (NBR) и о том, как она может быть полезна для онлайн-ритейла. В этой статье мы рассмотрим, как с помощью рекомендательных моделей можно предсказать, какие товары пользователь добавит в свою следующую корзину, и как это помогает улучшить взаимодействие с приложением. Вы узнаете о ключевых метриках, которые используются для оценки качества рекомендаций, а также познакомитесь с различными подходами — от простых частотных методов до современных моделей на основе глубокого обучения.
https://habr.com/ru/companies/X5Tech/articles/885376/
#nbr #recsys #рекомендательные_системы #искусственный_интеллект #ии #ии_в_ритейле #TAIWI #TIFUKNN #DNTSP #deep_learning