home.social

#что_такое_mlp — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #что_такое_mlp, aggregated by home.social.

  1. Кратко о KAN для самых неподготовленных

    В апреле практиками-исследователями и математики анонсировали новую архитектуру нейросетей. Крупного резонанса открытие не принесло, хотя с нашей точки зрения, KAN может претендовать на интересную технологию Важнее, что это не просто новая вариация трансформера или исправленная рекуррентная нейронная сеть – это новый подход к нейросетям в принципе, новая архитектура вместо MLP. Мы написали большую статью по KAN со всеми подробностями, здесь мы совсем кратко пробежимся по основным положениям архитектуры и ее проблемах для самых неподготовленных читателей. Но надеемся, что некоторое понимание базовой линейной алгебры и математического анализа присутствует. MLP – обычная полносвязная нейросеть, где благодаря послойной активации нейронов мы получаем какой-то конечный результат (данные) на последнем слое. Похоже на имитацию действия мозговых нейронов: благодаря передаче импульса от нейрона к нейрону – мы получаем результат в виде ассоциации, воспоминаний... Так вот суть KAN сводится к переносу акцента с “активации нейронов” к активации “связей” между ними. Конечно, сами связи никуда не деваются, но. Теперь вместо обычных весовых отношений между нейронами – мы получаем обучаемые функции активации – связываем нейроны B-spline’ами. Веса – это такие числовые коэффициенты, которые определяют уровень активации нейронов. Больше вес – сильней сигнал. Нейросети с большим числом слоев превращаются в черный ящик. Мы не можем понять, как конкретно числовые значения отвечают за те или иные признаки — и как именно признаки в них преобразуются. Поэтому внутренняя часть нейросети нам недоступна.

    habr.com/ru/articles/821651/

    #Новый_подход_нейросетей #KAN #Статьи_для_новичков #Что_такое_нейросети #Открытия_2024_года #Что_такое_MLP