#softmax — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #softmax, aggregated by home.social.
-
Softmax, can you derive the Jacobian? And should you care?
https://idlemachines.co.uk/essays/softmax
#HackerNews #softmax #jacobian #machinelearning #derivatives #deep #learning #research
-
SoftMax: как нейросети превращают сырые числа в уверенные вероятности — разбор с примерами и математикой
В реальности всё полно оттенков: ничего чисто чёрного или белого, то же в машинном обучении, тк решения редко бывают абсолютными. Возьмём задачу: нейросеть анализирует фото еды и определяет, это пицца, суши или салат. Для двух классов хватит сигмоиды, но с несколькими нужна функция, которая раздаст вероятности по всем вариантам, чтобы их сумма была точно 1. Вот где и выходит SoftMax- стандарт для многоклассовой классификации. Сегодня разберём её от А до Я: интуицию, шаги, формулы и хитрости.
https://habr.com/ru/articles/988936/
#softmax #pytorch #функция_активации #backpropagation #deep_learning #нейросети #нейронные_сети #tensorflow #вероятностное_моделирование #функция_потерь
-
SoftMax: как нейросети превращают сырые числа в уверенные вероятности — разбор с примерами и математикой
В реальности всё полно оттенков: ничего чисто чёрного или белого, то же в машинном обучении, тк решения редко бывают абсолютными. Возьмём задачу: нейросеть анализирует фото еды и определяет, это пицца, суши или салат. Для двух классов хватит сигмоиды, но с несколькими нужна функция, которая раздаст вероятности по всем вариантам, чтобы их сумма была точно 1. Вот где и выходит SoftMax- стандарт для многоклассовой классификации. Сегодня разберём её от А до Я: интуицию, шаги, формулы и хитрости.
https://habr.com/ru/articles/988936/
#softmax #pytorch #функция_активации #backpropagation #deep_learning #нейросети #нейронные_сети #tensorflow #вероятностное_моделирование #функция_потерь
-
go-simd-softmax
Is a Go-oriented SIMD/avx softmax implementation with optimisations in amd64 / x64 assembler.
Up to 3.5x faster than equivalent function written using stdlib only. See benchmarks.
https://github.com/ha1tch/go-simd-softmax?tab=readme-ov-file#simd-accelerated-softmax
#go #foss #softmax #asm #assembler #x86_64 #x64 #amd64 #assembly #golang
-
'Matryoshka Policy Gradient for Entropy-Regularized RL: Convergence and Global Optimality', by François G. Ged, Maria Han Veiga.
http://jmlr.org/papers/v25/23-0879.html
#softmax #optimality #optimal -
Логистическая и Softmax-регрессии. Теоретические основы и реализация с нуля на Python
Начнём с более простого. Логистическая регрессия — линейный бинарный классификатор, основанный на применении сигмоидальной функции к линейной комбинации признаков, результатом которого является вероятность принадлежности к определённому классу. Обычно порог устанавливается 0.5: если вероятность меньше порога — класс относится к 0, а если больше — к 1. В принципе, условия определения логистической регрессии такие же как и у линейной за исключением бинаризации таргета.
https://habr.com/ru/articles/803397/
#логистическая_регрессия #logistic_regression #softmax #линейная_классификация #принцип_работы #реализация_с_нуля #python #data_science #машинное_обучение