home.social

#softmax — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #softmax, aggregated by home.social.

  1. SoftMax: как нейросети превращают сырые числа в уверенные вероятности — разбор с примерами и математикой

    В реальности всё полно оттенков: ничего чисто чёрного или белого, то же в машинном обучении, тк решения редко бывают абсолютными. Возьмём задачу: нейросеть анализирует фото еды и определяет, это пицца, суши или салат. Для двух классов хватит сигмоиды, но с несколькими нужна функция, которая раздаст вероятности по всем вариантам, чтобы их сумма была точно 1. Вот где и выходит SoftMax- стандарт для многоклассовой классификации. Сегодня разберём её от А до Я: интуицию, шаги, формулы и хитрости.

    habr.com/ru/articles/988936/

    #softmax #pytorch #функция_активации #backpropagation #deep_learning #нейросети #нейронные_сети #tensorflow #вероятностное_моделирование #функция_потерь

  2. SoftMax: как нейросети превращают сырые числа в уверенные вероятности — разбор с примерами и математикой

    В реальности всё полно оттенков: ничего чисто чёрного или белого, то же в машинном обучении, тк решения редко бывают абсолютными. Возьмём задачу: нейросеть анализирует фото еды и определяет, это пицца, суши или салат. Для двух классов хватит сигмоиды, но с несколькими нужна функция, которая раздаст вероятности по всем вариантам, чтобы их сумма была точно 1. Вот где и выходит SoftMax- стандарт для многоклассовой классификации. Сегодня разберём её от А до Я: интуицию, шаги, формулы и хитрости.

    habr.com/ru/articles/988936/

    #softmax #pytorch #функция_активации #backpropagation #deep_learning #нейросети #нейронные_сети #tensorflow #вероятностное_моделирование #функция_потерь

  3. go-simd-softmax

    Is a Go-oriented SIMD/avx softmax implementation with optimisations in amd64 / x64 assembler.

    Up to 3.5x faster than equivalent function written using stdlib only. See benchmarks.

    github.com/ha1tch/go-simd-soft

    #go #foss #softmax #asm #assembler #x86_64 #x64 #amd64 #assembly #golang

  4. 'Matryoshka Policy Gradient for Entropy-Regularized RL: Convergence and Global Optimality', by François G. Ged, Maria Han Veiga.

    jmlr.org/papers/v25/23-0879.ht

    #softmax #optimality #optimal

  5. Логистическая и Softmax-регрессии. Теоретические основы и реализация с нуля на Python

    Начнём с более простого. Логистическая регрессия — линейный бинарный классификатор, основанный на применении сигмоидальной функции к линейной комбинации признаков, результатом которого является вероятность принадлежности к определённому классу. Обычно порог устанавливается 0.5: если вероятность меньше порога — класс относится к 0, а если больше — к 1. В принципе, условия определения логистической регрессии такие же как и у линейной за исключением бинаризации таргета.

    habr.com/ru/articles/803397/

    #логистическая_регрессия #logistic_regression #softmax #линейная_классификация #принцип_работы #реализация_с_нуля #python #data_science #машинное_обучение