home.social

#selfattention — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #selfattention, aggregated by home.social.

  1. Краткий справочник про внимания (self-attention, cross-attention, multi-head attention)

    Механизм внимания (Attention) - это метод в искусственном интеллекте, который позволяет нейросети динамически определять, какие части входных данных наиболее важны для текущей задачи. Он работает через вычисление весов важности для разных элементов входа: более важные элементы получают больший вес, а менее важные - меньший. Затем модель формирует взвешенную сумму представлений, создавая новый контекстный вектор. Self-attention, в свою очередь, помогает модели понимать, как разные элементы входных данных связаны между собой. Например, как разные части информации взаимодействуют и влияют друг на друга в общем контексте. Этот механизм обеспечивает логическую связность и целостное понимание всей структуры данных

    habr.com/ru/articles/1020624/

    #машинное_обучение #внимание #искуственный_интелект #attention #selfattention #глубокое_обучение #pytorch #transformer #beginner #математика

  2. "Ah, the riveting showdown between #ViTs and #CNNs, where you get a convoluted explanation on how images are turned into a mush of pixels and self-attention. 😴 But don't worry, you won't be distracted by any tracking or analytics, because apparently, nobody cares to watch this spectacle. 🤷‍♂️ If you can't read code without JavaScript, that's your problem, not ours. 🖼️🔍"
    lucasb.eyer.be/articles/vit_cn #imageprocessing #selfattention #techhumor #HackerNews #ngated