home.social

#catastrophic_forgetting — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #catastrophic_forgetting, aggregated by home.social.

  1. Забыла, как писать «Hello, world»: почему нейросети теряют память

    Представьте: вы месяцами обучали языковую модель, она выдает блестящие ответы — и вдруг после загрузки нового датасета словно теряет память и начинает ошибаться в задачах, которые раньше решала без проблем. Знакомо? Причина такого поведения — не баг, а побочный эффект обучения нейросетей, известный как катастрофическое забывание (catastrophic forgetting). Оно особенно досаждает при тренировке LLM и мощных систем компьютерного зрения, которые приходится регулярно докармливать свежими данными. Увы, с каждым таким апдейтом есть риск, что старая информация «испарится» из модели. Почему забывание происходит — и всегда ли это нежелательный эффект? Давайте разбираться.

    habr.com/ru/companies/magnus-t

    #забывание_в_нейросетях #катастрофическое_забывание_в_LLM #забывание_в_языковых_моделях #catastrophic_forgetting #причины_забывания_в_нейросетях #деградация_моделей #почему_нейросети_забывают #ошибки_при_дообучении_моделей

  2. Нейросеть, которая помнит всё: заморозка ядра вместо «костылей» (Frozen Core Decomposition)

    Frozen Core Decomposition (FCD) — инновационный метод для решения проблемы катастрофического забывания в continual learning. Используя разложение Tucker, метод достигает 96.1% точности на Split MNIST с минимальным забыванием (0.2%) и поддерживает работу с CNN, ResNet, GPT-2 и другими архитектурами. В статье разбираем математику, результаты экспериментов и реализацию на PyTorch.

    habr.com/ru/articles/979030/

    #continual_learning #neural_networks #frozen_core_decomposition #tucker_decomposition #machine_learning #deep_learning #catastrophic_forgetting #incremental_learning #PyTorch #neural_network_training