home.social

#fewshotlearning — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #fewshotlearning, aggregated by home.social.

  1. AdaMix proves its edge in few-shot NLU, consistently outperforming full fine-tuning across GLUE benchmarks with BERT and RoBERTa. hackernoon.com/smarter-ai-trai #fewshotlearning

  2. AdaMix proves its edge in few-shot NLU, consistently outperforming full fine-tuning across GLUE benchmarks with BERT and RoBERTa. hackernoon.com/smarter-ai-trai #fewshotlearning

  3. AdaMix proves its edge in few-shot NLU, consistently outperforming full fine-tuning across GLUE benchmarks with BERT and RoBERTa. hackernoon.com/smarter-ai-trai #fewshotlearning

  4. AdaMix proves its edge in few-shot NLU, consistently outperforming full fine-tuning across GLUE benchmarks with BERT and RoBERTa. hackernoon.com/smarter-ai-trai

  5. AdaMix proves its edge in few-shot NLU, consistently outperforming full fine-tuning across GLUE benchmarks with BERT and RoBERTa. hackernoon.com/smarter-ai-trai #fewshotlearning

  6. AdaMix improves fine-tuning of large language models by mixing adaptation modules—outperforming full tuning with just 0.2% parameters. hackernoon.com/beating-full-fi #fewshotlearning

  7. AdaMix improves fine-tuning of large language models by mixing adaptation modules—outperforming full tuning with just 0.2% parameters. hackernoon.com/beating-full-fi #fewshotlearning

  8. AdaMix improves fine-tuning of large language models by mixing adaptation modules—outperforming full tuning with just 0.2% parameters. hackernoon.com/beating-full-fi #fewshotlearning

  9. AdaMix improves fine-tuning of large language models by mixing adaptation modules—outperforming full tuning with just 0.2% parameters. hackernoon.com/beating-full-fi

  10. AdaMix improves fine-tuning of large language models by mixing adaptation modules—outperforming full tuning with just 0.2% parameters. hackernoon.com/beating-full-fi #fewshotlearning

  11. Ablation studies on AdaMix reveal why adaptation merging, consistency regularization, and module sharing drive superior fine-tuning performance. hackernoon.com/the-role-of-con #fewshotlearning

  12. Ablation studies on AdaMix reveal why adaptation merging, consistency regularization, and module sharing drive superior fine-tuning performance. hackernoon.com/the-role-of-con #fewshotlearning

  13. Ablation studies on AdaMix reveal why adaptation merging, consistency regularization, and module sharing drive superior fine-tuning performance. hackernoon.com/the-role-of-con #fewshotlearning

  14. Ablation studies on AdaMix reveal why adaptation merging, consistency regularization, and module sharing drive superior fine-tuning performance. hackernoon.com/the-role-of-con

  15. Ablation studies on AdaMix reveal why adaptation merging, consistency regularization, and module sharing drive superior fine-tuning performance. hackernoon.com/the-role-of-con #fewshotlearning

  16. AdaMix outperforms fine-tuning and top PEFT methods across NLU, NLG, and few-shot NLP tasks, proving both efficient and powerful. hackernoon.com/smarter-fine-tu #fewshotlearning

  17. AdaMix outperforms fine-tuning and top PEFT methods across NLU, NLG, and few-shot NLP tasks, proving both efficient and powerful. hackernoon.com/smarter-fine-tu #fewshotlearning

  18. AdaMix outperforms fine-tuning and top PEFT methods across NLU, NLG, and few-shot NLP tasks, proving both efficient and powerful. hackernoon.com/smarter-fine-tu #fewshotlearning

  19. AdaMix outperforms fine-tuning and top PEFT methods across NLU, NLG, and few-shot NLP tasks, proving both efficient and powerful. hackernoon.com/smarter-fine-tu

  20. AdaMix outperforms fine-tuning and top PEFT methods across NLU, NLG, and few-shot NLP tasks, proving both efficient and powerful. hackernoon.com/smarter-fine-tu #fewshotlearning

  21. Discover how Mixture-of-Adaptations uses random routing and weight merging to fine-tune language models with less cost and better performance. hackernoon.com/how-mixture-of- #fewshotlearning

  22. Discover how Mixture-of-Adaptations uses random routing and weight merging to fine-tune language models with less cost and better performance. hackernoon.com/how-mixture-of- #fewshotlearning

  23. Discover how Mixture-of-Adaptations uses random routing and weight merging to fine-tune language models with less cost and better performance. hackernoon.com/how-mixture-of- #fewshotlearning

  24. Discover how Mixture-of-Adaptations uses random routing and weight merging to fine-tune language models with less cost and better performance. hackernoon.com/how-mixture-of-

  25. Discover how Mixture-of-Adaptations uses random routing and weight merging to fine-tune language models with less cost and better performance. hackernoon.com/how-mixture-of- #fewshotlearning

  26. AdaMix fine-tunes large language models with just 0.1% of parameters, beating full fine-tuning in performance and efficiency. hackernoon.com/how-to-improve- #fewshotlearning

  27. AdaMix fine-tunes large language models with just 0.1% of parameters, beating full fine-tuning in performance and efficiency. hackernoon.com/how-to-improve- #fewshotlearning

  28. AdaMix fine-tunes large language models with just 0.1% of parameters, beating full fine-tuning in performance and efficiency. hackernoon.com/how-to-improve- #fewshotlearning

  29. AdaMix fine-tunes large language models with just 0.1% of parameters, beating full fine-tuning in performance and efficiency. hackernoon.com/how-to-improve-

  30. AdaMix fine-tunes large language models with just 0.1% of parameters, beating full fine-tuning in performance and efficiency. hackernoon.com/how-to-improve- #fewshotlearning

  31. Собственный контент-фильтр на базе LLM: от эксперимента до стабильной системы

    Привет! Меня зовут Миша Мартьянов, я инженер по исследованиям и разработке в red_mad_robot. Моя работа — искать новые идеи, проверять гипотезы и улучшать продукты. На этом пути иногда приходится изобретать уникальные решения. Например, мы создали собственный фильтр, чтобы отсеивать нежелательный контент с помощью LLM. Рассказываю, как мы к этому пришли и с какими сложностями столкнулись.

    habr.com/ru/companies/redmadro

    #ai #llm #фильтр_контента #fewshotlearning #fewshot #false_positive #filter

  32. Собственный контент-фильтр на базе LLM: от эксперимента до стабильной системы

    Привет! Меня зовут Миша Мартьянов, я инженер по исследованиям и разработке в red_mad_robot. Моя работа — искать новые идеи, проверять гипотезы и улучшать продукты. На этом пути иногда приходится изобретать уникальные решения. Например, мы создали собственный фильтр, чтобы отсеивать нежелательный контент с помощью LLM. Рассказываю, как мы к этому пришли и с какими сложностями столкнулись.

    habr.com/ru/companies/redmadro

    #ai #llm #фильтр_контента #fewshotlearning #fewshot #false_positive #filter

  33. Собственный контент-фильтр на базе LLM: от эксперимента до стабильной системы

    Привет! Меня зовут Миша Мартьянов, я инженер по исследованиям и разработке в red_mad_robot. Моя работа — искать новые идеи, проверять гипотезы и улучшать продукты. На этом пути иногда приходится изобретать уникальные решения. Например, мы создали собственный фильтр, чтобы отсеивать нежелательный контент с помощью LLM. Рассказываю, как мы к этому пришли и с какими сложностями столкнулись.

    habr.com/ru/companies/redmadro

    #ai #llm #фильтр_контента #fewshotlearning #fewshot #false_positive #filter

  34. Собственный контент-фильтр на базе LLM: от эксперимента до стабильной системы

    Привет! Меня зовут Миша Мартьянов, я инженер по исследованиям и разработке в red_mad_robot. Моя работа — искать новые идеи, проверять гипотезы и улучшать продукты. На этом пути иногда приходится изобретать уникальные решения. Например, мы создали собственный фильтр, чтобы отсеивать нежелательный контент с помощью LLM. Рассказываю, как мы к этому пришли и с какими сложностями столкнулись.

    habr.com/ru/companies/redmadro

    #ai #llm #фильтр_контента #fewshotlearning #fewshot #false_positive #filter

  35. Не любой In-context learning одинаково полезен

    Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.

    habr.com/ru/articles/832310/

    #llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning

  36. Не любой In-context learning одинаково полезен

    Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.

    habr.com/ru/articles/832310/

    #llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning

  37. Не любой In-context learning одинаково полезен

    Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.

    habr.com/ru/articles/832310/

    #llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning

  38. ML algorithms need lots of data and are prone to catastrophic forgetting. We present a new method for continual few-shot learning, bringing us closer to the way humans learn: sample efficient, while maintaining long-term retention.
    📜arxiv.org/abs/2301.04584

    🧵 below:

    #AI #CV #NewPaper #DeepLearning #MachineLearning #FewShotLearning #ContinualLearning #HyperNetworks #Transformers