#chain_of_thoughts — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #chain_of_thoughts, aggregated by home.social.
-
[Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought
Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.
https://habr.com/ru/companies/technokratos/articles/939072/
#большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts
-
[Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought
Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.
https://habr.com/ru/companies/technokratos/articles/939072/
#большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts
-
[Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought
Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.
https://habr.com/ru/companies/technokratos/articles/939072/
#большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts
-
[Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought
Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.
https://habr.com/ru/companies/technokratos/articles/939072/
#большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts
-
Не любой In-context learning одинаково полезен
Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.
https://habr.com/ru/articles/832310/
#llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning
-
Не любой In-context learning одинаково полезен
Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.
https://habr.com/ru/articles/832310/
#llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning
-
Не любой In-context learning одинаково полезен
Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.
https://habr.com/ru/articles/832310/
#llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning