home.social

#chain_of_thoughts — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #chain_of_thoughts, aggregated by home.social.

  1. [Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

    Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.

    habr.com/ru/companies/technokr

    #большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts

  2. [Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

    Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.

    habr.com/ru/companies/technokr

    #большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts

  3. [Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

    Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.

    habr.com/ru/companies/technokr

    #большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts

  4. [Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

    Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.

    habr.com/ru/companies/technokr

    #большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts

  5. Не любой In-context learning одинаково полезен

    Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.

    habr.com/ru/articles/832310/

    #llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning

  6. Не любой In-context learning одинаково полезен

    Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.

    habr.com/ru/articles/832310/

    #llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning

  7. Не любой In-context learning одинаково полезен

    Промпт-инжиниринг (Prompt engineering) - широко используемая техника для улучшения качества генерации LLM. Few-shot learning и Chain-of-thought - основные техники современного промпт-инжиниринга. Оказывается, не любые Few-shot prompting и Chain-of-thought одинаково полезны и могут принести свои биасы в генерацию модели и испортить всю магию от их применения.

    habr.com/ru/articles/832310/

    #llm #ai_alignment #ai #искусственный_интеллект #chain_of_thoughts #fewshotlearning