home.social

#deepseek-r1 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #deepseek-r1, aggregated by home.social.

fetched live
  1. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)

    Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.

    habr.com/ru/articles/1033520/

    #ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman

  2. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)

    Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.

    habr.com/ru/articles/1033520/

    #ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman

  3. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)

    Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.

    habr.com/ru/articles/1033520/

    #ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman

  4. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)

    Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.

    habr.com/ru/articles/1033520/

    #ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman

  5. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5) Я решил прове...

    #ollama #amd #vulkan #fedora #deepseek-r1 #llama #3.1 #qwen #3.5 #n8n #podman

    Origin | Interest | Match
  6. Эксперимент: улучшаем реальную статью с Obsidian Copilot Привет, Хабр! В своей работе мне приходится держать в голо...

    #контент #исследование #obsidian #командная #работа #deepseek-r1 #obsidian #плагины #ollama #редактура #текстов

    Origin | Interest | Match
  7. Why NVLink Is Nvidia’s Secret Sauce Driving a 10x Performance Boost in MoEs We’ve seen a significant metamorphosis occur in AI in the past year, thanks to the emergence of large, capable Mixtur...

    #Features #AI #for #Science #DeepSeek-R1 #extreme #co-design #HPC #Ian #Buck #mixture

    Origin | Interest | Match
  8. OpenAI 控 DeepSeek 利用蒸餾挑戰美國 AI 優勢,美中科技戰再升級 OpenAI 指控中國人工智慧公司 DeepSeek 利用不公平手法,以所謂「蒸餾」技術提取美國先...

    #AI #人工智慧 #中國觀察 #國際觀察 #DeepSeek #DeepSeek-R1 #OpenAI #QuitGPT #科技戰 #美中衝突 #蒸餾

    Origin | Interest | Match
  9. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  10. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  11. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  12. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  13. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  14. New research shows DeepSeek-R1 and QwQ-3 develop distinct personalities that boost chain-of-thought reasoning, hinting at a future where societies of thought among LLMs improve problem solving. Open-source enthusiasts, see how personality diversity reshapes AI reasoning! #DeepSeekR1 #QwQ32B #ChainOfThought #PersonalityDiversity

    🔗 aidailypost.com/news/deepseekr

  15. New research shows DeepSeek-R1 and QwQ-3 develop distinct personalities that boost chain-of-thought reasoning, hinting at a future where societies of thought among LLMs improve problem solving. Open-source enthusiasts, see how personality diversity reshapes AI reasoning! #DeepSeekR1 #QwQ32B #ChainOfThought #PersonalityDiversity

    🔗 aidailypost.com/news/deepseekr

  16. New research shows DeepSeek-R1 and QwQ-3 develop distinct personalities that boost chain-of-thought reasoning, hinting at a future where societies of thought among LLMs improve problem solving. Open-source enthusiasts, see how personality diversity reshapes AI reasoning! #DeepSeekR1 #QwQ32B #ChainOfThought #PersonalityDiversity

    🔗 aidailypost.com/news/deepseekr

  17. Общество мыслей: совещание внутри LLM

    DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением. В статье разбираем: • Почему Chain-of-Thought недостаточен для сложных задач • Что такое Society of Thought и как модели воспроизводят коллективный интеллект • Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение) • 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей • Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности) • Результаты экспериментов: activation steering, RL-обучение и transfer effects Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.

    habr.com/ru/articles/987758/

    #LLM #reasoning #ChainofThought #DeepSeekR1 #QwQ32B #OpenAI_o1 #искусственный_интеллект #машинное_обучение #Society_of_Thought

  18. Общество мыслей: совещание внутри LLM

    DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением. В статье разбираем: • Почему Chain-of-Thought недостаточен для сложных задач • Что такое Society of Thought и как модели воспроизводят коллективный интеллект • Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение) • 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей • Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности) • Результаты экспериментов: activation steering, RL-обучение и transfer effects Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.

    habr.com/ru/articles/987758/

    #LLM #reasoning #ChainofThought #DeepSeekR1 #QwQ32B #OpenAI_o1 #искусственный_интеллект #машинное_обучение #Society_of_Thought

  19. Общество мыслей: совещание внутри LLM

    DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением. В статье разбираем: • Почему Chain-of-Thought недостаточен для сложных задач • Что такое Society of Thought и как модели воспроизводят коллективный интеллект • Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение) • 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей • Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности) • Результаты экспериментов: activation steering, RL-обучение и transfer effects Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.

    habr.com/ru/articles/987758/

    #LLM #reasoning #ChainofThought #DeepSeekR1 #QwQ32B #OpenAI_o1 #искусственный_интеллект #машинное_обучение #Society_of_Thought

  20. Общество мыслей: совещание внутри LLM

    DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением. В статье разбираем: • Почему Chain-of-Thought недостаточен для сложных задач • Что такое Society of Thought и как модели воспроизводят коллективный интеллект • Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение) • 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей • Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности) • Результаты экспериментов: activation steering, RL-обучение и transfer effects Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.

    habr.com/ru/articles/987758/

    #LLM #reasoning #ChainofThought #DeepSeekR1 #QwQ32B #OpenAI_o1 #искусственный_интеллект #машинное_обучение #Society_of_Thought

  21. Общество мыслей: совещание внутри LLM DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснит...

    #LLM #reasoning #Chain-of-Thought #DeepSeek-R1 #QwQ-32B #OpenAI #o1 #искусственный #интеллект #машинное #обучение

    Origin | Interest | Match
  22. New benchmark results show Weibo's VibeThinker‑1.5B outperforms DeepSeek‑R1, costs just $7.8K, and matches larger models on GPQA math and code tasks—while running on edge devices. Curious how this shifts inference economics? Dive into the full analysis. #VibeThinker15B #DeepSeekR1 #GPQA #EdgeInference

    🔗 aidailypost.com/news/weibos-vi

  23. New benchmark results show Weibo's VibeThinker‑1.5B outperforms DeepSeek‑R1, costs just $7.8K, and matches larger models on GPQA math and code tasks—while running on edge devices. Curious how this shifts inference economics? Dive into the full analysis. #VibeThinker15B #DeepSeekR1 #GPQA #EdgeInference

    🔗 aidailypost.com/news/weibos-vi

  24. is there any way to obtain a useful and fast local llm for agentic coding on 8GB VRAM (RTX 3060 TI)?

    I tried #gemma3 4b, #deepseekr1 7b, #phi4mini and #qwen3 4b using #Ollama with #Cline but got poor results

    #localllm #agenticai

  25. is there any way to obtain a useful and fast local llm for agentic coding on 8GB VRAM (RTX 3060 TI)?

    I tried #gemma3 4b, #deepseekr1 7b, #phi4mini and #qwen3 4b using #Ollama with #Cline but got poor results

    #localllm #agenticai

  26. is there any way to obtain a useful and fast local llm for agentic coding on 8GB VRAM (RTX 3060 TI)?

    I tried #gemma3 4b, #deepseekr1 7b, #phi4mini and #qwen3 4b using #Ollama with #Cline but got poor results

    #localllm #agenticai

  27. is there any way to obtain a useful and fast local llm for agentic coding on 8GB VRAM (RTX 3060 TI)?

    I tried #gemma3 4b, #deepseekr1 7b, #phi4mini and #qwen3 4b using #Ollama with #Cline but got poor results

    #localllm #agenticai

  28. Насколько зацензурен и опасен DeepSeek?

    Насколько предвзят искусственный интеллект? Принято ругать нейросети за трансляцию стереотипов человеческого мышления, которые были подсмотрены в датасетах предобучения. На деле ИИ куда более аккуратен, чем можно ожидать. Хороший пример — генерация фотографий бабочек. Как правило, дизайнеры-люди очень любят изображать бабочек в мёртвом виде. Дело в том, что энтомологи руководствуются строгими визуальными стандартами: вид сверху, расправленные на 180° крылья, чистый фон, симметрия.

    habr.com/ru/articles/949540/

    #DeepSeek #DeepSeekR1 #DeepSeekV3 #КНР #Китай #большие_языковые_модели #БЯМ #искусственный_интеллект #предвзятость #цензура

  29. Насколько зацензурен и опасен DeepSeek?

    Насколько предвзят искусственный интеллект? Принято ругать нейросети за трансляцию стереотипов человеческого мышления, которые были подсмотрены в датасетах предобучения. На деле ИИ куда более аккуратен, чем можно ожидать. Хороший пример — генерация фотографий бабочек. Как правило, дизайнеры-люди очень любят изображать бабочек в мёртвом виде. Дело в том, что энтомологи руководствуются строгими визуальными стандартами: вид сверху, расправленные на 180° крылья, чистый фон, симметрия.

    habr.com/ru/articles/949540/

    #DeepSeek #DeepSeekR1 #DeepSeekV3 #КНР #Китай #большие_языковые_модели #БЯМ #искусственный_интеллект #предвзятость #цензура

  30. Насколько зацензурен и опасен DeepSeek?

    Насколько предвзят искусственный интеллект? Принято ругать нейросети за трансляцию стереотипов человеческого мышления, которые были подсмотрены в датасетах предобучения. На деле ИИ куда более аккуратен, чем можно ожидать. Хороший пример — генерация фотографий бабочек. Как правило, дизайнеры-люди очень любят изображать бабочек в мёртвом виде. Дело в том, что энтомологи руководствуются строгими визуальными стандартами: вид сверху, расправленные на 180° крылья, чистый фон, симметрия.

    habr.com/ru/articles/949540/

    #DeepSeek #DeepSeekR1 #DeepSeekV3 #КНР #Китай #большие_языковые_модели #БЯМ #искусственный_интеллект #предвзятость #цензура