home.social

#deepseekr1 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #deepseekr1, aggregated by home.social.

  1. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)

    Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.

    habr.com/ru/articles/1033520/

    #ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman

  2. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)

    Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.

    habr.com/ru/articles/1033520/

    #ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman

  3. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)

    Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.

    habr.com/ru/articles/1033520/

    #ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman

  4. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)

    Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.

    habr.com/ru/articles/1033520/

    #ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman

  5. Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5) Я решил прове...

    #ollama #amd #vulkan #fedora #deepseek-r1 #llama #3.1 #qwen #3.5 #n8n #podman

    Origin | Interest | Match
  6. Эксперимент: улучшаем реальную статью с Obsidian Copilot Привет, Хабр! В своей работе мне приходится держать в голо...

    #контент #исследование #obsidian #командная #работа #deepseek-r1 #obsidian #плагины #ollama #редактура #текстов

    Origin | Interest | Match
  7. Why NVLink Is Nvidia’s Secret Sauce Driving a 10x Performance Boost in MoEs We’ve seen a significant metamorphosis occur in AI in the past year, thanks to the emergence of large, capable Mixtur...

    #Features #AI #for #Science #DeepSeek-R1 #extreme #co-design #HPC #Ian #Buck #mixture

    Origin | Interest | Match
  8. OpenAI 控 DeepSeek 利用蒸餾挑戰美國 AI 優勢,美中科技戰再升級 OpenAI 指控中國人工智慧公司 DeepSeek 利用不公平手法,以所謂「蒸餾」技術提取美國先...

    #AI #人工智慧 #中國觀察 #國際觀察 #DeepSeek #DeepSeek-R1 #OpenAI #QuitGPT #科技戰 #美中衝突 #蒸餾

    Origin | Interest | Match
  9. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  10. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  11. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  12. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  13. #EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ evjang.com/2026/02/04/rocks.ht #tech #media #news

  14. New research shows DeepSeek-R1 and QwQ-3 develop distinct personalities that boost chain-of-thought reasoning, hinting at a future where societies of thought among LLMs improve problem solving. Open-source enthusiasts, see how personality diversity reshapes AI reasoning! #DeepSeekR1 #QwQ32B #ChainOfThought #PersonalityDiversity

    🔗 aidailypost.com/news/deepseekr

  15. Общество мыслей: совещание внутри LLM

    DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением. В статье разбираем: • Почему Chain-of-Thought недостаточен для сложных задач • Что такое Society of Thought и как модели воспроизводят коллективный интеллект • Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение) • 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей • Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности) • Результаты экспериментов: activation steering, RL-обучение и transfer effects Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.

    habr.com/ru/articles/987758/

    #LLM #reasoning #ChainofThought #DeepSeekR1 #QwQ32B #OpenAI_o1 #искусственный_интеллект #машинное_обучение #Society_of_Thought

  16. Общество мыслей: совещание внутри LLM DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснит...

    #LLM #reasoning #Chain-of-Thought #DeepSeek-R1 #QwQ-32B #OpenAI #o1 #искусственный #интеллект #машинное #обучение

    Origin | Interest | Match
  17. is there any way to obtain a useful and fast local llm for agentic coding on 8GB VRAM (RTX 3060 TI)?

    I tried #gemma3 4b, #deepseekr1 7b, #phi4mini and #qwen3 4b using #Ollama with #Cline but got poor results

    #localllm #agenticai

  18. Насколько зацензурен и опасен DeepSeek?

    Насколько предвзят искусственный интеллект? Принято ругать нейросети за трансляцию стереотипов человеческого мышления, которые были подсмотрены в датасетах предобучения. На деле ИИ куда более аккуратен, чем можно ожидать. Хороший пример — генерация фотографий бабочек. Как правило, дизайнеры-люди очень любят изображать бабочек в мёртвом виде. Дело в том, что энтомологи руководствуются строгими визуальными стандартами: вид сверху, расправленные на 180° крылья, чистый фон, симметрия.

    habr.com/ru/articles/949540/

    #DeepSeek #DeepSeekR1 #DeepSeekV3 #КНР #Китай #большие_языковые_модели #БЯМ #искусственный_интеллект #предвзятость #цензура

  19. Какого китайца выбрать? DeepSeek vs Qwen vs Baidu

    Китайские нейросети вышли на арену: DeepSeek , Qwen и Baidu ERNIE стремительно догоняют западные аналоги. Я протестировал их лично — на коде, логике и креативе. Где тупят? Кто реально выдаёт GPT‑4‑уровень? В статье — примеры, таблицы, фейлы и вывод: что выбрать в 2025 году , если тебе важны мощность, стабильность и интерфейс без иероглифов.

    habr.com/ru/articles/933656/

    #Искусственный_интеллект #искусственный_интеллект_чатбот #большие_языковые_модели #llm #qwen #deepseek #baidu #deepseekr1 #qwen3

  20. «Тупой ИИ» с нами надолго. Почему в новых моделях больше галлюцинаций

    В последние несколько месяцев ведущие модели обновились с функцией «рассуждений» (reasoning). Предполагалось, что качество ответов улучшится. Но последующие тесты показали, что уровень галлюцинаций сильно вырос . И это не какая-то случайная недоработка разработчиков, а фундаментальное свойство. Сейчас становится очевидным, что от галлюцинаций мы не избавимся никогда .

    habr.com/ru/companies/ruvds/ar

    #ruvds_статьи #LLM #галлюцинации #языковые_модели #дезинформация #функция_рассуждения #LRM #рассуждающие_модели #Claude_37_Sonnet #DeepSeekR1 #антропоморфизация #ChainofThought

  21. Top #AI models parrot #China #propaganda, report finds
    The American Security Project issued a report claiming leading AI parrot Chinese propaganda to varying degrees.
    "Investigators asked the five most popular large language model (LLM) powered chatbots – #OpenAI’s #ChatGPT, Microsoft’s Copilot, Google’s Gemini, #DeepSeek’s #DeepSeekR1, and X’s Grok – to provide information on topics the PRC deems controversial in English and Simplified Chinese," the report says.
    theregister.com/2025/06/26/top

  22. Битва сильнейших: ChatGPT o1 pro / DeepSeek r1 / Claude 3.7 Sonnet / Gemini 2.5 Pro

    На дворе 2025-й — год, когда нейросети уже давно превратились из «чего-то неизведанного, но интересного и манящего» в незримых союзников огромного количества людей, которые с радостью поручают им различные задачи в течение дня. И сегодня мы с вами посмотрим на битву ИИ-титанов: ChatGPT o1 Pro, DeepSeek R1, Claude 3.7 Sonnet и Gemini 2.5 Pro. Ну, может, конечно, будет и не столь зрелищно, как в каких-нибудь боевиках, однако, какая из этих моделей справляется с общими задачами лучше всего, мы с вами постараемся выяснить. Что действительно волнует пользователей — как выбрать идеального ИИ-помощника под свою конкретную задачу? Все чаще они ищут не просто умную нейросеть, а специализированные решения для маркетинга, копирайтинга слоганов, сценариев и других видов контента. В этом обзоре мы с вами не только сравним общие способности лидеров рынка, но и присмотримся к тому, какая модель станет вашим лучшим оружием в конкретных областях.

    habr.com/ru/companies/bothub/a

    #нейросети #промты #deepseekr1 #gemini_25_pro #claude_37_sonnet #chatgpt_o1_pro #сравнение

  23. Топ нейросетей для пересказа и суммаризации текста

    Представьте: вы стоите по горло в море текста — полезного и не очень, от души разбавленного водой, может быть написанного сложным языком, — а времени у вас в обрез. Да даже и представлять не надо — знакомая ведь ситуация? Кто из нас ни разу не тонул в этом текстовом океане, ну? Но вместо того, чтобы тонуть, можно научиться ходить по воде — а надёжными проводниками станут нейросети‑суммаризаторы. Стили и задачи текста бывают разные, и их соотнесением с наиболее сильными сторонами нейросетей мы и займёмся.

    habr.com/ru/companies/bothub/a

    #нейросети #сокращение_текста #рерайт #промты #deepseekr1 #claudeopus4 #chatgpt4o #YandexGPT5Pro #YandexGPT5Lite

  24. DeepSeek quietly drops R1 model upgrade

    The Chinese AI firm has released an improved version of its powerful R1 reasoning model on Hugging Face without formal announcement. The new model boosts logical reasoning, efficiency, and supports real-time decision-making ranking just behind OpenAI's top models.

    #AI #DeepSeekR1 #ArtificialIntelligence #AGI #HuggingFace #TechInnovation #OpenSourceAI #TECHi

    Read Full Article Here :- techi.com/deepseek-r1-update-a

  25. 📊 Can your 8GB laptop handle DeepSeek R1?
    We ran 250 sessions, built XGBoost models (R² = 0.91 ✅), and found the hidden levers behind RAM, latency & reasoning accuracy.
    This isn't guesswork—it's LLM deployment as data science 💡🔍

    🔗 Read the full breakdown:
    medium.com/@rogt.x1997/can-you
    #LLM #EdgeAI #DeepSeekR1 #AIForecasting #MachineLearning #LocalInference
    medium.com/@rogt.x1997/can-you

  26. Ah, behold the majestic #DeepSeekR1-0528, a model so #mysterious and elusive that not even #Inference #Providers dare to touch it. 🤔✨ With a grand total of zero downloads last month, it's clear that this #685B parameter behemoth is the hottest #AI sensation—if only in its creator's wildest dreams. 🐒💭
    huggingface.co/deepseek-ai/Dee #Parameters #HottestSensation #HackerNews #ngated

  27. Полмиллиона запросов за месяц: мой LLM-challenge и первые выводы

    Привет, Хабр! Меня зовут Евгений, я работаю разработчиком в Университете Кембриджа (UK). В начале апреля я запустил llm7.io - полностью бесплатный LLM-провайдер, совместимый с популярными библиотеками chat completion . Цель была простая: проверить, насколько эффективно можно построить отказоустойчивую архитектуру под настоящую high-load-нагрузку , и при этом дать всем желающим доступ к мощным языковым моделям - без регистрации, API-токенов, смс и прочих барьеров. Что произошло за месяц?

    habr.com/ru/articles/909622/

    #llm #llmмодели #llmприложения #provider #opensource #chatgpt #deepseekr1 #mistral #searchgpt

  28. #Apple #MacStudio #M3Ultra Runs #DeepSeekR1 With 671 Billion Parameters Using 448GB Of Unified Memory, Delivering High Bandwidth Performance At Under 200W Power Consumption, With No Need For A Multi-GPU Setup
    wccftech.com/m3-ultra-chip-han

  29. 🚀 2025 Tech Revolution: Shaping the Future of Innovation! 🔮

    I just published an article diving deep into the latest breakthroughs in AI and Quantum Computing, including Claude 3.7 Sonnet, Microsoft’s Majorana 1, and DeepSeek R1. These advancements are paving the way for a new digital frontier, transforming productivity, finance, and communication.

    🔗 linkedin.com/pulse/2025-tech-r

    #AI #QuantumComputing #Innovation #Entrepreneurship #Claude3 #DeepSeekR1 #Majorana1 #2025Tech #MastodonTech

  30. DeepSeek R1: All you need to know 🐳

    The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts () and reinforcement learning easy to understand.

    fireworks.ai/blog/deepseek-r1-

  31. DeepSeek R1: All you need to know 🐳

    The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.

    fireworks.ai/blog/deepseek-r1-

    #DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts

  32. DeepSeek R1: All you need to know 🐳

    The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.

    fireworks.ai/blog/deepseek-r1-

    #DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts

  33. DeepSeek R1: All you need to know 🐳

    The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.

    fireworks.ai/blog/deepseek-r1-

    #DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts

  34. DeepSeek R1: All you need to know 🐳

    The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.

    fireworks.ai/blog/deepseek-r1-

    #DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts

  35. Apparently AI reasoning models like Deepseek-R1 and OpenAI o1 suffer from "underthinking", where they abandon promising solutions too quickly, leading to inefficient resource use. To address this, a "thought switching penalty" (TIP) was developed, which improved accuracy across math and science problems.

    the-decoder.com/reasoning-mode