#deepseekr1 — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #deepseekr1, aggregated by home.social.
-
Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)
Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.
https://habr.com/ru/articles/1033520/
#ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman
-
Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)
Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.
https://habr.com/ru/articles/1033520/
#ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman
-
Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)
Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.
https://habr.com/ru/articles/1033520/
#ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman
-
Локальный ИИ на «древнем» железе: выжимаем максимум из AMD RX 580 через Vulkan в Fedora (Llama 3.1, DeepSeek, Qwen 3.5)
Я решил проверить, на что способен мой старый компьютер с Radeon RX 580 под управлением Fe dora. В этой статье я пошагово разберу, как завести современный ИИ-стек ( Ollama , n8n , Open WebUI ) через Vulkan без боли с ROCm , и почему 15-35 токенов в секунду на железе 2017 года — это реальность, доступная каждому.
https://habr.com/ru/articles/1033520/
#ollama #amd #vulkan #fedora #deepseekr1 #llama_31 #qwen_35 #n8n #podman
-
https://winbuzzer.com/2026/05/05/image-ai-models-now-drive-app-growth-beating-chatb-xcxwbn/
Image AI Launches Beat Chatbot Upgrades on App Growth
#AI #AIImageGeneration #AIModels #GenerativeAI #Chatbots #ChatGPT #OpenAI #GPT4o #Google #GoogleGemini #MetaAI #DeepSeekR1 #MultimodalAI
-
https://winbuzzer.com/2026/05/05/image-ai-models-now-drive-app-growth-beating-chatb-xcxwbn/
Image AI Launches Beat Chatbot Upgrades on App Growth
#AI #AIImageGeneration #AIModels #GenerativeAI #Chatbots #ChatGPT #OpenAI #GPT4o #Google #GoogleGemini #MetaAI #DeepSeekR1 #MultimodalAI
-
https://winbuzzer.com/2026/05/05/image-ai-models-now-drive-app-growth-beating-chatb-xcxwbn/
Image AI Launches Beat Chatbot Upgrades on App Growth
#AI #AIImageGeneration #AIModels #GenerativeAI #Chatbots #ChatGPT #OpenAI #GPT4o #Google #GoogleGemini #MetaAI #DeepSeekR1 #MultimodalAI
-
https://winbuzzer.com/2026/05/05/image-ai-models-now-drive-app-growth-beating-chatb-xcxwbn/
Image AI Launches Beat Chatbot Upgrades on App Growth
#AI #AIImageGeneration #AIModels #GenerativeAI #Chatbots #ChatGPT #OpenAI #GPT4o #Google #GoogleGemini #MetaAI #DeepSeekR1 #MultimodalAI
-
https://winbuzzer.com/2026/05/05/image-ai-models-now-drive-app-growth-beating-chatb-xcxwbn/
Image AI Launches Beat Chatbot Upgrades on App Growth
#AI #AIImageGeneration #AIModels #GenerativeAI #Chatbots #ChatGPT #OpenAI #GPT4o #Google #GoogleGemini #MetaAI #DeepSeekR1 #MultimodalAI
-
Эксперимент: улучшаем реальную статью с Obsidian Copilot Привет, Хабр! В своей работе мне приходится держать в голо...
#контент #исследование #obsidian #командная #работа #deepseek-r1 #obsidian #плагины #ollama #редактура #текстов
Origin | Interest | Match -
Why NVLink Is Nvidia’s Secret Sauce Driving a 10x Performance Boost in MoEs We’ve seen a significant metamorphosis occur in AI in the past year, thanks to the emergence of large, capable Mixtur...
#Features #AI #for #Science #DeepSeek-R1 #extreme #co-design #HPC #Ian #Buck #mixture
Origin | Interest | Match -
#EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“ https://evjang.com/2026/02/04/rocks.html?eicker.news #tech #media #news
-
#EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“ https://evjang.com/2026/02/04/rocks.html?eicker.news #tech #media #news
-
#EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“ https://evjang.com/2026/02/04/rocks.html?eicker.news #tech #media #news
-
#EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“ https://evjang.com/2026/02/04/rocks.html?eicker.news #tech #media #news
-
#EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“ https://evjang.com/2026/02/04/rocks.html?eicker.news #tech #media #news
-
New research shows DeepSeek-R1 and QwQ-3 develop distinct personalities that boost chain-of-thought reasoning, hinting at a future where societies of thought among LLMs improve problem solving. Open-source enthusiasts, see how personality diversity reshapes AI reasoning! #DeepSeekR1 #QwQ32B #ChainOfThought #PersonalityDiversity
🔗 https://aidailypost.com/news/deepseekr1-qwq3-exhibit-competing-personalities-that-improve-reasoning
-
https://winbuzzer.com/2026/01/24/google-reveals-ai-models-exhibit-collective-intelligence-xcxwbn/
Google Researchers Say AI Models Exhibit Signs of Collective Intelligence
#AI #Google #Deepseek #Alibaba #DeepseekR1 #BigTech #AIReasoningModels #MachineLearning #AIResearch #Alphabet
-
Общество мыслей: совещание внутри LLM
DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением. В статье разбираем: • Почему Chain-of-Thought недостаточен для сложных задач • Что такое Society of Thought и как модели воспроизводят коллективный интеллект • Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение) • 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей • Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности) • Результаты экспериментов: activation steering, RL-обучение и transfer effects Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.
https://habr.com/ru/articles/987758/
#LLM #reasoning #ChainofThought #DeepSeekR1 #QwQ32B #OpenAI_o1 #искусственный_интеллект #машинное_обучение #Society_of_Thought
-
Общество мыслей: совещание внутри LLM DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснит...
#LLM #reasoning #Chain-of-Thought #DeepSeek-R1 #QwQ-32B #OpenAI #o1 #искусственный #интеллект #машинное #обучение
Origin | Interest | Match -
DeepSeek Reveals R1 Model Architecture Secrets Ahead of V4 Model Launch
#AI #DeepSeek #DeepSeekV4 #OpenSourceAI #ChinaAI #GenAI #DeepSeekR1 #MachineLearning #AIResearch #ReinforcementLearning
-
https://technologiesinternetz.blogspot.com/2025/09/deepseek-r1-jailbreak-how-one-ai-model.html?m=1
DeepSeek-R1 Jailbreak: How One AI Model Built a Bypass for Itself and Other Systems
-
https://technologiesinternetz.blogspot.com/2025/09/deepseek-r1-jailbreak-how-one-ai-model.html?m=1
DeepSeek-R1 Jailbreak: How One AI Model Built a Bypass for Itself and Other Systems
-
訓練コストは4400万円⋯中国DeepSeek「R1」モデル、Nature論文で透明性を示す
-
Насколько зацензурен и опасен DeepSeek?
Насколько предвзят искусственный интеллект? Принято ругать нейросети за трансляцию стереотипов человеческого мышления, которые были подсмотрены в датасетах предобучения. На деле ИИ куда более аккуратен, чем можно ожидать. Хороший пример — генерация фотографий бабочек. Как правило, дизайнеры-люди очень любят изображать бабочек в мёртвом виде. Дело в том, что энтомологи руководствуются строгими визуальными стандартами: вид сверху, расправленные на 180° крылья, чистый фон, симметрия.
https://habr.com/ru/articles/949540/
#DeepSeek #DeepSeekR1 #DeepSeekV3 #КНР #Китай #большие_языковые_модели #БЯМ #искусственный_интеллект #предвзятость #цензура
-
https://technologiesinternetz.blogspot.com/2025/09/how-deepseek-r1-learned-to-teach-itself.html?m=1
How DeepSeek-R1 Learned to Teach Itself Reasoning: A Breakthrough in AI Self-Improvement
-
Какого китайца выбрать? DeepSeek vs Qwen vs Baidu
Китайские нейросети вышли на арену: DeepSeek , Qwen и Baidu ERNIE стремительно догоняют западные аналоги. Я протестировал их лично — на коде, логике и креативе. Где тупят? Кто реально выдаёт GPT‑4‑уровень? В статье — примеры, таблицы, фейлы и вывод: что выбрать в 2025 году , если тебе важны мощность, стабильность и интерфейс без иероглифов.
https://habr.com/ru/articles/933656/
#Искусственный_интеллект #искусственный_интеллект_чатбот #большие_языковые_модели #llm #qwen #deepseek #baidu #deepseekr1 #qwen3
-
«Тупой ИИ» с нами надолго. Почему в новых моделях больше галлюцинаций
В последние несколько месяцев ведущие модели обновились с функцией «рассуждений» (reasoning). Предполагалось, что качество ответов улучшится. Но последующие тесты показали, что уровень галлюцинаций сильно вырос . И это не какая-то случайная недоработка разработчиков, а фундаментальное свойство. Сейчас становится очевидным, что от галлюцинаций мы не избавимся никогда .
https://habr.com/ru/companies/ruvds/articles/920924/
#ruvds_статьи #LLM #галлюцинации #языковые_модели #дезинформация #функция_рассуждения #LRM #рассуждающие_модели #Claude_37_Sonnet #DeepSeekR1 #антропоморфизация #ChainofThought
-
Top #AI models parrot #China #propaganda, report finds
The American Security Project issued a report claiming leading AI parrot Chinese propaganda to varying degrees.
"Investigators asked the five most popular large language model (LLM) powered chatbots – #OpenAI’s #ChatGPT, Microsoft’s Copilot, Google’s Gemini, #DeepSeek’s #DeepSeekR1, and X’s Grok – to provide information on topics the PRC deems controversial in English and Simplified Chinese," the report says.
https://www.theregister.com/2025/06/26/top_ai_models_parrot_chinese/ -
Битва сильнейших: ChatGPT o1 pro / DeepSeek r1 / Claude 3.7 Sonnet / Gemini 2.5 Pro
На дворе 2025-й — год, когда нейросети уже давно превратились из «чего-то неизведанного, но интересного и манящего» в незримых союзников огромного количества людей, которые с радостью поручают им различные задачи в течение дня. И сегодня мы с вами посмотрим на битву ИИ-титанов: ChatGPT o1 Pro, DeepSeek R1, Claude 3.7 Sonnet и Gemini 2.5 Pro. Ну, может, конечно, будет и не столь зрелищно, как в каких-нибудь боевиках, однако, какая из этих моделей справляется с общими задачами лучше всего, мы с вами постараемся выяснить. Что действительно волнует пользователей — как выбрать идеального ИИ-помощника под свою конкретную задачу? Все чаще они ищут не просто умную нейросеть, а специализированные решения для маркетинга, копирайтинга слоганов, сценариев и других видов контента. В этом обзоре мы с вами не только сравним общие способности лидеров рынка, но и присмотримся к тому, какая модель станет вашим лучшим оружием в конкретных областях.
https://habr.com/ru/companies/bothub/articles/919366/
#нейросети #промты #deepseekr1 #gemini_25_pro #claude_37_sonnet #chatgpt_o1_pro #сравнение
-
Threat Actors Exploit DeepSeek-R1 Popularity to Target Windows Device Users https://gbhackers.com/threat-actors-exploit-deepseek-r1-popularity/ #CyberSecurityNews #cybersecurity #DeepSeekR1 #DeepSeek #Windows
-
Топ нейросетей для пересказа и суммаризации текста
Представьте: вы стоите по горло в море текста — полезного и не очень, от души разбавленного водой, может быть написанного сложным языком, — а времени у вас в обрез. Да даже и представлять не надо — знакомая ведь ситуация? Кто из нас ни разу не тонул в этом текстовом океане, ну? Но вместо того, чтобы тонуть, можно научиться ходить по воде — а надёжными проводниками станут нейросети‑суммаризаторы. Стили и задачи текста бывают разные, и их соотнесением с наиболее сильными сторонами нейросетей мы и займёмся.
https://habr.com/ru/companies/bothub/articles/916078/
#нейросети #сокращение_текста #рерайт #промты #deepseekr1 #claudeopus4 #chatgpt4o #YandexGPT5Pro #YandexGPT5Lite
-
DeepSeek R1 AI Model Update Boosts Reasoning, Catching up With OpenAI o3 and Gemini 2.5 Pro
#AI #DeepSeek #GenAI #LLM #DeepSeekR1 #AIUpdate #OpenSourceAI #ReasoningModels #AIBenchmarks #MachineLearning #ChinaAI #China
-
DeepSeek quietly drops R1 model upgrade
The Chinese AI firm has released an improved version of its powerful R1 reasoning model on Hugging Face without formal announcement. The new model boosts logical reasoning, efficiency, and supports real-time decision-making ranking just behind OpenAI's top models.
#AI #DeepSeekR1 #ArtificialIntelligence #AGI #HuggingFace #TechInnovation #OpenSourceAI #TECHi
Read Full Article Here :- https://www.techi.com/deepseek-r1-update-ai-reasoning-model-enhancements/
-
📊 Can your 8GB laptop handle DeepSeek R1?
We ran 250 sessions, built XGBoost models (R² = 0.91 ✅), and found the hidden levers behind RAM, latency & reasoning accuracy.
This isn't guesswork—it's LLM deployment as data science 💡🔍🔗 Read the full breakdown:
https://medium.com/@rogt.x1997/can-you-run-deepseek-r1-on-8gb-ram-a-data-science-driven-breakdown-21340677a063
#LLM #EdgeAI #DeepSeekR1 #AIForecasting #MachineLearning #LocalInference
https://medium.com/@rogt.x1997/can-you-run-deepseek-r1-on-8gb-ram-a-data-science-driven-breakdown-21340677a063 -
Ah, behold the majestic #DeepSeekR1-0528, a model so #mysterious and elusive that not even #Inference #Providers dare to touch it. 🤔✨ With a grand total of zero downloads last month, it's clear that this #685B parameter behemoth is the hottest #AI sensation—if only in its creator's wildest dreams. 🐒💭
https://huggingface.co/deepseek-ai/DeepSeek-R1-0528 #Parameters #HottestSensation #HackerNews #ngated -
Полмиллиона запросов за месяц: мой LLM-challenge и первые выводы
Привет, Хабр! Меня зовут Евгений, я работаю разработчиком в Университете Кембриджа (UK). В начале апреля я запустил llm7.io - полностью бесплатный LLM-провайдер, совместимый с популярными библиотеками chat completion . Цель была простая: проверить, насколько эффективно можно построить отказоустойчивую архитектуру под настоящую high-load-нагрузку , и при этом дать всем желающим доступ к мощным языковым моделям - без регистрации, API-токенов, смс и прочих барьеров. Что произошло за месяц?
https://habr.com/ru/articles/909622/
#llm #llmмодели #llmприложения #provider #opensource #chatgpt #deepseekr1 #mistral #searchgpt
-
New DeepSeek-R1T-Chimera Model Merges R1 Reasoning With Efficiency of V3-0324
#AI #LLMs #DeepSeekR1 #DeepSeekV3 #Chimera #OpenSourceAI #TNGTech #MoE #MachineLearning #TechNews #GenAI
-
#Apple #MacStudio #M3Ultra Runs #DeepSeekR1 With 671 Billion Parameters Using 448GB Of Unified Memory, Delivering High Bandwidth Performance At Under 200W Power Consumption, With No Need For A Multi-GPU Setup
https://wccftech.com/m3-ultra-chip-handles-deepseek-r1-model-with-671-billion-parameters/ -
💡 ARC-AGI-2 mette in crisi i modelli IA più avanzati
https://gomoot.com/arc-agi-2-mette-in-crisi-i-modelli-ia-piu-avanzati/
#agi #arcagi2 #arcprize #benchmark #blog #chatgpt #claude #deepseekr1 #geminiflash #news #openai #picks #sonnet #tech #tecnologia
-
🚀 2025 Tech Revolution: Shaping the Future of Innovation! 🔮
I just published an article diving deep into the latest breakthroughs in AI and Quantum Computing, including Claude 3.7 Sonnet, Microsoft’s Majorana 1, and DeepSeek R1. These advancements are paving the way for a new digital frontier, transforming productivity, finance, and communication.
🔗 https://www.linkedin.com/pulse/2025-tech-revolution-ai-agents-quantum-computing-new-uzcategui--q5sjc
#AI #QuantumComputing #Innovation #Entrepreneurship #Claude3 #DeepSeekR1 #Majorana1 #2025Tech #MastodonTech
-
DeepSeek R1: All you need to know 🐳
The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.
https://fireworks.ai/blog/deepseek-r1-deepdive
#DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts
-
DeepSeek R1: All you need to know 🐳
The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.
https://fireworks.ai/blog/deepseek-r1-deepdive
#DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts
-
DeepSeek R1: All you need to know 🐳
The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.
https://fireworks.ai/blog/deepseek-r1-deepdive
#DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts
-
DeepSeek R1: All you need to know 🐳
The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.
https://fireworks.ai/blog/deepseek-r1-deepdive
#DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts
-
DeepSeek R1: All you need to know 🐳
The article covers various aspects of the model, from its architecture to training methodologies and practical applications. The explanations are mostly clear and detailed, making complex concepts like Mixture of Experts (#MoE) and reinforcement learning easy to understand.
https://fireworks.ai/blog/deepseek-r1-deepdive
#DeepSeekR1 #AI #MachineLearning #ReasoningModel #ReinforcementLearning #DeepLearning #MixtureOfExperts
-
Apparently AI reasoning models like Deepseek-R1 and OpenAI o1 suffer from "underthinking", where they abandon promising solutions too quickly, leading to inefficient resource use. To address this, a "thought switching penalty" (TIP) was developed, which improved accuracy across math and science problems.