home.social

#deepseek_v4 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #deepseek_v4, aggregated by home.social.

  1. [Перевод] Вышел DeepSeek V4. Почему это очень плохо для США?

    DeepSeek V4 Pro — это 1,6 триллиона параметров, mixture of experts (MoE), 49 млрд активных параметров и контекст в 1 миллион токенов. V4 Flash — рабочая лошадка: 284 млрд параметров суммарно, 13 млрд активных. Обе модели обучены примерно на 33 трлн токенов. На агентских бенчмарках кода, MMLU Pro, GPQA Diamond, SWE-bench Verified — V4 рядом с Opus 4.7 и GPT-5.5. Немного отстаёт, но совсем немного. Вот в чём дело. Большинству задач не нужен абсолютный frontier. Компании не решают сложнейшие научные задачи — они ведут бизнес. Представьте: вы CEO, смотрите на GPT-5.5 по $30 за миллион выходных токенов, на Opus 4.7 по похожей цене — и тут DeepSeek в разы дешевле, open source, его можно дообучать, хостить где угодно, контролировать точечно. Математика очевидна. Здесь и начинается проблема.

    habr.com/ru/articles/1028032/

    #DeepSeek_V4 #mixture_of_experts #open_source_LLM #frontier_модели #SWEbench #экспортный_контроль_AI #дистилляция_моделей #AI_безопасность #OpenAI_Anthropic_конкуренция #стоимость_инференса

  2. GPT-5.5 против DeepSeek-V4: почему OpenAI удваивает цены, пока Китай демпингует

    За 2 дня рынок получил сразу два флагманских релиза: GPT-5.5 от OpenAI и DeepSeek V4 . На первый взгляд это очередная гонка бенчмарков. На деле - столкновение двух стратегий: дорогая агентная модель для реальной работы против открытых весов, дешевого API и контекста на миллион токенов. Я внимательно изучила официальные бенчмарки, прайс-листы и первые отзывы разработчиков. Давайте разбираться, что из этого реально применимо в работе.

    habr.com/ru/articles/1027564/

    #искусственный_интеллект #нейросети #вайбкодинг #gpt55 #deepseek_v4 #llm #ии_агенты #open_source #бенчмарки #автоматизация