#kimik25 — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #kimik25, aggregated by home.social.
-
NVIDIA’s Nemotron 3 Super Tops The Open-Source AI Model Chart, Beating DeepSeek & GPT-OSS NVIDIA's Open-Source "Nemotron 3 Super" AI model has topped the EnterpriseOps-Gym leaderb...
#Featured #News #Sticky #EnterpriseOps-Gym #Kimi-K2.5 #Mamba-Transformer #MoE #Neomotron #3 #Super #NVFP4
Origin | Interest | Match -
Как использовать Claude Code в 8 раз дешевле: подключаем китайские модели
Всем привет! Сегодня разберём, можно ли использовать Claude Code с китайскими моделями вместо Opus и сколько на этом реально сэкономить. Взял две китайские модели Kimi K2.6 от Moonshot AI и GLM-5.1 от Z AI и прогнал их на привычных задачах и сравнил с Opus. Не в написании кода, а на повседневных задачах: создать лендинг, сделать карусель для соцсетей, анализ данных, что-то в интернете поискать сравнить, написать какой-нибудь не сложный Telegram-бот и т.д. Забегая вперёд: результаты оказались неожиданными. Где-то китайские модели выиграли у Opus, где-то проиграли, а где-то разница оказалась чисто вкусовой. В конце статьи будет пошаговая инструкция, как подключить любую из этих моделей к Claude Code за пять минут. Работает и в терминале, и в десктоп-приложении, и в VS Code, везде где вы привыкли запускать Claude Code
https://habr.com/ru/articles/1026760/
#claude #claude_code #kimik2 #kimik25 #openai #ai #ии_агенты
-
Из коробки не работает: запускаем свежие большие LLM
В последнее время открытых моделей сверхбольшого размера развелось неимоверное количество, даже не просто моделей, а производителей. Вариации GLM, Kimi, DeepSeek занимают по нескольку строк в топ 5-10-20. Понадобилось перебрать основные LLM для тестов и выбора "рабочей лошадки", для чего пришлось немного пошуршать в интернетах. Оставлю в качестве памятки, вдруг кому-то окажется полезным. Всё делалось на базе образов vllm-openai, платформ B200/H200 и дров 590.48.01. На момент начала экспериментов - примерно пару недель тому назад - версии vllm 0.16 ещё не было, но, как выяснилось в итоге, это не сильно повлияло на ситуацию. Основные костыли остались теми же самыми. Разве что кастомизация образа не для каждой модели нужна теперь. В целом там, понятное дело, никакого RocketScience нету (особенно после того, как почитаешь китайские форумы в поисках нюансов). Но если бы кто-то посидел заранее и собрал советы в одном месте - жизнь была бы немного проще )) поэтому делюсь. Итак, поехали.
-
Из коробки не работает: запускаем свежие большие LLM
В последнее время открытых моделей сверхбольшого размера развелось неимоверное количество, даже не просто моделей, а производителей. Вариации GLM, Kimi, DeepSeek занимают по нескольку строк в топ 5-10-20. Понадобилось перебрать основные LLM для тестов и выбора "рабочей лошадки", для чего пришлось немного пошуршать в интернетах. Оставлю в качестве памятки, вдруг кому-то окажется полезным. Всё делалось на базе образов vllm-openai, платформ B200/H200 и дров 590.48.01. На момент начала экспериментов - примерно пару недель тому назад - версии vllm 0.16 ещё не было, но, как выяснилось в итоге, это не сильно повлияло на ситуацию. Основные костыли остались теми же самыми. Разве что кастомизация образа не для каждой модели нужна теперь. В целом там, понятное дело, никакого RocketScience нету (особенно после того, как почитаешь китайские форумы в поисках нюансов). Но если бы кто-то посидел заранее и собрал советы в одном месте - жизнь была бы немного проще )) поэтому делюсь. Итак, поехали.
-
Из коробки не работает: запускаем свежие большие LLM
В последнее время открытых моделей сверхбольшого размера развелось неимоверное количество, даже не просто моделей, а производителей. Вариации GLM, Kimi, DeepSeek занимают по нескольку строк в топ 5-10-20. Понадобилось перебрать основные LLM для тестов и выбора "рабочей лошадки", для чего пришлось немного пошуршать в интернетах. Оставлю в качестве памятки, вдруг кому-то окажется полезным. Всё делалось на базе образов vllm-openai, платформ B200/H200 и дров 590.48.01. На момент начала экспериментов - примерно пару недель тому назад - версии vllm 0.16 ещё не было, но, как выяснилось в итоге, это не сильно повлияло на ситуацию. Основные костыли остались теми же самыми. Разве что кастомизация образа не для каждой модели нужна теперь. В целом там, понятное дело, никакого RocketScience нету (особенно после того, как почитаешь китайские форумы в поисках нюансов). Но если бы кто-то посидел заранее и собрал советы в одном месте - жизнь была бы немного проще )) поэтому делюсь. Итак, поехали.
-
Из коробки не работает: запускаем свежие большие LLM
В последнее время открытых моделей сверхбольшого размера развелось неимоверное количество, даже не просто моделей, а производителей. Вариации GLM, Kimi, DeepSeek занимают по нескольку строк в топ 5-10-20. Понадобилось перебрать основные LLM для тестов и выбора "рабочей лошадки", для чего пришлось немного пошуршать в интернетах. Оставлю в качестве памятки, вдруг кому-то окажется полезным. Всё делалось на базе образов vllm-openai, платформ B200/H200 и дров 590.48.01. На момент начала экспериментов - примерно пару недель тому назад - версии vllm 0.16 ещё не было, но, как выяснилось в итоге, это не сильно повлияло на ситуацию. Основные костыли остались теми же самыми. Разве что кастомизация образа не для каждой модели нужна теперь. В целом там, понятное дело, никакого RocketScience нету (особенно после того, как почитаешь китайские форумы в поисках нюансов). Но если бы кто-то посидел заранее и собрал советы в одном месте - жизнь была бы немного проще )) поэтому делюсь. Итак, поехали.
-
Из коробки не работает: запускаем свежие большие LLM В последнее время открытых моделей сверхбольшого разме...
#Kimi-K2.5 #DeepSeek-v3.2 #GLM-5 #Qwen3.5 #vllm #B200
Origin | Interest | Match -
Explore how the new Kimi K2.5 multimodal VLM leverages NVIDIA GPU‑accelerated endpoints, vLLM and the NeMo framework to deliver faster, open‑source vision‑language inference. The article walks through CUDA optimizations and practical deployment tips for AI researchers and developers. #KimiK25 #MultimodalVLM #NVIDIAGPU #NeMoFramework
🔗 https://aidailypost.com/news/build-kimi-k25-multimodal-vlm-nvidia-gpu-accelerated-endpoints
-
🎁 #KimiK25 Launch Top-Up Bonus: Get up to 50% in Vouchers! #MoonshotAI #AI #Promotion
💰 Tiered bonus on top-ups:
$100-$1,999 → 30%
$2,000-$9,999 → 40%
$10,000+ → 50% (max $10,000 voucher)
⏰ Until February 2, 2026 - voucher credited within 1 business day, valid for 30 days
🚀 Celebrating the launch of #KimiK25: Native multimodal agentic model with 1T parameters, 256K context & Agent Swarm with up to 100 parallel sub-agentshttps://platform.moonshot.ai/docs/promotion#-kimi-k25-launch-top-up-bonus-get-up-to-50-in-vouchers
-
Tôi đã phát triển bộ đánh giá mã nguồn "SanityHarness" và thử nghiệm trên 49 mô hình/agent AI (bao gồm Kimi K2.5). Kết quả chi tiết được công bố trên bảng xếp hạng "SanityBoard" với 6 ngôn ngữ lập trình. Đáng chú ý: nhiều dịch vụ AI tính phí quá đắt như Codebuff ($7.5 cho 9 task), trong khi các nền tảng như Kimi CLI rẻ hơn đáng kể. #AI #CodingBenchmark #VietnameseAI #LậpTrình #MôHìnhAI #KimiK25 #ĐánhGiáAI
https://www.reddit.com/r/LocalLLaMA/comments/1qp4ftj/i_made_a_coding_eval_and_ran_it_again
-
🚨 **THÔNG BÁO AMA VỀ MOONSHOT AI LAB** 🚨
Nhóm phát triển mô hình Kimi K2.5 (State-of-the-Art) sẽ trả lời câu hỏi TRỰC TIẾP vào **Thứ Tư, 28/1, từ 8AM–11PM PST (giờ Mỹ)**. Đừng bỏ lỡ cơ hội khám phá công nghệ AI mã nguồn mở đột phá từ phòng lab hàng đầu!Lưu ý: Câu hỏi sẽ được đặt trong thread riêng.
#AI #KimiK25 #AMA #MoonshotAI #StateOfTheArt
#TríTuệNhânTạo #HỏiĐápAI #CôngNghệMớihttps://www.reddit.com/r/LocalLLaMA/comments/1qp46za/ama_announcement_moonshot_ai_the_opensource/
-
https://winbuzzer.com/2026/01/27/moonshot-ai-kimi-k2-5-open-source-model-xcxwbn/
Moonshot AI Unveils Kimi K2.5 Open-Source Model
#AI #OpenSourceAI #KimiK25 #MoonshotAI #AIAgents #AgenticAI #OpenSourceAI #AIModels #AICoding #ChinaAI