#kimik2thinking — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #kimik2thinking, aggregated by home.social.
-
via #AIFoundry : What’s new in Microsoft Foundry | Dec 2025 & Jan 2026
https://ift.tt/kuiqREP
#MicrosoftFoundry #WhatsNew #Dec2025Jan2026 #GPT5_2 #GPT5_1CodexMax #MistralLarge3 #DeepSeekV3_2 #KimiK2Thinking #CohereRerank4 #GPTImage15 #FLUX2pro #AudioModels #FineTuning #OpenSo… -
推論モデル「Kimi K2 Thinking」、米Perplexityに採用 唯一の中国発モデルに
-
中国・Moonshot AI、推論モデル『Kimi K2 Thinking』発表 GPT-5超えの性能、コストは1/4
-
Chiński startup pobił GPT-5 i Claude 4.5. Model AI trenowano za ułamek ceny
Amerykańska dominacja w AI stanęła pod znakiem zapytania. Jak donosi serwis AI News (potwierdzając dane z wielu źródeł), chiński startup Moonshot AI wypuścił właśnie nowy, otwarty model (open-source) Kimi K2 Thinking, który w kluczowych benchmarkach pobił zarówno GPT-5 od OpenAI, jak i Claude Sonnet 4.5 od Anthropic.
Startup z Pekinu, wspierany przez gigantów Alibaba i Tencent, wywołał w branży szok, określany już jako kolejny „moment DeepSeek” – czyli dowód na to, że Chiny potrafią tworzyć tańszą i równie wydajną technologię.
Jak Kimi K2 wypada w testach?
Według oficjalnej dokumentacji i niezależnych analiz, Kimi K2 Thinking uzyskał:
- 44.9% w teście Humanity’s Last Exam (benchmark sprawdzający rozumowanie w 2500 pytań z różnych dziedzin), pokonując GPT-5 (41.7%).
- 60.2% w teście BrowseComp (sprawdzającym umiejętności przeglądania sieci i wyszukiwania informacji), również pokonując GPT-5 (który uzyskał tam 54.9%).
Broń Chin: cena
Największym szokiem nie jest jednak sama wydajność, ale koszt. Według doniesień CNBC, na które powołuje się AI News, koszt treningu Kimi K2 Thinking wyniósł zaledwie 4,6 miliona dolarów. Jednak tutaj w redakcji zapaliła się nam czerwona lampka, bo już krótko po debiucie modelu DeepSeek, również mówiono o znikomych kosztach treningu, które po czasie okazały się znacznie wyższe od wstępnie deklarowanych.
Trening modelu DeepSeek nie kosztował 6 mln dolarów, lecz 1,3 miliarda dolarów – raport SemiAnalysis
W każdym razie jeżeli chodzi o chińską nowość, to podobno koszt korzystania z API tego modelu jest od 6 do 10 razy niższy niż w przypadku modeli OpenAI i Anthropic. Model wykorzystuje architekturę Mixture-of-Experts (MoE) z 1 bilionem parametrów (z czego 32 miliardy są aktywne jednocześnie).
Wstępne testy wypadają obiecująco, koszty treningu (biorąc pod uwagę uzyskane rezultaty) są po prostu mało wiarygodne, czekamy na ich potwierdzenie z innych, niezależnych źródeł i będziemy was informować na bieżąco.
#aiSi #benchmark #chiny #claudeSonnet45 #deepseek #gpt5 #kimiK2Thinking #moonshotAi #news #openSource #sztucznaInteligencja
-
Kimi K2 Just Killed OpenAI: The $4.6 Million AI That Upended Silicon Valley “This is another DeepSeek-style glorious moment? Open source software surpasses closed source software again.” —...
#open-source-ai-llm #aillm #kimi-k2-thinking #open-ai-gpt-5 #kimi-k2
Origin | Interest | Match -
Kimi K2 Just Killed OpenAI: The $4.6 Million AI That Upended Silicon Valley “This is another DeepSeek-style glorious moment? Open source software surpasses closed source software again.” —...
#open-source-ai-llm #aillm #kimi-k2-thinking #open-ai-gpt-5 #kimi-k2
Origin | Interest | Match