home.social

#kimi-k2-thinking — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #kimi-k2-thinking, aggregated by home.social.

fetched live
  1. Chiński startup pobił GPT-5 i Claude 4.5. Model AI trenowano za ułamek ceny

    Amerykańska dominacja w AI stanęła pod znakiem zapytania. Jak donosi serwis AI News (potwierdzając dane z wielu źródeł), chiński startup Moonshot AI wypuścił właśnie nowy, otwarty model (open-source) Kimi K2 Thinking, który w kluczowych benchmarkach pobił zarówno GPT-5 od OpenAI, jak i Claude Sonnet 4.5 od Anthropic.

    Startup z Pekinu, wspierany przez gigantów Alibaba i Tencent, wywołał w branży szok, określany już jako kolejny „moment DeepSeek” – czyli dowód na to, że Chiny potrafią tworzyć tańszą i równie wydajną technologię.

    Jak Kimi K2 wypada w testach?

    Według oficjalnej dokumentacji i niezależnych analiz, Kimi K2 Thinking uzyskał:

    • 44.9% w teście Humanity’s Last Exam (benchmark sprawdzający rozumowanie w 2500 pytań z różnych dziedzin), pokonując GPT-5 (41.7%).
    • 60.2% w teście BrowseComp (sprawdzającym umiejętności przeglądania sieci i wyszukiwania informacji), również pokonując GPT-5 (który uzyskał tam 54.9%).

    Broń Chin: cena

    Największym szokiem nie jest jednak sama wydajność, ale koszt. Według doniesień CNBC, na które powołuje się AI News, koszt treningu Kimi K2 Thinking wyniósł zaledwie 4,6 miliona dolarów. Jednak tutaj w redakcji zapaliła się nam czerwona lampka, bo już krótko po debiucie modelu DeepSeek, również mówiono o znikomych kosztach treningu, które po czasie okazały się znacznie wyższe od wstępnie deklarowanych.

    Trening modelu DeepSeek nie kosztował 6 mln dolarów, lecz 1,3 miliarda dolarów – raport SemiAnalysis

    W każdym razie jeżeli chodzi o chińską nowość, to podobno koszt korzystania z API tego modelu jest od 6 do 10 razy niższy niż w przypadku modeli OpenAI i Anthropic. Model wykorzystuje architekturę Mixture-of-Experts (MoE) z 1 bilionem parametrów (z czego 32 miliardy są aktywne jednocześnie).

    Wstępne testy wypadają obiecująco, koszty treningu (biorąc pod uwagę uzyskane rezultaty) są po prostu mało wiarygodne, czekamy na ich potwierdzenie z innych, niezależnych źródeł i będziemy was informować na bieżąco.

    #aiSi #benchmark #chiny #claudeSonnet45 #deepseek #gpt5 #kimiK2Thinking #moonshotAi #news #openSource #sztucznaInteligencja

  2. Kimi K2 Just Killed OpenAI: The $4.6 Million AI That Upended Silicon Valley “This is another DeepSeek-style glorious moment? Open source software surpasses closed source software again.” —...

    #open-source-ai-llm #aillm #kimi-k2-thinking #open-ai-gpt-5 #kimi-k2

    Origin | Interest | Match
  3. Kimi K2 Just Killed OpenAI: The $4.6 Million AI That Upended Silicon Valley “This is another DeepSeek-style glorious moment? Open source software surpasses closed source software again.” —...

    #open-source-ai-llm #aillm #kimi-k2-thinking #open-ai-gpt-5 #kimi-k2

    Origin | Interest | Match
  4. New Kimi K2 Thinking model claims to outpace GPT‑5, offering an open‑source‑friendly API that even Tesla and Edison would admire. Dive into the specs, curl examples, and moonshot.cn’s roadmap—see why the community is buzzing. #KimiK2Thinking #GPT5 #OpenAI #API

    🔗 aidailypost.com/news/kimi-k2-t

  5. Kimi K2 Thinking is impressive, it is as at least as good as other top foundation models, fully openweights, 1 trillion parameters but only using 32B in a MoE setting. Also you can download and reuse it for free.
    github.com/MoonshotAI/Kimi-K2

    #ai #kimik2thinking

  6. 🚀 Ah, behold the "Kimi K2 Thinking," because apparently we really needed a trillion-parameter model to tell us what we already know: humans are overrated thinkers. 🤖✨ Open-source, because obviously the world can't wait to dig into yet another AI marvel that'll "revolutionize" everything except our #productivity. 🙄🔧
    moonshotai.github.io/Kimi-K2/t #KimiK2Thinking #AIRevolution #OpenSource #OverratedThinkers #HackerNews #ngated