#openweights — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #openweights, aggregated by home.social.
-
Разбираю «Qwen3.5-21B-Claude-4.6-Opus-Heretic-Uncensored»: что на самом деле внутри файнтюна с громким именем
В телеграме завирусился пост: якобы кто-то “дообучил Qwen 3.5 до уровня Claude 4.6 Opus и убрал цензуру через Heretic”. Я открыл карточку модели на HuggingFace и провёл вечер, разбираясь, что под капотом. Спойлер: там много интересной техники, но к Claude эта модель имеет такое же отношение, как кроссовки “Adibas” к Adidas. Разбираю distillation, depth upscaling и abliteration без маркетинговой обёртки.
https://habr.com/ru/articles/1032324/
#LLM #Qwen #abliteration #файнтюн #HuggingFace #distillation #intepretability #openweights
-
Разбираю «Qwen3.5-21B-Claude-4.6-Opus-Heretic-Uncensored»: что на самом деле внутри файнтюна с громким именем
В телеграме завирусился пост: якобы кто-то “дообучил Qwen 3.5 до уровня Claude 4.6 Opus и убрал цензуру через Heretic”. Я открыл карточку модели на HuggingFace и провёл вечер, разбираясь, что под капотом. Спойлер: там много интересной техники, но к Claude эта модель имеет такое же отношение, как кроссовки “Adibas” к Adidas. Разбираю distillation, depth upscaling и abliteration без маркетинговой обёртки.
https://habr.com/ru/articles/1032324/
#LLM #Qwen #abliteration #файнтюн #HuggingFace #distillation #intepretability #openweights
-
Mistral AI veröffentlicht Mistral Medium 3.5 mit 128 Milliarden Parametern, 256.000 Token Kontext und asynchronen Remote Agents für Coding-Aufgaben.
Das Modell läuft auf vier GPUs und ist On-Premise hostbar. Open Weights stehen unter einer modifizierten MIT-Lizenz bereit. In Benchmarks wie SWE-Bench Verified (77,6%) übertrifft es Claude Sonnet 4.5.
#Mistral #LLM #OpenWeights #MistralAI #AIGeneratedImage
https://www.all-ai.de/news/news26top/mistral-medium-3-5-flagschiff
-
Mistral AI veröffentlicht Mistral Medium 3.5 mit 128 Milliarden Parametern, 256.000 Token Kontext und asynchronen Remote Agents für Coding-Aufgaben.
Das Modell läuft auf vier GPUs und ist On-Premise hostbar. Open Weights stehen unter einer modifizierten MIT-Lizenz bereit. In Benchmarks wie SWE-Bench Verified (77,6%) übertrifft es Claude Sonnet 4.5.
#Mistral #LLM #OpenWeights #MistralAI #AIGeneratedImage
https://www.all-ai.de/news/news26top/mistral-medium-3-5-flagschiff
-
Moonshot AI veröffentlicht das Open-Weights-Modell Kimi K2.6, das im Intelligence Index Platz vier belegt. Die Mixture-of-Experts-Architektur mit einer Billion Parameter und 256.000 Token Kontext erlaubt autonomes Long-Horizon Coding über 13 Stunden. Bis zu 300 Sub-Agenten arbeiten parallel.
#KimiK26 #MoonshotAI #OpenWeights #LLM #News
https://www.all-ai.de/news/news26top/kimi-2-6-openweight-test -
"Leading models are now “nearly indistinguishable” from each other when it comes to performance, the Stanford HAI report notes. Open-weight models are more competitive than ever, but they are converging.
As capability is no longer a “clear differentiator,” competitive pressure is shifting toward cost, reliability, and real-world usefulness.
Frontier labs are disclosing less information about their models, evaluation methods are quickly losing relevance, and independent testing can’t always corroborate developer-reported metrics.
As Stanford HAI points out: “The most capable systems are now the least transparent.”
Training code, parameter counts, dataset sizes, and durations are often being withheld — by firms including OpenAI, Anthropic and Google. And transparency is declining more broadly: In 2025, 80 out of 95 models were released without corresponding training code, while only four made their code fully open source.
Further, after rising between 2023 and 2024, scores on the Foundation Model Transparency Index — which ranks major foundation developers on 100 transparency indicators — have since dropped. The average score is now 40, representing a 17 point decrease.
“Major gaps persist in disclosure around training data, compute resources, and post-deployment impact,” according to the report."
#AI #GenerativeAI #LLMs #OpenWeights #OpenSource #Transparency #Hallucinations
-
Google Research veröffentlicht mit Simula ein neues Framework zur Generierung synthetischer Trainingsdaten durch Reasoning.
Der vierstufige Prozess kommt ohne menschliche Startdaten aus und erzeugt hierarchische Taxonomien. Tests mit bis zu 512.000 Datenpunkten zeigen Leistungssteigerungen, das System wird bereits für ShieldGemma und Spam-Erkennung genutzt.
#Google #Simula #LLM #OpenWeights #News
https://www.all-ai.de/news/beitrage2026/google-synthetische-daten-neu -
Zhipu AI veröffentlicht GLM-5.1, ein Modell für Long-Horizon Programmieraufgaben.
Es erzielt 58,4 Punkte im SWE-Bench Pro und 68,7 im CyberGym, bleibt im Terminal-Bench 2.0 jedoch hinter Konkurrenten zurück. Die Gewichte stehen unter MIT-Lizenz bereit, optimiert für vLLM und SGLang.
#GLM5 #OpenWeights #LLM #HuggingFace #News
https://www.all-ai.de/news/news26top/glm-5-1-release -
Cohere veröffentlicht mit Transcribe ein neues Sprachmodell mit zwei Milliarden Parametern unter Apache 2.0.
Die Conformer-basierte Architektur erreicht einen Durchsatz von 525 RTFx bei einer Wortfehlerrate von 5.42. Damit übertrifft das Modell Alternativen wie OpenAI Whisper Large v3 signifikant bei Durchsatz und Präzision.
#Cohere #LLM #OpenWeights #MachineLearning #News
https://www.all-ai.de/news/news26top/cohere-transcripe-whisper -
🎤🎙️ Behold, the latest marvel: an open-weights #TTS model so realistic, it's like having a conversation with your fridge 🤖. Yet another GitHub project where the buzzwords outweigh the substance—because who needs meaningful human dialogue when AI can babble for us? 🙄 #InnovationOrIllusion
https://github.com/nari-labs/dia #OpenWeights #AIConversation #TechBuzz #GitHubProjects #HackerNews #ngated