#qwen — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #qwen, aggregated by home.social.
-
RT @stableAPY: Ich kann immer noch nicht fassen, dass meine 3060 12GB Qwen 3.6 35B mit 40 tok/s ausführt. Diese Karte kostet gebraucht etwa 200$, während alle über extrem teure 128GB Unified Memory oder RTX 6000-Karten schwärmen. Eine einzelne 3060 12GB kann für erste lokale KI-Experimente weit von ausreichend entfernt sein – sie ist günstig und in Kombination mit etwas RAM und einem einigermaßen ordentlichen CPU leistet sie ihren Dienst. Natürlich gibt es Decode-Einbrüche, wenn der Kontext wächst, und man kann keine mehreren Sub-Agents gleichzeitig ausführen, aber es ist ein günstiger Einstiegspunkt. Zum Beispiel paart sie sich sehr gut mit meiner 3090: 3090 läuft als Main-Agent 35B -np 2 = so kann ich 2 parallele Agents haben 3060 als Sub-Agent 35B -np1 Auf diese Weise kann mein Main-Hermes Arbeit an diesen Sub-Agent delegieren, während er an etwas anderem arbeitet. Ich führe auch einen Hermes-Cron-Job aus, damit sie den Main-Agent nicht überlasten, und es stört mich nicht, dass es langsamer ist, weil es im Hintergrund passiert.
mehr auf Arint.info
-
https://winbuzzer.com/2026/05/14/former-alibaba-star-researcher-starts-new-ai-lab-s-xcxwbn/
Former Alibaba Qwen research lead Junyang Lin is seeking a large funding round for a new AI lab that may be valued at about $2 billion.
#AI #JunyangLin #Alibaba #Qwen #ChinaAI #AIResearch #AlibabaCloud
-
https://winbuzzer.com/2026/05/14/former-alibaba-star-researcher-starts-new-ai-lab-s-xcxwbn/
Former Alibaba Qwen research lead Junyang Lin is seeking a large funding round for a new AI lab that may be valued at about $2 billion.
#AI #JunyangLin #Alibaba #Qwen #ChinaAI #AIResearch #AlibabaCloud
-
https://winbuzzer.com/2026/05/14/former-alibaba-star-researcher-starts-new-ai-lab-s-xcxwbn/
Former Alibaba Qwen research lead Junyang Lin is seeking a large funding round for a new AI lab that may be valued at about $2 billion.
#AI #JunyangLin #Alibaba #Qwen #ChinaAI #AIResearch #AlibabaCloud
-
https://winbuzzer.com/2026/05/14/former-alibaba-star-researcher-starts-new-ai-lab-s-xcxwbn/
Former Alibaba Qwen research lead Junyang Lin is seeking a large funding round for a new AI lab that may be valued at about $2 billion.
#AI #JunyangLin #Alibaba #Qwen #ChinaAI #AIResearch #AlibabaCloud
-
https://winbuzzer.com/2026/05/14/former-alibaba-star-researcher-starts-new-ai-lab-s-xcxwbn/
Former Alibaba Qwen research lead Junyang Lin is seeking a large funding round for a new AI lab that may be valued at about $2 billion.
#AI #JunyangLin #Alibaba #Qwen #ChinaAI #AIResearch #AlibabaCloud
-
https://www.europesays.com/ie/484394/ Alibaba’s Qwen-Image-2.0 doubles compression and cuts generation steps from 40 to 4 #Alibaba #Éire #IE #Ireland #Qwen #Technology
-
The Irish Council for Civil Liberties (#ICCL) has released an open source tool designed to reduce LLM hallucinations.
If my 15-year-old PC had a GPU I'd be tempted to give it a try.
#verity #hallucination #ai #opensource #qwen #granite #ibm #gpu #ireland
-
The Irish Council for Civil Liberties (#ICCL) has released an open source tool designed to reduce LLM hallucinations.
If my 15-year-old PC had a GPU I'd be tempted to give it a try.
#verity #hallucination #ai #opensource #qwen #granite #ibm #gpu #ireland
-
The Irish Council for Civil Liberties (#ICCL) has released an open source tool designed to reduce LLM hallucinations.
If my 15-year-old PC had a GPU I'd be tempted to give it a try.
#verity #hallucination #ai #opensource #qwen #granite #ibm #gpu #ireland
-
The Irish Council for Civil Liberties (#ICCL) has released an open source tool designed to reduce LLM hallucinations.
If my 15-year-old PC had a GPU I'd be tempted to give it a try.
#verity #hallucination #ai #opensource #qwen #granite #ibm #gpu #ireland
-
The Irish Council for Civil Liberties (#ICCL) has released an open source tool designed to reduce LLM hallucinations.
If my 15-year-old PC had a GPU I'd be tempted to give it a try.
#verity #hallucination #ai #opensource #qwen #granite #ibm #gpu #ireland
-
-
-
-
-
-
Qwen 3.6 Max Preview: Developer Guide & Benchmarks 2026
Alibaba dropped Qwen 3.6 Max Preview on April 20, 2026 — and it immediately claimed the top spot on six major coding and agentic benchmarks, including a 57.3% score on SWE-bench...
https://wowhow.cloud/blogs/qwen-3-6-max-preview-developer-guide-april-2026
-
Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder
Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.
-
Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder
Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.
-
Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder
Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.
-
Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder
Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.
-
Alibaba Aims to Integrate AI Platform and eCommerce Marketpl… https://www.byteseu.com/2008701/ #AgenticAi #AgenticCommerce #AI #Alibaba #ArtificialIntelligence #ecommerce #News #PYMNTSNews #Qwen #Taobao #What'sHot
-
@simondueckert @karstenpe Ich habe #Qwen
Qwen2-VL-2B-Instruct
Q4 (~1.3 GB on disk )
Multimodal projector (vision encoder bridge) at Q8
probiert und es kann mit dem CPU (ThinkPad T480s i5-8350U 16Gb RAM nixos) sehr langsam *einzelnen* Tabelle Einträge oder < 60% sicher #Tesseract ergebnisse richtig OCRen wo tesseract scheitert aber es war eine irre Quälerei mit claude code.
Haben Sie ein local LLM gefunden??? -
@simondueckert @karstenpe Ich habe #Qwen
Qwen2-VL-2B-Instruct
Q4 (~1.3 GB on disk )
Multimodal projector (vision encoder bridge) at Q8
probiert und es kann mit dem CPU (ThinkPad T480s i5-8350U 16Gb RAM nixos) sehr langsam *einzelnen* Tabelle Einträge oder < 60% sicher #Tesseract ergebnisse richtig OCRen wo tesseract scheitert aber es war eine irre Quälerei mit claude code.
Haben Sie ein local LLM gefunden??? -
@simondueckert @karstenpe Ich habe #Qwen
Qwen2-VL-2B-Instruct
Q4 (~1.3 GB on disk )
Multimodal projector (vision encoder bridge) at Q8
probiert und es kann mit dem CPU (ThinkPad T480s i5-8350U 16Gb RAM nixos) sehr langsam *einzelnen* Tabelle Einträge oder < 60% sicher #Tesseract ergebnisse richtig OCRen wo tesseract scheitert aber es war eine irre Quälerei mit claude code.
Haben Sie ein local LLM gefunden??? -
@simondueckert @karstenpe Ich habe #Qwen
Qwen2-VL-2B-Instruct
Q4 (~1.3 GB on disk )
Multimodal projector (vision encoder bridge) at Q8
probiert und es kann mit dem CPU (ThinkPad T480s i5-8350U 16Gb RAM nixos) sehr langsam *einzelnen* Tabelle Einträge oder < 60% sicher #Tesseract ergebnisse richtig OCRen wo tesseract scheitert aber es war eine irre Quälerei mit claude code.
Haben Sie ein local LLM gefunden??? -
@simondueckert @karstenpe Ich habe #Qwen
Qwen2-VL-2B-Instruct
Q4 (~1.3 GB on disk )
Multimodal projector (vision encoder bridge) at Q8
probiert und es kann mit dem CPU (ThinkPad T480s i5-8350U 16Gb RAM nixos) sehr langsam *einzelnen* Tabelle Einträge oder < 60% sicher #Tesseract ergebnisse richtig OCRen wo tesseract scheitert aber es war eine irre Quälerei mit claude code.
Haben Sie ein local LLM gefunden??? -
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре. Из‑за этого русский текст в облачных сервисах вроде OpenAI обходится примерно в 2 раза дороже английского, медленнее обрабатывается, и в одно «контекстное окно» нейросети помещается заметно меньше реального содержания. Эта статья — про то, откуда берётся разница, как её измерить на ваших данных и какие модели лучше работают с русским языком.
https://habr.com/ru/articles/1032610/
#llm #токенизация #нейросети #локальный_ии #selfhosted #кириллица #qwen #gigachat #llama #yandexgpt
-
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре. Из‑за этого русский текст в облачных сервисах вроде OpenAI обходится примерно в 2 раза дороже английского, медленнее обрабатывается, и в одно «контекстное окно» нейросети помещается заметно меньше реального содержания. Эта статья — про то, откуда берётся разница, как её измерить на ваших данных и какие модели лучше работают с русским языком.
https://habr.com/ru/articles/1032610/
#llm #токенизация #нейросети #локальный_ии #selfhosted #кириллица #qwen #gigachat #llama #yandexgpt
-
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре. Из‑за этого русский текст в облачных сервисах вроде OpenAI обходится примерно в 2 раза дороже английского, медленнее обрабатывается, и в одно «контекстное окно» нейросети помещается заметно меньше реального содержания. Эта статья — про то, откуда берётся разница, как её измерить на ваших данных и какие модели лучше работают с русским языком.
https://habr.com/ru/articles/1032610/
#llm #токенизация #нейросети #локальный_ии #selfhosted #кириллица #qwen #gigachat #llama #yandexgpt
-
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре. Из‑за этого русский текст в облачных сервисах вроде OpenAI обходится примерно в 2 раза дороже английского, медленнее обрабатывается, и в одно «контекстное окно» нейросети помещается заметно меньше реального содержания. Эта статья — про то, откуда берётся разница, как её измерить на ваших данных и какие модели лучше работают с русским языком.
https://habr.com/ru/articles/1032610/
#llm #токенизация #нейросети #локальный_ии #selfhosted #кириллица #qwen #gigachat #llama #yandexgpt
-
Browser agent için 8 gorsel LLM'i ekran goruntusu temellendirmede kıyasladık.
Şaşırtıcı bulgu: Qwen 3.5-9B, 308B parametreli MiMo V2.5'in kaçırdığı bir dropdown affordance'ını doğru sınıflandırıyor. Affordance parametre sayısıyla ölçeklenmiyor.
8 modelden sadece 1'i (Qwen 3.6-35B-A3B) kalibrasyonda dürüst belirsizlik gösteriyor.
Detaylı yazı + VRAM önerileri:
https://webbrain.one/blogGitHub'da ⭐ atarsanız çok seviniriz 🙏
https://github.com/esokullu/webbrain -
Browser agent için 8 gorsel LLM'i ekran goruntusu temellendirmede kıyasladık.
Şaşırtıcı bulgu: Qwen 3.5-9B, 308B parametreli MiMo V2.5'in kaçırdığı bir dropdown affordance'ını doğru sınıflandırıyor. Affordance parametre sayısıyla ölçeklenmiyor.
8 modelden sadece 1'i (Qwen 3.6-35B-A3B) kalibrasyonda dürüst belirsizlik gösteriyor.
Detaylı yazı + VRAM önerileri:
https://webbrain.one/blogGitHub'da ⭐ atarsanız çok seviniriz 🙏
https://github.com/esokullu/webbrain -
Browser agent için 8 gorsel LLM'i ekran goruntusu temellendirmede kıyasladık.
Şaşırtıcı bulgu: Qwen 3.5-9B, 308B parametreli MiMo V2.5'in kaçırdığı bir dropdown affordance'ını doğru sınıflandırıyor. Affordance parametre sayısıyla ölçeklenmiyor.
8 modelden sadece 1'i (Qwen 3.6-35B-A3B) kalibrasyonda dürüst belirsizlik gösteriyor.
Detaylı yazı + VRAM önerileri:
https://webbrain.one/blogGitHub'da ⭐ atarsanız çok seviniriz 🙏
https://github.com/esokullu/webbrain -
Browser agent için 8 gorsel LLM'i ekran goruntusu temellendirmede kıyasladık.
Şaşırtıcı bulgu: Qwen 3.5-9B, 308B parametreli MiMo V2.5'in kaçırdığı bir dropdown affordance'ını doğru sınıflandırıyor. Affordance parametre sayısıyla ölçeklenmiyor.
8 modelden sadece 1'i (Qwen 3.6-35B-A3B) kalibrasyonda dürüst belirsizlik gösteriyor.
Detaylı yazı + VRAM önerileri:
https://webbrain.one/blogGitHub'da ⭐ atarsanız çok seviniriz 🙏
https://github.com/esokullu/webbrain -
Browser agent için 8 gorsel LLM'i ekran goruntusu temellendirmede kıyasladık.
Şaşırtıcı bulgu: Qwen 3.5-9B, 308B parametreli MiMo V2.5'in kaçırdığı bir dropdown affordance'ını doğru sınıflandırıyor. Affordance parametre sayısıyla ölçeklenmiyor.
8 modelden sadece 1'i (Qwen 3.6-35B-A3B) kalibrasyonda dürüst belirsizlik gösteriyor.
Detaylı yazı + VRAM önerileri:
https://webbrain.one/blogGitHub'da ⭐ atarsanız çok seviniriz 🙏
https://github.com/esokullu/webbrain -
Разбираю «Qwen3.5-21B-Claude-4.6-Opus-Heretic-Uncensored»: что на самом деле внутри файнтюна с громким именем
В телеграме завирусился пост: якобы кто-то “дообучил Qwen 3.5 до уровня Claude 4.6 Opus и убрал цензуру через Heretic”. Я открыл карточку модели на HuggingFace и провёл вечер, разбираясь, что под капотом. Спойлер: там много интересной техники, но к Claude эта модель имеет такое же отношение, как кроссовки “Adibas” к Adidas. Разбираю distillation, depth upscaling и abliteration без маркетинговой обёртки.
https://habr.com/ru/articles/1032324/
#LLM #Qwen #abliteration #файнтюн #HuggingFace #distillation #intepretability #openweights
-
Разбираю «Qwen3.5-21B-Claude-4.6-Opus-Heretic-Uncensored»: что на самом деле внутри файнтюна с громким именем
В телеграме завирусился пост: якобы кто-то “дообучил Qwen 3.5 до уровня Claude 4.6 Opus и убрал цензуру через Heretic”. Я открыл карточку модели на HuggingFace и провёл вечер, разбираясь, что под капотом. Спойлер: там много интересной техники, но к Claude эта модель имеет такое же отношение, как кроссовки “Adibas” к Adidas. Разбираю distillation, depth upscaling и abliteration без маркетинговой обёртки.
https://habr.com/ru/articles/1032324/
#LLM #Qwen #abliteration #файнтюн #HuggingFace #distillation #intepretability #openweights
-
-