home.social

#qwen25 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #qwen25, aggregated by home.social.

  1. Чат-бот с генеративным AI под капотом (разговаривает как живой)

    Реализация чат-бота с LLM под капотом, который ведет общение с пользователем в свободной форме, но собирает структурированную информацию, согласно перечню параметров в конфигурационном файле. А сам файл конфигурации - таблица с описанием скрипта общения, такая, которую вы бы написали для людей: операторов кол-центров, продавцов или интервьюеров. Интересно? Погодите, я еще не закончил! LLM работает локально, не надо платить за токены! Подробности внутри

    habr.com/ru/articles/993912/

    #чатбот #qwen #qwen3 #qwen25

  2. Запускаем AI-ассистента на бесплатном CPU: Qwen2.5 + Gradio + Hugging Face Spaces

    Каждый раз, когда кто-то говорит про запуск LLM, возникает вопрос: "А где взять GPU?" Облачные GPU стоят денег, локальные видеокарты стоят ещё больших денег, а бесплатные GPU-тиры исчезают быстрее, чем появляются. Но что если можно запустить полноценного AI-ассистента вообще без GPU? На обычном CPU. Бесплатно. С хорошей поддержкой русского языка. И развернуть его за 15-20 минут. В этой статье рассказывается, как запустить Qwen2.5-3B на бесплатном CPU-тире Hugging Face Spaces, создать веб-интерфейс с помощью Gradio и получить работающего ассистента с поддержкой русского языка. Никаких глубоких знаний не требуется — только базовый Python и аккаунт на Hugging Face. Если вы устали искать бесплатный GPU или просто хотите поэкспериментировать с LLM без лишних затрат — эта статья для вас.

    habr.com/ru/articles/993312/

    #Qwen25 #Gradio #Hugging_Face_Spaces #AIассистент #CPU #Python #llamacpp #машинное_обучение

  3. Запускаем AI-ассистента на бесплатном CPU: Qwen2.5 + Gradio + Hugging Face Spaces

    Каждый раз, когда кто-то говорит про запуск LLM, возникает вопрос: "А где взять GPU?" Облачные GPU стоят денег, локальные видеокарты стоят ещё больших денег, а бесплатные GPU-тиры исчезают быстрее, чем появляются. Но что если можно запустить полноценного AI-ассистента вообще без GPU? На обычном CPU. Бесплатно. С хорошей поддержкой русского языка. И развернуть его за 15-20 минут. В этой статье рассказывается, как запустить Qwen2.5-3B на бесплатном CPU-тире Hugging Face Spaces, создать веб-интерфейс с помощью Gradio и получить работающего ассистента с поддержкой русского языка. Никаких глубоких знаний не требуется — только базовый Python и аккаунт на Hugging Face. Если вы устали искать бесплатный GPU или просто хотите поэкспериментировать с LLM без лишних затрат — эта статья для вас.

    habr.com/ru/articles/993312/

    #Qwen25 #Gradio #Hugging_Face_Spaces #AIассистент #CPU #Python #llamacpp #машинное_обучение

  4. Запускаем AI-ассистента на бесплатном CPU: Qwen2.5 + Gradio + Hugging Face Spaces

    Каждый раз, когда кто-то говорит про запуск LLM, возникает вопрос: "А где взять GPU?" Облачные GPU стоят денег, локальные видеокарты стоят ещё больших денег, а бесплатные GPU-тиры исчезают быстрее, чем появляются. Но что если можно запустить полноценного AI-ассистента вообще без GPU? На обычном CPU. Бесплатно. С хорошей поддержкой русского языка. И развернуть его за 15-20 минут. В этой статье рассказывается, как запустить Qwen2.5-3B на бесплатном CPU-тире Hugging Face Spaces, создать веб-интерфейс с помощью Gradio и получить работающего ассистента с поддержкой русского языка. Никаких глубоких знаний не требуется — только базовый Python и аккаунт на Hugging Face. Если вы устали искать бесплатный GPU или просто хотите поэкспериментировать с LLM без лишних затрат — эта статья для вас.

    habr.com/ru/articles/993312/

    #Qwen25 #Gradio #Hugging_Face_Spaces #AIассистент #CPU #Python #llamacpp #машинное_обучение

  5. Запускаем AI-ассистента на бесплатном CPU: Qwen2.5 + Gradio + Hugging Face Spaces

    Каждый раз, когда кто-то говорит про запуск LLM, возникает вопрос: "А где взять GPU?" Облачные GPU стоят денег, локальные видеокарты стоят ещё больших денег, а бесплатные GPU-тиры исчезают быстрее, чем появляются. Но что если можно запустить полноценного AI-ассистента вообще без GPU? На обычном CPU. Бесплатно. С хорошей поддержкой русского языка. И развернуть его за 15-20 минут. В этой статье рассказывается, как запустить Qwen2.5-3B на бесплатном CPU-тире Hugging Face Spaces, создать веб-интерфейс с помощью Gradio и получить работающего ассистента с поддержкой русского языка. Никаких глубоких знаний не требуется — только базовый Python и аккаунт на Hugging Face. Если вы устали искать бесплатный GPU или просто хотите поэкспериментировать с LLM без лишних затрат — эта статья для вас.

    habr.com/ru/articles/993312/

    #Qwen25 #Gradio #Hugging_Face_Spaces #AIассистент #CPU #Python #llamacpp #машинное_обучение

  6. Применение локальных LLM для OCR

    Вдруг кому-то будет полезно. Возникла задача быстрого распознавания данных с фотографий и получения из них структурированной информации. Так же важно было отсутствие требовательного к ресурсам ПО и легкость разворачивания системы. Поэтому было решено попробовать использовать в качестве подключаемого модуля мультимодальные LLM запускаемые под Ollama, т.к. у неё есть REST API по которому удобно обращаться к модели.

    habr.com/ru/articles/971842/

    #qwen25 #qwen3 #dotnet #net #c# #llm #gemma3

  7. Как мы дистиллировали Qwen для автоматического протоколирования совещаний

    Протоколирование совещаний — важная часть корпоративной коммуникации: протоколы позволяют быстро восстановить ключевые моменты, не переслушивая часовые записи. Нас зовут Андрей Ситников и Максим Шкут, мы работаем DS в команде департамента анализа данных и моделирования ВТБ, занимаемся задачей автоматического протоколирования встреч. Мы реализуем ее с помощью LLM-модели Qwen. В этой статье расскажем, как мы оптимизировали inference, сохранив качество генерации протоколов.

    habr.com/ru/companies/vtb/arti

    #qwen25 #ml #ai #nlp #llm

  8. [Перевод] LIMO: Меньше — значит больше для рассуждающих LLM

    "Мы представляем фундаментальное открытие, которое бросает вызов нашему пониманию того, как сложные рассуждения возникают в больших языковых моделях" - так нескромно начинается аннотация к свежей статье от 5 февраля 2025 года. Авторы приводят результаты эксперимента, в котором небольшое количество хорошо подобранных задач с ответами может "всколыхнуть и заставить работать" весь "спящий" внутри LLM объем знаний, которые она накопила, перелопатив гигатонны текста. Возможно, данная работа войдет в список обязательных к прочтению статей по теории нейросетей.

    habr.com/ru/articles/881974/

    #LLM #qwen25 #рассуждения #обучение_моделей

  9. Qwen 2.5 di Alibaba è qui. Un modello AI che punta a superare OpenAI e DeepSeek, con nuove tecnologie e applicazioni. 🌐🤖 #Qwen25 #AlibabaAI #TechNews

    melamorsicata.it/2025/01/30/qw

  10. Qwen 2.5 di Alibaba è qui. Un modello AI che punta a superare OpenAI e DeepSeek, con nuove tecnologie e applicazioni. 🌐🤖 #Qwen25 #AlibabaAI #TechNews

    melamorsicata.it/2025/01/30/qw

  11. Naty @eclecticpassions ·

    After , announces AI model on Chinese New Year. (🐍🧧Happy to all!)

    Crazy amounts of AI news these days... I am only making use of it while using free search and occasionally at (also free). Thinking of getting my first paid (one of those combo ones; since HK doesn't have access to those directly).

    Anyone has experience with ? There's a on right now.

  12. Alibaba enthüllt Qwen 2.5 VL: KI kontrolliert Deinen PC und Dein Smartphone

    Steuert Geräte per Sprache
    Verbesserte Sprachverarbeitung
    Optimiert für mobile Anwendungen

    #ai #ki #artificialintelligence #kuenstlicheintelligenz #alibaba #Qwen #qwenvl #qwen25 #technologie

    kinews24.de/alibaba-qwen-2-5-v

  13. EXO Labs ha creado un clúster con cuatro Mac Mini M4 y un MacBook Pro M4 para ejecutar localmente LLMs IA como Llama-3.1 405B de Meta, Nemotron 70B de Nvidia y Qwen 2.5 Coder-32B de Alibaba Cloud

    #InteligenciaArtificial #LLM #LLMs #opensource #tech #Llama31 #qwen25 #Nemotron70b #AI #MacMini #MacBookPro

    mecambioamac.com/exo-labs-cone

  14. Update on learning new programming skills using qwen25-coder. Its great for general questions about javascript, but terrible at helping me learn d3 force directed graphs. It just makes stuff up!

    My hunch is that there is comparatively little d3 example code for it to learn from, especially on this niche topic.

    So I've resorted to the tried-and-true method: slowly picking apart examples, building up my own mental model, and then testing that model by writing some code.

    #qwen25 #d3

  15. I tried writing code with #Qwen25 7B on my local PC, and while it might seem capable of doing a lot at first glance, in reality, it's not yet ready to tackle most problems effectively. While it certainly has its uses, especially for experts, relying on version 7B alone is not sufficient for creating working code at this point. I haven't had the chance to try the 32b versions, but my initial experience was informative. I'm not giving up and will give it another try soon. #AI #coding #python #B3D

  16. I think this add-on is quite complete, now it can be installed as an add-on, and it has a list of common materials, and in case they are not enough there is also the possibility to set a custom density. #b3d #Blender3D #Blender #CAD #python #Qwen25 #AI #code #coding

  17. For those who want to test some #AI module on their #PC and want to do it without complications, there is a #GUI that makes things simple for you and allows you to use different types of AI.
    Try #LMStudio. #qwen25 #mistral #phi #llama #gemma2 #deepseek2 #coding
    lmstudio.ai/

  18. Another #Python script generated with #Qwen25 Coder 7B, this #OpenSource #AI allows you to solve problems with Python for #Blender, and I hope it continues to evolve, but it is already capable of accomplishing a lot, and it can also help you to learn better how to program. This is a script that calculates weight. #b3d #coding #Blender3D #programming #development

  19. This is a video demonstration of the basic operation of #Qwen25 used through #Ollama in #Linux with a GTX 3070, to generate code in #Python for #Blender, as you can see it is dynamic and understands the language fairly well. #AI #coding #Blender3D #opensource #LLM #developer

  20. #Qwen25 with a small module 7B is fast on my laptop with a GTX 3070, and save a lot of time, this for eg. is a simple code that generate random shader with random base color and assign a new one to all object selected on view port. #opensource #AI #b3d #coding #Blender3D #Python

  21. Talking with #AI
    Me : "Thanks for the help, tomorrows I come back here to make some improvements in the code, for now bye.

    Qwen2.5: "You're welcome! I'm glad I could help. If you have any more questions or need further improvements in the future, feel free to come back. Have a great day!"

    "If you need any assistance or have any other projects in mind, don't hesitate to reach out. Safe coding and see you tomorrow! 😊
    Goodbye!"

    LOL😅 #qwen25 #opensource

  22. I don't know how I'm going to stop using #Qwen25, I did a test, if I could generate a small synthesized sound with #Blender and play it with pressing the space Bar, there are things to improve, but it's incredible, what can be done. #code #AI #b3d #python

  23. This is what I have achieved these days with #Qwen25, a small script for #Blender in #Python that I created with #AI, the result is not bad and it seems to work well, Qwen 2.5 is an #LLM #AI that's works in my local PC and I am amazed. #b3d #coding #opensource

  24. I made some scripts in #Python just describing the features I wanted, and they work well, however those who know #programming better could benefit more, making the code much more efficient and specific, I am convinced that within a few years, many will be able to solve some small IT problems with these revolutionary tools. #AI #Qwen25

  25. When I was a child, a friend of my father had theorized that in the future #programming would be done by asking questions and the computer would make the code, at the time this was pure science fiction, but he was right and saw far ahead, these days I have
    tried #Qwen25, and I was amazed, now I imagine it's simple to think that our next phones will have such capabilities as to allow us to do local programming with their CPUs #RiscV. #AI
    Below is an image of Isaac Asimov, a visionary writer.

  26. OK folks it's not the best at quad-mesh conversions but this script was generated with AI in #qwen25 an #LLM engine running on my PC, and I feel satisfied.. LOL #coding #AI #python #b3d #opensource you can download and install from this link github.com/QwenLM/Qwen2.5

  27. I created a #Python script with #AI that converts a triangular #mesh to a #quad #topology that takes sharp edges into account, a few seconds to generate the script and a few seconds to create the topology, it uses the default remesh in Blender but it works very fine. #b3d #Blender3D #Blender #qwen25

  28. A simple guide on how install #qwen25 in your local machine and use it to create #code for many purposes from #Blender to other application. has many modules and many can be used with low specs hardware. but there are also others guide, so search about it #b3d #AI #programming #LLM atalupadhyay.wordpress.com/202

  29. "Could you create a program in #Python for #Blender, which converts feet to meters, with an input of the values ​​in a pop up window?"

    I created this program in python with #AI, and it works first time.

    I used #qwen25 which works on local PC and you can install different model, mind blowing🤯 . #b3d #Blender #coding

  30. Alibaba's Qwen 2.5 is shaking up the open-source AI world! 🤯 Dominating in math, coding, and more, it's giving other LLMs a run for their money. Check it out! 🚀 #AI #opensource #LLM #Qwen25

  31. 🔍 Major breakthrough in multimodal AI research:

    #InfinityMM dataset launches with 43.4M entries across 4 categories: 10M image descriptions, 24.4M visual instructions, 6M high-quality instructions & 3M #AI generated data

    🧠 Technical highlights:

    New #AquilaVL2B model uses #LLaVA architecture with #Qwen25 language model & #SigLIP for image processing
    Despite only 2B parameters, achieves state-of-the-art results in multiple benchmarks
    Exceptional performance: #MMStar (54.9%), #MathVista (59%), #MMBench (75.2%)

    🚀 Training innovation:

    4-stage training process with increasing complexity
    Combines image recognition, instruction classification & response generation
    Uses #opensource models like RAM++ for data generation

    💡 Industry impact:

    Model trained on both #Nvidia A100 GPUs & Chinese chips
    Complete dataset & model available to research community
    Shows promising results compared to commercial systems like #GPT4V

    arxiv.org/abs/2410.18558

  32. 🔍 Major breakthrough in multimodal AI research:

    #InfinityMM dataset launches with 43.4M entries across 4 categories: 10M image descriptions, 24.4M visual instructions, 6M high-quality instructions & 3M #AI generated data

    🧠 Technical highlights:

    New #AquilaVL2B model uses #LLaVA architecture with #Qwen25 language model & #SigLIP for image processing
    Despite only 2B parameters, achieves state-of-the-art results in multiple benchmarks
    Exceptional performance: #MMStar (54.9%), #MathVista (59%), #MMBench (75.2%)

    🚀 Training innovation:

    4-stage training process with increasing complexity
    Combines image recognition, instruction classification & response generation
    Uses #opensource models like RAM++ for data generation

    💡 Industry impact:

    Model trained on both #Nvidia A100 GPUs & Chinese chips
    Complete dataset & model available to research community
    Shows promising results compared to commercial systems like #GPT4V

    arxiv.org/abs/2410.18558

  33. 🔍 Major breakthrough in multimodal AI research:

    #InfinityMM dataset launches with 43.4M entries across 4 categories: 10M image descriptions, 24.4M visual instructions, 6M high-quality instructions & 3M #AI generated data

    🧠 Technical highlights:

    New #AquilaVL2B model uses #LLaVA architecture with #Qwen25 language model & #SigLIP for image processing
    Despite only 2B parameters, achieves state-of-the-art results in multiple benchmarks
    Exceptional performance: #MMStar (54.9%), #MathVista (59%), #MMBench (75.2%)

    🚀 Training innovation:

    4-stage training process with increasing complexity
    Combines image recognition, instruction classification & response generation
    Uses #opensource models like RAM++ for data generation

    💡 Industry impact:

    Model trained on both #Nvidia A100 GPUs & Chinese chips
    Complete dataset & model available to research community
    Shows promising results compared to commercial systems like #GPT4V

    arxiv.org/abs/2410.18558

  34. 🔍 Major breakthrough in multimodal AI research:

    #InfinityMM dataset launches with 43.4M entries across 4 categories: 10M image descriptions, 24.4M visual instructions, 6M high-quality instructions & 3M #AI generated data

    🧠 Technical highlights:

    New #AquilaVL2B model uses #LLaVA architecture with #Qwen25 language model & #SigLIP for image processing
    Despite only 2B parameters, achieves state-of-the-art results in multiple benchmarks
    Exceptional performance: #MMStar (54.9%), #MathVista (59%), #MMBench (75.2%)

    🚀 Training innovation:

    4-stage training process with increasing complexity
    Combines image recognition, instruction classification & response generation
    Uses #opensource models like RAM++ for data generation

    💡 Industry impact:

    Model trained on both #Nvidia A100 GPUs & Chinese chips
    Complete dataset & model available to research community
    Shows promising results compared to commercial systems like #GPT4V

    arxiv.org/abs/2410.18558

  35. 🔍 Major breakthrough in multimodal AI research:

    #InfinityMM dataset launches with 43.4M entries across 4 categories: 10M image descriptions, 24.4M visual instructions, 6M high-quality instructions & 3M #AI generated data

    🧠 Technical highlights:

    New #AquilaVL2B model uses #LLaVA architecture with #Qwen25 language model & #SigLIP for image processing
    Despite only 2B parameters, achieves state-of-the-art results in multiple benchmarks
    Exceptional performance: #MMStar (54.9%), #MathVista (59%), #MMBench (75.2%)

    🚀 Training innovation:

    4-stage training process with increasing complexity
    Combines image recognition, instruction classification & response generation
    Uses #opensource models like RAM++ for data generation

    💡 Industry impact:

    Model trained on both #Nvidia A100 GPUs & Chinese chips
    Complete dataset & model available to research community
    Shows promising results compared to commercial systems like #GPT4V

    arxiv.org/abs/2410.18558