home.social

#qwen3coder — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #qwen3coder, aggregated by home.social.

  1. Giới thiệu ayder-cli – Agent lập trình cục bộ hoạt động mượt với Ollama & Qwen3-Coder. Sử dụng XML thay JSON để tránh lỗi, chỉnh sửa tinh gọn, hỗ trợ tìm kiếm mã bằng ripgrep. Tự động xử lý task qua file Markdown, an toàn với xác nhận từng bước. Phù hợp Mac Silicon hoặc GPU mạnh. Dùng miễn phí, không lo hết token.
    #AICodingAgent #Ollama #Qwen3Coder #DeveloperTools #aydercli #CôngCụLậpTrình #TríTuệNhânTạo #AIĐịaPhương #LậpTrìnhMáyHọc #CodeAssistant

    reddit.com/r/LocalLLaMA/commen

  2. 🎄Chúc mừng holiday! 🚀 Nebius phát hành 67,074 đường dẫn giao tiếp Qwen3-Coder OpenHands trên SWE‑rebench + 2 checkpoints fine‑tuned RFT. 1,800+ repo Python, 3,800 issue đã được sửa – mỗi chuỗi trung bình 64 bước, độ dài tới 131k token. Checkpoints nâng Pass@1 lên 50% và 62%. Dữ liệu, mã nguồn và mô hình đều được công khai trên Hugging Face. #Qwen3Coder #OpenHands #SWErebench #AI #ViAI #MachineLearning #DataScience

    reddit.com/r/LocalLLaMA/commen

  3. Мой опыт настройки и использования AI инструментов в разработке

    Локальные LLM для кода — пока мусор. По крайней мере на M1 Max 32GB Тестировал 5 моделей на реальном проекте. Результат: qwen3-coder-30b - завис после 44k токенов qwen2.5-coder-14b - ушёл в бесконечные вопросы qwen3-8b - пыталась выполнить list_files в терминале deepseek-coder - сломал файл со второй попытки При этом DeepSeek через API за 95₽ сделал три валидных изменения за 11 минут. Вывод: если нет жёстких требований к конфиденциальности - не мучайте свое железо. Claude Code или облачный DeepSeek работают в разы лучше. Подробный разбор с промптами, настройками и ценами провайдеров в статье. Перейти

    habr.com/ru/articles/973404/

    #cursor #claude_code #deepseek #qwen #qwen3coder #kiro #perplexity #gemini #lm_studio #mcp

  4. [Перевод] ИИ-консерва: как мы «взламывали» LLM-модели, чтобы извлечь датасеты и рассуждения

    Представьте, что каждая обученная языковая модель — это жёсткий диск, на котором записаны все данные её обучения, но в сжатом и зашифрованном виде. Традиционное взаимодействие с моделью — это как чтение отдельных файлов через не всегда предсказуемый интерфейс. А теперь представьте, что у вас появился инструмент, который позволяет провести дефрагментацию и декомпрессию этого диска, извлекая данные обратно в чистом, структурированном виде. Над созданием такого инструмента — LLM-deflate — автор и работал последнее время.

    habr.com/ru/companies/bothub/a

    #llmdeflate #llm #извлечение_датасетов #stanford_alpaca #nvidia_nemotron #qwen3coder #gptoss #llama_3

  5. Топ AI-моделей для генерации кода: Claude, ChatGPT, Qwen — сравниваем гигантов

    Когда машины пишут лучше нас — звучит как сюжет научной фантастики, но уже сегодня нейросети стали реальностью миллионов кодеров по всему миру. Сегодня мы не просто учим алгоритмы понимать код, а доверяем им писать его за нас. Всё чаще ИИ даёт советы, которые оказываются лучше, чем изначальная задумка. Claude , ChatGPT , Qwen — эти модели уже не просто угадывают следующее слово, а демонстрируют понимание логики, стиля и даже контекста проекта. Они объясняют свои решения, исправляют баги, пишут тесты и даже помогают новичкам (и не только) разобраться в чужом коде. Но кто из них действительно выигрывает в скорости, точности и глубине понимания? Кто понимает код от и до, а кто путается уже в середине? И главное — можно ли доверять коду, написанному нейросетью? Пора разобраться. Сравниваем трёх гигантов современного AI-программирования: Claude от Anthropic, ChatGPT от OpenAI и Qwen от Alibaba Cloud — в реальных сценариях, которые знакомы каждому разработчику. Приятного прочтения!

    habr.com/ru/companies/bothub/a

    #искусственный_интеллект #программирование #bothub #нейросеть #chatgpt5 #qwen3coder #claude_sonnet_4

  6. #Qwen3Coder: Most Agentic Code Model Released 🤖

    🎯 480B-parameter #MixtureOfExperts #LLM with 35B active parameters achieving #SOTA performance in agentic #coding
    📏 Native 256K context support, extendable to 1M
    tokens with #YaRN for repo-scale operations

    qwenlm.github.io/blog/qwen3-co

    🧵👇#AI