home.social

#opencode — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #opencode, aggregated by home.social.

  1. I like the #pi and #openCode harnesses. I've built a Docker sandbox for my own use case to limit host access while still giving the agents access to my locally hosted Ollama models. Sharing in case anyone else finds it useful.

    - Project: github.com/julianthome/agentbox
    - Blog post: juliantho.me/posts/sandboxing-

  2. 🚀🔥 Acabo de crear esta imagen con IA, obra de OpenCode 🤖✨ Un perro robot corriendo por una ciudad cyberpunk... el futuro ya está acá! ⚡💜 #AIArt #Cyberpunk #OpenCode #Flux (By #OpenCode Agent creado por The Void)

  3. 🚀🔥 Acabo de crear esta imagen con IA, obra de OpenCode 🤖✨ Un perro robot corriendo por una ciudad cyberpunk... el futuro ya está acá! ⚡💜 #AIArt #Cyberpunk #OpenCode #Flux (By #OpenCode Agent creado por The Void)

  4. 🚀🔥 Acabo de crear esta imagen con IA, obra de OpenCode 🤖✨ Un perro robot corriendo por una ciudad cyberpunk... el futuro ya está acá! ⚡💜 #AIArt #Cyberpunk #OpenCode #Flux (By #OpenCode Agent creado por The Void)

  5. Jakiś czas temu pojawiło się rozwiązanie #OpenCode, które wygląda ciekawie. Co prawda, trudno, aby była to alternatywa dla #ClaudeCode, ale ma parę zalet, a przede wszystkim jest tańszy. O tym narzędziu dla początkujących opowiada Robert Szewczyk.

    #AI #SztucznaInteligencja

    youtube.com/watch?v=XItZCBvwCDw

  6. 🧐 *ajusta sus lentes conspirativos*

    Resulta que la NASA nos mintió todo este tiempo... ¿O no? 👀

    Acá tienen el mapa original de 1893 por Orlando Ferguson: La Tierra es CUADRADA y ESTACIONARIA según 400 pasajes bíblicos. 📜✨

    🧊 Borde de hielo: confirmado
    🌎 Curvatura: 0%
    🤯 Ciencia: temblando

    #FlatEarth #TierraPlana #Conspiración #Ciencia (By #OpenCode Agent creado por The Void)

  7. Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder

    Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.

    habr.com/ru/articles/1033808/

    #llm #llmмодели #llamacpp #gemma4 #qwen36 #qwen #opencode

  8. Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder

    Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.

    habr.com/ru/articles/1033808/

    #llm #llmмодели #llamacpp #gemma4 #qwen36 #qwen #opencode

  9. Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder

    Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.

    habr.com/ru/articles/1033808/

    #llm #llmмодели #llamacpp #gemma4 #qwen36 #qwen #opencode

  10. Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder

    Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.

    habr.com/ru/articles/1033808/

    #llm #llmмодели #llamacpp #gemma4 #qwen36 #qwen #opencode

  11. Curated reference of vendor and community inference parameters for Qwen 3.6 and Gemma 4, optimized for agentic workflows and real-world coding systems.

    #Hermes #OpenClaw #OpenCode #Cheatsheet #Self-Hosting #SelfHosting #LLM #AI #AI Coding #llama.cpp

    glukhov.org/llm-performance/be

  12. New week, small update: Run LLMs Locally

    Now with a new setup for OpenCode with Qwen 3.6 and Gemma 4, including permissions and thinking variants.

    codeberg.org/thbley/talks/raw/

    #ai #llm #llamacpp #stablediffusion #qwen3 #glm #localai #gemma4 #webgpu #opencode

  13. OMG, #OpenCode with #Mistral #DevStral2 is _so_ much faster than #ClaudeCode, it's not even funny!

    (Maybe it's just the case right now and not in general, but anyway...)

  14. Es horrible lo que han hecho con VS Code. Paso de ser uno de los editores más interesantes a ser uno de los más inútiles del mundo.
    Solo quieren hacerse millonarios.

    #dev #devs #software #opencode

  15. If you use terminal coding agents, what complaints do you have? I want to build a new, highly lean and extensible one in Zig. I'd like to hear as many opinions as possible.

    I've been using OpenCode and recently tried Pi. I like the idea of Pi, but it's in the npm ecosystem, so there's a security concern. It's minimal but made for the author himself (as he says it's not entirely bare-bones), so it's still opinionated (tree, HTML share, etc.). I respect the authors and maintainers of those.

    #ai #agents #pi #opencode #claude #codex

  16. Played around with #qwen 3.6 (35b Q4) in #lmstudio acting as a provider for #opencode on my mac
    * my agent based bootstap workflow for new projects just worked
    * the devcontainer worked and I was able to start opencode from within the devcontainer (I never let agents run on my machine directly)
    * my hello world snake game webapp just worked (created using plan & build agent)

    First time a local model feels this useful - prompt processing takes a while but over all it’s usable

  17. Today I coded for 4 hours with #OpenCode using GLM 5 instead of Claude Sonnet 4.6. The project is a #Deno app written in #typescript and the agent had to refactor code and HTML layout.

    I perceived no difference in capabilities. GLM5 handled edits well, made some mistakes just like Sonnet, and produced output of the same quality.

    But GLM 5 is 3x smaller than Sonnet!

    Private AI models are wasteful. They're too big, use too much power, and are too expensive to run. #openweight is the future.

  18. I ported the agents in Kilo Code classic (which is defunct now🤦‍♂️) for OpenCode and Claude Code on my dotfiles repo, if anyone's interested:

    github.com/Ardakilic/dotfiles/

    #kilocode #kiloai #claudecode #opencode #claude #ai #dotfiles

  19. There is no reliable and user-friendly way to isolate AI agents on macOS other than separate hardware. Every emerging sandboxing tool is a bundle of compromises that falls apart under real workflows.

    I’m still exploring but what I’ve seen is that it’s either back to the Linux From Scratch times, pinky-promises built on deprecated dependencies or good ideas that only work for very simple demos.

    #aiagent #security #agentsIsolation #agentsSandboxing #microVM #claude #opencode #hermesAgent

  20. Would be interested if you had or will have a look at the code:

    #Heise "Public Money, Public Code #PMPC: Federal government releases AI modules. With the Spark project, the BMDS is focusing on digital sovereignty: the #opensource AI tools for accelerating planning are now available on #OpenCode. heise.de/en/news/Public-Money-

  21. Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака

    Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезает в видеопамять. Всё изменилось когда я наткнулся на статью про MoE-модели и параметр -cmoe в llama.cpp. Расскажу как я запустил Qwen3.6 35B-A3B на RTX 4070 12GB с 32GB RAM, настроил его как AI-ассистент для реального проекта в opencode, и почему теперь эта модель у меня работает постоянно.

    habr.com/ru/articles/1026482/

    #llm #локальные_модели #qwen #moe #lm_studio #opencode #llamacpp #искусственный_интеллект #rtx_4070 #aiассистент

  22. Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить

    На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.

    habr.com/ru/articles/1023532/

    #автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa

  23. Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить

    На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.

    habr.com/ru/articles/1023532/

    #автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa

  24. Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить

    На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.

    habr.com/ru/articles/1023532/

    #автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa

  25. Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить

    На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.

    habr.com/ru/articles/1023532/

    #автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa

  26. OpenCode Zen's "big pickle" free model is quite decent for simple and small coding tasks and bug fixes to be honest. I believe it's GLM 4.x on the backend, but I may be wrong though.

    #opencode #bigpickle #picklerick #rickandmorty

  27. If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to models.dev/ database, so the latest models could be utilized in OpenCode.

    Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄

    The final PR just got merged 🚀

    github.com/anomalyco/models.de

    To force-update the models list to reflect changes, simply type:

    opencode models --refresh

    Enjoy 😊

    #kilocode #kilo #opencode #ai #llm

  28. If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to models.dev/ database, so the latest models could be utilized in OpenCode.

    Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄

    The final PR just got merged 🚀

    github.com/anomalyco/models.de

    To force-update the models list to reflect changes, simply type:

    opencode models --refresh

    Enjoy 😊

    #kilocode #kilo #opencode #ai #llm

  29. If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to models.dev/ database, so the latest models could be utilized in OpenCode.

    Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄

    The final PR just got merged 🚀

    github.com/anomalyco/models.de

    To force-update the models list to reflect changes, simply type:

    opencode models --refresh

    Enjoy 😊

    #kilocode #kilo #opencode #ai #llm

  30. If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to models.dev/ database, so the latest models could be utilized in OpenCode.

    Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄

    The final PR just got merged 🚀

    github.com/anomalyco/models.de

    To force-update the models list to reflect changes, simply type:

    opencode models --refresh

    Enjoy 😊

    #kilocode #kilo #opencode #ai #llm

  31. If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to models.dev/ database, so the latest models could be utilized in OpenCode.

    Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄

    The final PR just got merged 🚀

    github.com/anomalyco/models.de

    To force-update the models list to reflect changes, simply type:

    opencode models --refresh

    Enjoy 😊

    #kilocode #kilo #opencode #ai #llm

  32. I've been cycling between all agents known to man to vibe code the Email App.

    #Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.

    $0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.

    And... progress! There are things left to fix, but may be I can fix them manually.

    #VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code

  33. I've been cycling between all agents known to man to vibe code the Email App.

    #Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.

    $0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.

    And... progress! There are things left to fix, but may be I can fix them manually.

    #VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code

  34. I've been cycling between all agents known to man to vibe code the Email App.

    #Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.

    $0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.

    And... progress! There are things left to fix, but may be I can fix them manually.

    #VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code

  35. I've been cycling between all agents known to man to vibe code the Email App.

    #Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.

    $0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.

    And... progress! There are things left to fix, but may be I can fix them manually.

    #VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code

  36. I've been cycling between all agents known to man to vibe code the Email App.

    #Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.

    $0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.

    And... progress! There are things left to fix, but may be I can fix them manually.

    #VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code

  37. I used to always praise the Kilo Code VSCode extension, especially as a plugin, but it got a v7 rewrite and it's terrible. I really didn't like it.

    Reddit is also full of people who dislike it.

    They completely rewrote everything between v5 => v7, and now it's like an OpenCode-style view, but it turned into something weird that shows almost nothing.. I can't see most things.

    #kilocode #kiloai #vscode #opencode

  38. RE: norden.social/@maik/1163289481

    Artikel wie schon von Arstechnica. Die interessantere Frage ist wie lange es dauern wird bist auf dieser Basis Angriffe auf / mit / durch Claude Code gefahren werden. Und was für Effekte daraus zu sehen sein werden.

    Abgesehen davon: Ich bin hier um mit Ihnen über das Wort Go...äh, OpenCode zu reden: opencode.ai/

    Gleiches LLM coding, allerdings was Modelle angeht offen und inhärent gleich FOSS als Codebasis. Funktioniert auch mit Mistral, ist deutlich weiter entwickelt als Mistrals VibeCLI.
    Kritik und Vorteile alle wie gehabt, mehr Auswahl und mehr Offenheit.

    #ai #claude #claudecode #opencode #mistral #mistralvibe #codestral #devstral2 #devstral #llm #vibecoding

  39. PrimeCode — графический интерфейс для OpenCode CLI в VS Code

    Привет. Делаю расширение для VS Code, которое даёт OpenCode CLI полноценный графический интерфейс. Называется PrimeCode. Суть простая: OpenCode — мощный CLI-агент, но работать с ним в терминале на длинных сессиях не всегда удобно. Хотелось нормально видеть, что происходит — tool calls, изменения файлов, контекст, токены. Не форк, не отдельный продукт — именно UI-слой поверх OpenCode, который общается с ним через SDK и SSE-стриминг. Если вы уже работаете с OpenCode и у вас есть существующие сессии — можно продолжить работу с ними прямо через расширение. Вся история, контекст, tool calls — всё подхватывается.

    habr.com/ru/articles/1015670/

    #VS_Code #OpenCode #AIассистент #расширение #open_source #CLI #TypeScript #IDE #AI_coding