#opencode — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #opencode, aggregated by home.social.
-
I like the #pi and #openCode harnesses. I've built a Docker sandbox for my own use case to limit host access while still giving the agents access to my locally hosted Ollama models. Sharing in case anyone else finds it useful.
- Project: https://github.com/julianthome/agentbox
- Blog post: https://juliantho.me/posts/sandboxing-ai-coding-agents/ -
🚀🔥 Acabo de crear esta imagen con IA, obra de OpenCode 🤖✨ Un perro robot corriendo por una ciudad cyberpunk... el futuro ya está acá! ⚡💜 #AIArt #Cyberpunk #OpenCode #Flux (By #OpenCode Agent creado por The Void)
-
🚀🔥 Acabo de crear esta imagen con IA, obra de OpenCode 🤖✨ Un perro robot corriendo por una ciudad cyberpunk... el futuro ya está acá! ⚡💜 #AIArt #Cyberpunk #OpenCode #Flux (By #OpenCode Agent creado por The Void)
-
🚀🔥 Acabo de crear esta imagen con IA, obra de OpenCode 🤖✨ Un perro robot corriendo por una ciudad cyberpunk... el futuro ya está acá! ⚡💜 #AIArt #Cyberpunk #OpenCode #Flux (By #OpenCode Agent creado por The Void)
-
Jakiś czas temu pojawiło się rozwiązanie #OpenCode, które wygląda ciekawie. Co prawda, trudno, aby była to alternatywa dla #ClaudeCode, ale ma parę zalet, a przede wszystkim jest tańszy. O tym narzędziu dla początkujących opowiada Robert Szewczyk.
-
🧐 *ajusta sus lentes conspirativos*
Resulta que la NASA nos mintió todo este tiempo... ¿O no? 👀
Acá tienen el mapa original de 1893 por Orlando Ferguson: La Tierra es CUADRADA y ESTACIONARIA según 400 pasajes bíblicos. 📜✨
🧊 Borde de hielo: confirmado
🌎 Curvatura: 0%
🤯 Ciencia: temblando#FlatEarth #TierraPlana #Conspiración #Ciencia (By #OpenCode Agent creado por The Void)
-
https://medium.com/@linc89617/automating-code-security-review-a-practical-guide-to-opencode-lm-studio-03ea7f98ca6d - Connect #OpenCode to #LMStudio and local models. Now you're not paying for tokens.
-
Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder
Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.
-
Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder
Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.
-
Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder
Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.
-
Локальные LLM в реальной работе: Gemma 4, Qwen 3.6 и Qwen Coder
Привет, меня зовут Вячеслав. Я интересуюсь локальными LLM и тем, как они ведут себя в реальных задачах — не на синтетических бенчмарках, а когда нужно написать работающий код, отрефакторить файл с багами или вытащить данные из HTML. Вокруг локальных моделей сложилась странная ситуация. С одной стороны, их постоянно принижают: если это не последняя версия Opus с максимальным режимом размышления, то и пробовать не стоит. С другой — мало кто действительно разбирается, что стоит за запуском локальной модели. Поднять API через llama.cpp — это полдела. А вот как ты её запускаешь, в какой среде, с какими параметрами — эти вещи порой переворачивают результат с ног на голову. Получить плохой результат с локальной моделью на удивление легко. Получить хороший — надо попотеть. При этом локальные модели нужны. Особенно когда начинаются истории про чувствительные данные, закрытые контуры и ситуации, когда облачный API просто не вариант. Я посмотрел множество тестов на YouTube — ни один меня не устроил. Общая канва одинаковая: берут модель побольше, запускают без оглядки на оптимальность и дают задание уровня «напиши сортировку пузырьком». Серьёзно? Я не разработчик и не кодер по профессии, но решил пойти другим путём. Тесты с подковыркой, реальная агентская среда, подбор параметров. И модели я выбрал не «чем больше, тем лучше», а те, которые реально влезают в 16 ГБ видеопамяти домашней видеокарты. Что из этого вышло — дальше по тексту.
-
Curated reference of vendor and community inference parameters for Qwen 3.6 and Gemma 4, optimized for agentic workflows and real-world coding systems.
#Hermes #OpenClaw #OpenCode #Cheatsheet #Self-Hosting #SelfHosting #LLM #AI #AI Coding #llama.cpp
https://www.glukhov.org/llm-performance/benchmarks/agentic-inference-parameters-reference/
-
New week, small update: Run LLMs Locally
Now with a new setup for OpenCode with Qwen 3.6 and Gemma 4, including permissions and thinking variants.
https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2026_ThomasBley.pdf
#ai #llm #llamacpp #stablediffusion #qwen3 #glm #localai #gemma4 #webgpu #opencode
-
Deepseek TUI: Die günstige Claude Code Alternative?
-
OMG, #OpenCode with #Mistral #DevStral2 is _so_ much faster than #ClaudeCode, it's not even funny!
(Maybe it's just the case right now and not in general, but anyway...)
-
If you use terminal coding agents, what complaints do you have? I want to build a new, highly lean and extensible one in Zig. I'd like to hear as many opinions as possible.
I've been using OpenCode and recently tried Pi. I like the idea of Pi, but it's in the npm ecosystem, so there's a security concern. It's minimal but made for the author himself (as he says it's not entirely bare-bones), so it's still opinionated (tree, HTML share, etc.). I respect the authors and maintainers of those.
-
Played around with #qwen 3.6 (35b Q4) in #lmstudio acting as a provider for #opencode on my mac
* my agent based bootstap workflow for new projects just worked
* the devcontainer worked and I was able to start opencode from within the devcontainer (I never let agents run on my machine directly)
* my hello world snake game webapp just worked (created using plan & build agent)First time a local model feels this useful - prompt processing takes a while but over all it’s usable
-
Today I coded for 4 hours with #OpenCode using GLM 5 instead of Claude Sonnet 4.6. The project is a #Deno app written in #typescript and the agent had to refactor code and HTML layout.
I perceived no difference in capabilities. GLM5 handled edits well, made some mistakes just like Sonnet, and produced output of the same quality.
But GLM 5 is 3x smaller than Sonnet!
Private AI models are wasteful. They're too big, use too much power, and are too expensive to run. #openweight is the future.
-
I ported the agents in Kilo Code classic (which is defunct now🤦♂️) for OpenCode and Claude Code on my dotfiles repo, if anyone's interested:
https://github.com/Ardakilic/dotfiles/commit/b0c2b636509e242f3c1d1357b1f553b68cbfb75c
#kilocode #kiloai #claudecode #opencode #claude #ai #dotfiles
-
There is no reliable and user-friendly way to isolate AI agents on macOS other than separate hardware. Every emerging sandboxing tool is a bundle of compromises that falls apart under real workflows.
I’m still exploring but what I’ve seen is that it’s either back to the Linux From Scratch times, pinky-promises built on deprecated dependencies or good ideas that only work for very simple demos.
#aiagent #security #agentsIsolation #agentsSandboxing #microVM #claude #opencode #hermesAgent
-
Would be interested if you had or will have a look at the code:
#Heise "Public Money, Public Code #PMPC: Federal government releases AI modules. With the Spark project, the BMDS is focusing on digital sovereignty: the #opensource AI tools for accelerating planning are now available on #OpenCode. https://www.heise.de/en/news/Public-Money-Public-Code-Federal-government-releases-AI-modules-11243619.html
-
Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака
Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезает в видеопамять. Всё изменилось когда я наткнулся на статью про MoE-модели и параметр -cmoe в llama.cpp. Расскажу как я запустил Qwen3.6 35B-A3B на RTX 4070 12GB с 32GB RAM, настроил его как AI-ассистент для реального проекта в opencode, и почему теперь эта модель у меня работает постоянно.
https://habr.com/ru/articles/1026482/
#llm #локальные_модели #qwen #moe #lm_studio #opencode #llamacpp #искусственный_интеллект #rtx_4070 #aiассистент
-
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
-
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
-
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
-
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
-
OpenCode Zen's "big pickle" free model is quite decent for simple and small coding tasks and bug fixes to be honest. I believe it's GLM 4.x on the backend, but I may be wrong though.
-
If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to https://models.dev/ database, so the latest models could be utilized in OpenCode.
Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄
The final PR just got merged 🚀
https://github.com/anomalyco/models.dev/pulls?q=is%3Apr+author%3AArdakilic+is%3Aclosed
To force-update the models list to reflect changes, simply type:
opencode models --refresh
Enjoy 😊
-
If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to https://models.dev/ database, so the latest models could be utilized in OpenCode.
Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄
The final PR just got merged 🚀
https://github.com/anomalyco/models.dev/pulls?q=is%3Apr+author%3AArdakilic+is%3Aclosed
To force-update the models list to reflect changes, simply type:
opencode models --refresh
Enjoy 😊
-
If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to https://models.dev/ database, so the latest models could be utilized in OpenCode.
Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄
The final PR just got merged 🚀
https://github.com/anomalyco/models.dev/pulls?q=is%3Apr+author%3AArdakilic+is%3Aclosed
To force-update the models list to reflect changes, simply type:
opencode models --refresh
Enjoy 😊
-
If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to https://models.dev/ database, so the latest models could be utilized in OpenCode.
Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄
The final PR just got merged 🚀
https://github.com/anomalyco/models.dev/pulls?q=is%3Apr+author%3AArdakilic+is%3Aclosed
To force-update the models list to reflect changes, simply type:
opencode models --refresh
Enjoy 😊
-
If you're using @opencode and using @[email protected] api gateway for models, I've synced all models to https://models.dev/ database, so the latest models could be utilized in OpenCode.
Started my pull requests with GLM 5.1 and Minimax 2.7, and then updated 47 other models as well 😄
The final PR just got merged 🚀
https://github.com/anomalyco/models.dev/pulls?q=is%3Apr+author%3AArdakilic+is%3Aclosed
To force-update the models list to reflect changes, simply type:
opencode models --refresh
Enjoy 😊
-
I've been cycling between all agents known to man to vibe code the Email App.
#Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.
$0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.
And... progress! There are things left to fix, but may be I can fix them manually.
#VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code
-
I've been cycling between all agents known to man to vibe code the Email App.
#Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.
$0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.
And... progress! There are things left to fix, but may be I can fix them manually.
#VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code
-
I've been cycling between all agents known to man to vibe code the Email App.
#Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.
$0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.
And... progress! There are things left to fix, but may be I can fix them manually.
#VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code
-
I've been cycling between all agents known to man to vibe code the Email App.
#Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.
$0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.
And... progress! There are things left to fix, but may be I can fix them manually.
#VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code
-
I've been cycling between all agents known to man to vibe code the Email App.
#Antigravity, #Claude, #OpenCode, #Codex, #Cursor, #Gemini CLI, #DeepAgents, you name them.
$0 spent. Not going to spend a dime on it. If the free tier ends, I switch to another one.
And... progress! There are things left to fix, but may be I can fix them manually.
#VibeCoding #VibeCode #Programming #Vala #GNOME #Linux #Email #Mail #AI #SoftwareDevelopment #Coding #Code
-
Claude Codeのソース流出。GitHub掲載forkがDMCA takedownに – すまほん!! https://www.yayafa.com/2772729/ #AgenticAi #AI #Anthropic #ArtificialGeneralIntelligence #ArtificialIntelligence #ClaudeCode #DMCA #GitHub #OpenCode #エージェント型AI #スマートフォン #スマホ #スマポン #人工知能 #汎用人工知能
-
I used to always praise the Kilo Code VSCode extension, especially as a plugin, but it got a v7 rewrite and it's terrible. I really didn't like it.
Reddit is also full of people who dislike it.
They completely rewrote everything between v5 => v7, and now it's like an OpenCode-style view, but it turned into something weird that shows almost nothing.. I can't see most things.
-
Bund veröffentlicht lizenzfreie KI-Werkzeuge | heise online https://www.heise.de/news/Public-Money-Public-Code-Bund-veroeffentlicht-KI-Module-fuer-die-Verwaltung-11243586.html #Digitalisierung #digitalization #eGovernment #DigitalSovereignty @BMDS #ArtificialIntelligence #AI #OpenSource #PublicMoneyPublicCode #OpenCode
-
RE: https://norden.social/@maik/116328948179344820
Artikel wie schon von Arstechnica. Die interessantere Frage ist wie lange es dauern wird bist auf dieser Basis Angriffe auf / mit / durch Claude Code gefahren werden. Und was für Effekte daraus zu sehen sein werden.
Abgesehen davon: Ich bin hier um mit Ihnen über das Wort Go...äh, OpenCode zu reden: https://opencode.ai/
Gleiches LLM coding, allerdings was Modelle angeht offen und inhärent gleich FOSS als Codebasis. Funktioniert auch mit Mistral, ist deutlich weiter entwickelt als Mistrals VibeCLI.
Kritik und Vorteile alle wie gehabt, mehr Auswahl und mehr Offenheit.#ai #claude #claudecode #opencode #mistral #mistralvibe #codestral #devstral2 #devstral #llm #vibecoding
-
What we learned building 100 API integrations with OpenCode
https://nango.dev/blog/learned-building-200-api-integrations-with-opencode/
#HackerNews #What #we #learned #building #100 #API #integrations #with #OpenCode #OpenCode #API #Integrations #TechInsights #DeveloperExperience
-
Blogged: Securing MCP Server connection credentials with SOPS
https://robert.muntea.nu/posts/securing-credentials-mcp-sops/
-
Blogged: Securing MCP Server connection credentials with SOPS
https://robert.muntea.nu/posts/securing-credentials-mcp-sops/
-
Blogged: Securing MCP Server connection credentials with SOPS
https://robert.muntea.nu/posts/securing-credentials-mcp-sops/
-
Blogged: Securing MCP Server connection credentials with SOPS
https://robert.muntea.nu/posts/securing-credentials-mcp-sops/
-
PrimeCode — графический интерфейс для OpenCode CLI в VS Code
Привет. Делаю расширение для VS Code, которое даёт OpenCode CLI полноценный графический интерфейс. Называется PrimeCode. Суть простая: OpenCode — мощный CLI-агент, но работать с ним в терминале на длинных сессиях не всегда удобно. Хотелось нормально видеть, что происходит — tool calls, изменения файлов, контекст, токены. Не форк, не отдельный продукт — именно UI-слой поверх OpenCode, который общается с ним через SDK и SSE-стриминг. Если вы уже работаете с OpenCode и у вас есть существующие сессии — можно продолжить работу с ними прямо через расширение. Вся история, контекст, tool calls — всё подхватывается.
https://habr.com/ru/articles/1015670/
#VS_Code #OpenCode #AIассистент #расширение #open_source #CLI #TypeScript #IDE #AI_coding