#glm — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #glm, aggregated by home.social.
-
I have been quite impressed with the performance of Z-AI GLM 5.1 model, it will never replace a #developer obviously, but it as work through some complex logic and edge cases producing a stable solution, it still makes weird decisions regarding methods/functions introducing too much complexity at times, but for scaffolding solutions and working through features it makes a good impression so far. #AI #GLM
-
I just modified the kanmug plugin for Joplin so that it uses the new custom editor. The plan was created by Claude-opus-4.7, and it was programmed by GLM-5.1.
It actually worked right out of the box, without me having to make any manual changes.
Really impressive!
I’ll test the plugin for a few days and then ask the maintainer if they’d like to accept AI-generated features. -
New week, small update: Run LLMs Locally
Now with a new setup for OpenCode with Qwen 3.6 and Gemma 4, including permissions and thinking variants.
https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2026_ThomasBley.pdf
#ai #llm #llamacpp #stablediffusion #qwen3 #glm #localai #gemma4 #webgpu #opencode
-
New week, more slides: Run LLMs Locally
Now with LFM 2 and new slides for using Transformers.js with WebGPU for Privacy Filter, Function Calling and Embeddings, running completely in your browser.
https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2026_ThomasBley.pdf
#ai #llm #llamacpp #stablediffusion #gptoss #qwen3 #glm #localai #gemma4 #nemotron #webgpu
-
New week, new slides: Run LLMs Locally
Now including Nemotron 3 Nano Omni from Nvidia, Llama.cpp built-in tools and new slides about using Transformers.js with WebGPU for Image Recognition and OCR.
https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2026_ThomasBley.pdf
#ai #llm #llamacpp #stablediffusion #gptoss #qwen3 #glm #localai #gemma4 #nemotron #webgpu
-
[Перевод] Как научить кодинг-модели не переписывать код заново
Не надо переписывать то, что не поломано Код к этому посту доступен на Github . Кодинг при помощи ИИ стал нормой; мы всё больше позволяем моделям наподобие Cursor, GitHub Copilot, Claude Code и Codex вмешиваться в наш код. Если вы в прошлом пользовались каким-то из этих инструментов, то, вероятно, сталкивались с чем-то подобным: вы просите модель устранить простой баг (допустим, ошибку смещения на единицу или не тот оператор). Модель устраняет баг, но половина функции оказывается переписанной. Появляется новая вспомогательная функция. Совершенно логичное имя переменной меняется на другое. Добавляется новая валидация ввода. И diff из-за этого становится огромным. Я называю это проблемой избыточной редактуры : модели склонны переписывать код, не нуждающийся в переписывании. На самом деле, это важнее, чем может показаться. При разработке узким местом всегда становится ревью кода: ревьюерам нужно понять, что и почему поменялось, а также безопасно ли изменение. Модель, переписывающая целые функции, пусть даже корректно, существенно усложняет эту работу, потому что код теперь выглядит совершенно иначе. В своём посте я исследую эту проблему: имеют ли современные LLM склонность к избыточной редактуре и можем ли мы обучить модели редактировать код в должной мере?
https://habr.com/ru/articles/1027096/
#кодингагенты #иипомощники #qwen #gpt_5 #claude_opus_46 #gemini #glm #kimi #deepseek
-
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
-
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
-
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
-
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
-
New week, new update for the slides of my talk "Run LLMs Locally":
Now including Gemma4 and Qwen3-Omni with Vision and Audio support and new slides describing Llama.cpp server parameters.
https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2026_ThomasBley.pdf
#ai #llm #llamacpp #stablediffusion #gptoss #qwen3 #glm #localai #gemma4
-
Here is my résumé when it comes to using #GLM 5.1 for refactoring a large #php #laravel code based on #sonarqube warnings/errors:
A DISASTER ‼️ - #claude on the other hand: one shot, everything works.For the record:
GLM5.1 was running via opencode go. (same prompt) 😞 😢i don’t think GLM is bad in general. i am talking here about refactoring a large codebase in particular. writing new code or doing small stuff works fine.
🧵 👇
-
Have you seen how good some of the AI 3d modeling is getting? I just used GLM-5 Turbo to create some models. It followed instructions, filled in on vague requests, and did surprisingly well. #3dprinting #openclaw #glm #tentacle
-
Have you seen how good some of the AI 3d modeling is getting? I just used GLM-5 Turbo to create some models. It followed instructions, filled in on vague requests, and did surprisingly well. #3dprinting #openclaw #glm #tentacle
-
Have you seen how good some of the AI 3d modeling is getting? I just used GLM-5 Turbo to create some models. It followed instructions, filled in on vague requests, and did surprisingly well. #3dprinting #openclaw #glm #tentacle
-
Have you seen how good some of the AI 3d modeling is getting? I just used GLM-5 Turbo to create some models. It followed instructions, filled in on vague requests, and did surprisingly well. #3dprinting #openclaw #glm #tentacle
-
Das chinesische #llm #MiniMax M2.7 übertrifft seinen Vorgänger M2.5 bei weitem und ist im Bereich von Athropics #Opus angekommen.
Leider scheint sich nun auch die Veröffentlichungsstrategie von #OpenWeight zu propritär zu wandeln.
Ich bin gespannt wie sich die chinesische Konkurrenz #Kimi, #GLM und #Qwen in Zukunft verhält.
Ich halte OpenWeight für unverzichtbar - der Markt vielleicht schon. -
Больше моделей, больше возможностей: зачем мы вводим подписки в Kodacode
У нас появились долгожданные подписки! Мы добавили модели, которых раньше не было. И теперь полный список выглядит следующим образом: GLM-4.7, GLM-5, MiniMax-M2.5, DeepSeek-v3.2, Kimi-K2.5, Gemini 3 Flash Preview и GPT 5.3 Codex. Sonnet и Gemini Pro сейчас тестируем — подключим после проверки стабильности в IDE и CLI.
https://habr.com/ru/companies/koda/articles/1005608/
#kodacode #модели #llm #искусственный_интеллект #codex #gpt53codex #glm
-
Больше моделей, больше возможностей: зачем мы вводим подписки в Kodacode У нас появились долгожданные подписки!...
#kodacode #модели #llm #искусственный #интеллект #codex #gpt-5.3-codex #glm
Origin | Interest | Match -
Si te gusta esa app, que te la copie la IA
https://fed.brid.gy/r/https://javipas.com/2026/02/23/si-te-gusta-esa-app-que-te-la-copie-la-ia/
-
Fascinación y decepción con OpenClaw
https://fed.brid.gy/r/https://javipas.com/2026/02/02/fascinacion-y-decepcion-con-openclaw/
-
So sánh GLM-4.6 IQ2_M và GLM-4.6-REAP-268B Q2_K_XL: Hai phương pháp nén khác nhau, một giảm chất lượng toàn bộ mô hình và một loại bỏ cấu trúc nhất định. #GLM #AI #MachineLearning #MôHìnhNén #TríTuệNhânTạo #HọcMáy #NénMôHình #PhươngPhápNén #English: #GLM #AI #MachineLearning #ModelCompression #ArtificialIntelligence
-
"A generalized linear model or #GLM consists of three components:
1. A random component, specifying the conditional distribution of the response variable, Yᵢ (for the ith of n independently sampled observations). […]
2. A linear predictor—that is a linear function of regressors,
ηᵢ = α + Σⱼ Xᵢⱼ*βⱼ
3. A smooth and invertible link function g(·), which transforms the expectation of the response variable, μᵢ ≡ E(Yᵢ), to the linear predictor:
g(μᵢ) = ηᵢ"https://www.sagepub.com/sites/default/files/upm-binaries/21121_Chapter_15.pdf
#models #dataDev #logNormal #regression #normality #normalDistribution #gamma #Γ #modelling #modeling #AIDev #ML #evaluation
-
'Selective Inference with Distributed Data', by Sifan Liu, Snigdha Panigrahi.
-
'Selective Inference with Distributed Data', by Sifan Liu, Snigdha Panigrahi.
-
Machine Learning – Regression Cheat Sheet | How To Perform Regression
Learn about machine learning regression algorithms, tools, & tips #xgboost #randomforest #decisiontree #svm #glm #gbm. source
https://quadexcel.com/wp/machine-learning-regression-cheat-sheet-how-to-perform-regression/