#mlops — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #mlops, aggregated by home.social.
-
#Netflix developed a graph-based architecture for managing #ML systems: the Model Lifecycle Graph.
It maps relationships between datasets, models, features, and workflows to improve discoverability, governance, and component reuse - while enabling a self-service workflow for engineers and data scientists.
Learn more: https://bit.ly/3Rlfa6g
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe
Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы. Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом. Всем привет, на связи Пётр, инженер
https://habr.com/ru/articles/1030440/
#devops #kubernetes #mlops #helm #kserve #istio #machine_learning #inference #ai #deploy
-
Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe
Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы. Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом. Всем привет, на связи Пётр, инженер
https://habr.com/ru/articles/1030440/
#devops #kubernetes #mlops #helm #kserve #istio #machine_learning #inference #ai #deploy
-
Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe
Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы. Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом. Всем привет, на связи Пётр, инженер
https://habr.com/ru/articles/1030440/
#devops #kubernetes #mlops #helm #kserve #istio #machine_learning #inference #ai #deploy
-
Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe
Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы. Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом. Всем привет, на связи Пётр, инженер
https://habr.com/ru/articles/1030440/
#devops #kubernetes #mlops #helm #kserve #istio #machine_learning #inference #ai #deploy
-
The preachers of the Silicon Valley Church sell the harvesting of the body as “algorithmic inevitability,” promising immortality. A neat fable. Maybe they’ll keep the data lords alive for 150 years—but half of it will be Alzheimer’s. In the end, the thermodynamic hammer still falls.
#Transhumanizm #DataEngineering #CRISPR #EdgeAI #GenerativeAI #FederatedLearning #MachineLearning #DataScience #AITools #AIAutomation #CloudComputing #SyntheticData #SyntheticData #AntiHarari #MLOps #Longevity -
“What are we going to measure? What are the elements of success here?” — Patrick Kelly
That line stuck with us. In AI apps, observability isn’t a nice-to-have; it’s where many teams discover what actually works once real users show up.
How are you measuring success for AI products today?
Read/listen at https://youtube.com/shorts/Sx9BBnH3bek
-
“What are we going to measure? What are the elements of success here?” — Patrick Kelly
That line stuck with us. In AI apps, observability isn’t a nice-to-have; it’s where many teams discover what actually works once real users show up.
How are you measuring success for AI products today?
Read/listen at https://youtube.com/shorts/Sx9BBnH3bek
-
Запускаем DeepSeek-V4 (1.6T) на «калькуляторе»: SVD-трансмутация, Identity Theft и гаражный MLOps
Что делать, если у вас есть 1.6-триллионная модель и видеокарта из прошлого десятилетия? Пока корпорации покупают H100 фурами, мы используем SVD-трансмутацию и архитектурный Identity Theft, чтобы запустить DeepSeek-V4 на бесплатном инстансе Kaggle. Инструкция по сборке Мутанта внутри.
https://habr.com/ru/articles/1028560/
#DeepSeekV4Pro #MoE #SVD #Низкоранговое_разложение #Оптимизация_нейросетей #MLOps #Kaggle #NVIDIA_T4 #Сжатие_моделей #Ghetto_AI
-
Запускаем DeepSeek-V4 (1.6T) на «калькуляторе»: SVD-трансмутация, Identity Theft и гаражный MLOps Что делать, если у вас есть 1.6-...
#DeepSeek-V4-Pro #MoE #SVD #Низкоранговое #разложение #Оптимизация #нейросетей #MLOps #Kaggle #NVIDIA #T4
Origin | Interest | Match -
Scaling AI agents is a distributed systems nightmare.
Network RTT & the 'N+1 tool calling problem' are the real killers. Sequential loops leave GPUs idle waiting on APIs.
Our blueprint covers:
✅ Collapsing RTT via API proximity
✅ Escaping the O11y 'Log Tax'
✅ Deep eBPF tracing on Bare MetalRead the truth:
🔗 https://www.servermo.com/blogs/scaling-ai-agents-infrastructure/#AI #MLOps #SysAdmin #DevOps #BareMetal #OpenTelemetry #DistributedSystems #eBPF
-
Как я уместил весь MLOps пайплайн в 10 строк
В последнее время я часто работал с разными ML-проектами в GitLab. В каждом был свой .gitlab-ci.yml , своя обвязка вокруг MLFlow, своя регистрация и валидация модели. Со временем я понял, что MLOps пайплайн во всех проектах очень похож, а при работе с новыми копипаста размножается быстрее кроликов. Ну и тут уже хочешь не хочешь, но идея сделать общий шаблон напрашивается. Однако будем честны, обычный template для CI — это круто, но хочется чего-то гибкого, декларативного и красивого. Для достижения этих целей GitLab уже давно предлагает переходить на CI/CD компоненты . В результате я хотел видеть 10 строк YAML, которые будут выдавать полноценный пайплайн с валидацией данных, обучением, quality gates и регистрацией модели. И спустя месяц я добился желаемого. В этой статье покажу, как устроен компонент, на какие грабли наступал по пути, и как подключить всё это в ваш проект. Сам компонент.
-
Как я уместил весь MLOps пайплайн в 10 строк
В последнее время я часто работал с разными ML-проектами в GitLab. В каждом был свой .gitlab-ci.yml , своя обвязка вокруг MLFlow, своя регистрация и валидация модели. Со временем я понял, что MLOps пайплайн во всех проектах очень похож, а при работе с новыми копипаста размножается быстрее кроликов. Ну и тут уже хочешь не хочешь, но идея сделать общий шаблон напрашивается. Однако будем честны, обычный template для CI — это круто, но хочется чего-то гибкого, декларативного и красивого. Для достижения этих целей GitLab уже давно предлагает переходить на CI/CD компоненты . В результате я хотел видеть 10 строк YAML, которые будут выдавать полноценный пайплайн с валидацией данных, обучением, quality gates и регистрацией модели. И спустя месяц я добился желаемого. В этой статье покажу, как устроен компонент, на какие грабли наступал по пути, и как подключить всё это в ваш проект. Сам компонент.
-
Как я уместил весь MLOps пайплайн в 10 строк
В последнее время я часто работал с разными ML-проектами в GitLab. В каждом был свой .gitlab-ci.yml , своя обвязка вокруг MLFlow, своя регистрация и валидация модели. Со временем я понял, что MLOps пайплайн во всех проектах очень похож, а при работе с новыми копипаста размножается быстрее кроликов. Ну и тут уже хочешь не хочешь, но идея сделать общий шаблон напрашивается. Однако будем честны, обычный template для CI — это круто, но хочется чего-то гибкого, декларативного и красивого. Для достижения этих целей GitLab уже давно предлагает переходить на CI/CD компоненты . В результате я хотел видеть 10 строк YAML, которые будут выдавать полноценный пайплайн с валидацией данных, обучением, quality gates и регистрацией модели. И спустя месяц я добился желаемого. В этой статье покажу, как устроен компонент, на какие грабли наступал по пути, и как подключить всё это в ваш проект. Сам компонент.
-
Как я уместил весь MLOps пайплайн в 10 строк
В последнее время я часто работал с разными ML-проектами в GitLab. В каждом был свой .gitlab-ci.yml , своя обвязка вокруг MLFlow, своя регистрация и валидация модели. Со временем я понял, что MLOps пайплайн во всех проектах очень похож, а при работе с новыми копипаста размножается быстрее кроликов. Ну и тут уже хочешь не хочешь, но идея сделать общий шаблон напрашивается. Однако будем честны, обычный template для CI — это круто, но хочется чего-то гибкого, декларативного и красивого. Для достижения этих целей GitLab уже давно предлагает переходить на CI/CD компоненты . В результате я хотел видеть 10 строк YAML, которые будут выдавать полноценный пайплайн с валидацией данных, обучением, quality gates и регистрацией модели. И спустя месяц я добился желаемого. В этой статье покажу, как устроен компонент, на какие грабли наступал по пути, и как подключить всё это в ваш проект. Сам компонент.
-
The cloud security complexity gap just hit the European Commission, and the data suggests it was predictable. https://www.cloudcomputing-news.net/news/cloud-security-complexity-gap-eu-commission-breach/?utm_source=dlvr.it&utm_medium=mastodon #Cloud #Automation #Data #CTO #DigitalTransformation #ChiefDataOfficer #DataPlatforms #MLOps
-
The cloud security complexity gap just hit the European Commission, and the data suggests it was predictable. https://www.cloudcomputing-news.net/news/cloud-security-complexity-gap-eu-commission-breach/?utm_source=dlvr.it&utm_medium=mastodon #Cloud #Automation #Data #CTO #DigitalTransformation #ChiefDataOfficer #DataPlatforms #MLOps
-
Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B
TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.
https://habr.com/ru/articles/1018682/
#Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python
-
Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B
TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.
https://habr.com/ru/articles/1018682/
#Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python
-
Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B
TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.
https://habr.com/ru/articles/1018682/
#Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python
-
Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B
TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.
https://habr.com/ru/articles/1018682/
#Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python
-
Как мы внедряли QoS InfiniBand для приоритизации ML-обучений с точки зрения сети
В статье расскажем, как мы командой Yandex Infrastructure внедрили QoS в сетях InfiniBand при ограниченной вендорской поддержке и скудной практической документации. Обсудим мотивацию: рост смешанных нагрузок во внутреннем облаке и необходимость предсказуемых SLO для различных обучений. Отдельно рассмотрим как могут быть связаны QoS и топология сети DragonFly+.
https://habr.com/ru/companies/yandex_cloud_and_infra/articles/1015226/
-
ML-пайплайны в Kubernetes: от первой строки кода до автоскейлинга и за его пределами
Ваша ML-модель работает в ноутбуке, а в продакшене — нет. Бывало такое? Именно здесь начинается настоящая инженерная задача: взять эксперимент из Jupyter-ноутбука и превратить его в воспроизводимый, наблюдаемый и масштабируемый пайплайн — от сырых данных до стабильного инференса под реальной нагрузкой. Kubernetes давно стал де-факто стандартом для этой работы: более 70% компаний используют его в продакшене — это не дань хайпу, это прагматичный выбор тех, кто уже наступал на грабли. В этой статье разберем, почему K8s выигрывает у альтернатив именно для ML-нагрузок, а также обсудим какие мифы и анти-паттерны тормозят команды на пути к продакшену. Пройдемся по полному стеку: от подготовки кластера и фиксации данных через DVC до canary-деплоя модели и автоскейлинга GPU-подов. В конце вас ждет взгляд на то, куда движется индустрия: serverless-ML, multi-LLM-ops и edge-развертывания. Если вы DevOps- или MLOps-инженер, которому приходится запускать обучение и инференс в одном кластере, или R&D-инженер, чьи модели «магически ломаются» при переходе в прод — читать обязательно.
https://habr.com/ru/companies/cloud_ru/articles/1011810/
#Kubernetes #MLOps #ML_pipeline #KServe #TFX #DVC #HPA #Prometheus #Grafana #DevOps
-
In MLOps, you monitored model drift.
In the Agent Era you monitor decisions.
An agent reasons, calls tools & retrieves context across multiple steps. Any step can fail silently.
Your old MLOps playbook didn't break. The problem just changed shape.
#AIObservability #LLMOps #MLOps -
3 Steps to Distill LLMs: Shrink Your Model and Save Money Chinese AI labs like DeepSeek and Moonshot didn’t invent distillation, but they showed the world what it can do. They built models that...
#llm #llmops #mlops #distillation #machine-learning
Origin | Interest | Match -
⚡ Cut GPU costs by 68% without slowing inference.
No hype. Just real infra lessons from shipping AI in production.👉 Read the full story:
https://medium.com/@rogt.x1997/why-my-ai-startup-cut-gpu-costs-by-68-without-slowing-down-with-runpod-58f71733e86f#GenAI #AIInfra #MLOps
https://medium.com/@rogt.x1997/why-my-ai-startup-cut-gpu-costs-by-68-without-slowing-down-with-runpod-58f71733e86f -
⚡ Cut GPU costs by 68% without slowing inference.
No hype. Just real infra lessons from shipping AI in production.👉 Read the full story:
https://medium.com/@rogt.x1997/why-my-ai-startup-cut-gpu-costs-by-68-without-slowing-down-with-runpod-58f71733e86f#GenAI #AIInfra #MLOps
https://medium.com/@rogt.x1997/why-my-ai-startup-cut-gpu-costs-by-68-without-slowing-down-with-runpod-58f71733e86f -
Как превратить хаотичный ML-проект в систему: пошаговый гайд по DVC + GitHub Actions
Пора строить систему, которая собирается за вечер на двух инструментах: DVC и GitHub Actions . Этот пост - пошаговый гайд , как превратить хаос в полноценный CI/CD‑пайплайн. Без кубернетесов, без сложной инфраструктуры. Зато с автоматизацией, воспроизводимостью и твоим спокойствием :) Начнем ↓ ⠀⠀
https://habr.com/ru/articles/973268/
#ml #data_science #базы_данных #devops #машинное_обучение #dvc #github_actions #mlops #воспроизводимость #python
-
Machine Learning Trends: The Future is Here
https://jivoice.com/machine-learning-trends-2/
#MLOps #AItrends2024 #reinforcementlearning #tinyML #AIethics #federatedlearning #futureofmachinelearning #explainableAI #naturallanguageprocessing #multimodalAI
-
ML production deployment is the key to real-world AI. Learn 7 essential steps for robust, scalable, and efficient machine learning systems. #MLOps #MachineLearning #AIDeployment #DataScience #ProductionAI #ML
-
🗳️ Poll for AI builders:
𝗪𝗵𝗮𝘁’𝘀 𝘄𝗲𝗶𝗴𝗵𝗶𝗻𝗴 𝗵𝗲𝗮𝘃𝗶𝗲𝘀𝘁 𝗼𝗻 𝘆𝗼𝘂𝗿 𝗱𝗮𝘁𝗮-𝗽𝗿𝗶𝘃𝗮𝗰𝘆 𝗺𝗶𝗻𝗱 𝗿𝗶𝗴𝗵𝘁 𝗻𝗼𝘄?
(Pick one — feel free to elaborate in the replies.)#AIPrivacy #LLM #DataPrivacy #MLOps #Security #PrivacyTech #AIBuilders #AIInfra #CyberSecurity #Fediverse #Mastodon
-
🗳️ Poll for AI builders:
𝗪𝗵𝗮𝘁’𝘀 𝘄𝗲𝗶𝗴𝗵𝗶𝗻𝗴 𝗵𝗲𝗮𝘃𝗶𝗲𝘀𝘁 𝗼𝗻 𝘆𝗼𝘂𝗿 𝗱𝗮𝘁𝗮-𝗽𝗿𝗶𝘃𝗮𝗰𝘆 𝗺𝗶𝗻𝗱 𝗿𝗶𝗴𝗵𝘁 𝗻𝗼𝘄?
(Pick one — feel free to elaborate in the replies.)#AIPrivacy #LLM #DataPrivacy #MLOps #Security #PrivacyTech #AIBuilders #AIInfra #CyberSecurity #Fediverse #Mastodon
-
Ever wonder how AI actually makes things happen?
I broke down how Docker MCP works - clean, simple, and actually makes sense 💁♀️
For my fellow DevOps & infra girls (and guys too 😉)
-
Ever wonder how AI actually makes things happen?
I broke down how Docker MCP works - clean, simple, and actually makes sense 💁♀️
For my fellow DevOps & infra girls (and guys too 😉)
-
🔥 Ever wonder what really powers AI behind the scenes?
I’m breaking down Docker MCP — where agent servers & a host app let models take action.
DevOps girlies, this one’s for you 💅💻
-
✨ AI can code, debug, even write poetry...
But ask it to post in Slack? 💅 "Sorry babe, I just talk."
Let’s talk DevOps, infra, & what actually powers smart AI.
👇 Watch my Short & level up: https://youtube.com/shorts/e5hPmK2FX7c
-
🧠 5,000 AI agent failures.
🔁 42% now predicted before they happen.
📉 Downtime slashed by 57%.Discover how agentic AI systems are evolving to forecast their own breakdowns—before executing a single action. A system-aware cognitive loop could be the future of intelligent decision-making.
#AI #AgenticAI #LLM #PredictiveAnalytics #FailureForecasting #CognitiveSystems #AIEngineering #MLOps #AIAgents
https://medium.com/@rogt.x1997/5-000-failures-later-what-we-learned-about-forecasting-ai-agent-crashes-in-real-time-9219a8e60881 -
What does DeepSeek's "Open Source Week" mean for COSS?
#COSS #OSS #DeepSeek #AI #LLM #ML #MLOps #infrastructure
https://www.youtube.com/watch?v=QH0cJPS9ddI&list=PLr4nRUtZbsuGq-U9BCJoRvriJd9vZyhLN&index=8