home.social

#mlops — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #mlops, aggregated by home.social.

  1. #Netflix developed a graph-based architecture for managing #ML systems: the Model Lifecycle Graph.

    It maps relationships between datasets, models, features, and workflows to improve discoverability, governance, and component reuse - while enabling a self-service workflow for engineers and data scientists.

    Learn more: bit.ly/3Rlfa6g

    #InfoQ #AIarchitecture #MLOps

  2. FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM

  3. FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM

  4. FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM

  5. FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM

  6. FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM

  7. Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe

    Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы. Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом. Всем привет, на связи Пётр, инженер

    habr.com/ru/articles/1030440/

    #devops #kubernetes #mlops #helm #kserve #istio #machine_learning #inference #ai #deploy

  8. Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe

    Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы. Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом. Всем привет, на связи Пётр, инженер

    habr.com/ru/articles/1030440/

    #devops #kubernetes #mlops #helm #kserve #istio #machine_learning #inference #ai #deploy

  9. Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe

    Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы. Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом. Всем привет, на связи Пётр, инженер

    habr.com/ru/articles/1030440/

    #devops #kubernetes #mlops #helm #kserve #istio #machine_learning #inference #ai #deploy

  10. Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe

    Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы. Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом. Всем привет, на связи Пётр, инженер

    habr.com/ru/articles/1030440/

    #devops #kubernetes #mlops #helm #kserve #istio #machine_learning #inference #ai #deploy

  11. The preachers of the Silicon Valley Church sell the harvesting of the body as “algorithmic inevitability,” promising immortality. A neat fable. Maybe they’ll keep the data lords alive for 150 years—but half of it will be Alzheimer’s. In the end, the thermodynamic hammer still falls.
    #Transhumanizm #DataEngineering #CRISPR #EdgeAI #GenerativeAI #FederatedLearning #MachineLearning #DataScience #AITools #AIAutomation #CloudComputing #SyntheticData #SyntheticData #AntiHarari #MLOps #Longevity

  12. “What are we going to measure? What are the elements of success here?” — Patrick Kelly

    That line stuck with us. In AI apps, observability isn’t a nice-to-have; it’s where many teams discover what actually works once real users show up.

    How are you measuring success for AI products today?

    Read/listen at youtube.com/shorts/Sx9BBnH3bek

    #AnalysePodcast #AIObservability #AgenticAI #MLOps

  13. “What are we going to measure? What are the elements of success here?” — Patrick Kelly

    That line stuck with us. In AI apps, observability isn’t a nice-to-have; it’s where many teams discover what actually works once real users show up.

    How are you measuring success for AI products today?

    Read/listen at youtube.com/shorts/Sx9BBnH3bek

  14. Запускаем DeepSeek-V4 (1.6T) на «калькуляторе»: SVD-трансмутация, Identity Theft и гаражный MLOps

    Что делать, если у вас есть 1.6-триллионная модель и видеокарта из прошлого десятилетия? Пока корпорации покупают H100 фурами, мы используем SVD-трансмутацию и архитектурный Identity Theft, чтобы запустить DeepSeek-V4 на бесплатном инстансе Kaggle. Инструкция по сборке Мутанта внутри.

    habr.com/ru/articles/1028560/

    #DeepSeekV4Pro #MoE #SVD #Низкоранговое_разложение #Оптимизация_нейросетей #MLOps #Kaggle #NVIDIA_T4 #Сжатие_моделей #Ghetto_AI

  15. Запускаем DeepSeek-V4 (1.6T) на «калькуляторе»: SVD-трансмутация, Identity Theft и гаражный MLOps Что делать, если у вас есть 1.6-...

    #DeepSeek-V4-Pro #MoE #SVD #Низкоранговое #разложение #Оптимизация #нейросетей #MLOps #Kaggle #NVIDIA #T4

    Origin | Interest | Match
  16. Scaling AI agents is a distributed systems nightmare.

    Network RTT & the 'N+1 tool calling problem' are the real killers. Sequential loops leave GPUs idle waiting on APIs.

    Our blueprint covers:
    ✅ Collapsing RTT via API proximity
    ✅ Escaping the O11y 'Log Tax'
    ✅ Deep eBPF tracing on Bare Metal

    Read the truth:
    🔗 servermo.com/blogs/scaling-ai-

    #AI #MLOps #SysAdmin #DevOps #BareMetal #OpenTelemetry #DistributedSystems #eBPF

  17. : , or Large Language Model Operations, is a set of practices and tools that speed up the development, deployment, and management of AI models.

    It's a subset of Machine Learning Operations () tools that focuses on large language models (LLMs) and their unique challenges.

    knowledgezone.co.in/trends/bro

  18. #ITByte: #LLMOps, or Large Language Model Operations, is a set of practices and tools that speed up the development, deployment, and management of AI models.

    It's a subset of Machine Learning Operations (#MLOps) tools that focuses on large language models (LLMs) and their unique challenges.

    knowledgezone.co.in/trends/bro

  19. #ITByte: #LLMOps, or Large Language Model Operations, is a set of practices and tools that speed up the development, deployment, and management of AI models.

    It's a subset of Machine Learning Operations (#MLOps) tools that focuses on large language models (LLMs) and their unique challenges.

    knowledgezone.co.in/trends/bro

  20. #ITByte: #LLMOps, or Large Language Model Operations, is a set of practices and tools that speed up the development, deployment, and management of AI models.

    It's a subset of Machine Learning Operations (#MLOps) tools that focuses on large language models (LLMs) and their unique challenges.

    knowledgezone.co.in/trends/bro

  21. #ITByte: #LLMOps, or Large Language Model Operations, is a set of practices and tools that speed up the development, deployment, and management of AI models.

    It's a subset of Machine Learning Operations (#MLOps) tools that focuses on large language models (LLMs) and their unique challenges.

    knowledgezone.co.in/trends/bro

  22. Как я уместил весь MLOps пайплайн в 10 строк

    В последнее время я часто работал с разными ML-проектами в GitLab. В каждом был свой .gitlab-ci.yml , своя обвязка вокруг MLFlow, своя регистрация и валидация модели. Со временем я понял, что MLOps пайплайн во всех проектах очень похож, а при работе с новыми копипаста размножается быстрее кроликов. Ну и тут уже хочешь не хочешь, но идея сделать общий шаблон напрашивается. Однако будем честны, обычный template для CI — это круто, но хочется чего-то гибкого, декларативного и красивого. Для достижения этих целей GitLab уже давно предлагает переходить на CI/CD компоненты . В результате я хотел видеть 10 строк YAML, которые будут выдавать полноценный пайплайн с валидацией данных, обучением, quality gates и регистрацией модели. И спустя месяц я добился желаемого. В этой статье покажу, как устроен компонент, на какие грабли наступал по пути, и как подключить всё это в ваш проект. Сам компонент.

    habr.com/ru/companies/ruvds/ar

    #mlops #gitlab #gitlabci #ml #mlflow #ruvds_статьи

  23. Как я уместил весь MLOps пайплайн в 10 строк

    В последнее время я часто работал с разными ML-проектами в GitLab. В каждом был свой .gitlab-ci.yml , своя обвязка вокруг MLFlow, своя регистрация и валидация модели. Со временем я понял, что MLOps пайплайн во всех проектах очень похож, а при работе с новыми копипаста размножается быстрее кроликов. Ну и тут уже хочешь не хочешь, но идея сделать общий шаблон напрашивается. Однако будем честны, обычный template для CI — это круто, но хочется чего-то гибкого, декларативного и красивого. Для достижения этих целей GitLab уже давно предлагает переходить на CI/CD компоненты . В результате я хотел видеть 10 строк YAML, которые будут выдавать полноценный пайплайн с валидацией данных, обучением, quality gates и регистрацией модели. И спустя месяц я добился желаемого. В этой статье покажу, как устроен компонент, на какие грабли наступал по пути, и как подключить всё это в ваш проект. Сам компонент.

    habr.com/ru/companies/ruvds/ar

    #mlops #gitlab #gitlabci #ml #mlflow #ruvds_статьи

  24. Как я уместил весь MLOps пайплайн в 10 строк

    В последнее время я часто работал с разными ML-проектами в GitLab. В каждом был свой .gitlab-ci.yml , своя обвязка вокруг MLFlow, своя регистрация и валидация модели. Со временем я понял, что MLOps пайплайн во всех проектах очень похож, а при работе с новыми копипаста размножается быстрее кроликов. Ну и тут уже хочешь не хочешь, но идея сделать общий шаблон напрашивается. Однако будем честны, обычный template для CI — это круто, но хочется чего-то гибкого, декларативного и красивого. Для достижения этих целей GitLab уже давно предлагает переходить на CI/CD компоненты . В результате я хотел видеть 10 строк YAML, которые будут выдавать полноценный пайплайн с валидацией данных, обучением, quality gates и регистрацией модели. И спустя месяц я добился желаемого. В этой статье покажу, как устроен компонент, на какие грабли наступал по пути, и как подключить всё это в ваш проект. Сам компонент.

    habr.com/ru/companies/ruvds/ar

    #mlops #gitlab #gitlabci #ml #mlflow #ruvds_статьи

  25. Как я уместил весь MLOps пайплайн в 10 строк

    В последнее время я часто работал с разными ML-проектами в GitLab. В каждом был свой .gitlab-ci.yml , своя обвязка вокруг MLFlow, своя регистрация и валидация модели. Со временем я понял, что MLOps пайплайн во всех проектах очень похож, а при работе с новыми копипаста размножается быстрее кроликов. Ну и тут уже хочешь не хочешь, но идея сделать общий шаблон напрашивается. Однако будем честны, обычный template для CI — это круто, но хочется чего-то гибкого, декларативного и красивого. Для достижения этих целей GitLab уже давно предлагает переходить на CI/CD компоненты . В результате я хотел видеть 10 строк YAML, которые будут выдавать полноценный пайплайн с валидацией данных, обучением, quality gates и регистрацией модели. И спустя месяц я добился желаемого. В этой статье покажу, как устроен компонент, на какие грабли наступал по пути, и как подключить всё это в ваш проект. Сам компонент.

    habr.com/ru/companies/ruvds/ar

    #mlops #gitlab #gitlabci #ml #mlflow #ruvds_статьи

  26. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  27. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  28. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  29. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  30. Как мы внедряли QoS InfiniBand для приоритизации ML-обучений с точки зрения сети

    В статье расскажем, как мы командой Yandex Infrastructure внедрили QoS в сетях InfiniBand при ограниченной вендорской поддержке и скудной практической документации. Обсудим мотивацию: рост смешанных нагрузок во внутреннем облаке и необходимость предсказуемых SLO для различных обучений. Отдельно рассмотрим как могут быть связаны QoS и топология сети DragonFly+.

    habr.com/ru/companies/yandex_c

    #infiniband #qos #ml #mlops #gpu #dragonfly+

  31. ML-пайплайны в Kubernetes: от первой строки кода до автоскейлинга и за его пределами

    Ваша ML-модель работает в ноутбуке, а в продакшене — нет. Бывало такое? Именно здесь начинается настоящая инженерная задача: взять эксперимент из Jupyter-ноутбука и превратить его в воспроизводимый, наблюдаемый и масштабируемый пайплайн — от сырых данных до стабильного инференса под реальной нагрузкой. Kubernetes давно стал де-факто стандартом для этой работы: более 70% компаний используют его в продакшене — это не дань хайпу, это прагматичный выбор тех, кто уже наступал на грабли. В этой статье разберем, почему K8s выигрывает у альтернатив именно для ML-нагрузок, а также обсудим какие мифы и анти-паттерны тормозят команды на пути к продакшену. Пройдемся по полному стеку: от подготовки кластера и фиксации данных через DVC до canary-деплоя модели и автоскейлинга GPU-подов. В конце вас ждет взгляд на то, куда движется индустрия: serverless-ML, multi-LLM-ops и edge-развертывания. Если вы DevOps- или MLOps-инженер, которому приходится запускать обучение и инференс в одном кластере, или R&D-инженер, чьи модели «магически ломаются» при переходе в прод — читать обязательно.

    habr.com/ru/companies/cloud_ru

    #Kubernetes #MLOps #ML_pipeline #KServe #TFX #DVC #HPA #Prometheus #Grafana #DevOps

  32. In MLOps, you monitored model drift.
    In the Agent Era you monitor decisions.
    An agent reasons, calls tools & retrieves context across multiple steps. Any step can fail silently.
    Your old MLOps playbook didn't break. The problem just changed shape.
    #AIObservability #LLMOps #MLOps

  33. 3 Steps to Distill LLMs: Shrink Your Model and Save Money Chinese AI labs like DeepSeek and Moonshot didn’t invent distillation, but they showed the world what it can do. They built models that...

    #llm #llmops #mlops #distillation #machine-learning

    Origin | Interest | Match
  34. Как превратить хаотичный ML-проект в систему: пошаговый гайд по DVC + GitHub Actions

    Пора строить систему, которая собирается за вечер на двух инструментах: DVC и GitHub Actions . Этот пост - пошаговый гайд , как превратить хаос в полноценный CI/CD‑пайплайн. Без кубернетесов, без сложной инфраструктуры. Зато с автоматизацией, воспроизводимостью и твоим спокойствием :) Начнем ↓ ⠀⠀

    habr.com/ru/articles/973268/

    #ml #data_science #базы_данных #devops #машинное_обучение #dvc #github_actions #mlops #воспроизводимость #python

  35. 🗳️ Poll for AI builders:

    𝗪𝗵𝗮𝘁’𝘀 𝘄𝗲𝗶𝗴𝗵𝗶𝗻𝗴 𝗵𝗲𝗮𝘃𝗶𝗲𝘀𝘁 𝗼𝗻 𝘆𝗼𝘂𝗿 𝗱𝗮𝘁𝗮-𝗽𝗿𝗶𝘃𝗮𝗰𝘆 𝗺𝗶𝗻𝗱 𝗿𝗶𝗴𝗵𝘁 𝗻𝗼𝘄?
    (Pick one — feel free to elaborate in the replies.)

    #AIPrivacy #LLM #DataPrivacy #MLOps #Security #PrivacyTech #AIBuilders #AIInfra #CyberSecurity #Fediverse #Mastodon

  36. 🗳️ Poll for AI builders:

    𝗪𝗵𝗮𝘁’𝘀 𝘄𝗲𝗶𝗴𝗵𝗶𝗻𝗴 𝗵𝗲𝗮𝘃𝗶𝗲𝘀𝘁 𝗼𝗻 𝘆𝗼𝘂𝗿 𝗱𝗮𝘁𝗮-𝗽𝗿𝗶𝘃𝗮𝗰𝘆 𝗺𝗶𝗻𝗱 𝗿𝗶𝗴𝗵𝘁 𝗻𝗼𝘄?
    (Pick one — feel free to elaborate in the replies.)

    #AIPrivacy #LLM #DataPrivacy #MLOps #Security #PrivacyTech #AIBuilders #AIInfra #CyberSecurity #Fediverse #Mastodon

  37. Ever wonder how AI actually makes things happen?

    I broke down how Docker MCP works - clean, simple, and actually makes sense 💁‍♀️

    For my fellow DevOps & infra girls (and guys too 😉)

    📺 Watch: youtube.com/shorts/Y0JGFlBuKqc

    #DevOps #AIInfra #CloudNative #Docker #TechGirl #MLOps

  38. Ever wonder how AI actually makes things happen?

    I broke down how Docker MCP works - clean, simple, and actually makes sense 💁‍♀️

    For my fellow DevOps & infra girls (and guys too 😉)

    📺 Watch: youtube.com/shorts/Y0JGFlBuKqc

    #DevOps #AIInfra #CloudNative #Docker #TechGirl #MLOps

  39. 🔥 Ever wonder what really powers AI behind the scenes?

    I’m breaking down Docker MCP — where agent servers & a host app let models take action.

    DevOps girlies, this one’s for you 💅💻

    👉 youtube.com/shorts/lOrHP4coed8

    #DevOpsGirl #AIInfra #CloudNative #Docker #TechTok #MLOps

  40. ✨ AI can code, debug, even write poetry...

    But ask it to post in Slack? 💅 "Sorry babe, I just talk."

    Let’s talk DevOps, infra, & what actually powers smart AI.

    👇 Watch my Short & level up: youtube.com/shorts/e5hPmK2FX7c

    #DevOpsGirl #AIInfra #CloudNative #MLOps #WomenInTech

  41. 🧠 5,000 AI agent failures.
    🔁 42% now predicted before they happen.
    📉 Downtime slashed by 57%.

    Discover how agentic AI systems are evolving to forecast their own breakdowns—before executing a single action. A system-aware cognitive loop could be the future of intelligent decision-making.

    👉 Read Now:
    medium.com/@rogt.x1997/5-000-f

    #AI #AgenticAI #LLM #PredictiveAnalytics #FailureForecasting #CognitiveSystems #AIEngineering #MLOps #AIAgents
    medium.com/@rogt.x1997/5-000-f

  42. #ITByte: #LLMOps, or Large Language Model Operations, is a set of practices and tools that speed up the development, deployment, and management of AI models.

    It's a subset of Machine Learning Operations (#MLOps) tools that focuses on large language models (LLMs) and their unique challenges.

    knowledgezone.co.in/trends/exp