home.social

#keda — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #keda, aggregated by home.social.

  1. Learn the critical failure points when running LLM inference on Kubernetes, including resource constraints, operator compatibility, security, scalability, and monitoring best practices for production workloads.

    #Kubernetes #LLM Inference #Dynatrace #GPU Resource Allocation #Service Mesh #Network Policies #KEDA #Triton Inference Server #Redis #Prometheus

    dasroot.net/posts/2026/02/runn

  2. Реальный кейс настройки Pod Autoscaling в k8s с точки зрения разработчика

    На носу 2026 год, а я хочу поделиться своим путешествием по переводу приложения на инфраструктуру Kubernetes. И самая сложная и интересная часть, как раз, настройка автоскейлинга. Не слишком ли заезженная тема? Думаю нет, потому что я буду рассказывать именно с позиции разработчика приложения, а не девопса. Мне повезло, я без понятия как это всё настраивается. Я буду рассказывать как это всё работает. Конфигов кубера будет минимум, рассуждений и погружений в метрики максимум. В конце оставил TL;DR. Поехали?

    habr.com/ru/articles/973936/

    #kubernetes #hpa #horizontal_pod_autoscaler #keda #ec2 #cadvisor #k8s

  3. From event-driven architectures to autoscaling, from to agentic AI, from corporate to and startups - the latest episode of OpenObservability Talks has it all!

    I invited co-creator of & @yaronschneider to give us us the grand tour:
    medium.com/p/eb2f4013d9a1

  4. Автомасштабируем узлы кластера Kubernetes. Часть 2

    Всем привет! Это вновь Илья Смирнов, архитектор решений из

    habr.com/ru/companies/cloud_ru

    #keda #мультиклауд #масштабирование #eventdriven

  5. Hah score! Managed to push data from #HomeAssistant to #MQTT using the MQTT Publish action in HA, then github.com/hikhvar/mqtt2promet picks it up and services it up to #Prometheus for use in queries. Will need to switch my #Keda scale object from a #RabbitMQ one to a Prometheus query. But will first let this metric sit there for a few days to make sure it behaves as expected.

  6. Автомасштабируем узлы кластера Kubernetes. Часть 1

    Автомасштабирование узлов кластера Kubernetes и горизонтальное масштабирование подов позволяют быстро расширить ресурсы при пиковых нагрузках. Но сложные приложения могут не нагружать поды или узлы максимально, но требовать дополнительных ресурсов, например, для параллельной обработки нескольких объектов в очереди. Триггером масштабирования кластера может быть не утилизация, а события от внешних систем — например, очереди сообщений Kafka, системы мониторинга Prometheus или от платформы CI/CD. Всем привет! Меня зовут Илья Смирнов, я архитектор решений в

    habr.com/ru/companies/cloud_ru

    #keda #k8s #kubernetes #автомасштабирование #managed_kubernetes

  7. Автомасштабирование KEDA. Часть 1

    Автомасштабирование узлов кластера Kubernetes и горизонтальное масштабирование подов позволяют быстро расширить ресурсы при пиковых нагрузках. Но сложные приложения могут не нагружать поды или узлы максимально, но требовать дополнительных ресурсов, например, для параллельной обработки нескольких объектов в очереди. Триггером масштабирования кластера может быть не утилизация, а события от внешних систем — например, очереди сообщений Kafka, системы мониторинга Prometheus или от платформы CI/CD. Всем привет! Меня зовут Илья Смирнов, я архитектор решений в Читать дальше

    habr.com/ru/companies/cloud_ru

    #keda #kubernetes #k8s #автомасштабирование #managed_kubernetes #cloudru_evolution

  8. Still have to implement the #HomeAssistant #prometheus/#OTEL export to make #Keda be able to do this.

    Plus, I still need to get a decent autoscaler in place. But first, to blog about my current one. Main "issue" is that my current one only takes one node offline every cron job run. So to take 5 dow,n it needs 50 minutes.

    That is not ideal when it gets hotter than desired, but doable when it's mainly idle nodes. This plays in directly with blog.wyrihaximus.net/2024/12/b

  9. Paid 12 week design mentorship program, remote. Help improve the Kubernetes and Cloud Native experience: mentorship.lfx.linuxfoundation

    Applications close: Tue, May 27 2025 11AM PDT (18:00 UTC)
    The two mentors are super nice professionals.

    Headlamp is a UI that supports plugins for projects like , , and Falco. This project will focus on conducting UX audits, identifying usability issues, and proposing design improvements.

  10. I'm going to be at . At the maintainers summit beforehand, at the contribfest, and at the project pavilion.

    Contribfest session: kccnceu2025.sched.com/event/1t

    I'm looking forward to connecting with folks working on different projects. People have been quite busy building out Headlamp Kubernetes UIs for ecosystem tooling and standards like and

  11. KEDA: автоматическое масштабирование в Kubernetes

    Привет, друзья-разработчики и Kubernetes-энтузиасты! Сегодня мы с вами погрузимся в мир KEDA (Kubernetes-based Event Driven Autoscaling) — инструмента, который позволит вашим приложениям масштабироваться как по волшебству. KEDA позволяет Kubernetes автоматически масштабировать приложения на основе различных внешних событий: сообщений в очередях, метрик из Prometheus, вебхуков и многого другого. Мастхев для некоторых микросервисов.

    habr.com/ru/companies/otus/art

    #kubernetes #keda #масштабирование

  12. stackoverflow.com/questions/79 - apparently #Azure #Functions only run in #containers on the Premium or better plan, not on the regular consumption plan. Bummer because Premium specifically doesn't scale to 0. ... Hello #Keda.

  13. Die automatische Skalierung von #Sidekiq funktioniert inzwischen ganz gut: gestern Abend hat irgendjemand etwa 3500 Posts auf einmal gelöscht, und obwohl das eine ganze Lawine an ActivityPub-Nachrichten auslöst, gab es keine Verzögerung länger als 74 Sekunden.

    #Mastoadmin #Fnordon #k8s #Keda

  14. Масштабируем приложение в Kubernetes от метрики в Yandex Monitoring (или от любого http-эндпоинта)

    Всем привет! Меня зовут Дмитрий Мамонтов, я DevOps-инженер с опытом работы более пяти лет, а также наставник на курсе «

    habr.com/ru/companies/yandex_p

    #kubernetes #keda #yandex_monitoring #yandex_cloud #hpa

  15. Finally got around to playing with #keda. So much nicer than using plain #K8S HorizontalPodAutoscalers

  16. Hmm is it possible to make #keda scale an object based on the number of keys in a redis database?
    In the docs, I can see that you can scale based on lists, and streams, but I can't figure out if it's possible to do using a count on the keys instead #k8s

  17. We'll see how to run popular #LLM on Kubernetes, and how to leverage #Bento, #RabbitMQ, and #PostgreSQL to run requests asynchronously; then we'll use #Prometheus and #Grafana for observability, sprinkle #KEDA for ausoscaling, and some #Helmfile to manage the deployment of all these components.

    Interested? Register here:

    info.perfectscale.io/beyond-lo

  18. Alarm? Sidekiq auf Maximum? Mitten in der Nacht? Was ist da los?

    Oh, da scheint jemand gut 6000 Posts gelöscht zu haben (macht etwa 500k Sidekiq-Jobs, woraufhin der Autoscaler oben angeschlagen ist, aber mit maximal 50 Sekunden Verzögerung ist die Lastspitze eigentlich ganz gut abgefangen worden).

    #Mastoadmin #PagerDuty #Sidekiq #Keda

  19. So, #Keda skaliert jetzt #Sidekiq, ist aber noch ein wenig schreckhaft. Da muss ich noch an den Schwellwerten drehen.

    #Mastoadmin #k8s