home.social

#кластеры — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #кластеры, aggregated by home.social.

  1. Что внутри «Штурвала 2.13». Декларативная установка, переход на containerd 2.x, профили кластеров и прочее

    Хабр, привет! На связи команда разработки контейнерной платформы «Штурвал». Недавно мы выпустили новую версию 2.13. Теперь пользователям доступны установка через YAML и флаги командной строки, профили кластеров по шаблонам, containerd 2.x с шифрованием образов, сводные отчеты по безопасности. Под катом делимся самым интересным.

    habr.com/ru/companies/chislite

    #штурвал #kubernetes #k8s #containerd #yaml #кластеры #контейнеризация

  2. [Перевод] Переосмысление Kubernetes в 2025 году: разбор моего «простого» стека

    Любой «более простой» инструмент DevOps — это просто Kubernetes в темных очках. Я — Саша Краснов, СТО «Штурвала». Недавно я наткнулся на волшебную статью о Kubernetes, и просто не смог справиться с желанием перевести ее. Мой собственный опыт знакомства с Kubernetes был другим, но путь был похожим: от отрицания и «зачем же так сложно» до восторга от элегантных решений в отдельных контроллерах. Даже архаичные винтажные части, вроде API группы “”, встречающиеся тут и там, больше не раздражают, а вызывают любопытство археолога. Кубер — он сложный, но это не просто так.

    habr.com/ru/companies/chislite

    #kubernetes #devops #k8s #контейнеры #контейнеризация #кластеры

  3. Как корректно и безопасно вывести диски OSD и узлы из кластера Ceph: подробный алгоритм от команды VK Tech

    При работе с распределенными хранилищами на базе Ceph иногда возникает необходимость временно или окончательно исключить узел из кластера. Это может понадобиться при обновлении оборудования, обслуживании инфраструктуры или перераспределении ресурсов. Вместе с тем если узел, подлежащий выводу, одновременно исполняет роли MON (Monitor), MGR (Manager Daemon) и MDS (Metadata Server), задача превращается в настоящий квест hard-уровня. Но при должном подходе и с такими кейсами можно справиться. Меня зовут Алексей Косов. Я старший инженер доступности отдела интеграции и сопровождения облачных решений в команде VK Tech . СХД Ceph — это часть поставки нашего продукта для построения частного облака в ЦОДе заказчика VK Private Cloud . В этой статье я пошагово покажу, как можно вывести узел с полным комплектом сервисов Ceph из кластера, чтобы кластер и остальные узлы не пострадали.

    habr.com/ru/companies/vktech/a

    #ceph #vk_cloud #OSD #диски #кластеры #vk_private_cloud #private_cloud #vk_tech #Active_MON #mgr

  4. Как корректно и безопасно вывести диски OSD и узлы из кластера Ceph: подробный алгоритм от команды VK Tech

    При работе с распределенными хранилищами на базе Ceph иногда возникает необходимость временно или окончательно исключить узел из кластера. Это может понадобиться при обновлении оборудования, обслуживании инфраструктуры или перераспределении ресурсов. Вместе с тем если узел, подлежащий выводу, одновременно исполняет роли MON (Monitor), MGR (Manager Daemon) и MDS (Metadata Server), задача превращается в настоящий квест hard-уровня. Но при должном подходе и с такими кейсами можно справиться. Меня зовут Алексей Косов. Я старший инженер доступности отдела интеграции и сопровождения облачных решений в команде VK Tech . СХД Ceph — это часть поставки нашего продукта для построения частного облака в ЦОДе заказчика VK Private Cloud . В этой статье я пошагово покажу, как можно вывести узел с полным комплектом сервисов Ceph из кластера, чтобы кластер и остальные узлы не пострадали.

    habr.com/ru/companies/vktech/a

    #ceph #vk_cloud #OSD #диски #кластеры #vk_private_cloud #private_cloud #vk_tech #Active_MON #mgr

  5. Как корректно и безопасно вывести диски OSD и узлы из кластера Ceph: подробный алгоритм от команды VK Tech

    При работе с распределенными хранилищами на базе Ceph иногда возникает необходимость временно или окончательно исключить узел из кластера. Это может понадобиться при обновлении оборудования, обслуживании инфраструктуры или перераспределении ресурсов. Вместе с тем если узел, подлежащий выводу, одновременно исполняет роли MON (Monitor), MGR (Manager Daemon) и MDS (Metadata Server), задача превращается в настоящий квест hard-уровня. Но при должном подходе и с такими кейсами можно справиться. Меня зовут Алексей Косов. Я старший инженер доступности отдела интеграции и сопровождения облачных решений в команде VK Tech . СХД Ceph — это часть поставки нашего продукта для построения частного облака в ЦОДе заказчика VK Private Cloud . В этой статье я пошагово покажу, как можно вывести узел с полным комплектом сервисов Ceph из кластера, чтобы кластер и остальные узлы не пострадали.

    habr.com/ru/companies/vktech/a

    #ceph #vk_cloud #OSD #диски #кластеры #vk_private_cloud #private_cloud #vk_tech #Active_MON #mgr

  6. Как корректно и безопасно вывести диски OSD и узлы из кластера Ceph: подробный алгоритм от команды VK Tech

    При работе с распределенными хранилищами на базе Ceph иногда возникает необходимость временно или окончательно исключить узел из кластера. Это может понадобиться при обновлении оборудования, обслуживании инфраструктуры или перераспределении ресурсов. Вместе с тем если узел, подлежащий выводу, одновременно исполняет роли MON (Monitor), MGR (Manager Daemon) и MDS (Metadata Server), задача превращается в настоящий квест hard-уровня. Но при должном подходе и с такими кейсами можно справиться. Меня зовут Алексей Косов. Я старший инженер доступности отдела интеграции и сопровождения облачных решений в команде VK Tech . СХД Ceph — это часть поставки нашего продукта для построения частного облака в ЦОДе заказчика VK Private Cloud . В этой статье я пошагово покажу, как можно вывести узел с полным комплектом сервисов Ceph из кластера, чтобы кластер и остальные узлы не пострадали.

    habr.com/ru/companies/vktech/a

    #ceph #vk_cloud #OSD #диски #кластеры #vk_private_cloud #private_cloud #vk_tech #Active_MON #mgr

  7. Как построить отказоустойчивый кластер СУБД

    Привет, Хабр! Меня зовут Андрей Капустин, я менеджер продукта Tarantool CDC в компании VK Tech. Для построения систем хранения и обработки данных по объектам мы часто используем различные СУБД, которые объединяем в большие геораспределенные кластеры. Кластер СУБД содержит данные, необходимые для функционирования Mission Critical процессов, поэтому нам необходимо гарантировать постоянную доступность, обеспечить отсутствие потерь и минимизировать время предоставления данных по запросу.

    habr.com/ru/companies/vk/artic

    #субд #архитектура #tarantool #отказоустойчивость #кластеры

  8. Мультитенантность в Kubernetes: возможные подходы и инструменты

    Хабр, привет! Меня зовут Алиса, и я руковожу командой разработки контейнерной платформы «Штурвал». В последнее время мы с командой много работали над реализацией мультитенантности и перепробовали множество разных вариантов. Ниже я расскажу, как тенанты помогают закрыть «боли» при работе с K8s на примере трех проблем и поделюсь полезными инструментами. Эта статья будет интересна тем, кто: 👉 «с ноги» врывается в свой первый кубер; 👉 самостоятельно строит Kubernetes-платформу; 👉 управляет одним или множеством кластеров K8s. P. S. 31 июля в Москве состоится первая независимая конфа Kubernetes Community Day. Два пространства с хардкорными докладами и воркшопами от крутых экспертов из VK, МКБ, Yandex Cloud, «Лаборатории Числитель», ecom.tеch, Cloud ru, Luntry, FUN&SUN, Lamoda Tech и др. Участие бесплатное.

    habr.com/ru/companies/chislite

    #мультитенантность #тенанты #kubernetes #иерархия #rbac #штурвал #k8s #неймспейсы #кластеры #контейнеризация

  9. HPC 2025: Революция вычислений от кластеров к платформам — как суперкомпьютеры становятся сервисом

    Ещё недавно суперкомпьютеры были чем-то вроде космической станции: дорого, сложно и только для избранных. Но мир HPC стремительно меняется — жёсткие конструкции устарели, бизнес требует гибкости, скорости и адаптивности под любые задачи. Старые вычислительные гиганты уже не вывозят, и будущее за платформами, которые превращают высокие вычисления в удобный сервис. Меня зовут Алексей Зотов, я руководитель направления ИТ-инфраструктуры в К2 НейроТех. Это подразделение, которое мы в К2Тех запустили, опираясь на 19-летний опыт в сфере строительства и технического сопровождения кластеров суперкомпьютеров . И вот работая в это сфере уже который год, я давно наблюдаю, что бизнес отказывается от простого наращивания мощностей в пользу гибких платформенных решений, которые можно настраивать под конкретные задачи. В этой новой реальности HPC (High-performance computing cluster – высокопроизводительные вычисления) превращается из элитного инструмента в ключевой сервис, меняющий подход к инновациям и цифровой трансформации. Давайте разберёмся, как происходит эта революция и почему 2025 год станет поворотным для высокопроизводительных вычислений.

    habr.com/ru/companies/k2tech/a

    #НРС #суперкомпьютеры #кластеры #нейротехнологии #платформенные_решения #контейнеризация #архитектура_систем

  10. [Перевод] Растянутый кластер Ceph: основные концепции. Часть 1

    При планировании репликации, аварийного восстановления, резервного копирования и восстановления данных мы выбираем из нескольких стратегий — в зависимости от требований к уровню SLA по восстановлению данных и приложений. Ключевые факторы при выборе включают в себя целевое время восстановления (RTO) и целевую точку восстановления (RPO). Синхронная репликация дает минимальную RPO, что означает невозможность потери данных. Ceph может реализовать синхронную репликацию между локациями, «растянув» свой кластер на несколько дата-центров. Асинхронная репликация по своей сути подразумевает ненулевое значение RPO. В Ceph асинхронная multi-site репликация подразумевает репликацию данных в другой кластер Ceph. Каждый метод доступа к хранилищу (объект, блок и файл) обладает собственным методом асинхронной репликации, реализованным на уровне конкретного компонента Ceph.

    habr.com/ru/companies/runity/a

    #ceph #кластер #кластеры #rpo #восстановление_данных #датацентр #цод #репликация #асинхронная_репликация #синхронная_репликация

  11. [Перевод] Растянутый кластер Ceph: основные концепции. Часть 1

    При планировании репликации, аварийного восстановления, резервного копирования и восстановления данных мы выбираем из нескольких стратегий — в зависимости от требований к уровню SLA по восстановлению данных и приложений. Ключевые факторы при выборе включают в себя целевое время восстановления (RTO) и целевую точку восстановления (RPO). Синхронная репликация дает минимальную RPO, что означает невозможность потери данных. Ceph может реализовать синхронную репликацию между локациями, «растянув» свой кластер на несколько дата-центров. Асинхронная репликация по своей сути подразумевает ненулевое значение RPO. В Ceph асинхронная multi-site репликация подразумевает репликацию данных в другой кластер Ceph. Каждый метод доступа к хранилищу (объект, блок и файл) обладает собственным методом асинхронной репликации, реализованным на уровне конкретного компонента Ceph.

    habr.com/ru/companies/runity/a

    #ceph #кластер #кластеры #rpo #восстановление_данных #датацентр #цод #репликация #асинхронная_репликация #синхронная_репликация

  12. [Перевод] Растянутый кластер Ceph: основные концепции. Часть 1

    При планировании репликации, аварийного восстановления, резервного копирования и восстановления данных мы выбираем из нескольких стратегий — в зависимости от требований к уровню SLA по восстановлению данных и приложений. Ключевые факторы при выборе включают в себя целевое время восстановления (RTO) и целевую точку восстановления (RPO). Синхронная репликация дает минимальную RPO, что означает невозможность потери данных. Ceph может реализовать синхронную репликацию между локациями, «растянув» свой кластер на несколько дата-центров. Асинхронная репликация по своей сути подразумевает ненулевое значение RPO. В Ceph асинхронная multi-site репликация подразумевает репликацию данных в другой кластер Ceph. Каждый метод доступа к хранилищу (объект, блок и файл) обладает собственным методом асинхронной репликации, реализованным на уровне конкретного компонента Ceph.

    habr.com/ru/companies/runity/a

    #ceph #кластер #кластеры #rpo #восстановление_данных #датацентр #цод #репликация #асинхронная_репликация #синхронная_репликация

  13. [Перевод] Растянутый кластер Ceph: основные концепции. Часть 1

    При планировании репликации, аварийного восстановления, резервного копирования и восстановления данных мы выбираем из нескольких стратегий — в зависимости от требований к уровню SLA по восстановлению данных и приложений. Ключевые факторы при выборе включают в себя целевое время восстановления (RTO) и целевую точку восстановления (RPO). Синхронная репликация дает минимальную RPO, что означает невозможность потери данных. Ceph может реализовать синхронную репликацию между локациями, «растянув» свой кластер на несколько дата-центров. Асинхронная репликация по своей сути подразумевает ненулевое значение RPO. В Ceph асинхронная multi-site репликация подразумевает репликацию данных в другой кластер Ceph. Каждый метод доступа к хранилищу (объект, блок и файл) обладает собственным методом асинхронной репликации, реализованным на уровне конкретного компонента Ceph.

    habr.com/ru/companies/runity/a

    #ceph #кластер #кластеры #rpo #восстановление_данных #датацентр #цод #репликация #асинхронная_репликация #синхронная_репликация

  14. Конфигурирование кластерных систем с помощью Sparky и Rakulang

    В общем случае конфигуриоование распределенных и кластерных систем - задача непростая. Для кого может быть полезным инструмент Sparky? Если у вас не используется кубернетес и вам приходится конфигурить / обновлять распределенную инфраструктуры со сложными взаимосвязями. Здесь я покажу несколько примеров не претендующих на исчерпывающее покрытие данной темы Базовая конфигурация Для того что бы все работало необходимо установить Sparky агенты на все настаиваемые ноды вашего кластера и обеспечить сетевую связанность на уровне http/https

    habr.com/ru/articles/886660/

    #инфраструктура #кластеры #devops #распределенные_системы #infrastructureasacode

  15. RabbitMQ в dBrain: опыт внедрения в платформу контейнеризации

    В статье рассматриваем, как RabbitMQ интегрирован в dBrain, какие операторы использовались для управления кластерами, а также с какими проблемами разработчики столкнулись в процессе внедрения.

    habr.com/ru/companies/dbraincl

    #брокер_сообщений #rabbitmq #kafka #микросервисы #высоконагруженные_проекты #контейнеризация #платформа #кластеры #брокер #сообщения

  16. RabbitMQ в dBrain: опыт внедрения в платформу контейнеризации

    В статье рассматриваем, как RabbitMQ интегрирован в dBrain, какие операторы использовались для управления кластерами, а также с какими проблемами разработчики столкнулись в процессе внедрения.

    habr.com/ru/companies/dbraincl

    #брокер_сообщений #rabbitmq #kafka #микросервисы #высоконагруженные_проекты #контейнеризация #платформа #кластеры #брокер #сообщения

  17. RabbitMQ в dBrain: опыт внедрения в платформу контейнеризации

    В статье рассматриваем, как RabbitMQ интегрирован в dBrain, какие операторы использовались для управления кластерами, а также с какими проблемами разработчики столкнулись в процессе внедрения.

    habr.com/ru/companies/dbraincl

    #брокер_сообщений #rabbitmq #kafka #микросервисы #высоконагруженные_проекты #контейнеризация #платформа #кластеры #брокер #сообщения

  18. RabbitMQ в dBrain: опыт внедрения в платформу контейнеризации

    В статье рассматриваем, как RabbitMQ интегрирован в dBrain, какие операторы использовались для управления кластерами, а также с какими проблемами разработчики столкнулись в процессе внедрения.

    habr.com/ru/companies/dbraincl

    #брокер_сообщений #rabbitmq #kafka #микросервисы #высоконагруженные_проекты #контейнеризация #платформа #кластеры #брокер #сообщения

  19. Выбор операционной системы для серверных решений: ключевые аспекты

    С переходом на кластерные решения платформа dBrain.cloud столкнулась с новыми задачами, требующими пересмотра подхода к выбору операционной системы. Как и что выбирали?

    habr.com/ru/companies/dbraincl

    #кластеры #операционные_системы #debian #ubuntu #контейнеризация #серверы #дистрибутивы #кастомизация #программное_обеспечение #разработка

  20. Почти всё о Carbonio Mesh

    Carbonio Mesh - это инфраструктурный модуль почтового сервера Carbonio, позволяющий обеспечить связность, отказоустойчивость и возможность мониторинга различных сервисов Carbonio и интеграцию их с Carbonio LDAP. В данной статье мы расскажем о том, из чего состоит система Carbonio Mesh, а также о том, как обеспечить эффективное взаимодействие с ней.

    habr.com/ru/companies/Zextras/

    #carbonio #carbonio_ce #zextras #электронная_почта #кластер #кластеризация #кластеры #consul

  21. [Перевод] Как мы управляем контейнерной платформой: история adidas о прошлом, настоящем и будущем

    10 мая 2022 года компания adidas начала переводить конфигурацию своей платформы на GitOps. Спустя почти два года в блоге компании опубликовали цикл статей об эволюции контейнерной платформы adidas, которые мы перевели и объединили в один материал. В этих статьях инженер компании Анхель Баррера Санчес рассказал, как платформа adidas переходила на GitOps, а также что было до перехода, как они работают сейчас и какие у них планы.

    habr.com/ru/companies/flant/ar

    #gitops #контейнеры #контейнеризация #конфигурация #кластеры #платформа #adidas #kubernetes #devops #sre