home.social

#ceph — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #ceph, aggregated by home.social.

  1. [ Blog ] Proxmox replacement in cluster

    If a core Proxmox server fails taking its Ceph OSDs with it, the Proxmox node replacement doesn't have to be a nightmare.

    To fix this issue you must cleanly decommission the failed server and correctly perform the Proxmox node replacement to ensure your Ceph data remains resilient.

    The Ceph cluster should have the status rviv.ly/hDkYPo

  2. You know what's really annoying when querying an API? When that API responds with timestamps and they are all different formats. For example, querying "ceph report":

    "2026-05-08T15:17:10.132050+0000"
    "2026-04-29T15:48:57.197933Z"
    "2026-05-01T02:30:32:090952+0000"

    #ceph #programming #softwaredevelopment #golang #coding

  3. Как развивалась виртуализация в Авито

    Всем привет! Меня зовут Ярослав Покрепов , я DevOps-инженер в Авито . Виртуализация — это технология создания изолированных и независимых виртуальных сред на базе физических ресурсов. Виртуализация в Авито — это неотъемлемая часть технического стека, как и во многих других IT-компаниях. На этапе основания Авито виртуализация уже была широко распространённой технологией. Проект нуждался в эффективных и гибких решениях для управления ресурсами, в возможности масштабироваться в будущем и в обеспечении стабильной работы при растущей нагрузке. В этой статье попробую провести читателя от истоков виртуализации в Авито до современных решений и показать, как эти изменения повлияли на архитектуру и возможности компании. Описать общую хронологию развития виртуализации без полного погружения в технические детали — об этом расскажу подробнее в следующих частях. Дисклеймер: ранняя история инфраструктуры компании восстановлена не по документации, а по воспоминаниям инженеров, которые работали в тот период. Это устная история — с допущениями, реконструкцией контекста и попыткой передать факты и логику решений.

    habr.com/ru/companies/avito/ar

    #virtualization #proxmox #openvz #lxc #clusterization #ceph #ldap #baremetal #history #avitotech

  4. Как развивалась виртуализация в Авито

    Всем привет! Меня зовут Ярослав Покрепов , я DevOps-инженер в Авито . Виртуализация — это технология создания изолированных и независимых виртуальных сред на базе физических ресурсов. Виртуализация в Авито — это неотъемлемая часть технического стека, как и во многих других IT-компаниях. На этапе основания Авито виртуализация уже была широко распространённой технологией. Проект нуждался в эффективных и гибких решениях для управления ресурсами, в возможности масштабироваться в будущем и в обеспечении стабильной работы при растущей нагрузке. В этой статье попробую провести читателя от истоков виртуализации в Авито до современных решений и показать, как эти изменения повлияли на архитектуру и возможности компании. Описать общую хронологию развития виртуализации без полного погружения в технические детали — об этом расскажу подробнее в следующих частях. Дисклеймер: ранняя история инфраструктуры компании восстановлена не по документации, а по воспоминаниям инженеров, которые работали в тот период. Это устная история — с допущениями, реконструкцией контекста и попыткой передать факты и логику решений.

    habr.com/ru/companies/avito/ar

    #virtualization #proxmox #openvz #lxc #clusterization #ceph #ldap #baremetal #history #avitotech

  5. Как развивалась виртуализация в Авито

    Всем привет! Меня зовут Ярослав Покрепов , я DevOps-инженер в Авито . Виртуализация — это технология создания изолированных и независимых виртуальных сред на базе физических ресурсов. Виртуализация в Авито — это неотъемлемая часть технического стека, как и во многих других IT-компаниях. На этапе основания Авито виртуализация уже была широко распространённой технологией. Проект нуждался в эффективных и гибких решениях для управления ресурсами, в возможности масштабироваться в будущем и в обеспечении стабильной работы при растущей нагрузке. В этой статье попробую провести читателя от истоков виртуализации в Авито до современных решений и показать, как эти изменения повлияли на архитектуру и возможности компании. Описать общую хронологию развития виртуализации без полного погружения в технические детали — об этом расскажу подробнее в следующих частях. Дисклеймер: ранняя история инфраструктуры компании восстановлена не по документации, а по воспоминаниям инженеров, которые работали в тот период. Это устная история — с допущениями, реконструкцией контекста и попыткой передать факты и логику решений.

    habr.com/ru/companies/avito/ar

    #virtualization #proxmox #openvz #lxc #clusterization #ceph #ldap #baremetal #history #avitotech

  6. Как развивалась виртуализация в Авито

    Всем привет! Меня зовут Ярослав Покрепов , я DevOps-инженер в Авито . Виртуализация — это технология создания изолированных и независимых виртуальных сред на базе физических ресурсов. Виртуализация в Авито — это неотъемлемая часть технического стека, как и во многих других IT-компаниях. На этапе основания Авито виртуализация уже была широко распространённой технологией. Проект нуждался в эффективных и гибких решениях для управления ресурсами, в возможности масштабироваться в будущем и в обеспечении стабильной работы при растущей нагрузке. В этой статье попробую провести читателя от истоков виртуализации в Авито до современных решений и показать, как эти изменения повлияли на архитектуру и возможности компании. Описать общую хронологию развития виртуализации без полного погружения в технические детали — об этом расскажу подробнее в следующих частях. Дисклеймер: ранняя история инфраструктуры компании восстановлена не по документации, а по воспоминаниям инженеров, которые работали в тот период. Это устная история — с допущениями, реконструкцией контекста и попыткой передать факты и логику решений.

    habr.com/ru/companies/avito/ar

    #virtualization #proxmox #openvz #lxc #clusterization #ceph #ldap #baremetal #history #avitotech

  7. Скованные одним цефом: как тестируем Ceph в MWS Cloud Platform

    Смело предположу, что каждый инженер, на регулярной основе работающий с SDS Сeph, не единожды находился в состоянии фрустрации от сложности и неоднозначности этой технологии. Я хотел бы попробовать помочь и поделиться своим опытом решения проблем с производительностью. В этой статье я кратко расскажу про некоторые инструментальные подходы к решению возникающих задач. Всем привет! Меня зовут Александр Пивкин, я ведущий SRE-инженер в MWS Cloud Platform. Сейчас Ceph — основная технология хранения данных в

    habr.com/ru/companies/mws/arti

    #cloud #ceph #mws_cloud #mwscloudplatform #облако #хранение_данных

  8. Alright, with the k8s update going to smoothly, I will continue with the update of my Ceph cluster to v20/Tentacle.

    Need to get things done while the Gods keep smiling on my Homelab. 😁

    #HomeLab #Ceph

  9. От MinIO к SeaweedFS: опыт замены S3-хранилища

    Есть такой опасный момент в инфраструктуре: когда все вроде бы работает, но трогать это лишний раз не хочется. Не потому что идеально. А потому что есть ощущение — если полезешь, станет хуже. В какой-то момент мы поймали себя на этом с MinIO.

    habr.com/ru/companies/dbraincl

    #seaweedfs #minio #s3 #хранилище #кубернетес #kubernetes #контейнеризация #s3хранилище #инфраструктура #ceph

  10. От MinIO к SeaweedFS: опыт замены S3-хранилища

    Есть такой опасный момент в инфраструктуре: когда все вроде бы работает, но трогать это лишний раз не хочется. Не потому что идеально. А потому что есть ощущение — если полезешь, станет хуже. В какой-то момент мы поймали себя на этом с MinIO.

    habr.com/ru/companies/dbraincl

    #seaweedfs #minio #s3 #хранилище #кубернетес #kubernetes #контейнеризация #s3хранилище #инфраструктура #ceph

  11. От MinIO к SeaweedFS: опыт замены S3-хранилища

    Есть такой опасный момент в инфраструктуре: когда все вроде бы работает, но трогать это лишний раз не хочется. Не потому что идеально. А потому что есть ощущение — если полезешь, станет хуже. В какой-то момент мы поймали себя на этом с MinIO.

    habr.com/ru/companies/dbraincl

    #seaweedfs #minio #s3 #хранилище #кубернетес #kubernetes #контейнеризация #s3хранилище #инфраструктура #ceph

  12. От MinIO к SeaweedFS: опыт замены S3-хранилища

    Есть такой опасный момент в инфраструктуре: когда все вроде бы работает, но трогать это лишний раз не хочется. Не потому что идеально. А потому что есть ощущение — если полезешь, станет хуже. В какой-то момент мы поймали себя на этом с MinIO.

    habr.com/ru/companies/dbraincl

    #seaweedfs #minio #s3 #хранилище #кубернетес #kubernetes #контейнеризация #s3хранилище #инфраструктура #ceph

  13. Finally: ceph.io has an atom feed now 🎉

    The last blog I was unable to add to my feed reader.

    github.com/ceph/ceph.io/pull/1

    #ceph #rss #feed

  14. The #Ceph at work drives me crazy...

    We want to organize the data in subvolumes and subvolume groups.
    Seems that I'm unable to mount different subvolumes that are on the same default volume at once.

    So, ok, then mounting the directories directly from CephFS. Easy going, works on my private Ceph on Proxmox like a charme.

    Only thing: it is not working at work. Only one mount possible.

    Oh my....
    One difference between those two installations are:
    Private Cluster: Proxmox with Debian packages
    Work Cluster: official container images via podman.

    Does someone know if there are issues with containerized Ceph?

    EDIT:
    Found the guilty option: "fsc" was causing the problems. Removing that mount option did the trick. Yay! :)
    And tomorrow I'll test subvolumes again...

    #followerpower

  15. S3 и зачем вообще городить ещё один клиент…

    Вы нормально знаете Ceph, пулы, RGW, где смотреть логи и почему внезапно полезли 403. Вопрос в другом: вокруг кластера живут люди, которым нужен не Ceph, а S3 как диск в облаке . Им нужно залить билд, вытащить дамп, перекинуть префикс между стендами, выдать временную ссылку, проверить, что объект реально лежит и какой у него размер. Без чтения ceph -w s3cmd rados etc, без объяснений про placement groups и без вашего участия в каждой мелочи. CLI и скрипты вы держите для себя и для пайплайнов. Консоль облака у вас может быть про другой контур. А типичный пользователь упирается в простую вещь: хочу окно с таблицей, перетаскиванием и понятной ошибкой , а не пятнадцать шагов «спроси админа». Отсюда и смысл отдельного десктопного клиента под S3 API: не заменить вам эксплуатацию, а снять с вас поток однотипных ручных запросов и дать людям самообслуживание в рамках выданных ключей и политик.

    habr.com/ru/articles/1023538/

    #S3 #ceph #minio #client #s3cmd #aws #aws_s3 #aws_sdk

  16. Год в проде с Ceph: как мы пришли к новой референсной архитектуре

    Привет, Хабр! Меня зовут Игорь Шишкин, я руковожу отделом разработки облачной платформы и архитектором SDS в Рунити. Ранее я уже рассказывал про то, как мы выбирали SDS (Software Defined Storage), почему остановились на Ceph, а также о наших процессах в R&D. В этой статье , поделюсь, что мы поймали за год в продакшене, какие решения в дизайне кластеров оказались ошибочными, как это изменило нашу референсную архитектуру и к чему мы пришли в итоге.

    habr.com/ru/companies/runity/a

    #регоблако #ceph #s3 #hsdc #конфигурация #exhausted #jbod #hba #архитектура #кластер

  17. Год в проде с Ceph: как мы пришли к новой референсной архитектуре

    Привет, Хабр! Меня зовут Игорь Шишкин, я руковожу отделом разработки облачной платформы и архитектором SDS в Рунити. Ранее я уже рассказывал про то, как мы выбирали SDS (Software Defined Storage), почему остановились на Ceph, а также о наших процессах в R&D. В этой статье , поделюсь, что мы поймали за год в продакшене, какие решения в дизайне кластеров оказались ошибочными, как это изменило нашу референсную архитектуру и к чему мы пришли в итоге.

    habr.com/ru/companies/runity/a

    #регоблако #ceph #s3 #hsdc #конфигурация #exhausted #jbod #hba #архитектура #кластер

  18. Год в проде с Ceph: как мы пришли к новой референсной архитектуре

    Привет, Хабр! Меня зовут Игорь Шишкин, я руковожу отделом разработки облачной платформы и архитектором SDS в Рунити. Ранее я уже рассказывал про то, как мы выбирали SDS (Software Defined Storage), почему остановились на Ceph, а также о наших процессах в R&D. В этой статье , поделюсь, что мы поймали за год в продакшене, какие решения в дизайне кластеров оказались ошибочными, как это изменило нашу референсную архитектуру и к чему мы пришли в итоге.

    habr.com/ru/companies/runity/a

    #регоблако #ceph #s3 #hsdc #конфигурация #exhausted #jbod #hba #архитектура #кластер

  19. Год в проде с Ceph: как мы пришли к новой референсной архитектуре

    Привет, Хабр! Меня зовут Игорь Шишкин, я руковожу отделом разработки облачной платформы и архитектором SDS в Рунити. Ранее я уже рассказывал про то, как мы выбирали SDS (Software Defined Storage), почему остановились на Ceph, а также о наших процессах в R&D. В этой статье , поделюсь, что мы поймали за год в продакшене, какие решения в дизайне кластеров оказались ошибочными, как это изменило нашу референсную архитектуру и к чему мы пришли в итоге.

    habr.com/ru/companies/runity/a

    #регоблако #ceph #s3 #hsdc #конфигурация #exhausted #jbod #hba #архитектура #кластер

  20. Found the common point between century-old blues standards and my homelab AMA

    #ceph #proxmox #homelab #blues

  21. Latest experience with Ceph: Never enable `rbytes` on the CephFS client mount unless absolutely necessary.
    This places an extremely heavy metadata load on the MDS and the OSDs.
    So we’re not talking about a 20–30% increase, but rather, depending on the size and depth of the filesystem, an increase of several dozen to hundreds of times.

    #ceph #cephfs #osd #mds

  22. Latest experience with Ceph: Never enable `rbytes` on the CephFS client mount unless absolutely necessary.
    This places an extremely heavy metadata load on the MDS and the OSDs.
    So we’re not talking about a 20–30% increase, but rather, depending on the size and depth of the filesystem, an increase of several dozen to hundreds of times.

    #ceph #cephfs #osd #mds

  23. Latest experience with Ceph: Never enable `rbytes` on the CephFS client mount unless absolutely necessary.
    This places an extremely heavy metadata load on the MDS and the OSDs.
    So we’re not talking about a 20–30% increase, but rather, depending on the size and depth of the filesystem, an increase of several dozen to hundreds of times.

    #ceph #cephfs #osd #mds

  24. Latest experience with Ceph: Never enable `rbytes` on the CephFS client mount unless absolutely necessary.
    This places an extremely heavy metadata load on the MDS and the OSDs.
    So we’re not talking about a 20–30% increase, but rather, depending on the size and depth of the filesystem, an increase of several dozen to hundreds of times.

    #ceph #cephfs #osd #mds

  25. Latest experience with Ceph: Never enable `rbytes` on the CephFS client mount unless absolutely necessary.
    This places an extremely heavy metadata load on the MDS and the OSDs.
    So we’re not talking about a 20–30% increase, but rather, depending on the size and depth of the filesystem, an increase of several dozen to hundreds of times.

    #ceph #cephfs #osd #mds

  26. Da migriert man den ganzen Mastodon Bumms auf S3 Storage und dann sind da noch immer 150G belegt. Die anderen Mastodon Instanzen liegen so um die 2G ohne die Mediendateien.

    Stellt sich heraus, dass ich am 9. April 2023 wohl mal irrtuemlich /home/mastodon nach ~/live/public kopiert habe - warum auch immer.

    Naja, da liegen halt ca. 142G drin und es faellt mir erst auf, nachdem die 1T an Mediendateien nun im S3 sind.

    Putzig.

    Zeigt aber auch, dass ich offenbar Eines nicht habe: Mangel an Speicher.

    #mastoadmin #ceph #s3

  27. Sodele… nach der Umstellung auf S3 Storage bei baltic.social/ war nun auch fedisocial.de/ mit der Umstellung dran.

    Wenn man erst einmal ein funktionierendes Setup gefunden hat, das mit #Mastodon, #S3 Storage auf #Ceph radosgw und #haproxy auf der #pfSense funktioniert, ist das eigentlich dann relativ straight-forward…

    Als Nächstes kommen dann die 1.2 TB hier auf der Instanz dran. Das ist allein schon wegen der Datenmenge nicht ganz so fluffig…

    #mastoadmin #fediadmin

  28. Ich teste grad auf Arbeit unseren #Ceph #Cluster mit Bonnie++. Über 2x 25 Gbit/s mit LACP bekomme ich 2.1 GB/s write, 1.2 GB/s rewrite und 1.8 GB/s reading hin.

    Allerdings erst, nachdem ich read_ahead_kb auf 64M gesetzt habe.

    Aber ich denke, das sind fuer ein Single Thread Test schon ganz ordentliche Werte mit 12x OSD x 6 Nodes.

    Spannend wird es ja dann, wenn mehrere Clients zugreifen.

  29. Respect for #Ceph.
    Managed to kill a SATA-controller, let the cluster run with one of three legs cut off for a week (decided halfway through to mark the dead OSDs out, so I wouldn‘t have stale objects on my 2/1-pools).
    Got it to recover/rebalance again, and while scrubbing two drives (15 y/o) started throwing read errors (on a previously healthy node).
    Well, gotta get new drives I guess.
    And never did I lose any data, or had Ceph refuse to operate with two of the three working.

    #Proxmox

  30. Was ich bei #Ceph nicht so recht verstehe:

    Nachdem ich die eine OSD geloescht und mit WAL/DB auf SSD wieder hinzugefuegt habe, werden ja die ganzen Daten wieder auf die OSD kopiert. Aber Write Bytes bleibt beharrlich bei 0.

    Wird das rausgerechnet oder nur die Client-Daten erfasst, also z.B. was ueber das Public Network kommt, aber nicht ueber das Cluster Network?

  31. 35 Debian LTS advisories were released in February fixing 527 CVEs across various packages. These include security fixes for gnutls28, xrdp, ClamAV, tomcat9, zabbix, linux kernel, ceph, glib2.0, MUNGE and many more.

    Debian LTS contributors also prepared updates for more recent releases, Debian 12 (#bookworm) , Debian 13 (#trixie) and Debian unstable. In addition, improvements were made to documentation and tooling used by the team.

    Read the full report at freexian.com/blog/debian-lts-r

    This work is funded by Freexian's Debian LTS offering. Become a sponsor of Debian LTS (freexian.com/lts/debian/?utm_s) and enjoy the benefits (freexian.com/lts/debian/detail).

    #debian #debianlts #freexian #ceph #zabbix

  32. Ceph auf Arbeit... das schaut mir bei den Latenzen so aus, als wenn er die NVMe für WAL/DB nicht so richtig nutzt.

    #ceph

  33. Another question regarding #Ceph:

    Is it better to have Hyper Threading on AMD Epyc CPUs enabled or not?

    System has 32c/64t with 44x OSDs and 12x NVMe for system & WAL/DB

  34. Five-node #Proxmox cluster? Upgraded from 8 to 9 without issue.
    Except a dead Marvell 88SE9230 sata controller card, which degraded the #Ceph cluster for three days, where I borrowed a replacement card from a relatives employer.
    Ceph restored to a healthy state in ten-ish minutes, and is happy again.
    Now waiting for the actual replacement to arrive, so I can begin my storage migration journey.

  35. Sodele... irgendwie ist der #Ceph Cluster nun auf Arbeit installiert.

    Nun geht es daran, mit Ceph Erfahrungen zu sammeln, die nicht auf Proxmox aufbauen...

    Das wird lustig...

  36. Well, I have a plan going forward for my #Proxmox #Ceph storage servers.
    Migrating all servers (with months apart) to 8-bay hot-swap cases with backplane, and adding my remaining 6 #SMR HDDs to them (2 for each of the three servers) for a low-performance #RadosGW/S3 glacier type storage (with SSD DB-pool, but that's not the point).
    Reducing the footprint of bulk/backup storage on my expensive CMR-drives.

  37. #Ceph being really happy about a dead #Marvell 88SE9230 SATA controller.

    #Proxmox

  38. Hey, do you know a thing or two about #email and mailing list management, and do you (or does your organisation) use #Ceph? This is your time to shine:

    lists.ceph.io/hyperkitty/list/

    (Please boost for reach, thanks!)

  39. Das mit dem #Ceph auf #Debian installieren, stellt sich die Doku auf docs.ceph.com/en/latest/cephad aber auch einfacher vor als es tatsaechlich ist.

    Wenn ist cephadm aus Debian nehme, will mir das das Repo fuer trixie anlegen. Ceph hat aber auf download.ceph.com/debian-squid nur bookworm anzubieten.

    Per curl das cephadm zu installieren, das das mir dann ein rpm-noarch auf die Kiste zieht, ist nun nicht unbedingt meine favorisierte Variante...

    Naja... mal schauen, was die Reise noch alles mit sich bringt...

  40. Отказоустойчивый кластер виртуализации KVM на Astra Linux

    Импортозамещение, уход вендоров, требования регуляторов, безопасность — причин переезжать с продуктов Microsoft и VMware сегодня хватает. Но важно, чтобы это было осознанное инженерное решение, а не реакция по принципу «лишь бы уйти». Тем более что далеко не всегда есть смысл переплачивать за продукт, который для вашей инфраструктуры избыточен. В статье разбираю, как собрать отказоустойчивую виртуализацию на базе Astra Linux: DRBD + GFS2 + Pacemaker против Ceph. Отказоустойчивый кластер KVM на Астре

    habr.com/ru/articles/1001494/

    #astra_linux #drbd9 #ceph #gfs2 #iscsi #pacemaker #импортозамещение #виртуализация #системное_администрирование #астра_линукс

  41. TROK SDS вышел на батл за надежное хранение

    Привет, Хабр. В ноябре 2025 года наша команда выпустила релиз TROK SDS. Это программно-объектное хранилище корпоративного уровня. Первые клиентские успехи уже есть, но пока под NDA, про это расскажем чуть позже. А сегодня хотелось бы просто поразмыслить над темой хранения данных и объяснить, что и как. Спойлер тем, кто не хочет читать много букв: TROK SDS создавался для тех, кто не хотел и не хочет покупать дорогие аппаратные СХД или танцевать с бубном вокруг сложных решений вроде Ceph. В основе лежит синхронная репликация данных между узлами. При отказе оборудования система автоматически восстанавливает реплики без вмешательства администратора. Экономия достигается за счет работы на стандартных серверах x86_64, без специализированного железа. Управление через веб-интерфейс. Разворачивается за 40 минут опытными руками из плеч.

    habr.com/ru/companies/astralin

    #sds #хранение_данных #аналог #ceph #импортозамещение

  42. Вы строите Lakehouse, а сторадж строит вам проблемы. Что делать?

    Всем привет! Меня зовут Дмитрий Листвин, я занимаюсь аналитическим хранилищем данных в Авито . В этой статье хочу поделиться нашим опытом построения Lakehouse поверх объектного хранилища — и тем, как реальная аналитическая нагрузка быстро превращает «обычный S3» в самый капризный элемент всей архитектуры. Будет много про извлечение максимума производительности из Ceph: как добиться высокой пропускной способности HDD, когда поверх данных хочется запускать тяжёлые аналитические запросы.

    habr.com/ru/companies/avito/ar

    #ceph #lakehouse #s3 #dwh

  43. Trino в Авито два года спустя: от движка к полноценной экосистеме

    Всем привет! Меня зовут Дмитрий Рейман, я техлид аналитической платформы Avito . Уже третий год мы занимаемся миграцией с Vertica на Trino. Изначально казалось, что это будет просто: перенесём запросы, перепишем коннекторы, чуть подправим пайплайны. Но за два с лишним года миграция перестала быть просто миграцией: проект разросся в инженерную одиссею, и вокруг Trino мы начали строить целую экосистему. Как это было — рассказываю под катом.

    habr.com/ru/companies/avito/ar

    #dwh #lakehouse #trino #vertica #mpp #hive #iceberg #ceph #s3 #orc

  44. Файловое хранилище Wildberries: бескомпромиссный HighLoad

    Привет, меня зовут Иван Волков, я CTO продукта CDN MediaBasket в Wildberries. Это большое распределенное файловое хранилище, используемое различными внутренними продуктами Wildberries. Одним из продуктов, с которым взаимодействуют внешние клиенты, является каталог товаров. Это ставит перед хранилищем высокую планку по оптимизации и готовности к экстремальным нагрузкам. В этой статье я расскажу, какие решения мы использовали в архитектуре продукта и как при миллионном RPS мы доставляем картинки пользователям за считанные миллисекунды.

    habr.com/ru/companies/wildberr

    #файловое_хранилище #шардирование #шардинг #highload #хайлоад #схд #ceph #hadoop #wildberries #drpaster

  45. Как корректно и безопасно вывести диски OSD и узлы из кластера Ceph: подробный алгоритм от команды VK Tech

    При работе с распределенными хранилищами на базе Ceph иногда возникает необходимость временно или окончательно исключить узел из кластера. Это может понадобиться при обновлении оборудования, обслуживании инфраструктуры или перераспределении ресурсов. Вместе с тем если узел, подлежащий выводу, одновременно исполняет роли MON (Monitor), MGR (Manager Daemon) и MDS (Metadata Server), задача превращается в настоящий квест hard-уровня. Но при должном подходе и с такими кейсами можно справиться. Меня зовут Алексей Косов. Я старший инженер доступности отдела интеграции и сопровождения облачных решений в команде VK Tech . СХД Ceph — это часть поставки нашего продукта для построения частного облака в ЦОДе заказчика VK Private Cloud . В этой статье я пошагово покажу, как можно вывести узел с полным комплектом сервисов Ceph из кластера, чтобы кластер и остальные узлы не пострадали.

    habr.com/ru/companies/vktech/a

    #ceph #vk_cloud #OSD #диски #кластеры #vk_private_cloud #private_cloud #vk_tech #Active_MON #mgr

  46. Как корректно и безопасно вывести диски OSD и узлы из кластера Ceph: подробный алгоритм от команды VK Tech

    При работе с распределенными хранилищами на базе Ceph иногда возникает необходимость временно или окончательно исключить узел из кластера. Это может понадобиться при обновлении оборудования, обслуживании инфраструктуры или перераспределении ресурсов. Вместе с тем если узел, подлежащий выводу, одновременно исполняет роли MON (Monitor), MGR (Manager Daemon) и MDS (Metadata Server), задача превращается в настоящий квест hard-уровня. Но при должном подходе и с такими кейсами можно справиться. Меня зовут Алексей Косов. Я старший инженер доступности отдела интеграции и сопровождения облачных решений в команде VK Tech . СХД Ceph — это часть поставки нашего продукта для построения частного облака в ЦОДе заказчика VK Private Cloud . В этой статье я пошагово покажу, как можно вывести узел с полным комплектом сервисов Ceph из кластера, чтобы кластер и остальные узлы не пострадали.

    habr.com/ru/companies/vktech/a

    #ceph #vk_cloud #OSD #диски #кластеры #vk_private_cloud #private_cloud #vk_tech #Active_MON #mgr

  47. Как корректно и безопасно вывести диски OSD и узлы из кластера Ceph: подробный алгоритм от команды VK Tech

    При работе с распределенными хранилищами на базе Ceph иногда возникает необходимость временно или окончательно исключить узел из кластера. Это может понадобиться при обновлении оборудования, обслуживании инфраструктуры или перераспределении ресурсов. Вместе с тем если узел, подлежащий выводу, одновременно исполняет роли MON (Monitor), MGR (Manager Daemon) и MDS (Metadata Server), задача превращается в настоящий квест hard-уровня. Но при должном подходе и с такими кейсами можно справиться. Меня зовут Алексей Косов. Я старший инженер доступности отдела интеграции и сопровождения облачных решений в команде VK Tech . СХД Ceph — это часть поставки нашего продукта для построения частного облака в ЦОДе заказчика VK Private Cloud . В этой статье я пошагово покажу, как можно вывести узел с полным комплектом сервисов Ceph из кластера, чтобы кластер и остальные узлы не пострадали.

    habr.com/ru/companies/vktech/a

    #ceph #vk_cloud #OSD #диски #кластеры #vk_private_cloud #private_cloud #vk_tech #Active_MON #mgr