home.social

#цод — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #цод, aggregated by home.social.

  1. Электроэнергия как основной критерий выбора площадок для ЦОД

    Преимущество РФ при строительстве новых ЦОД в недорогой электроэнергии. Благодаря большому количеству замороженных энергоемких производств некоторые регионы обладают существенным профицитом электроэнергии.

    habr.com/ru/articles/1033762/

    #электроэнергетика #цод #майнинг #ии #серверы

  2. Cloud4Y строит ЦОДы в МО. Часть 15

    Контейнерный ЦОД в Марфино пережил первые реальные аварийные отключения, принял первых гостей и обзавёлся соседями — тремя дизельными электростанциями и двумя газопоршневыми установками. Рассказываем, как прошёл апрель.

    habr.com/ru/companies/cloud4y/

    #строительство #цод #itинфраструктура #датацентры #серверное_администрирование

  3. Кто и зачем считает пустые поля Техаса со спутника: расследование о задержках стройки американских мегаЦОД

    ИИ-индустрия второй год живет в режиме большой стройки. Крупные компании вроде OpenAI, Amazon и Microsoft обещают рынку все новые и новые кластеры, кампусы, все это с приставками гига- и мега-, а также сотни миллиардов долларов инвестиций в инфраструктуру. Но не все идет гладко: дата-центр нельзя развернуть так же просто, как облачные сервисы. Его нужно подключить к сети, обеспечить трансформаторами, подстанциями, распределительным оборудованием, водой, разрешениями и согласованием с местными жителями. И тут выяснилось, что ИИ-бум упирается как в дефицит и цены чипов, так и в куда более приземленные вещи: многотонные трансформаторы, электротехническую сталь, медные обмотки и очереди на оборудование до конца десятилетия. Тут возникает конфликт: компании обещают резкий рост, а аналитики и журналисты все чаще показывают, как сдвигаются сроки, площадки остаются полупустыми, сети не готовы к гигаваттным нагрузкам, а критическое оборудование приходится покупать у Китая. Это, кстати, самая больная тема для США, потому что американские компании уже несколько десятилетий не вкладывались в экспертизу тяжелых трансформаторов, без которых мегаЦОДы работать просто не смогут. Последняя громкая новость — исследование SynMax, аналитической компании из Техаса, которая изучила спутниковые снимки крупных площадок под дата-центры OpenAI и Oracle. Их вывод быстро разошелся по СМИ: почти 40% американских ЦОД не смогут сдать к сроку — их должны построить уже к концу 2026 года. Получается странная картина: самые дорогие модели мира, самые мощные GPU и самые амбициозные планы по ИИ зависят от оборудования, которое нельзя быстро произвести, заменить и нельзя просто заказать с запасом, если ты не забронировал производственные слоты несколько лет назад. Разберемся, что именно увидели аналитики, почему Bloomberg говорит о трансформаторах, где сходятся разные исследования и почему задержки дата-центров могут стать одним из главных финансовых рисков текущего ИИ-цикла.

    habr.com/ru/companies/ru_mts/a

    #датацентры #ЦОД #OpenAI #Microsoft #инфраструктура #расследование #трансформаторы #AIинфраструктура #Stargate #SynMax

  4. Как понять, что мониторинг в ЦОДе шумит

    Днём на работе вокруг всегда коллеги, созвоны, обсуждения в чатах. Если что-то непонятно, можно быстро спросить совета у более опытных инженеров. Ночью всё по-другому. Дежурный остаётся один на один с системой оповещений, и разбираться приходится самостоятельно. Наверное, поэтому одна из самых странных вещей в мониторинге проявляется именно ночью. На одном из дежурств мне за несколько часов пришло больше десятка уведомлений. То температура в стойке подскочила на пару градусов. То CPU неожиданно преодолел порог. То один из дисков выдал предупреждение SMART. Конечно, я проверял каждый сигнал, смотрел графики, открывал логи и переключался между дашбордами. Но метрики и без этого возвращались к исходным значениям, и всё продолжало работать как обычно. К утру инфраструктура так и не полыхнула синим пламенем, зато система оповещений просто разрывалась. Так я впервые узнал об «усталости от алертов» и начал искать способ справиться с этой проблемой.

    habr.com/ru/companies/X5Tech/a

    #цод #мониторинг #алертинг #oncall #дежурства #инфраструктура #runbook #инциденты #резервирование #latency

  5. ИБП для промышленности: на что обратить внимание при выборе и в чем их отличия от ИБП для ЦОД?

    Промышленные трехфазные источники бесперебойного питания (ИБП) — это не просто «усиленная версия» решений для серверных или дата-центров. Это отдельный класс оборудования, спроектированный под специфические условия эксплуатации: агрессивные среды, нестабильные сети, высокие пусковые токи. Ошибка в выборе здесь может стоить не только издержек, связанных с простоем, но и повреждения оборудования или нарушения производственного процесса, что особенно критично для непрерывных процессов, например, переработки сырья. В этой статье разберем, чем промышленные трехфазные ИБП отличаются от решений для ЦОД, какие требования к ним предъявляются, и отдельно остановимся на важных технических особенностях. В завершение кратко рассмотрим пример решения — промышленные ИБП Uniprom Industrial от Systeme Electric.

    habr.com/ru/companies/se_blog/

    #ИБП #ЦОД #промышленность

  6. [Перевод] Четыре условия для размещения дата-центров в космосе

    SpaceX планирует вывести на орбиту до миллиона дата-центров. Но есть ряд барьеров От переводчика: кратко для тех, кому лень читать. В SpaceX наконец поняли: пора отправлять дата-центры в космос, раз на Земле им уже не хватает ни воды, ни розеток. Звучит круто, но у физики на этот счет другое мнение. Четыре барьера, из-за которых затея Маска рискует превратиться в самый дорогой склад металлолома на орбите: Перегрев: в космосе нет воздуха для обдува, а излучение отводит тепло слишком медленно. Сервера рискуют свариться при 80 °C. Радиация: космические лучи превращают обычные чипы в решето, вызывая ошибки и поломки. Защищенное железо стоит запредельно и дико тормозит. Орбитальный коллапс: разместить миллион спутников и не устроить бесконечную серию столкновений почти невозможно. Орбита не резиновая. Проблемы со стройкой: ракет нужного масштаба еще нет, а роботы, способные собирать гигантские ЦОД в вакууме, существуют только в виде прототипов. Итог: обработка фото прямо на спутниках — реальность ближайших лет. Глобальное облако на орбите — фантастика еще минимум на 30 лет.

    habr.com/ru/articles/1022392/

    #цод #датацентры #космос_будущего #космос #spacex #искусственный_интеллект #экология

  7. Моя поездка в русский ЦОД

    В прошлом месяце довелось побывать с научно-образовательной миссией в одном из современных ЦОДов, находящемся в московской промзоне. Там уже функционирует один большой корпус, ещё несколько на разных этапах строительства. В этой статье хочется поделиться своими впечатлениями и привести несколько, на мой взгляд, интересных фактов.

    habr.com/ru/articles/1022064/

    #цод #цоды #датацентр #датацентры #облако #облака #инженерия #инженерные_системы

  8. Low-latency инфраструктура: как устроены ЦОД и сети для минимизации задержек

    Здравствуйте! Меня зовут Максим Захаренко, я CEO облачной платформы и автор медиа « вАЙТИ ». Хочу поделиться нашим опытом и мыслями о том, как в России строится инфраструктура для облачных сервисов с минимальной задержкой (low-latency). Это взгляд изнутри — от лица провайдера, который каждый день сталкивается с задачей ускорения облака для B2B-клиентов. Поговорим о том, почему задержка — такой важный параметр, как устроены современные дата-центры и сети, какие решения применяем мы и другие российские компании и с какими вызовами приходится сталкиваться.

    habr.com/ru/companies/beeline_

    #low_latency_cloud #low_latency #облачная_инфраструктура #датацентр #цод #сетевые_технологии #openstack #kvm #виртуализация #vdi

  9. Low-latency инфраструктура: как устроены ЦОД и сети для минимизации задержек

    Здравствуйте! Меня зовут Максим Захаренко, я CEO облачной платформы и автор медиа « вАЙТИ ». Хочу поделиться нашим опытом и мыслями о том, как в России строится инфраструктура для облачных сервисов с минимальной задержкой (low-latency). Это взгляд изнутри — от лица провайдера, который каждый день сталкивается с задачей ускорения облака для B2B-клиентов. Поговорим о том, почему задержка — такой важный параметр, как устроены современные дата-центры и сети, какие решения применяем мы и другие российские компании и с какими вызовами приходится сталкиваться.

    habr.com/ru/companies/beeline_

    #low_latency_cloud #low_latency #облачная_инфраструктура #датацентр #цод #сетевые_технологии #openstack #kvm #виртуализация #vdi

  10. Low-latency инфраструктура: как устроены ЦОД и сети для минимизации задержек

    Здравствуйте! Меня зовут Максим Захаренко, я CEO облачной платформы и автор медиа « вАЙТИ ». Хочу поделиться нашим опытом и мыслями о том, как в России строится инфраструктура для облачных сервисов с минимальной задержкой (low-latency). Это взгляд изнутри — от лица провайдера, который каждый день сталкивается с задачей ускорения облака для B2B-клиентов. Поговорим о том, почему задержка — такой важный параметр, как устроены современные дата-центры и сети, какие решения применяем мы и другие российские компании и с какими вызовами приходится сталкиваться.

    habr.com/ru/companies/beeline_

    #low_latency_cloud #low_latency #облачная_инфраструктура #датацентр #цод #сетевые_технологии #openstack #kvm #виртуализация #vdi

  11. Low-latency инфраструктура: как устроены ЦОД и сети для минимизации задержек

    Здравствуйте! Меня зовут Максим Захаренко, я CEO облачной платформы и автор медиа « вАЙТИ ». Хочу поделиться нашим опытом и мыслями о том, как в России строится инфраструктура для облачных сервисов с минимальной задержкой (low-latency). Это взгляд изнутри — от лица провайдера, который каждый день сталкивается с задачей ускорения облака для B2B-клиентов. Поговорим о том, почему задержка — такой важный параметр, как устроены современные дата-центры и сети, какие решения применяем мы и другие российские компании и с какими вызовами приходится сталкиваться.

    habr.com/ru/companies/beeline_

    #low_latency_cloud #low_latency #облачная_инфраструктура #датацентр #цод #сетевые_технологии #openstack #kvm #виртуализация #vdi

  12. [Перевод] Бум искусственного интеллекта поверг небольшой городок в Пенсильвании в хаос

    Журналистка Ребекка Иган Маккарти опубликовала на сайте Grist репортаж, посвящённый ситуации с центрами обработки данных в США. В нём рассказывается о проблемах энергетики, экологии и отношении местного населения к развитию подобной инфраструктуры.

    habr.com/ru/articles/1012708/

    #сша #цод #центры_обработки_данных #искусственный_интеллект #энергетика #энергетическая_инфраструктура #экология #строительство #бум_ии #лоббизм

  13. Как мы построили отказоустойчивое облако для 1С: от локальных серверов к надежному резерву в ЦОД

    В крупных компаниях (да и в небольших, если уже совсем откровенно) остановка работы 1С — это не просто технический сбой. Это замороженные процессы, потерянные операции и упущенная выгода. Риск остановки 1С сильно повышается, если вся инфраструктура размещается исключительно на локальных серверах, которые в любой момент могут выйти из строя или потребовать планового обслуживания. Именно с такой ситуацией столкнулся один из наших клиентов, и в этой статье мы расскажем, как создали для него полноценное резервное облако, обеспечив непрерывность работы и защиту данных.

    habr.com/ru/companies/nubes/ar

    # #облачные_сервисы #облачные_технологии #цод #датацентр #бэкапы #резервное_копирование

  14. Новый ЦОД Рег.облака в Москве и зачем там GPU

    Привет, Хабр! На связи Илья Мартысь из Рег.облака. Сегодня расскажу, как мы переезжали в новый московский дата-центр, почему именно DataHouse «Магистральный-1» и при чем здесь серверы с NVIDIA H200.

    habr.com/ru/companies/runity/a

    #регоблако #цод #цоды #цод_в_москве #сервер #nvidia #gpu #серверы #серверное_администрирование #серверная

  15. Пока не превратилось в тыкву. Быстрый гайд по выбору импортонезависимого оборудования для ЦОД

    Привет, Хабр! Прошло 1,5 года с нашего первого разбора рынка оборудования для ЦОД . Тогда задачей было просто понять куда уходить с «циски» и дать заказчикам шорт-лист доступных производителей с ключевыми характеристиками железа. За это время вопрос «Кто вообще есть на рынке?» сменился резонным «Как это работает?». Мы запросили тонны спецификаций, провели много часов в лаборатории, чтобы понять как оборудование встанет в стек, ляжет ли при первой же нагрузке, позволяет ли оно построить полноценную фабрику. Мы встречались с вендорами, ездили на заводы, давали рекомендации по исправлению ошибок, смотрели как у них устроен менеджмент, сервисная поддержка, документация, насколько они готовы отвечать за свой продукт. Все это легло в обновленный обзор рынка решений для ЦОД, который мы упаковали в формат быстрого гайда: сравнительных таблиц с характеристиками вендоров. Смотришь колонку — и понимаешь, подходит ли вендор под твои задачи. А для тех, кто устал от онлайна и готов встретиться и пообщаться с коллегами по цеху - оставил ссылку в конце статьи.

    habr.com/ru/companies/k2tech/a

    #ЦОД #импортозамещение #отказоустойчивость_цод #cisco

  16. SERVER RACK от РЕМЕР: что внутри у российских укомплектованных серверных шкафов

    Любой, кто хоть раз проектировал серверную комнату или участвовал в расширении ЦОДа, знает одну простую вещь: самое веселое начинается не когда ты выбираешь оборудование, а когда пытаешься все это собрать вместе. Шкаф от одного производителя, PDU от другого, замки от третьего, кабель-менеджмент — вообще от четвертого. И вот ты сидишь с пятью спецификациями, тремя разными форматами крепления и нулевым желанием жить. Знакомо? Мировые лидеры, которые, впрочем, больше ничего не продают в России, уже давно предлагают на рынке объединенные шкаф, питание, мониторинг, СКУД и климат-контроль, уже увязанные между собой на уровне конструкции и софта. Но теперь подобные решения появились в портфеле российских производителей. Об этом и поговорим сегодня.

    habr.com/ru/companies/x-com/ar

    #ЦОД #сереры #шкафы #РЕМЕР #Server_Rack #xcomshop

  17. Темная сторона ИИ: как строительство новых дата-центров ускоряет климатический кризис

    Бум генеративного ИИ требует всё больше вычислительных мощностей — а значит, новых центров обработки данных. В 2026 году в США работает более 5 000 ЦОДов , по миру — свыше 8 000. По прогнозам Министерства энергетики США, в ближайшие четыре года ежегодно будут вводиться около 450 новых объектов, а суммарная мощность их энергопотребления вырастет с 100 до 200 ГВт. Но ИИ-инфраструктура — это не только серверы и чипы, а ещё и бетон. Дата-центры требуют массивных фундаментов и инженерных корпусов, а производство цемента даёт около 7–8% мировых выбросов CO₂. Чем быстрее растёт ИИ, тем больше строится ЦОДов — и тем выше углеродный след строительства. При этом крупнейшие технологические компании — Microsoft, Google, Amazon — декларируют углеродную нейтральность и снижение выбросов. Возникает очевидный вопрос: можно ли масштабировать ИИ и одновременно сокращать углеродный след? В статье разберёмся, как индустрия пытается решить это противоречие.

    habr.com/ru/companies/first/ar

    #энергетика #бетон #цод #ии #нейросети #углеродный_след

  18. KaaS в проде: Tanzu, Kubespray и путь к Cluster API

    Хабр, привет! На связи команда облачного провайдера Nubes. Когда мы решили запустить собственный Kubernetes as a Service, на поверхности все выглядело просто: развернуть кластеры, завернуть в удобный интерфейс и добавить автоматику. На практике же оказалось, что «ванильный» Kubernetes, Kubespray и вендорские платформы порой приносят хаос вместо готового сервиса. В этой статье рассказываем про наш путь, ставший чередой компромиссов, от которых мы устали. Как вместо трех лет разработки мы уложились в два месяца и от попыток собрать решение своими силами дошли до полноценного KaaS, построенного на базе платформы «Штурвал» .

    habr.com/ru/companies/nubes/ar

    #kubernetes #облачные_технологии #инфраструктура #цод

  19. 1000 серверов и один RedFish: управляем собственным ЦОД, используя современный протокол от DMTF

    Сегодня публикуем материал для тех, кого интересуют современные инструменты и протоколы управления ИТ-инфраструктурой. В своей статье по мотивам доклада с

    habr.com/ru/companies/oleg-bun

    #RedFish #DMTF #цод #IPMI #серверная_инфраструктура

  20. 1000 серверов и один RedFish: управляем собственным ЦОД, используя современный протокол от DMTF

    Сегодня публикуем материал для тех, кого интересуют современные инструменты и протоколы управления ИТ-инфраструктурой. В своей статье по мотивам доклада с

    habr.com/ru/companies/oleg-bun

    #RedFish #DMTF #цод #IPMI #серверная_инфраструктура

  21. 1000 серверов и один RedFish: управляем собственным ЦОД, используя современный протокол от DMTF

    Сегодня публикуем материал для тех, кого интересуют современные инструменты и протоколы управления ИТ-инфраструктурой. В своей статье по мотивам доклада с

    habr.com/ru/companies/oleg-bun

    #RedFish #DMTF #цод #IPMI #серверная_инфраструктура

  22. 1000 серверов и один RedFish: управляем собственным ЦОД, используя современный протокол от DMTF

    Сегодня публикуем материал для тех, кого интересуют современные инструменты и протоколы управления ИТ-инфраструктурой. В своей статье по мотивам доклада с

    habr.com/ru/companies/oleg-bun

    #RedFish #DMTF #цод #IPMI #серверная_инфраструктура

  23. Непосредственно миграция: искусство безболезненного переезда

    Итак, обследование проведено, целевая архитектура спроектирована. Для тех, кто не понимает о чем речь, предлагаю сделать шаг назад и ознакомиться с предыдущими этапами:

    habr.com/ru/companies/icore/ar

    #итинфраструктура #сервер #цод #серверная_оптимизация #хранение_данных #сетевые_технологии #сетевое_оборудование #itинфраструктура

  24. Почему SASE не заменяет NGFW: взгляд инженера по ИБ

    Привет, Хабр! Сейчас вокруг SASE в индустрии идут активные обсуждения, и может показаться, будто все традиционные решения безопасности вот-вот отправятся на свалку истории. На этом фоне всё чаще звучат вопросы о роли NGFW в современной архитектуре. Меня зовут Дмитрий Квашнин, я ведущий инженер-эксперт в компании Innostage. И в этой статье я хотел бы поделиться собственным взглядом на этот счёт. SASE и NGFW не конкуренты. Это скорее эволюционные ступени одной большой архитектуры. NGFW никуда не уходит. Он просто передает часть своих полномочий, превращаясь в ключевой элемент гибридной модели Zero Trust для защиты самого ценного. А SASE в это время решает задачи новой эпохи, где все распределено: удаленные сотрудники, филиалы и облачные сервисы.

    habr.com/ru/companies/innostag

    #NGFW #межсетевой_экран #SASE #Zero_Trust #информационная_безопасность #сетевая_безопасность #архитектура_безопасности #ЦОД #L7 #ZTNA

  25. Почему SASE не заменяет NGFW: взгляд инженера по ИБ

    Привет, Хабр! Сейчас вокруг SASE в индустрии идут активные обсуждения, и может показаться, будто все традиционные решения безопасности вот-вот отправятся на свалку истории. На этом фоне всё чаще звучат вопросы о роли NGFW в современной архитектуре. Меня зовут Дмитрий Квашнин, я ведущий инженер-эксперт в компании Innostage. И в этой статье я хотел бы поделиться собственным взглядом на этот счёт. SASE и NGFW не конкуренты. Это скорее эволюционные ступени одной большой архитектуры. NGFW никуда не уходит. Он просто передает часть своих полномочий, превращаясь в ключевой элемент гибридной модели Zero Trust для защиты самого ценного. А SASE в это время решает задачи новой эпохи, где все распределено: удаленные сотрудники, филиалы и облачные сервисы.

    habr.com/ru/companies/innostag

    #NGFW #межсетевой_экран #SASE #Zero_Trust #информационная_безопасность #сетевая_безопасность #архитектура_безопасности #ЦОД #L7 #ZTNA

  26. Почему SASE не заменяет NGFW: взгляд инженера по ИБ

    Привет, Хабр! Сейчас вокруг SASE в индустрии идут активные обсуждения, и может показаться, будто все традиционные решения безопасности вот-вот отправятся на свалку истории. На этом фоне всё чаще звучат вопросы о роли NGFW в современной архитектуре. Меня зовут Дмитрий Квашнин, я ведущий инженер-эксперт в компании Innostage. И в этой статье я хотел бы поделиться собственным взглядом на этот счёт. SASE и NGFW не конкуренты. Это скорее эволюционные ступени одной большой архитектуры. NGFW никуда не уходит. Он просто передает часть своих полномочий, превращаясь в ключевой элемент гибридной модели Zero Trust для защиты самого ценного. А SASE в это время решает задачи новой эпохи, где все распределено: удаленные сотрудники, филиалы и облачные сервисы.

    habr.com/ru/companies/innostag

    #NGFW #межсетевой_экран #SASE #Zero_Trust #информационная_безопасность #сетевая_безопасность #архитектура_безопасности #ЦОД #L7 #ZTNA

  27. Почему SASE не заменяет NGFW: взгляд инженера по ИБ

    Привет, Хабр! Сейчас вокруг SASE в индустрии идут активные обсуждения, и может показаться, будто все традиционные решения безопасности вот-вот отправятся на свалку истории. На этом фоне всё чаще звучат вопросы о роли NGFW в современной архитектуре. Меня зовут Дмитрий Квашнин, я ведущий инженер-эксперт в компании Innostage. И в этой статье я хотел бы поделиться собственным взглядом на этот счёт. SASE и NGFW не конкуренты. Это скорее эволюционные ступени одной большой архитектуры. NGFW никуда не уходит. Он просто передает часть своих полномочий, превращаясь в ключевой элемент гибридной модели Zero Trust для защиты самого ценного. А SASE в это время решает задачи новой эпохи, где все распределено: удаленные сотрудники, филиалы и облачные сервисы.

    habr.com/ru/companies/innostag

    #NGFW #межсетевой_экран #SASE #Zero_Trust #информационная_безопасность #сетевая_безопасность #архитектура_безопасности #ЦОД #L7 #ZTNA

  28. Роботы в дата-центре? Что им доверяют, и куда не пускают

    Роботы в ЦОДах — идея не новая: о них говорят более 10 лет, рисуя картины полностью автономных машинных залов [словно в фантастических романах и рассказах ]. На практике же индустрия пробует технологию «на вкус», экспериментируя с автономными тележками, манипуляторами и даже переоборудованными роботами-пылесосами. Мы в

    habr.com/ru/companies/beeline_

    #beeline_cloud #датацентры #цод #роботизация #роботы_в_цод #робототехника

  29. Глобальная балансировка веб-ресурсов в геораспределённой инфраструктуре

    Привет, Хабр! Если представить ваш высоконагруженный сайт в виде оркестра, а пользователей — в виде слушателей по всему миру (Москва, Владивосток, Берлин), то ситуация, когда все «музыканты» играют в одном ЦОДе, напоминает концерт, который кто-то слушает вживую, а кто-то — по плохой телефонной линии. Пинг растёт, пакеты теряются, трафик упирается в потолок возможностей ЦОДа, и в случае его отказа наступает тишина. Решение — вынести «сцены» ближе к «зрителям»: построить геораспределённую инфраструктуру и научиться направлять пользователей на ближайший живой узел. В этом материале, основанном на моём докладе для

    habr.com/ru/companies/oleg-bun

    #балансировка_нагрузки #высоконагруженные_системы #архитектура #цод #highload #балансировка #DNS

  30. Проектирование целевой архитектуры: второй шаг к быстрой и безопасной миграции ЦОД

    Обследование инфраструктуры мы пережили в первой части — и те, кто знаком с предысторией, понимают, что слово «пережили» здесь выбрано совсем не случайно. Теперь настало время двигаться дальше — к этапу, где уже не просто ищут проблемы, а проектируют мир, в котором эти проблемы не должны появляться вовсе: к целевой архитектуре. Именно на этом шаге закладывается каркас будущей ИТ-среды: определяются требования к производительности, формируются принципы отказоустойчивости, продумывается структура сетевого взаимодействия и планируется размещение оборудования. Промахнуться здесь — значит допустить трещину в фундаменте: сначала её может быть и не видно, но позже она обязательно даст о себе знать — либо на миграции, либо в самый неподходящий момент эксплуатации. И, как не сложно догадаться, оба варианта одинаково неприятны.

    habr.com/ru/companies/icore/ar

    #итинфраструктура #сервер #цод #серверная_оптимизация #хранение_данных #сетевые_технологии #сетевое_оборудование #itинфраструктура

  31. Облако без квестов: мы запустили h3llo cloud

    Мы запустили h3llo cloud — IaaS/PaaS‑облако на современном железе и собственной платформе. Идея простая: вы запускаете инфраструктуру, а не проходите квест «найди нужную галочку и дождись согласования». Если вам нужна мощность и гибкость облака, но хочется, чтобы всё было понятно, прозрачно и под вашим контролем — вы по адресу. На слайдах в галерее покажем, что вы получаете на старте и как быстро потестить h3llo cloud .

    habr.com/ru/specials/980198/

    #облако #облачные_сервисы #системное_администрирование #цод #iaas #paas #гибридное_облако #облачная_инфраструктура

  32. Байки из ЦОДа-3: план с «газелькой», испытание оттепелью и неожиданные соседи

    Привет, Хабр, на связи команда

    habr.com/ru/companies/T1Holdin

    #байки #цод #инженеры

  33. Я наконец-то понял, как открытость может помешать — и отчёт об аварии

    В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали. Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии. Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы. Так вот. Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр. Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным. Наверное. Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

    habr.com/ru/companies/ruvds/ar

    #ruvds_статьи #цод #авария #rca #ибп #резервное_питание #дизельгенераторные_установки #клиентский_сервис #failover

  34. Я наконец-то понял, как открытость может помешать — и отчёт об аварии

    В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали. Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии. Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы. Так вот. Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр. Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным. Наверное. Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

    habr.com/ru/companies/ruvds/ar

    #ruvds_статьи #цод #авария #rca #ибп #резервное_питание #дизельгенераторные_установки #клиентский_сервис #failover

  35. Я наконец-то понял, как открытость может помешать — и отчёт об аварии

    В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали. Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии. Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы. Так вот. Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр. Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным. Наверное. Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

    habr.com/ru/companies/ruvds/ar

    #ruvds_статьи #цод #авария #rca #ибп #резервное_питание #дизельгенераторные_установки #клиентский_сервис #failover

  36. Я наконец-то понял, как открытость может помешать — и отчёт об аварии

    В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали. Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии. Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы. Так вот. Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр. Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным. Наверное. Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

    habr.com/ru/companies/ruvds/ar

    #ruvds_статьи #цод #авария #rca #ибп #резервное_питание #дизельгенераторные_установки #клиентский_сервис #failover

  37. Как выглядит идеальный шторм в облаках, или насколько надежны современные облачные сервисы

    Привет, Хабр! Меня зовут Роман Путилов. Последние восемь лет я занимаюсь облачной инфраструктурой. SRE-процессы, SLA «пять девяток», регулярные инциденты и постмортемы – часть моей работы, а не только новостная повестка. За последние годы несколько крупных инцидентов в облаках показали, что одна ошибка может вырубить сразу несколько глобальных сервисов. На кейсах VK, ЕГРН, Яндекса, AWS, Google Cloud и CrowdStrike я разбираю, ведет ли консолидация инфраструктуры к цифровой катастрофе – идеальному шторму, где простая ошибка и несколько неудачных совпадений окажут такой разрушительный эффект, от которого уже нельзя будет оправиться. Будет полезно SRE, архитекторам, IT- и ИБ-руководителям.

    habr.com/ru/companies/cloud_ru

    #cloud_computing #disaster_recovery #incident #цод #авария #облако #windows

  38. Солнечные панели для ЦОДа выгоднее, чем АЭС

    Сегодня одна из главных проблем мировой экономики — как обеспечить электроэнергией сотни мощнейших дата-центров, которые строят по всему миру для обучения и инференса ИИ. Строительство этих дата-центров обеспечили 92% роста ВВП США в I кв. 2025 года, то есть без ИИ экономика сразу скатится в рецессию . Стройки ЦОДов, как строительство автобанов или небоскрёбов во времена великой депрессии, дают рабочие места и поддерживают экономику. С другой стороны, они потенциально ущемляют остальные сектора экономики , перетягивая рабочие места и инвестиции (это уже другая тема, которую мы здесь обсуждать не будем). Где же взять столько энергии, ведь текущих ТЭС никак не хватит на 280 гигантских ЦОДов , которые построят в ближайшие три года только в США. Один из выходов — установка модульных ядерных реакторов непосредственно возле ЦОДов, в этом направлении сейчас идут перспективные инженерные разработки. Но есть и другие варианты.

    habr.com/ru/companies/ultravds

    #аэс #солнечные_панели #цод #датацентры #атомная_энергия #солнечная_энергия #ultravds

  39. Обследование инфраструктуры: первый шаг к быстрой и безопасной миграции ЦОД

    Миграция ЦОД — не новая история. Казалось бы, про важность обследования инфраструктуры перед переездом уже знают все. Но на практике ошибки повторяются снова и снова — даже у тех, кто делает это не впервые. Меня зовут Артём, я ведущий инженер департамента информационных технологий в iCore. В этой статье я постарался собрать ключевые моменты, на которые стоит обратить внимание при обследовании инфраструктуры перед миграцией. Надеюсь, это поможет избежать распространенных проблем и упростит процесс миграции.

    habr.com/ru/companies/icore/ar

    #итинфраструктура #сервер #цод #серверная_оптимизация #хранение_данных #сетевые_технологии #сетевое_оборудование #itинфраструктура

  40. Работаем с фабрикой ЦОД без бубнов и плясок. Система управления Eltex ECCM

    Привет, Хабр! Мы провели вместе долгие часы, изучая коммутационное оборудование Eltex для ЦОД: строили фабрику , устраивали ей пожар нагрузочное тестирование , тестировали на совместимость с заморскими вендорами … Не знаю как вы, а я очень устал от всех этих команд, проверок и… страха, что вся конфигурация сбросится, не сохранится, и мне придется набивать всю конфигурацию с нуля. И тут я подумал, ведь у Eltex есть система управления ECCM, заточенная под их оборудование. Почему бы мне параллельно с написанием статей не применить ее, чтобы воспользоваться всем спектром возможностей? И вот она нарядная, на праздник к нам пришла…

    habr.com/ru/companies/k2tech/a

    #цод #eltex #импортозамещение #система_управления #управление_сетью #коммутаторы #российское_по #карта_сети

  41. Региональные дата-центры в России сейчас: на что это вообще похоже, и правда ли, что за МКАДом жизни нет

    Вот так выглядит ЦОД в Новосибирске В целом для коммерческих ЦОДов — правда, но есть и нюансы. Начнём с суровой реальности. У нас вся экономика, все деньги и штаб-квартиры сосредоточены в Москве и Петербурге. Дальше, особенно если смотреть за Урал, с точки зрения коммерческих ЦОДов — пустыня. Да, там есть богатый Екатеринбург, да, там есть Новосибирск, да, там есть Владивосток с его международной торговлей, но потребности в коммерческих ЦОДах нет. Это классическая проблема курицы и яйца. Коммерческий ЦОД строить там невыгодно, потому что нет клиентов, а клиентов нет, потому что нет нормальных ЦОДов. В регионах живут в основном каптивные ЦОДы. Это когда условная налоговая или какой-нибудь гигант вроде «Норникеля» строит объект чисто под себя. Им вообще всё равно, где строить: они делают по потребности, а не по условиям. Если госзаказчику по плану нужно построить ЦОД во Владимире или Ярославле — они построят там. Им не нужно бегать по рынку и искать заказчика, у них стопроцентная загрузка своими же расчётами или данными. Производственники могут построить хоть в тундре, и вопрос окупаемости за счёт внешних арендаторов там не стоит. А вот если ты хочешь построить коммерческий объект для сдачи стоек в аренду, то тут вступают в силу другие законы. В регионах просто нет такого объёма экономики, чтобы окупить полномасштабный ЦОД. Считается, что в регионе есть смысл начинать стройку, только если у тебя есть предзаказ («якорь») минимум на 60% мощностей. Если этого нет, то ты построишь коробку, которая будет генерировать убытки. Но начинается всё с дешёвого электричества, конечно. Оно важнее, чем аплинки.

    habr.com/ru/companies/ruvds/ar

    #цод #датацентры #колокация #маршрутизация #ddosзащита #vds #ruvds_статьи

  42. Региональные дата-центры в России сейчас: на что это вообще похоже, и правда ли, что за МКАДом жизни нет

    Вот так выглядит ЦОД в Новосибирске В целом для коммерческих ЦОДов — правда, но есть и нюансы. Начнём с суровой реальности. У нас вся экономика, все деньги и штаб-квартиры сосредоточены в Москве и Петербурге. Дальше, особенно если смотреть за Урал, с точки зрения коммерческих ЦОДов — пустыня. Да, там есть богатый Екатеринбург, да, там есть Новосибирск, да, там есть Владивосток с его международной торговлей, но потребности в коммерческих ЦОДах нет. Это классическая проблема курицы и яйца. Коммерческий ЦОД строить там невыгодно, потому что нет клиентов, а клиентов нет, потому что нет нормальных ЦОДов. В регионах живут в основном каптивные ЦОДы. Это когда условная налоговая или какой-нибудь гигант вроде «Норникеля» строит объект чисто под себя. Им вообще всё равно, где строить: они делают по потребности, а не по условиям. Если госзаказчику по плану нужно построить ЦОД во Владимире или Ярославле — они построят там. Им не нужно бегать по рынку и искать заказчика, у них стопроцентная загрузка своими же расчётами или данными. Производственники могут построить хоть в тундре, и вопрос окупаемости за счёт внешних арендаторов там не стоит. А вот если ты хочешь построить коммерческий объект для сдачи стоек в аренду, то тут вступают в силу другие законы. В регионах просто нет такого объёма экономики, чтобы окупить полномасштабный ЦОД. Считается, что в регионе есть смысл начинать стройку, только если у тебя есть предзаказ («якорь») минимум на 60% мощностей. Если этого нет, то ты построишь коробку, которая будет генерировать убытки. Но начинается всё с дешёвого электричества, конечно. Оно важнее, чем аплинки.

    habr.com/ru/companies/ruvds/ar

    #цод #датацентры #колокация #маршрутизация #ddosзащита #vds #ruvds_статьи

  43. Региональные дата-центры в России сейчас: на что это вообще похоже, и правда ли, что за МКАДом жизни нет

    Вот так выглядит ЦОД в Новосибирске В целом для коммерческих ЦОДов — правда, но есть и нюансы. Начнём с суровой реальности. У нас вся экономика, все деньги и штаб-квартиры сосредоточены в Москве и Петербурге. Дальше, особенно если смотреть за Урал, с точки зрения коммерческих ЦОДов — пустыня. Да, там есть богатый Екатеринбург, да, там есть Новосибирск, да, там есть Владивосток с его международной торговлей, но потребности в коммерческих ЦОДах нет. Это классическая проблема курицы и яйца. Коммерческий ЦОД строить там невыгодно, потому что нет клиентов, а клиентов нет, потому что нет нормальных ЦОДов. В регионах живут в основном каптивные ЦОДы. Это когда условная налоговая или какой-нибудь гигант вроде «Норникеля» строит объект чисто под себя. Им вообще всё равно, где строить: они делают по потребности, а не по условиям. Если госзаказчику по плану нужно построить ЦОД во Владимире или Ярославле — они построят там. Им не нужно бегать по рынку и искать заказчика, у них стопроцентная загрузка своими же расчётами или данными. Производственники могут построить хоть в тундре, и вопрос окупаемости за счёт внешних арендаторов там не стоит. А вот если ты хочешь построить коммерческий объект для сдачи стоек в аренду, то тут вступают в силу другие законы. В регионах просто нет такого объёма экономики, чтобы окупить полномасштабный ЦОД. Считается, что в регионе есть смысл начинать стройку, только если у тебя есть предзаказ («якорь») минимум на 60% мощностей. Если этого нет, то ты построишь коробку, которая будет генерировать убытки. Но начинается всё с дешёвого электричества, конечно. Оно важнее, чем аплинки.

    habr.com/ru/companies/ruvds/ar

    #цод #датацентры #колокация #маршрутизация #ddosзащита #vds #ruvds_статьи

  44. Региональные дата-центры в России сейчас: на что это вообще похоже, и правда ли, что за МКАДом жизни нет

    Вот так выглядит ЦОД в Новосибирске В целом для коммерческих ЦОДов — правда, но есть и нюансы. Начнём с суровой реальности. У нас вся экономика, все деньги и штаб-квартиры сосредоточены в Москве и Петербурге. Дальше, особенно если смотреть за Урал, с точки зрения коммерческих ЦОДов — пустыня. Да, там есть богатый Екатеринбург, да, там есть Новосибирск, да, там есть Владивосток с его международной торговлей, но потребности в коммерческих ЦОДах нет. Это классическая проблема курицы и яйца. Коммерческий ЦОД строить там невыгодно, потому что нет клиентов, а клиентов нет, потому что нет нормальных ЦОДов. В регионах живут в основном каптивные ЦОДы. Это когда условная налоговая или какой-нибудь гигант вроде «Норникеля» строит объект чисто под себя. Им вообще всё равно, где строить: они делают по потребности, а не по условиям. Если госзаказчику по плану нужно построить ЦОД во Владимире или Ярославле — они построят там. Им не нужно бегать по рынку и искать заказчика, у них стопроцентная загрузка своими же расчётами или данными. Производственники могут построить хоть в тундре, и вопрос окупаемости за счёт внешних арендаторов там не стоит. А вот если ты хочешь построить коммерческий объект для сдачи стоек в аренду, то тут вступают в силу другие законы. В регионах просто нет такого объёма экономики, чтобы окупить полномасштабный ЦОД. Считается, что в регионе есть смысл начинать стройку, только если у тебя есть предзаказ («якорь») минимум на 60% мощностей. Если этого нет, то ты построишь коробку, которая будет генерировать убытки. Но начинается всё с дешёвого электричества, конечно. Оно важнее, чем аплинки.

    habr.com/ru/companies/ruvds/ar

    #цод #датацентры #колокация #маршрутизация #ddosзащита #vds #ruvds_статьи

  45. Анатомия левиафана: как работают ЦОДы и в чём разница между Tier

    Для рядового пользователя ЦОД — это место, где хранятся фотографии и обрабатываются запросы ИИ-помощников. Однако это сложнейший инженерный организм, функционирующий на стыке термодинамики, электротехники, гидравлики и цифровой логики. Под катом попробую за одну статью объяснить вам логику работы дата-центров и рассказать, что вообще означают магические Tier. Читать

    habr.com/ru/companies/ruvds/ar

    #ЦОД #датацентр #центр_обработки_данных #tier #топология_N #ИБП #ruvds_статьи #modbus #bacnet #bms

  46. Инфраструктура как предел роста: как AI-пузырь переписал роль ЦОДов и облачных операторов

    ИИ вывел IT-индустрию в область физических пределов: энергии, охлаждения, поставок GPU и регулируемости данных. В этих условиях инфраструктура перестаёт быть обслуживающим сегментом и становится системным ограничителем всей цифровой экономики. Это текст о том, почему роль инфраструктурных компаний меняется не из-за хайпа на AI, а потому что физические и юридические лимиты растут быстрее, чем технологии, которые пытаются их обойти.

    habr.com/ru/articles/967842/

    #инфраструктура #цод #охлаждение #gpu #высоконагруженные_системы #машинное+обучение #локализация

  47. Как хостинг пережил дотком-кризис, когда многие ИТ-компании обанкротились

    В начале 2000-х ИТ-индустрия пережила драматичный обвал — лопнул пузырь доткомов. Казалось, вместе с сотнями стартапов должны были исчезнуть и те, кто обеспечивал работу интернета — хостинг-провайдеры и дата-центры. Многие из них действительно не пережили кризис. Однако сама индустрия хостинга не просто устояла, но и окрепла. Почему так произошло? Попробую разобрать события дотком-эры по всему миру и разобраться, какие уроки извлекла инфраструктурная отрасль. Читать

    habr.com/ru/companies/ruvds/ar

    #хостинг #доткомы #пузырь_доткомов #стартапы #итинфраструктура #облака #цод #датацентр #nasdaq #ruvds_статьи

  48. Готовьтесь, всё подорожает ещё раз

    Есть объективные факторы роста цен в ИТ — инфляция, кредитные ставки (их никто не снизил вслед за ставкой рефинансирования!), повышение страховых взносов для сотрудников и НДС. Как минимум это всё вместе уже обеспечит подорожание ИТ-услуг и инфраструктуры. И ещё есть субъективное ощущение, что в ИТ много денег и это что-то вроде новой нефтяной отрасли. А денег сейчас не хватает. Есть гипотеза, что сначала всех перепишут под льготы, а потом вместо льгот сначала переведут на общий режим, а затем и повысят налоговую нагрузку. Почему я так думаю — потому что у меня богатый опыт российского гражданина. И я уже вступил в реестр хостингов, который ни к чему не обязывал поначалу, но вот теперь это уже дорого и геморройно (но нужно). Вероятно, дальше будет ещё веселее. И у меня есть ощущение, что начало процесса мы уже наблюдаем по отмене части льгот для ИТ-компаний. Год назад я писал пост «Готовьтесь к росту цен», и так получилось, что в меня в профессиональной среде сначала кидались помидорами, потом начали цитировать, а потом текст скопировали для личных блогов от своего имени чуть ли не все топы сферы. Приятно, что мы запустили такую волну в рынок, но тема, конечно, печальная. Прошёл год, и пора снова посмотреть, что нас ждёт. Спойлер: вы, кажется, уже привыкли к плохим новостям, но жесть от этого никуда не делась.

    habr.com/ru/companies/ruvds/ar

    #рост_цен #сервер #рынок_хостинга #цод #налоги #кадровый_голод

  49. Российские коммутаторы Eltex для ЦОД. Часть 2 – нагрузочное тестирование

    И снова здравствуйте, коллеги! Продолжаем испытывать на прочность российское железо. В прошлый раз мы строили фабрику на коммутаторах Eltex . Поняли на практике, как ее правильно собирать и настраивать. Так вот, эта фабрика до сих пор работает и радует моё инженерное сердце! Но, как любая игрушка, через неделю она становится просто чем-то, что у тебя есть, а тебе хочется чего-то нового. И тут я вспомнил, как в детстве, вдоволь напускавшись бумажных самолетиков с друзьями, мы придумали сделать что-то ЯРКОЕ. И решили, что горящие самолетики – это круто! Было здорово. Знаю, о чем вы могли подумать. Нет, мы не будем поджигать нашу фабрику. 😊 Но устроим что-то жаркое… Нагрузочное тестирование! Зальем порты доступа гигабайтами трафика.

    habr.com/ru/companies/k2tech/a

    #коммутаторы #eltex #цод #импотозамещение #нагрузочное_тестирование

  50. Искал медь, а нашёл оптику — экономика апгрейда до 1,6 Тбит/с

    Привет, постоянные и не очень читатели! Были времена, когда админы дурели от этой прикормки 10 Гбит/c канала, а теперь такая пропускная способность — норма для роутера в прихожей (не у всех, но всё же). В ЦОДах же и 100 Гбит/c уже давно никого не удивят — у гиперскейлеров (Amazon, Microsoft, Google, Alibaba, экстремистская и запрещённая в России Meta) это дефолт, в энтерпрайзе и бизнесе разных размеров — активно внедряют. Компании уровня cloud-scale (те, что строят сервисы облачного уровня: Netflix, Spotify, Salesforce, Zoom) и гиперскейлеры уже переходят на 200 Гбит/c и тестируют 400/800 Гбит/c , ну а поскольку 200 мало чем отличается по стоимости инфраструктуры от 400, то некоторые сразу перескакивают, ведь легаси кабельное хозяйство (LC, MPO-12) всё равно не потянет эти апгрейды, надо всё перелопачивать на MPO-16, MPO-32 или новые форматы (QSFP-DD, OSFP). В общем, накопилось у меня пару идей, как собрать всё это в едином материале: обсудить, где шайба будет через время; подумать, а надо ли оно (апгрейд) вообще — и в довесок затронуть денежные вопросы: всякие CAPEX, TCO/ROI, ₽/(Гбит/c), ($/Gbps) и прочее экономическое непотребство. Присаживаемся, ложимся или в какой там позе вы читаете — и начинаем. Дропдаун

    habr.com/ru/companies/serverma

    #цод #сетевые_технологии #сетевое_оборудование #сетевая_инфраструктура #tco #roi #пропускная_способность #трансиверы #коммутаторы #датацентр