Дата-Центр Для Технопарка: От «Бетонки» К Сертификации Tier Facility

При строительстве центра технической поддержки одного из крупнейших российских технопарков я отвечал за инженерную инфраструктуру.

Объект стал седьмым в России, сертифицированным по стандарту Tier Facility авторитетным международным институтом Uptime Institute. О том, чего нам это стоило, какие решения мы использовали и как проверяли дата-центр на соответствие международным стандартам, я расскажу в этом фотопосте.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Центр технической поддержки (ЦТП) технопарка «Жигулевская долина» представляет собой двухэтажное здание.

Он включает в себя шесть машинных залов общей площадью 843 квадратных метра.

м и вмещает 326 стоек средней мощностью 7 кВт каждая (максимальная нагрузка на стойку — 20 кВт).

И мы, специалисты компании «ЛАНИТ-Интеграция» , мы впервые увидели это на этапе бетонного каркаса.

В то время здесь не было никаких коммуникаций.

Нам предстояло создать всю инженерную и сетевую инфраструктуру, а также часть вычислительной инфраструктуры для автоматизации инженерных систем.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Для начала я расскажу немного о проекте в целом, а потом покажу всю «начинку».

Так, в центре технической поддержки «Жигулевской долины» необходимо было установить серверы, системы хранения данных и другое оборудование, необходимое жителям инновационного центра Самарской области.

Конечно, такое оборудование требует особых условий эксплуатации: электроснабжения, теплового режима, уровня влажности и т. д., поэтому экономически целесообразно было установить оборудование в одном месте.

Мы осмотрели здание, изучили имеющуюся у заказчика документацию и приступили к разработке проектной документации (которая должна была пройти государственную экспертизу).

Самая большая сложность заключалась в том, что на разработку проектной и рабочей документации нам дали всего три месяца.

Параллельно с рабочей документацией нам нужно было подготовить часть документации на английском языке для прохождения экспертизы международного Uptime Institute.

В рамках проекта нам предстояло:
  • сделать дата-центр энергоэффективным;
  • построить в короткие сроки;
  • сдать экзамен Uptime Institute и получить сертификат Tier III.
Поскольку плотность инженерных систем в дата-центре очень высока, а сроки сжаты, нам пришлось детально планировать работы, поставки материалов и оборудования.

Опять же из-за сжатых сроков мы решили использовать высокотехнологичные сборные модульные конструкции – с их помощью мы избежали дополнительных строительных работ, не сделали огнестойкие перегородки и мощную гидроизоляцию.

Такое решение защищает помещение от воды, огня, пыли и других факторов, опасных для ИТ-оборудования, а сборка модульной конструкции занимает всего 1-2 недели.

Изучив проект, приступили к разработке рабочей документации и заказу оборудования.

Кстати, об оборудовании: так как проект попал в кризисный год и возникли трудности с финансированием, пришлось подгонять все работы под финансовый план и прежде всего закупать дорогое крупногабаритное оборудование - цена на него было исправлено производителем.

Изменения в планах поставок техники потребовали еще более тщательного планирования.

Чтобы организовать работу 100-150 человек на объекте без простоев, команда проекта уделила большое внимание процедурам управления изменениями и рисками.

Основное внимание уделялось коммуникациям: любая информация о проблемах и задержках практически мгновенно передавалась по всей цепочке от мастеров до руководителя проекта и инженеров в головном офисе компании.

Команда проекта и менеджеры по закупкам работали в Москве, а основная команда работала непосредственно в технопарке.

Инженерам не раз приходилось ездить в командировки на объект для уточнения и корректировки проектных решений, а ведь от нашего московского офиса до технопарка почти 1000 км по трассе.

Непосредственно на объекте мы организовали строительный штаб – там проводились регулярные совещания с участием заказчика и руководителей работ, после чего вся обновленная текущая информация передавалась инженерной команде.

Мы набрали большую часть рабочих специальностей в регионе (до 150 человек), а узких специалистов и инженеров пришлось отправить в длительную командировку из Москвы.

В конце концов, все получилось.

Рассказ о главном тесте — сертификации Uptime Institute — я приберег на самый конец.

Теперь посмотрим, как все работает у нас.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Чтобы попасть в дата-центр, необходимо иметь RFID-пропуск и пройти идентификацию на входе в дата-центр.

Все двери в здании также под контролем; доступ в некоторые помещения действителен только после двойной идентификации сотрудника.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility



Структурированные кабельные системы



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Для сети передачи данных мы использовали коммутаторы HP FlexFabric и Juniper QFabric. Интеллектуальная СКС Panduit с системой управления физической инфраструктурой PanView iQ позволяет удаленно отслеживать и автоматически документировать состояние физического уровня сети, а также интеллектуально управлять полем коммутации.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Есть возможность отслеживать правильность подключения оборудования или нештатное подключение к портам СКС.

Претерминированные кабели позволяют при необходимости изменить конфигурацию СКС в тех участках, где это требуется.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility



Ээлектроснабжение дата-центра

В собственной трансформаторной подстанции ЦТП установлены 4 независимых трансформатора, которые подают электроэнергию на вводно-распределительные устройства (ВРУ1-4) ЦТП.

Общая выделенная мощность дата-центра составляет 4,7 МВт.

Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

От трансформаторной подстанции в ВРУ ЦОД отходят 8 независимых лучей и через систему гарантированного электроснабжения на базе дизельных роторных источников бесперебойного питания (ДДИУПС) питают 8 ВРУ ЦОД, 4 ВРУ бесперебойного питания и 4 ВРУ гарантированного питания.

.

Система электроснабжения построена по схеме 2Н, кабели входят с двух разных сторон здания дата-центра в два отдельных электрощита.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Схема 2N реализует резервирование источника питания.

Любой силовой луч на техническое обслуживание можно вывести из эксплуатации, при этом дата-центр будет полностью работоспособен.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Для бесперебойного и гарантированного электроснабжения мы установили дизель-динамические источники бесперебойного питания Piller. Мощность каждого составляет 1 МВт бесперебойного питания и 650 кВт гарантированной мощности, что позволяет обеспечить полноценную работу дата-центра.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

В случае отключения электроэнергии ротор вращается по инерции и электроустановка продолжает вырабатывать ток еще несколько секунд. Этого короткого промежутка времени достаточно, чтобы запустить дизель-генератор и выйти на рабочую скорость.

Таким образом, работа оборудования не прекращается ни на секунду.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Схема строительства N+1. При такой мощности, вырабатываемой за счет электроэнергии, дизель имеет высокий расход топлива – более 350 литров в час, что потребовало дополнительных внешних топливных емкостей объемом более 100 тонн дизельного топлива.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

В здании дата-центра имеется два отдельных электрощита.

В каждом имеется по 2 ВРУ систем бесперебойного питания и по 2 ВРУ систем гарантированного электропитания.

Диспетчерская система контролирует состояние всех автоматических выключателей.

Также установлены технологические приборы учета, позволяющие контролировать расход электроэнергии по каждому направлению электроснабжения.

Для обеспечения бесперебойной работы вспомогательных систем установлен шкаф со статическим электронным байпасом.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Система распределения также контролируется диспетчерской системой, каждая линия оснащена устройством учета процесса.

Распределительные шкафы располагаются в небольших залах; От них проходят линии к каждому серверному шкафу, в котором установлены два блока распределения питания.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

В больших залах для распределения электропитания использовался шинопровод. В отводных коробках каждый автомат также контролируется системой диспетчеризации, что позволяет постоянно получать полную картину о работе системы электроснабжения ЦОД.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Блоки распределения питания устанавливаются непосредственно в серверные шкафы для распределения электроэнергии.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility



Охлаждение залов

На первом этаже в аппаратно-машинных залах ЦТП охлаждение оборудования осуществляется с помощью внутрирядных прецизионных кондиционеров Emerson (ранее приобретенных заказчиком), а также с помощью водоохладителей и сухих градирен для подготовки холодной воды.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Для охлаждения залов второго этажа (с основной нагрузкой) мы использовали кондиционеры с рекуператором воздух-воздух.

Инновационная система охлаждения от AST Modular, включающая 44 модуля внешнего воздушного охлаждения Natural Free Cooling, развернута в четырех машинных залах на втором этаже.

Система состоит из двух разомкнутых контуров.

В одном из них циркулирует воздух из машинного помещения, а в другом через систему технологической вентиляции подается прохладный воздух с улицы.

Оба потока проходят через рекуперативный теплообменник, в котором происходит обмен тепла между наружным и внутренним воздухом.

Таким образом, оборудование может охлаждаться наружным воздухом до 90% времени года, что позволяет снизить затраты на традиционное активное охлаждение на 20-30% с использованием водоохладителей и сухих градирен.

Летом воздух охлаждается охлажденной водой из чиллеров.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

К началу проекта у нас уже был опыт создания подобных систем охлаждения: мы использовали Natural Fresh Aircooling в высокотехнологичном модульном дата-центре «ВымпелКома» в Ярославле.

Но в каждом новом проекте есть свои трудности.

Чтобы связать работу кондиционеров МНФК с приточными установками (подготавливающими уличный воздух и затем подающими его в технический коридор для МНФК), нам пришлось математически просчитать зависимость между объемами подаваемого и выбрасываемого вентустановками воздуха.

для кондиционеров MNFC. Это связано с тем, что объем воздуха, поступающего в технический коридор, не должен превышать определенного предела (чтобы не задушить вентиляторы кондиционера) и в то же время быть достаточным (чтобы воздух в коридоре не стать разреженным).



Холодильный центр на первом этаже и оборудование на крыше.

В холодильном центре (ХЦ) разместили чиллеры, насосные группы, теплообменники и т.д.

Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Водоохладители и сухие охладители используются для подачи холодной воды в установки естественного естественного охлаждения на втором этаже в жаркое время года и в кондиционеры на первом этаже в любое время.

Зимой вода охлаждается через теплообменник в холодильном центре и градирнях на крыше, что также дает возможность не включать чиллеры и экономить электроэнергию.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

По проекту нам нужно было установить большое количество оборудования на крыше ЦТП, поэтому пришлось практически построить третий этаж в виде стотонного каркаса и установить на нем около 60 тонн оборудования.

: градирни, длина которых достигала 14 м, и мощные вентиляционные установки высотой в человеческий рост.

Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

С градирнями мы, конечно, попотели: попробуйте поднять такую огромную штуку на крышу! Из-за больших габаритов техники пришлось сваривать специальную балку для разгрузки, а также использовать кран грузоподъемностью 160 тонн с большой стрелой, и даже этот кран местами тонул.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility



Пожарная безопасность

Для обеспечения пожарной безопасности на объекте развернуты системы пожарной сигнализации, раннего обнаружения пожара (аспирационная система – датчики, анализирующие состав воздуха), автоматического газового пожаротушения и система газоудаления, позволяющая удалять остатки газа после срабатывания системы пожаротушения.

был использован.

Система пожарной сигнализации работает следующим образом: датчики пожара в машинных, аппаратных и вспомогательных помещениях выдают соответствующие сигналы на центральную автоматическую станцию пожарной сигнализации, которая, в свою очередь, запускает систему автоматического газового пожаротушения, систему пожарной автоматики и оповещения, в зависимости от пожароопасных зон.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

В качестве основного использовалось оборудование ESMI (Schneider Electric).

Он выполнил все задачи по пожарной безопасности и отображается на рабочем месте оператора в диспетчерской.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility



Система автоматизации и диспетчеризации дата-центра

В большинстве дата-центров устанавливается только локальная автоматика с минимальным набором функций мониторинга, но у нас все подсистемы интегрированы в единое техническое решение с общей системой управления.

Система управления отслеживает состояние более 10 систем и отображает более 20 тысяч параметров.

Вы хотите знать температуру и влажность в компьютерных залах или вас интересует энергопотребление каждой ИТ-стойки? Без проблем.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

В рамках системы мониторинга и диспетчеризации мы использовали как систему SCADA, так и систему мониторинга и управления дата-центром.

Система SCADA (Диспетчерское управление и сбор данных) позволяет просматривать данные и управлять автоматикой установленного оборудования: чиллера, кондиционера, дизель-роторного ИБП, вентиляции, насосов и т.д. Система учета ресурсов дата-центра позволяет вести полный учет всего оборудования, установленного в стойках.

Он отображает аварийные сообщения и данные о состоянии оборудования в режиме реального времени с визуализацией на подробном плане компоновки.

Благодаря детализации мы можем увидеть любое устройство, находящееся в дата-центре.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Система позволяет моделировать нештатные ситуации и дает рекомендации по решению проблем, а также позволяет планировать и оптимизировать работу технических ресурсов дата-центра.

Здесь также осуществляется контроль и управление системами вентиляции (в том числе за температурой подаваемого ими воздуха, поскольку они участвуют в технологическом процессе охлаждения ИТ-оборудования).

Учитываются все параметры кондиционеров, вентиляционных установок и холодильных систем.

Система контролирует и контролирует состояние оборудования (и различных клапанов).

Кроме того, он дополнительно защищает оборудование от критических условий.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Система контролирует состояние всех основных устройств защиты в электрошкафах, а также энергопотребление на этих линиях.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Система позволяет отслеживать установленное оборудование в ИТ-стойках, а также хранить информацию о его принадлежности.

Сюда поступают данные из систем противопожарной защиты и систем безопасности зданий.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Управление зданием осуществляется с помощью решений, построенных на оборудовании Schneider Electric. Автоматизированная система диспетчеризации, контроля и управления инженерными системами предоставляет всю необходимую информацию диспетчеру на его рабочем месте.

Системы связаны между собой через технологический сегмент сети передачи данных.

Программное обеспечение устанавливается на виртуальные машины и обеспечивается резервное копирование данных.

Для обеспечения безопасности, видеонаблюдения и контроля доступа в дата-центре также установлено централизованное решение от Schneider Electric. Он предоставляет необходимую информацию в диспетчерскую систему центра обработки данных.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Все оборудование, о котором я рассказал, собрано в отказоустойчивой конфигурации и размещено в модульных помещениях «Умный Шелтер», которые обеспечивают надежную защиту ЦТП от огня, влаги, вибрации и других внешних воздействий.

Данное решение позволило сократить сроки реализации проекта.

На сборку одной комнаты уходило в среднем две недели.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility



Сдать экзамен «Огонь, вода и.

Uptime Institute»

Для сдачи экзамена на соответствие дата-центра стандартам Tier III Design и Tier III Facility нам пришлось оформить всю документацию в соответствии с требованиями Uptime Institute, пройти его сертификацию, а также установить и запустить все системы с использованием этой документации.

В финале мы прошли тестирование систем дата-центра на соответствие Tier III Facility. А это около 50 тестов!

Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Подготовка к испытаниям оказалась непростой: хотя сертификационная документация понятна, найти информацию о том, как проходила сертификация самого объекта, было крайне сложно (на тот момент дата-центр «Жигулевская долина» оказался седьмой дата-центр в России, проходящий сертификацию).

Много сил ушло на внутренний аудит (ранее были проведены нагрузочные тесты для заказчика).

Две недели мы проверяли все одно за другим в соответствии с проектной документацией и тестами, полученными от Uptime Institute, и все равно, конечно, нервничали во время сертификации.

Когда специалисты Uptime Institute приехали с проверкой в дата-центр и начали осматривать залы, я сделал для себя важный вывод на будущее — в команде должен быть один лидер, который возьмет на себя общение с «экспертами».

О том, кто станет таким человеком, нужно подумать еще на этапе формирования команды.

Мы пытались сделать именно это, и все же в процессе тестирования некоторые наши сотрудники попытались проявить инициативу.

Представители Uptime Institute, заметив сторонние обсуждения, сразу же задали дополнительные вопросы.

Первый день был ознакомительным: инспектор проверил дата-центр на соответствие проектной документации.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

На следующий день для ключевого тестирования Uptime Institute дата-центр должен был быть полностью загружен как по тепловому режиму, так и по энергопотреблению.

Нагрузка имитировалась специально установленными тепловыми пушками мощностью 30-100 кВт.

Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Для некоторых испытаний оборудование было переведено в критический режим, и были опасения, что системы не выдержат. Чтобы защитить оборудование от возможных последствий (как говорится, Бог бережет), мы пригласили инженеров производителей оборудования.

Один из инспекторов Uptime Institute Фред Дикерман наблюдал за всем происходящим из диспетчерской в режиме реального времени.

Автоматизированная система диспетчерского управления и множество датчиков позволяли следить за текущим состоянием оборудования и изменением температуры в машинных залах.

Результаты сертификации показали, что мы изначально заложили правильные технические решения, все правильно установили и запустили.

По мнению экспертов, этот дата-центр оказался единственным в России, прошедшим тест Uptime Institute без каких-либо замечаний.



Дата-центр для технопарка: от «бетонки» к сертификации Tier Facility

Хотите стать частью нашей команды? У нас есть вакансии для вас!

И напоследок видео о нашем проекте в Жигулевской долине.

Теги: #Управление проектами #ЦОД #ИТ-инфраструктура #ЦОД #Хранение данных #ланит #ИТ-стандарты #интеграция Ланит

Вместе с данным постом часто просматривают: