Кондиционирование дата-центров Gree
Решения для серверных с тепловыделением до 100 кВт
Эволюция требований к охлаждению современных ЦОД
Цифровая трансформация российской экономики и требования к локализации данных после 2022 года привели к взрывному росту строительства дата-центров в Москве и Московской области. Современные серверы с архитектурой GPU для машинного обучения и высокопроизводительных вычислений генерируют тепловые нагрузки до 100 кВт на стойку, что в 10 раз превышает плотность традиционных серверных.
Согласно исследованию DataLine: средняя плотность размещения в московских ЦОД выросла с 3.5 кВт/м² в 2020 году до 12.8 кВт/м² в 2024 году.
Архитектура прецизионных систем охлаждения Gree
Серия KFGD: воздушное охлаждение высокой плотности
- Нижняя подача воздуха через фальшпол для организации "холодного коридора"
- Вертикальное исполнение для экономии площади серверного зала
- Секционная компоновка с возможностью горячего обслуживания
- Антикоррозийное покрытие всех металлических поверхностей
Технология непрямого испарительного охлаждения
Для климатических условий Москвы Gree предлагает гибридные системы с непрямым испарительным охлаждением (IEC - Indirect Evaporative Cooling), которые используют энтальпию наружного воздуха для предварительного охлаждения.
Архитектура резервирования N+1 и N+2
Непрерывность работы дата-центра требует многоуровневого резервирования систем охлаждения. Gree предлагает гибкие схемы резервирования для различных уровней критичности.
Схема N+1 (базовое резервирование)
Для нагрузки 6,400 кВт устанавливается 6 модулей по 1,200 кВт. При выходе из строя одного модуля оставшиеся 5 обеспечивают 100% потребности. Вероятность отказа системы: менее 0.001% в год.
Схема 2N (полное дублирование)
Две независимые системы охлаждения по 6,400 кВт каждая обеспечивают максимальную надежность для критически важных ЦОД с возможностью полного обслуживания одной системы без влияния на работу.
Достижение энергоэффективности PUE < 1.45
Power Usage Effectiveness (PUE) рассчитывается как отношение общего энергопотребления дата-центра к потреблению IT-оборудования. Технологии Gree позволяют достичь показателей мирового уровня.
Кейс: дата-центр "Москва-1" в Зеленограде
Параметры проекта
Результаты эксплуатации
- Достигнутый PUE: 1.42 (среднегодовой), 1.31 в зимний период
- Время простоя за 2 года: 12 минут (превышение Tier III требований)
- Экономия электроэнергии: 2.1 ГВт·ч в год
- Срок окупаемости системы: 2.7 года
Система мониторинга и управления 24/7
Специализированный контроллер iDCIM (intelligent Data Center Infrastructure Management) обеспечивает комплексный мониторинг всех параметров системы охлаждения с точностью ±0.1°C для температуры и ±1% для влажности.
Предиктивная аналитика и машинное обучение
Алгоритмы машинного обучения анализируют исторические данные для прогнозирования отказов за 2-4 недели, оптимизации энергопотребления и планирования технического обслуживания на основе фактической наработки.
- Интеграция с DCIM-системами через BACnet, Modbus, SNMP v3, REST API
- Совместимость с российскими решениями "АйТеко DCIM" и "РТК-ДЦ"
- SMS и email оповещения при критических событиях
- Эскалация уведомлений при отсутствии реакции дежурного персонала
Стратегическая важность эффективного охлаждения ЦОД
Прецизионные системы охлаждения Gree представляют собой технологическую основу для создания энергоэффективных дата-центров нового поколения. Достижение коэффициента энергоэффективности PUE менее 1.45 не только снижает операционные расходы, но и способствует выполнению экологических обязательств по сокращению углеродного следа.