Кондиционирование дата-центров Gree
Решения для серверных с тепловыделением до 100 кВт
Эволюция требований к охлаждению современных ЦОД
Цифровая трансформация российской экономики и требования к локализации данных после 2022 года привели к взрывному росту строительства дата-центров в Москве и Московской области. Современные серверы с архитектурой GPU для машинного обучения и высокопроизводительных вычислений генерируют тепловые нагрузки до 100 кВт на стойку, что в 10 раз превышает плотность традиционных серверных.
Согласно исследованию DataLine: средняя плотность размещения в московских ЦОД выросла с 3.5 кВт/м² в 2020 году до 12.8 кВт/м² в 2024 году.
Архитектура прецизионных систем охлаждения Gree
Серия KFGD: воздушное охлаждение высокой плотности
- Нижняя подача воздуха через фальшпол для организации "холодного коридора"
- Вертикальное исполнение для экономии площади серверного зала
- Секционная компоновка с возможностью горячего обслуживания
- Антикоррозийное покрытие всех металлических поверхностей
Технология непрямого испарительного охлаждения
Для климатических условий Москвы Gree предлагает гибридные системы с непрямым испарительным охлаждением (IEC - Indirect Evaporative Cooling), которые используют энтальпию наружного воздуха для предварительного охлаждения.
Архитектура резервирования N+1 и N+2
Непрерывность работы дата-центра требует многоуровневого резервирования систем охлаждения. Gree предлагает гибкие схемы резервирования для различных уровней критичности.
Схема N+1 (базовое резервирование)
Для нагрузки 6,400 кВт устанавливается 6 модулей по 1,200 кВт. При выходе из строя одного модуля оставшиеся 5 обеспечивают 100% потребности. Вероятность отказа системы: менее 0.001% в год.
Схема 2N (полное дублирование)
Две независимые системы охлаждения по 6,400 кВт каждая обеспечивают максимальную надежность для критически важных ЦОД с возможностью полного обслуживания одной системы без влияния на работу.
Достижение энергоэффективности PUE < 1.45
Power Usage Effectiveness (PUE) рассчитывается как отношение общего энергопотребления дата-центра к потреблению IT-оборудования. Технологии Gree позволяют достичь показателей мирового уровня.
Кейс: дата-центр "Москва-1" в Зеленограде
Параметры проекта
Результаты эксплуатации
- Достигнутый PUE: 1.42 (среднегодовой), 1.31 в зимний период
- Время простоя за 2 года: 12 минут (превышение Tier III требований)
- Экономия электроэнергии: 2.1 ГВт·ч в год
- Срок окупаемости системы: 2.7 года
Система мониторинга и управления 24/7
Специализированный контроллер iDCIM (intelligent Data Center Infrastructure Management) обеспечивает комплексный мониторинг всех параметров системы охлаждения с точностью ±0.1°C для температуры и ±1% для влажности.
Предиктивная аналитика и машинное обучение
Алгоритмы машинного обучения анализируют исторические данные для прогнозирования отказов за 2-4 недели, оптимизации энергопотребления и планирования технического обслуживания на основе фактической наработки.
- Интеграция с DCIM-системами через BACnet, Modbus, SNMP v3, REST API
- Совместимость с российскими решениями "АйТеко DCIM" и "РТК-ДЦ"
- SMS и email оповещения при критических событиях
- Эскалация уведомлений при отсутствии реакции дежурного персонала
Стратегическая важность эффективного охлаждения ЦОД
Прецизионные системы охлаждения Gree представляют собой технологическую основу для создания энергоэффективных дата-центров нового поколения. Достижение коэффициента энергоэффективности PUE менее 1.45 не только снижает операционные расходы, но и способствует выполнению экологических обязательств по сокращению углеродного следа.
серия Airy new (13)
Серия G-Tech (4)
Серия Pular (18)
Cерия Soyal (6)
Серия Lyra (12)
Серия Bora (12)
Архивные модели (137)
Free Match R32 (47)
Super Free Match (35)
Free Match Архив (58)
Кассетные (40)
Канальные (50)
Колонные (8)
Напольно-потолочные (40)
GMV 4 (84)
GMV 5 (132)
GMV 6 (36)
Водяные (40)
Воздушные (16)
Фанкойлы (75)
Системы управления (10)