iDataCool

Высокопроизводительный вычислительный кластер


iDataCool — это высокопроизводительный вычислительный кластер на базе модифицированной IBM System x iDataPlex . Кластер служит исследовательской платформой для охлаждения ИТ- оборудования горячей водой и эффективного повторного использования отходящего тепла. Проект реализуется физическим факультетом Университета Регенсбурга в сотрудничестве с IBM Research and Development Laboratory Böblingen и InvenSor. Он финансируется Немецким исследовательским фондом (DFG), немецкой землей Бавария и IBM.

Обзор

Высокопроизводительный вычислительный кластер iDataCool — это исследовательский проект по охлаждению горячей водой и повторному использованию энергии в центрах обработки данных . Отходящее тепло iDataCool используется для работы адсорбционного охладителя , который генерирует охлажденную воду . [1] Проект преследует следующие цели:

  • Доказательство принципа: компьютерный кластер промышленного уровня можно охлаждать горячей водой при температуре 65°C и выше.
  • Утилизация значительной части отработанного тепла
  • Эффективность повторного использования энергии (ERE) менее единицы
  • Разработка экономически эффективного технологического прототипа для будущих разработок в области проектирования и эксплуатации высокопроизводительных компьютеров.

Кластер iDataCool работает с охлаждением горячей водой с 2011 года. Поддержка инфраструктуры для повторного использования энергии была завершена в 2012 году. Участники проекта также принимали активное участие в других суперкомпьютерных проектах, таких как QCDOC и QPACE . SuperMUC основан на технологии охлаждения, изобретенной для QPACE , Aquasar и iDataCool. [2]

Исследовательский проект iDataCool был представлен на Международной конференции по суперкомпьютерам в Лейпциге, Германия, в 2013 году [1] , что привело к его освещению в нескольких статьях. [3] [4]

Предыстория и цель дизайна

Питание и охлаждение ИТ-оборудования являются основной проблемой для современных центров обработки данных . С 1996 года мировые расходы на питание и охлаждение ИТ-инфраструктуры выросли более чем в пять раз. [5] Традиционно центры обработки данных используют воздух в качестве основной охлаждающей среды для ИТ-оборудования. Хотя воздушное охлаждение является простым и гибким, оно также имеет некоторые недостатки, например, ограниченную плотность упаковки и ограниченные возможности повторного использования энергии. [6] Жидкостное охлаждение на основе воды в качестве хладагента является еще одним вариантом. Поскольку вода имеет очень высокую теплоемкость, большое количество тепла может быть удалено из системы при умеренных скоростях потока, что позволяет обеспечить более высокую плотность упаковки, что, в свою очередь, приводит к уменьшению площади пола. Жидкостное охлаждение недавно снова появилось в секторе высокопроизводительных вычислений . С 2009 года в списке Green500 самых энергоэффективных суперкомпьютеров доминируют конструкции с жидкостным охлаждением. [7]

Если конструкция системы жидкостного охлаждения допускает высокие температуры охлаждающей жидкости, энергия может быть сэкономлена или даже повторно использована, в зависимости от климатических условий и местной инфраструктуры. Например, свободное охлаждение возможно, если температура охлаждающей жидкости выше температуры окружающей среды. В этом случае энергия для охладителей может быть сэкономлена. Если температура охлаждающей жидкости еще выше, отходящее тепло от вычислительного оборудования может быть использовано для отопления или для приведения в действие адсорбционного охладителя для производства охлажденной воды. Первый вариант реализован, например, в Leibniz-Rechenzentrum в Германии, где SuperMUC управляет отоплением центра обработки данных зимой, при этом примерно 1 МВт рекуперируется от вычислительного оборудования. Последний вариант, который является целью проектирования iDataCool, требует высокого качества тепла , что может быть достигнуто только путем прямого охлаждения горячей водой. Одним из примеров прямого охлаждения горячей водой является проект Aquasar в ETH Zürich , который работает при температуре охлаждающей жидкости около 60 °C. Целью iDataCool было достижение температуры охлаждающей жидкости более 65°C, при которой коммерчески доступные адсорбционные охладители, как правило, становятся эффективными, а также демонстрация долгосрочной стабильности крупной производственной машины в этих условиях.

Архитектура

Установка iDataCool в Университете Регенсбурга состоит из трех стоек IBM System x iDataPlex [8] . Каждая стойка содержит 72 вычислительных узла. Вычислительный узел состоит из двух серверных процессоров Intel Xeon Westmere и организован как распределенная система общей памяти с 24 ГБ DDR3-SDRAM . Для связи между узлами используется коммутируемый Infiniband . Gigabit Ethernet используется для дискового ввода-вывода, работы системы и мониторинга.

Оригинальная система iDataPlex полностью охлаждается воздухом. Окружающий воздух в центре обработки данных втягивается через перфорированные передние двери, а горячий воздух выдувается обратно в центр обработки данных с задней стороны. Компоненты, которым требуется охлаждение, — это блоки питания , сетевые коммутаторы и вычислительные узлы. Блоки питания и коммутаторы работают на встроенных вентиляторах, которые создают необходимый поток воздуха, в то время как блоки вентиляторов используются для протягивания воздуха через вычислительные узлы, которые оснащены пассивными радиаторами .

Совместными усилиями группы физики частиц Университета Регенсбурга и научно-исследовательской лаборатории IBM в Бёблингене (Германия) было разработано решение для водяного охлаждения вычислительных узлов, которое полностью заменяет оригинальные вентиляторы и радиаторы. Процессоры охлаждаются специально разработанными медными радиаторами, через которые напрямую протекает вода. Это минимизирует разницу температур между вычислительными ядрами и охлаждающей жидкостью. Медный трубопровод обеспечивает поток воды и также термически связан с пассивными радиаторами для других компонентов, таких как память, чипсет и преобразователи напряжения.

Все преобразования исходного кластера iDataPlex были выполнены в Университете Регенсбурга. Новые разработанные детали были изготовлены в механическом цехе физического факультета университета. Центр обработки данных университета был расширен для обеспечения инфраструктуры жидкостного охлаждения. Система работает в стабильном производственном режиме при температуре охлаждающей жидкости до 70°C с 2011 года.

Повторное использование энергии

iDataCool позволяет охлаждать горячей водой при температуре до 70°C. [1] Отходящее тепло iDataCool приводит в действие низкотемпературный адсорбционный охладитель (LTC 09 от InvenSor), который эффективно работает уже при температуре около 65°C. Охладитель вырабатывает охлажденную воду , которая используется для охлаждения другого вычислительного оборудования в центре обработки данных. Установка была завершена летом 2012 года.

Смотрите также

Ссылки

  1. ^ abc N. Meyer et al., iDataCool: HPC с охлаждением горячей водой и повторным использованием энергии, Lecture Notes in Computer Science 7905 (2013) 383
  2. ^ Б. Мишель и др., Aquasar: Der Weg zu Optimum effizienten Rechenzentren [ постоянная мертвая ссылка ‍] , 2011 г.
  3. ^ IEEE Spectrum, Новые технологии обеспечивают прохладу в центрах обработки данных в теплом климате, 26 июня 2013 г.
  4. ^ R718.com, Адсорбционный охладитель, работающий на отходящем тепле, охлаждает вычислительный центр. Архивировано 17 января 2014 г. на Wayback Machine , 30 июля 2013 г.
  5. ^ IDC, Глобальное исследование серверов, 2009 г.
  6. ^ Н. Мейер и др., Требования к инфраструктуре центра обработки данных. Архивировано 03.06.2017 в Wayback Machine , Европейский проект Exascale DEEP , 2012 г.
  7. ^ Список Green500, http://www.green500.org/ Архивировано 26 августа 2016 г. на Wayback Machine
  8. ^ IBM System x iDataPlex dx360 M3, [1]
Взято с "https://en.wikipedia.org/w/index.php?title=IDataCool&oldid=1242835673"