Архитектура суперкомпьютера

Проектирование высокопроизводительных компьютеров
Суперкомпьютер SGI Altix с 23 000 процессорами на объекте CINES во Франции

Подходы к архитектуре суперкомпьютеров претерпели кардинальные изменения с момента появления первых систем в 1960-х годах. Ранние архитектуры суперкомпьютеров, разработанные Сеймуром Крейем, опирались на компактные инновационные конструкции и локальный параллелизм для достижения превосходной вычислительной пиковой производительности. [1] Однако со временем потребность в увеличении вычислительной мощности открыла эру массивно-параллельных систем.

В то время как суперкомпьютеры 1970-х годов использовали всего несколько процессоров , в 1990-х годах начали появляться машины с тысячами процессоров, и к концу 20-го века нормой стали массивно-параллельные суперкомпьютеры с десятками тысяч коммерческих готовых процессоров. Суперкомпьютеры 21-го века могут использовать более 100 000 процессоров (некоторые из них являются графическими устройствами ), соединенных быстрыми соединениями. [2] [3]

На протяжении десятилетий управление плотностью тепла оставалось ключевой проблемой для большинства централизованных суперкомпьютеров. [4] [5] [6] Большое количество тепла, вырабатываемого системой, может также иметь другие последствия, такие как сокращение срока службы других компонентов системы. [7] Существовали различные подходы к управлению теплом, от прокачки Fluorinert через систему до гибридной системы жидкостно-воздушного охлаждения или воздушного охлаждения с обычными температурами кондиционирования воздуха . [8] [9]

Системы с огромным числом процессоров обычно выбирают один из двух путей: в одном подходе, например, в грид-вычислениях, вычислительная мощность большого числа компьютеров в распределенных, разнообразных административных доменах используется по мере необходимости, когда компьютер доступен. [10] В другом подходе большое число процессоров используется в непосредственной близости друг от друга, например, в компьютерном кластере . В такой централизованной массивно-параллельной системе скорость и гибкость межсоединений становятся очень важными, и современные суперкомпьютеры используют различные подходы, начиная от усовершенствованных систем Infiniband и заканчивая трехмерными торовыми межсоединениями . [11] [12]

Контекст и обзор

С конца 1960-х годов рост мощности и распространение суперкомпьютеров были драматичными, и основные архитектурные направления этих систем претерпели существенные изменения. В то время как ранние суперкомпьютеры полагались на небольшое количество тесно связанных процессоров, которые имели доступ к общей памяти , суперкомпьютеры 21-го века используют более 100 000 процессоров, соединенных быстрыми сетями. [2] [3]

На протяжении десятилетий управление плотностью тепла оставалось ключевой проблемой для большинства централизованных суперкомпьютеров. [4] Девиз Сеймура Крэя «выводим тепло» был центральным в его философии проектирования и продолжает оставаться ключевой проблемой в архитектурах суперкомпьютеров, например, в таких масштабных экспериментах, как Blue Waters . [4] [5] [6] Большое количество тепла, вырабатываемого системой, может также иметь другие эффекты, такие как сокращение срока службы других компонентов системы. [7]

Лезвие IBM HS22

Существуют различные подходы к управлению теплом, например , Cray 2 прокачивает Fluorinert через систему, в то время как System X использует гибридную жидкостно-воздушную систему охлаждения, а Blue Gene/P охлаждается воздухом при обычных температурах кондиционирования воздуха . [8] [13] [14] Тепло от суперкомпьютера Aquasar используется для обогрева университетского городка. [15] [16]

Плотность тепла, генерируемого суперкомпьютером, напрямую зависит от типа процессора, используемого в системе, причем более мощные процессоры, как правило, генерируют больше тепла, учитывая схожие базовые полупроводниковые технологии . [7] В то время как ранние суперкомпьютеры использовали несколько быстрых, тесно упакованных процессоров, которые использовали преимущества локального параллелизма (например, конвейерную обработку и векторную обработку ), со временем количество процессоров росло, и вычислительные узлы могли размещаться дальше, например, в компьютерном кластере , или могли быть географически рассредоточены в сетевых вычислениях . [2] [17] По мере роста количества процессоров в суперкомпьютере « частота отказов компонентов » начинает становиться серьезной проблемой. Если суперкомпьютер использует тысячи узлов, каждый из которых может выходить из строя в среднем один раз в год, то система будет испытывать несколько отказов узлов каждый день. [9]

Поскольку соотношение цены и производительности графических процессоров общего назначения (GPGPU) улучшилось, ряд суперкомпьютеров с петафлопсной производительностью, таких как Tianhe-I и Nebulae, начали полагаться на них. [18] Однако другие системы, такие как компьютер K, продолжают использовать обычные процессоры, такие как конструкции на базе SPARC , и общая применимость GPGPU в высокопроизводительных вычислительных приложениях общего назначения стала предметом дебатов, поскольку, хотя GPGPU можно настроить на хорошие результаты в определенных тестах, его общая применимость к повседневным алгоритмам может быть ограничена, если не будут приложены значительные усилия для настройки приложения в соответствии с этим. [19] Однако графические процессоры набирают популярность, и в 2012 году суперкомпьютер Jaguar был преобразован в Titan путем замены центральных процессоров на графические процессоры. [20] [21] [22]

По мере увеличения числа независимых процессоров в суперкомпьютере, способ, которым они получают доступ к данным в файловой системе , и то, как они совместно используют и получают доступ к вторичным ресурсам хранения, становится значимым. За эти годы было разработано несколько систем для распределенного управления файлами , например , IBM General Parallel File System , BeeGFS , Parallel Virtual File System , Hadoop и т. д. [23] [24] Ряд суперкомпьютеров из списка TOP100 , таких как Tianhe-I, используют файловую систему Linux Lustre . [4]

Ранние системы с несколькими процессорами

Серия компьютеров CDC 6600 была очень ранней попыткой суперкомпьютеров и получила свое преимущество над существующими системами, переложив работу на периферийные устройства , освободив центральный процессор (ЦП) для обработки фактических данных. С компилятором Minnesota FORTRAN 6600 мог поддерживать 500 килофлопс на стандартных математических операциях. [25]

Цилиндрическая форма ранних компьютеров Cray централизовала доступ, сохраняя короткие и равномерные расстояния. [3]

Другие ранние суперкомпьютеры, такие как Cray 1 и Cray 2 , которые появились позже, использовали небольшое количество быстрых процессоров, которые работали согласованно и были равномерно подключены к самому большому объему общей памяти , который можно было управлять в то время. [3]

Эти ранние архитектуры ввели параллельную обработку на уровне процессора с такими инновациями, как векторная обработка , при которой процессор может выполнять несколько операций за один такт , вместо того чтобы ждать последовательных циклов.

Со временем, по мере увеличения числа процессоров, возникли различные архитектурные проблемы. Две проблемы, которые необходимо решать по мере увеличения числа процессоров, — это распределение памяти и обработка. В подходе с распределенной памятью каждый процессор физически упакован близко к некоторой локальной памяти. Память, связанная с другими процессорами, затем «отдаляется» на основе параметров пропускной способности и задержки при неравномерном доступе к памяти .

В 1960-х годах конвейеризация рассматривалась как инновация, а к 1970-м годам использование векторных процессоров было хорошо устоявшимся. К 1980-м годам многие суперкомпьютеры использовали параллельные векторные процессоры. [2]

Относительно небольшое количество процессоров в ранних системах позволяло им легко использовать архитектуру общей памяти , которая позволяет процессорам получать доступ к общему пулу памяти. В ранние дни распространенным подходом было использование равномерного доступа к памяти (UMA), при котором время доступа к ячейке памяти было одинаковым для всех процессоров. Использование неравномерного доступа к памяти (NUMA) позволяло процессору получать доступ к собственной локальной памяти быстрее, чем к другим ячейкам памяти, в то время как архитектуры памяти только с кэшем (COMA) позволяли использовать локальную память каждого процессора в качестве кэша, что требовало координации при изменении значений памяти. [26]

По мере увеличения числа процессоров эффективная межпроцессорная связь и синхронизация на суперкомпьютере становится проблемой. Для достижения этой цели можно использовать ряд подходов. Например, в начале 1980-х годов в системе Cray X-MP использовались общие регистры . При таком подходе все процессоры имели доступ к общим регистрам , которые не перемещали данные вперед и назад, а использовались только для межпроцессорной связи и синхронизации. Однако присущие проблемы управления большим объемом общей памяти среди многих процессоров привели к переходу к более распределенным архитектурам . [27]

Массовый централизованный параллелизм

Шкаф Blue Gene /L, на котором изображены сложенные друг на друга лезвия , каждое из которых содержит много процессоров.

В 1980-х годах, по мере увеличения спроса на вычислительную мощность, началась тенденция к значительно большему количеству процессоров, что ознаменовало начало эпохи массивно-параллельных систем с распределенной памятью и распределенными файловыми системами , [2] учитывая, что архитектуры с общей памятью не могли масштабироваться до большого количества процессоров. [28] Гибридные подходы, такие как распределенная общая память, также появились после ранних систем. [29]

Подход к кластеризации компьютеров объединяет ряд легкодоступных вычислительных узлов (например, персональных компьютеров, используемых в качестве серверов) через быструю частную локальную сеть . [30] Действия вычислительных узлов координируются «кластерным промежуточным программным обеспечением», программным слоем, который находится поверх узлов и позволяет пользователям рассматривать кластер как в целом одну связную вычислительную единицу, например, с помощью концепции единого образа системы . [30]

Кластеризация компьютеров основана на централизованном подходе к управлению, который делает узлы доступными как оркестрованные общие серверы . Это отличается от других подходов, таких как одноранговые или сеточные вычисления , которые также используют много узлов, но с гораздо более распределенной природой . [30] К 21-му веку полугодовой список организации TOP500 из 500 самых быстрых суперкомпьютеров часто включает в себя много кластеров, например, самый быстрый в мире в 2011 году компьютер K с распределенной памятью , кластерной архитектурой. [31] [32]

При использовании большого количества локальных полунезависимых вычислительных узлов (например, в кластерной архитектуре) скорость и гибкость межсоединения становятся очень важными. Современные суперкомпьютеры используют различные подходы для решения этой проблемы, например, Tianhe-1 использует фирменную высокоскоростную сеть на основе Infiniband QDR, улучшенную с помощью процессоров FeiTeng-1000 . [4] С другой стороны, система Blue Gene /L использует трехмерное торовое межсоединение со вспомогательными сетями для глобальных коммуникаций. [11] При таком подходе каждый узел соединен со своими шестью ближайшими соседями. Похожий тор использовался Cray T3E . [12]

Массивные централизованные системы иногда используют специализированные процессоры, разработанные для конкретного приложения, и могут использовать микросхемы программируемых пользователем вентильных матриц (FPGA) для повышения производительности за счет отказа от универсальности. Примерами специализированных суперкомпьютеров являются Belle [33] , Deep Blue [34] и Hydra [35] для игры в шахматы , Gravity Pipe для астрофизики [36] , MDGRAPE-3 для вычисления структуры белка молекулярной динамики [37] и Deep Crack [38] для взлома шифра DES .

Массовый распределенный параллелизм

Пример архитектуры географически распределенной вычислительной системы, соединяющей множество узлов через сеть

Сетевые вычисления используют большое количество компьютеров в распределенных, разнообразных административных доменах. Это оппортунистический подход, который использует ресурсы всякий раз, когда они доступны. [10] Примером является BOINC — добровольная , добровольная сеточная система. [ 39] Некоторые приложения BOINC достигли многопетафлопсных уровней, используя около полумиллиона компьютеров, подключенных к Интернету, всякий раз, когда добровольные ресурсы становятся доступными. [40] Однако эти типы результатов часто не появляются в рейтингах TOP500 , поскольку они не запускают универсальный бенчмарк Linpack .

Хотя сетевые вычисления имели успех в параллельном выполнении задач, требовательные суперкомпьютерные приложения, такие как моделирование погоды или вычислительная гидродинамика, оставались вне досягаемости, отчасти из-за барьеров в надежном суб-назначении большого количества задач, а также надежной доступности ресурсов в определенный момент времени. [39] [41] [42]

В квазиоппортунистических суперкомпьютерах большое количество географически разнесенных компьютеров организовано со встроенными защитными мерами . [43] Квазиоппортунистический подход выходит за рамки добровольных вычислений в высокораспределенных системах, таких как BOINC , или общих вычислений в сетке в такой системе, как Globus, позволяя промежуточному программному обеспечению предоставлять почти бесшовный доступ ко многим вычислительным кластерам, так что существующие программы на таких языках, как Fortran или C, могут быть распределены между несколькими вычислительными ресурсами. [43]

Квазиоппортунистические суперкомпьютеры нацелены на предоставление более высокого качества обслуживания, чем оппортунистическое распределение ресурсов . [44] Квазиоппортунистический подход позволяет выполнять требовательные приложения в компьютерных сетях, устанавливая соглашения о распределении ресурсов на уровне сети; и отказоустойчивую передачу сообщений для абстрактной защиты от сбоев базовых ресурсов, тем самым поддерживая некоторый оппортунизм, при этом обеспечивая более высокий уровень контроля. [10] [43] [45]

Человек идет между стойками суперкомпьютера Cray XE6.

Архитектура суперкомпьютера IBM Blue Gene с воздушным охлаждением жертвует скоростью процессора ради низкого энергопотребления, чтобы большее количество процессоров могло использоваться при комнатной температуре, используя обычное кондиционирование воздуха. [14] [46] Система Blue Gene/P второго поколения имеет процессоры с интегрированной логикой связи между узлами. [47] Она энергоэффективна, достигая 371 MFLOPS/Вт . [48]

Компьютер K — это охлаждаемая водой , однородная процессорная система с распределенной памятью и кластерной архитектурой . [32] [49] Он использует более 80 000 процессоров SPARC64 VIIIfx , каждый с восемью ядрами , что в общей сложности составляет более 700 000 ядер — почти вдвое больше, чем любая другая система. Он включает в себя более 800 шкафов, каждый с 96 вычислительными узлами (каждый с 16 ГБ памяти) и 6 узлами ввода-вывода. Хотя он мощнее, чем следующие пять систем в списке TOP500 вместе взятые, при 824,56 MFLOPS/W он имеет самое низкое отношение мощности к производительности среди всех современных крупных суперкомпьютерных систем. [50] [51] Последующая система для компьютера K, называемая PRIMEHPC FX10 , использует то же самое шестимерное торическое соединение, но по-прежнему только один процессор на узел. [52]

В отличие от компьютера K, система Tianhe-1A использует гибридную архитектуру и объединяет центральные и графические процессоры. [4] Она использует более 14 000 процессоров общего назначения Xeon и более 7 000 графических процессоров общего назначения (GPGPU) Nvidia Tesla на примерно 3 500 блейдах . [53] Она имеет 112 компьютерных шкафов и 262 терабайта распределенной памяти; 2 петабайта дискового хранилища реализованы через кластеризованные файлы Lustre . [54] [55] [56] [4] Tianhe-1 использует собственную высокоскоростную коммуникационную сеть для соединения процессоров. [4] Собственная сеть межсоединений была основана на Infiniband QDR, улучшенной с помощью китайских процессоров FeiTeng-1000 . [4] В случае межсоединений система в два раза быстрее Infiniband, но медленнее, чем некоторые межсоединения на других суперкомпьютерах. [57]

Пределы конкретных подходов продолжают проверяться, поскольку границы достигаются посредством крупномасштабных экспериментов, например, в 2011 году IBM прекратила свое участие в проекте Blue Waters Petaflops в Университете Иллинойса. [58] [59] Архитектура Blue Waters была основана на процессоре IBM POWER7 и предполагала наличие 200 000 ядер с петабайтом «глобально адресуемой памяти» и 10 петабайт дискового пространства. [6] Цель устойчивого петафлопса привела к выбору дизайна, который оптимизировал производительность одного ядра и, следовательно, меньшее количество ядер. Затем ожидалось, что меньшее количество ядер поможет повысить производительность программ, которые плохо масштабировались для большого количества процессоров. [6] Большая архитектура глобально адресуемой памяти была направлена ​​на эффективное решение проблем адресации памяти для одного и того же типа программ. [6] Ожидалось, что Blue Waters будет работать на постоянной скорости не менее одного петафлопса и полагался на определенный подход с водяным охлаждением для управления теплом. За первые четыре года работы Национальный научный фонд потратил на проект около 200 миллионов долларов. Вскоре после этого IBM выпустила вычислительный узел Power 775, созданный на основе технологии этого проекта, но фактически отказалась от подхода Blue Waters. [58] [59]

Архитектурные эксперименты продолжаются в ряде направлений, например, система Cyclops64 использует подход «суперкомпьютер на чипе», в направлении от использования массивных распределенных процессоров. [60] [61] Каждый 64-битный чип Cyclops64 содержит 80 процессоров, и вся система использует архитектуру памяти с глобальной адресацией . [62] Процессоры соединены с помощью не блокирующего изнутри перекрестного коммутатора и взаимодействуют друг с другом через глобальную чередующуюся память. В архитектуре нет кэша данных , но половина каждого банка SRAM может использоваться как память scratchpad. [62] Хотя этот тип архитектуры допускает неструктурированный параллелизм в динамически несмежной системе памяти, он также создает проблемы в эффективном отображении параллельных алгоритмов в многоядерной системе. [61]

Смотрите также

Ссылки

  1. ^ Sao-Jie Chen; Guang-Huei Lin; Pao-Ann Hsiung; Yu-Hen Hu (9 февраля 2009 г.). Совместная разработка программного и аппаратного обеспечения мультимедийной платформы Soc. Springer. С.  70–72 . ISBN 978-1-4020-9622-8. Получено 15 июня 2012 г.
  2. ^ abcde Хоффман, Аллан Р. (1989). Суперкомпьютеры: направления в технологии и приложениях . Вашингтон, округ Колумбия: National Academy Press. С.  35–47 . ISBN 978-0-309-04088-4.
  3. ^ abcd Хилл, Марк Д.; Джуппи, Норман П .; Сохи, Гуриндар (2000). Чтения по компьютерной архитектуре . Сан-Франциско: Morgan Kaufmann. С.  40–49 . ISBN 978-1-55860-539-8.
  4. ^ abcdefghi Ян, Сюэ-Цзюнь; Ляо, Сян-Ке; Лу, Кай; Ху, Цин-Фэн; Сун, Цзюнь-Цян; Су, Джин-Шу (2011). «Суперкомпьютер TianHe-1A: аппаратное и программное обеспечение». Журнал компьютерных наук и технологий . 26 (3): 344–351 . doi :10.1007/s02011-011-1137-8. S2CID  1389468.
  5. ^ ab Murray, Charles J. (1997). Сверхлюди: история Сеймура Крея и технических волшебников, стоящих за суперкомпьютером. Нью-Йорк: John Wiley. С. 133–135. ISBN 978-0-471-04885-5.
  6. ^ abcde Biswas, Rupak, ed. (2010). Параллельная вычислительная гидродинамика: последние достижения и будущие направления: доклады 21-й Международной конференции по параллельной вычислительной гидродинамике . Ланкастер, Пенсильвания: DEStech Publications. стр. 401. ISBN 978-1-60595-022-8.
  7. ^ abc Юнге Хуанг, изд. (2008). Развитие суперкомпьютерных исследований . Нью-Йорк: Издательство Nova Science. стр.  313–314 . ISBN. 978-1-60456-186-9.
  8. ^ ab Tokhi, MO; Hossain, MA; Shaheed, MH (2003). Параллельные вычисления для обработки сигналов в реальном времени и управления . Лондон [ua]: Springer. стр.  201–202 . ISBN 978-1-85233-599-1.
  9. ^ ab Vaidy S. Sunderam, ed. (2005). Computational science -- ICCS 2005. 5-я международная конференция, Атланта, Джорджия, США, 22-25 мая 2005 г. : труды (1-е изд.). Берлин: Springer. стр.  60–67 . ISBN 978-3-540-26043-1.
  10. ^ abc Prodan, Radu; Thomas Fahringer (2007). Управление экспериментами в области сетевых вычислений, интеграция инструментов и научные рабочие процессы . Берлин: Springer. С.  1– 4. ISBN 978-3-540-69261-4.
  11. ^ ab Knight, Will (27 июня 2007 г.). «IBM создает самый мощный в мире компьютер». New Scientist .
  12. ^ аб Адига, Северная Каролина; Блюмрич, Массачусетс; Чен, Д.; Котеус, П.; Гара, А.; Джампапа, Мэн; Гейдельбергер, П.; Сингх, С.; Штайнмахер-Буроу, Б.Д.; Таккен, Т.; Цао, М.; Вранас, П. (март 2005 г.). «Сеть межсоединений тора Blue Gene/L» (PDF) . Журнал исследований и разработок IBM . 49 (2.3): 265–276 . doi :10.1147/rd.492.0265. Архивировано из оригинала (PDF) 15 августа 2011 г.{{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  13. ^ Варадараджан, С. (14 марта 2005 г.). «Основной доклад I: «System X создает суперкомпьютер Virginia Tech»". Труды 13-й Международной конференции по компьютерным коммуникациям и сетям (IEEE Cat No 04EX969) ICCCN-04 . стр. 1. doi :10.1109/ICCCN.2004.1401570. ISBN 978-0-7803-8814-7. ISSN  1095-2055.
  14. ^ ab Prickett Morgan, Timothy (22 ноября 2010 г.). "IBM раскрывает 20 петафлопс BlueGene/Q super". The Register .
  15. ^ "IBM Hot Water-Cooled Supercomputer Goes Live at ETH Zurich". HPCwire . Цюрих. 2 июля 2010 г. Архивировано из оригинала 13 августа 2012 г.
  16. ^ LaMonica, Martin (10 мая 2010 г.). «Суперкомпьютер IBM с жидкостным охлаждением нагревает здание». Green Tech . Cnet. Архивировано из оригинала 1 ноября 2013 г. Получено 5 февраля 2012 г.
  17. ^ Хендерсон, Гарри (2008). «Архитектура суперкомпьютера». Энциклопедия компьютерной науки и технологий . стр. 217. ISBN 978-0-8160-6382-6.
  18. Прикетт Морган, Тимоти (31 мая 2010 г.). «500 лучших суперов – Рассвет графических процессоров». The Register .
  19. ^ Райнер Келлер; Дэвид Крамер; Ян-Филипп Вайс (1 декабря 2010 г.). Столкновение с многоядерным вызовом: аспекты новых парадигм и технологий в параллельных вычислениях. Springer. С.  118– 121. ISBN 978-3-642-16232-9. Получено 15 июня 2012 г.
  20. Poeter, Damon (11 октября 2011 г.). «Суперкомпьютер Titan компании Cray для ORNL может стать самым быстрым в мире». PC Magazine .
  21. ^ Фельдман, Майкл (11 октября 2011 г.). «Графические процессоры превратят Jaguar от ORNL в 20-петафлопсный Titan». HPC Wire .
  22. ^ Прикетт Морган, Тимоти (11 октября 2011 г.). «Oak Ridge меняет пятна Jaguar с CPU на GPU». The Register .
  23. ^ Хай-Сян Линь; Майкл Александр; Мартти Форселл, ред. (2010). Семинары по параллельной обработке Euro-Par 2009: HPPC, HeteroPar, PROPER, ROIA, UNICORE, VHPC, Делфт, Нидерланды, 25-28 августа 2009 г.; семинары (Онлайн-Авг. ред.). Берлин: Шпрингер. п. 345. ИСБН 978-3-642-14121-8.
  24. ^ Райнер Думке; Рене Браунгартен; Гюнтер Бюрен (3 декабря 2008 г.). Измерение процессов разработки программного обеспечения и продуктов: международные конференции, IWSM 2008, MetriKon 2008 и Mensura 2008, Мюнхен, Германия, 18–19 ноября 2008 г.: Материалы. Спрингер. стр.  144–117 . ISBN. 978-3-540-89402-5. Получено 15 июня 2012 г.
  25. ^ Фриш, Майкл Дж. (декабрь 1972 г.). «Замечания по алгоритму 352 [S22], алгоритму 385 [S13], алгоритму 392 [D3]». Сообщения ACM . 15 (12): 1074. doi : 10.1145/361598.361914 . S2CID  6571977.
  26. ^ Эль-Ревини, Хешам; Мостафа Абд-Эль-Барр (2005). Современная компьютерная архитектура и параллельная обработка . Хобокен, Нью-Джерси: Wiley-Interscience. С.  77–80 . ISBN 978-0-471-46740-3.
  27. ^ JJ Dongarra; L. Grandinetti; J. Kowalik; GR Joubert (13 сентября 1995 г.). Высокопроизводительные вычисления: технологии, методы и приложения. Elsevier. стр.  123–125 . ISBN 978-0-444-82163-8. Получено 15 июня 2012 г.
  28. ^ Грег Астфалк (1996). Приложения на компьютерах с передовой архитектурой. SIAM. стр. 62. ISBN 978-0-89871-368-8. Получено 15 июня 2012 г.
  29. ^ Елица Протич; Мило Томашевич; Мило Томашевич; Велько Милутинович (1998). Распределенная разделяемая память: концепции и системы. Издательство Компьютерного общества IEEE. стр.  ix– x. ISBN 978-0-8186-7737-3. Получено 15 июня 2012 г.
  30. ^ abc Tomoya Enokido; Leonard Barolli; Makoto Takizawa, ред. (2007). Сетевые информационные системы: первая международная конференция, NBiS 2007, Регенсбург, Германия, 3-7 сентября 2007 г.: труды . Берлин: Springer. стр. 375. ISBN 978-3-540-74572-3.
  31. ^ Список TOP500 Для просмотра всех кластеров в списке TOP500 выберите «кластер» в качестве архитектуры в «меню подсписка» на сайте TOP500.
  32. ^ ab Yokokawa, M.; Shoji, Fumiyoshi; Uno, Atsuya; Kurokawa, Motoyoshi; Watanabe, Tadashi (22 августа 2011 г.). "Компьютер K: японский проект по разработке суперкомпьютера следующего поколения". Международный симпозиум IEEE/ACM по маломощной электронике и проектированию . стр.  371– 372. doi :10.1109/ISLPED.2011.5993668. ISBN 978-1-61284-658-3. S2CID  13436840.
  33. ^ Кондон, Дж. Х. и К. Томпсон, «Оборудование Belle Chess», В книге Advances in Computer Chess 3 (ред. М. Р. Кларк), Pergamon Press, 1982.
  34. ^ Сюй, Фэн-сюн (2002). За Deep Blue: Создание компьютера, который победил чемпиона мира по шахматам . Princeton University Press . ISBN 978-0-691-09065-8.
  35. ^ Доннингер, Крилли; Ульф Лоренц (2004). «Шахматный монстр Гидра». Программируемая на поле логика и ее применение . Конспект лекций по информатике. Том 3203. С.  927– 932. doi :10.1007/978-3-540-30117-2_101. ISBN 978-3-540-22989-6. S2CID  5467762.
  36. ^ Макино, Дзюнъитиро; Макото Тайдзи (1998). Научное моделирование с использованием компьютеров специального назначения: системы GRAPE . Чичестер [ua]: Wiley. ISBN 978-0-471-96946-4.
  37. ^ Пресс-релиз RIKEN, Завершение создания компьютерной системы производительностью один петафлопс для моделирования молекулярной динамики. Архивировано 2012-12-02 в Wayback Machine.
  38. ^ Electronic Frontier Foundation (1998). Взлом DES – Секреты исследований шифрования, политики прослушивания и проектирования чипов. Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
  39. ^ аб Вега, Франсиско Фернандес де Вега (2010). Эрик Канту-Пас (ред.). Параллельный и распределенный вычислительный интеллект (онлайн-авторское изд.). Берлин: Springer-Verlag. стр.  65–68 . ISBN. 978-3-642-10674-3.
  40. ^ Статистика BOIN, 2011 Архивировано 19 сентября 2010 г. на Wayback Machine
  41. ^ Guang R. Gao, ред. (2010). Языки и компиляторы для параллельных вычислений: 22-й международный семинар, LCPC 2009, Ньюарк, Делавэр, США, 8-10 октября 2009 г., пересмотренные избранные статьи (1-е изд.). Берлин: Springer. стр.  10–11 . ISBN 978-3-642-13373-2.
  42. ^ Марио Р. Гуаррачино, изд. (24 июня 2011 г.). Euro-par 2010, Семинары по параллельной обработке Heteropar, Hpcc, Hibb, Coregrid, Uchpc, Hpcf, Proper, Ccpi, Vhpc, Iscia, Италия, 31 августа – 3 сентября 2010 г. Берлин [ua]: Springer-Verlag New York Inc., стр.  274–277 . ISBN. 978-3-642-21877-4.
  43. ^ abc Кравцов, Валентин; Дэвид Кармели; Вернер Дубицки; Ариэль Орда; Ассаф Шустер; Бенни Йошпа (2007). «Квазиоппортунистические супервычисления в сетях». Международный симпозиум IEEE по высокопроизводительным распределенным вычислениям : 233–244 .
  44. ^ Мариан Бубак, ред. (2008). Computational science -- ICCS 2008 : 8-я международная конференция, Краков, Польша, 23-25 ​​июня 2008 г.; труды (Online-Ausg. ed.). Берлин: Springer. стр.  112–113 . ISBN 978-3-540-69383-3.
  45. ^ Габриэль Аллен , ред. (2009). Вычислительная наука - ICCS 2009: 9-я международная конференция, Батон-Руж, Луизиана, США, 25-27 мая 2009 г.; труды . Берлин: Springer. стр.  387–388 . ISBN 978-3-642-01969-2.
  46. ^ Кунья, Хосе К. (2005). Параллельная обработка Euro-Par 2005 . [Нью-Йорк]: Springer-Verlag Berlin/Heidelberg. стр.  560–567 . ISBN. 978-3-540-28700-1.
  47. ^ "IBM утроила производительность самого быстрого и энергоэффективного суперкомпьютера в мире". 2007-06-27. Архивировано из оригинала 8 июля 2007 года . Получено 2011-12-24 .
  48. ^ "The Green500 List". Архивировано из оригинала 2016-08-26 . Получено 2020-02-13 .
  49. ^ Список TOP500 Архивировано 20.01.2012 на Wayback Machine
  50. ^ Такуми Маруяма (2009). SPARC64(TM) VIIIfx: Новое поколение восьмиядерных процессоров Fujitsu для масштабных вычислений PETA (PDF) . Труды Hot Chips 21. IEEE Computer Society.
  51. ^ "RIKEN Advanced Institute for Computational Science" (PDF) . RIKEN . Архивировано из оригинала (PDF) 27 июля 2011 г. . Получено 20 июня 2011 г. .
  52. ^ Fujitsu представляет суперкомпьютер Post-K HPC Wire 7 ноября 2011 г.
  53. ^ "MSN". Архивировано из оригинала 2010-10-07.
  54. ^ «Китай ...» 28 октября 2010 г.
  55. ^ "Top100 ..." 28 октября 2010 г.
  56. ^ "Tianhe-1A". Архивировано из оригинала 2020-04-20 . Получено 2012-02-05 .
  57. ^ Тибодо, Патрик (4 ноября 2010 г.). «США говорят, что Китай строит «полностью местный» суперкомпьютер». Computerworld . Архивировано из оригинала 11 октября 2012 г. Получено 5 февраля 2012 г.
  58. ^ ab The Register: IBM дергает цепь на «Blue Waters» супер
  59. ^ ab "The Statesman Бизнес компьютеров IBM Unix процветает". Архивировано из оригинала 2011-08-06 . Получено 2012-02-05 .
  60. ^ Niu, Yanwei; Ziang Hu; Kenneth Barner ; Guang R. Gao (2005). "Performance Modeling and Optimization of Memory Access on Cellular Computer Architecture Cyclops64". Сетевые и параллельные вычисления . Lecture Notes in Computer Science. Vol. 3779. pp.  132– 143. doi :10.1007/11577188_18. ISBN 978-3-540-29810-6. {{cite book}}: |journal=проигнорировано ( помощь )
  61. ^ ab Tan, Guangming; Sreedhar, Vugranam C.; Gao, Guang R. (13 ноября 2009 г.). "Анализ и результаты производительности вычислительной промежуточной центральности на IBM Cyclops64". Журнал суперкомпьютеров . 56 (1): 1– 24. doi :10.1007/s11227-009-0339-9. S2CID  10976819.
  62. ^ ab Hai Jin; Daniel A. Reed; Wenbin Jiang (2005). Сетевые и параллельные вычисления: Международная конференция IFIP, NPC 2005, Пекин, Китай, 30 ноября - 3 декабря 2005 г.; Труды. Birkhäuser. стр.  132–133 . ISBN 978-3-540-29810-6. Получено 15 июня 2012 г.
Взято с "https://en.wikipedia.org/w/index.php?title=Архитектура_суперкомпьютера&oldid=1255464786"