Самые мощные суперэвм представлены серией. Самые мощные суперкомпьютеры в мире

Ранее занимавший первое место суперкомпьютер K Computer отодвинут на третье место. Его производительность составляет 11,28 Пфлопс (см. Рисунок 1). Напомним, что флопс (FLoating-point Operations Per Second, FLOPS) - это единица измерения производительности компьютеров, которая показывает, сколько операций с плавающей запятой в секунду способна выполнить данная вычислительная система.

K Computer является совместной разработкой Института физико-химических исследований Рикагаку Кенкийо (RIKEN) и Fujitsu. Он создавался в рамках инициативы High-Performance Computing Infrastructure (Инфраструктура высокопроизводительных компьютерных вычислений), возглавляемой японским министерством образования, культуры, спорта, науки и технологий (MEXT). Суперкомпьютер установлен на территории Института передовых вычислительных наук в японском городе Кобе.

В основу суперкомпьютера положена архитектура распределенной памяти. Система состоит из более чем 80 000 вычислительных узлов и размещается в 864 стойках, каждая из которых вмещает 96 вычислительных узлов и 6 узлов ввода/вывода. Узлы, содержащие по одному процессору и по 16 Гбайт оперативной памяти, соединяются между собой в соответствии с топологией «шестимерная петля / тор». В общей сложности в системе используется 88 128 восьмиядерных процессоров SPARC64 VIIIfx (705 024 ядра), произведенных Fujitsu по технологии 45 нм.

Этот суперкомпьютер общего назначения обеспечивает высокий уровень производительности и поддержку широкого ряда приложений. Система используется для проведения исследований в области климатических изменений, предотвращения стихийных бедствий и медицины.

Уникальная система водяного охлаждения позволяет снизить вероятность отказа оборудования и сократить общее энергопотребление. Экономия энергии достигается за счет применения высокоэффективного оборудования, системы когенерации тепло- и электроэнергии и массива солнечных батарей. Кроме того, механизм повторного использования отработанной воды из охладителя позволяет снизить негативное влияние на окружающую среду.

Здание, в котором расположен K Computer, является сейсмоустойчивым и способно выдерживать землетрясения магнитудой 6 и более баллов по японской шкале (0–7). Для более эффективного размещения стоек с оборудованием и кабелей третий этаж размером 50 × 60 м полностью освобожден от несущих колонн. Современные технологии строительства позволили обеспечить допустимый уровень нагрузки (до 1 т/м 2) для установки стоек, вес которых может достигать 1,5 т.

СУПЕРКОМПЬЮТЕР SEQUOIA

Суперкомпьютер Sequoia, установленный в Ливерморской национальной лаборатории им. Лоуренса, обладает производительностью 16,32 Пфлопс и занимает вторую строчку рейтинга (см. Рисунок 2).

Этот петафлопсный суперкомпьютер, разработанный компанией IBM на базе Blue Gene/Q, создан для Национальной администрации по ядерной безопасности США (NNSA) в рамках реализации программы Advanced Simulation and Computing (Высокотехнологичное моделирование и компьютерные вычисления).

Система состоит из 96 стоек и 98 304 вычислительных узлов (1024 узла на стойку). Каждый узел включает в себя 16-ядерный процессор PowerPC A2 и 16 Гбайт оперативной памяти DDR3. В целом используется 1 572 864 процессорных ядра и 1,6 Пбайт памяти. Узлы соединяются между собой в соответствии с топологией «пятимерный тор». Занимаемая системой площадь равна 280 м2. Общее энергопотребление составляет 7,9 МВт.

На суперкомпьютере Sequoia впервые в мире были проведены научные вычисления, для которых требовалась вычислительная мощность более 10 Пфлопс. Так, системе космологического моделирования HACC потребовалось около 14 Пфлопс при запуске в режиме 3,6 трлн частиц, а во время запуска кода проекта Cardiod для моделирования электрофизиологии человеческого сердца производительность достигла почти 12 Пфлопс.

СУПЕРКОМПЬЮТЕР TITAN

Самым быстрым в мире суперкомпьютером был признан суперкомпьютер Titan, установленный в Окриджской национальной лаборатории (ORNL) в США. В тестовых испытаниях Linpack его производительность составила 17,59 Пфлопс.

В Titan реализована гибридная архитектура CPU-GPU (см. Рисунок 3). Система состоит из 18 688 узлов, каждый из которых оснащен 16-ядерным процессором AMD Opteron и графическим ускорителем Nvidia Tesla K20X. В общей сложности используется 560 640 процессоров. Titan представляет собой обновление ранее эксплуатировавшегося в ORNL суперкомпьютера Jaguar и занимает те же серверные шкафы (общей площадью 404 м 2).

Возможность использования уже существующих систем питания и охлаждения позволила сэкономить в ходе строительства около 20 млн долларов. Энергопотребление суперкомпьютера составляет 8,2 МВт, что на 1,2 МВт больше показателей Jaguar, при этом его производительность при выполнении операций с плавающей точкой выше почти в 10 раз.

Titan в первую очередь будет использоваться для проведения исследований в области науки о материалах и ядерной энергетики, а также исследований, касающихся повышения эффективности работы двигателей внутреннего сгорания. Кроме того, с его помощью будут выполняться моделирование климатических изменений и анализ потенциальных стратегий по устранению связанных с ними негативных последствий.

САМЫЙ «ЗЕЛЕНЫЙ» СУПЕРКОМПЬЮТЕР

Помимо рейтинга Top500, нацеленного на определение наиболее высокопроизводительной системы, существует рейтинг Green500, где отмечены самые «зеленые» суперкомпьютеры. Здесь за основу принят показатель энергоэффективности (Мфлопс/Вт). На данный момент (последний выпуск рейтинга - ноябрь 2012 года) лидером Green500 является суперкомпьютер Beacon (253-е место в Top500). Показатель его энергоэффективности составляет 2499 Мфлопс/Вт.

Beacon работает на базе сопроцессоров Intel Xeon Phi 5110P и процессоров Intel Xeon E5-2670, поэтому пиковая производительность может достигать 112 200 Гфлопс при общем энергопотреблении в 44,9 кВт. Сопроцессоры Xeon Phi 5110P обеспечивают высокую производительность при низком энергопотреблении. Каждый сопроцессор обладает мощностью в 1 Тфлопс (при выполнении операций с двойной точностью) и поддерживает до 8 Гбайт памяти класса GDDR5 с пропускной способностью в 320 Гбит/с.

Пассивная система охлаждения Xeon Phi 5110P рассчитана на TDP 225 Вт, что является идеальным показателем для серверов высокой плотности.

СУПЕРКОМПЬЮТЕР EURORA

Однако в феврале 2013 года появились сообщения о том, что суперкомпьютер Eurora, расположенный в городе Болонья (Италия), по энергоэффективности превзошел Beacon (3150 Мфлопс/ватт против 2499 Мфлопс/Вт).

Eurora построен компанией Eurotech и состоит из 64 узлов, каждый из которых включает в себя два процессора Intel Xeon E5-2687W, два ускорителя Nvidia Tesla K20 GPU и другое оборудование. Габариты подобного узла не превышают габаритов ноутбука, однако их производительность выше в 30 раз, а энергопотребление ниже в 15 раз.

Высокая эффективность энергопотребления в Eurora достигнута путем использования нескольких технологий. Наибольший вклад вносит водяное охлаждение. Так, каждый узел суперкомпьютера представляет собой своеобразный бутерброд: центральное оборудование снизу, водяной теплообменник в середине и еще один блок электроники сверху (см. Рисунок 4).

Столь высокие результаты обеспечиваются благодаря применению материалов с хорошей теплопроводностью, а также разветвленной сетью охлаждающих каналов. При установке нового вычислительного модуля его каналы совмещаются с каналами системы охлаждения, что позволяет менять конфигурацию суперкомпьютера в зависимости от конкретных потребностей. По заверению производителей, риск протечек исключен.

Электропитание элементов суперкомпьютера Eurora осуществляется посредством 48-вольтовых источников постоянного тока, внедрение которых позволило сократить число преобразований энергии. Наконец, отводимая от вычислительного оборудования теплая вода может использоваться и в других целях.

ЗАКЛЮЧЕНИЕ

Отрасль суперкомпьютеров активно развивается и ставит все новые и новые рекорды производительности и энергоэффективности. Следует отметить, что именно в этой отрасли, как нигде более, сегодня широко применяются технологии жидкостного охлаждения и 3D-моделирования, так как перед специалистами стоит задача скомпоновать сверхмощную вычислительную систему, которая была бы способна функционировать в ограниченном объеме при минимальных потерях энергии.

Юрий Хомутский - главный инженер проектов компании «Ай-Теко». С ним можно связаться по адресу: [email protected] . В статье использованы материалы интернет-портала о центрах обработки данных «www.AboutDC.ru - Решения для ЦОД».

Главная → История отечественной вычислительной техники → Суперкомпьютеры

Суперкомпьютеры

Андрей Борзенко

Суперкомпьютерами называют самые быстрые компьютеры. Их основное отличие от мэйнфреймов состоит в следующем: все ресурсы такого компьютера обычно направлены на то, чтобы решить одну или в крайнем случае несколько задач насколько возможно быстро, тогда как мэйнфреймы, как правило, выполняют довольно большое число задач, конкурирующих друг с другом. Бурное развитие компьютерной индустрии определяет относительность базового понятия — то, что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не подпадает. Существует и такое шутливое определение суперкомпьютера — это устройство, сводящее проблему вычислений к проблеме ввода-вывода. Впрочем, и в нем есть доля истины: часто единственным узким местом в быстродействующей системе остаются именно устройства ввода-вывода. Узнать, какие суперкомпьютеры в настоящее время имеют максимальную производительность, можно из официального списка пятисот самых мощных систем мира — Top500 (http://www.top500.org), который публикуется два раза в год.

В любом компьютере все основные параметры тесно связаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память либо огромную оперативную память и небольшой объем дисков. По этой причине и суперкомпьютеры характеризуются в настоящее время не только максимальной производительностью, но и максимальным объемом оперативной и дисковой памяти. Обеспечение таких технических характеристик обходится довольно дорого — стоимость суперкомпьютеров чрезвычайно высока. Какие же задачи настолько важны, что требуют систем стоимостью в десятки и сотни миллионов долларов? Как правило, это фундаментальные научные или инженерные вычислительные задачи с широкой областью применения, эффективное решение которых возможно только при наличии мощных вычислительных ресурсов. Вот лишь некоторые области, где возникают задачи подобного рода:

  • предсказания погоды, климата и глобальных изменений в атмосфере;
  • науки о материалах;
  • построение полупроводниковых приборов;
  • сверхпроводимость;
  • структурная биология;
  • разработка фармацевтических препаратов;
  • генетика человека;
  • квантовая хромодинамика;
  • астрономия;
  • автомобилестроение;
  • транспортные задачи;
  • гидро- и газодинамика;
  • управляемый термоядерный синтез;
  • эффективность систем сгорания топлива;
  • разведка нефти и газа;
  • вычислительные задачи в науках о Мировом океане;
  • распознавание и синтез речи;
  • распознавание изображений.

Суперкомпьютеры считают очень быстро благодаря не только использованию самой современной элементной базы, но и новым решениям в архитектуре систем. Основное место здесь занимает принцип параллельной обработки данных, воплощающий идею одновременного (параллельного) выполнения нескольких действий. Параллельная обработка имеет две разновидности: конвейерность и собственно параллельность. Суть конвейерной обработки заключается в том, чтобы выделить отдельные этапы выполнения общей операции, причем каждый этап, выполнив свою работу, передает результат следующему, одновременно принимая новую порцию входных данных. Очевидный выигрыш в скорости обработки получается за счет совмещения прежде разнесенных во времени операций.

Если некое устройство выполняет одну операцию за единицу времени, то тысячу операций оно выполнит за тысячу единиц. Если имеется пять таких же независимых устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить уже не за тысячу, а за двести единиц времени. Аналогично система из N устройств ту же работу выполнит за 1000/N единиц времени.

Конечно, сегодня параллелизмом в архитектуре компьютеров уже мало кого удивишь. Все современные микропроцессоры используют тот или иной вид параллельной обработки даже в рамках одного кристалла. Вместе с тем сами эти идеи появились очень давно. Изначально они внедрялись в самых передовых, а потому единичных компьютерах своего времени. Здесь особая заслуга принадлежит компаниям IBM и Control Data Corporation (CDC). Речь идет о таких нововведениях, как разрядно-параллельная память, разрядно-параллельная арифметика, независимые процессоры ввода-вывода, конвейер команд, конвейерные независимые функциональные устройства и т. д.

Обычно слово «суперкомпьютер» ассоциируется с компьютерами марки Cray, хотя сегодня это уже далеко не так. Разработчиком и главным конструктором первого суперкомпьютера был Сеймур Крэй — один из самых легендарных личностей в компьютерной отрасли. В 1972 г. он уходит из компании CDC и основывает собственную компанию Cray Research. Первый суперкомпьютер CRAY-1 был разработан через четыре года (в 1976 г.) и имел векторно-конвейерную архитектуру с 12 конвейерными функциональными устройствами. Пиковая производительность Cray-1 составляла 160 млн операций/с (время такта 12,5 нс), а цикл 64-разрядной оперативной памяти (которая могла расширяться до 8 Мбайт) занимал 50 нс. Главным новшеством было, конечно, введение векторных команд, работающих с целыми массивами независимых данных и позволяющих эффективно использовать конвейерные функциональные устройства.

На протяжении 60-80-х годов внимание мировых лидеров по производству суперкомпьютеров было сосредоточено на изготовлении вычислительных систем, хорошо справляющихся с решением задач на большие объемы вычислений с плавающей точкой. Недостатка в таких задачах не ощущалось — почти все они были связаны с ядерными исследованиями и аэрокосмическим моделированием и велись в интересах военных. Стремление достичь максимальной производительности в самые сжатые сроки означало, что критерием оценки качества системы была не ее цена, а быстродействие. Например, суперкомпьютер Cray-1 стоил тогда от 4 до 11 млн долл. в зависимости от комплектации.

На рубеже 80-90-х гг. закончилась «холодная» война и на смену военным заказам пришли коммерческие. К тому времени промышленность достигла больших успехов в производстве серийных процессоров. Они обладали примерно той же вычислительной мощностью, что и заказные, но были значительно дешевле. Использование стандартных комплектующих и изменяемое количество процессоров позволило решить проблему масштабируемости. Теперь с увеличением вычислительной нагрузки можно было повышать производительность суперкомпьютера и его периферийных устройств, добавляя новые процессоры и устройства ввода-вывода. Так, в 1990 г. появился суперкомпьютер Intel iPSC/860 с числом процессоров, равным 128, который показал на тесте LINPACK производительность 2,6 Гфлопс.

В ноябре прошлого года была опубликована 18-я редакция списка 500 мощнейших компьютеров мира — Top500. Лидером списка по-прежнему остается корпорация IBM (http://www.ibm.com), которой принадлежит 32% установленных систем и 37% от общей производительности. Интересной новостью стало появление Hewlett-Packard на втором месте по количеству систем (30%). При этом, поскольку все эти системы относительно невелики, то их суммарная производительность составляет всего 15% от всего списка. Ожидается, что после слияния с Compaq обновленная компания займет доминирующее положение в этом списке. Далее по количеству компьютеров в списке идут SGI, Cray и Sun Microsystems.

Самым мощным суперкомпьютером мира оставалась по-прежнему система ASCI White (к ней мы еще вернемся), установленная в Ливерморской лаборатории (США) и показавшая производительность 7,2 Тфлопс на тесте LINPACK (58% от пиковой производительности). На втором месте стояла система Compaq AlphaServer SC, установленная в Питтсбургском суперкомпьютерном центре с производительностью в 4 Тфлопс. Замыкает список система Cray T3E с производительностью на LINPACK в 94 Гфлопс.

Стоит отметить, что список включал уже 16 систем с производительностью более 1 Тфлопс, половина из которых установлены IBM. Стабильно увеличивается число систем, представляющих собой кластеры из небольших SMP-блоков, — сейчас в списке уже 43 такие системы. Однако большинство в списке по-прежнему за массивно-параллельными системами (50%), за которыми идут кластеры, состоящие из больших SMP-систем (29%).

Типы архитектур

Основной параметр классификации параллельных компьютеров — наличие общей или распределенной памяти. Нечто среднее представляют собой архитектуры, где память физически распределена, но логически общедоступна. С аппаратной точки зрения для реализации параллельных систем напрашиваются две основные схемы. Первая — несколько отдельных систем, с локальной памятью и процессорами, взаимодействующих в какой-либо среде посредством посылки сообщений. Вторая — системы, взаимодействующие через разделяемую память. Не вдаваясь пока в технические детали, скажем несколько слов о типах архитектур современных суперкомпьютеров.

Идея массивно-параллельных систем с распределенной памятью (Massively Parallel Processing, MPP) довольно проста. Для этой цели берутся обычные микропроцессоры, каждый из которых снабжают своей локальной памятью и соединяют посредством некоей коммутационной среды. Достоинств у такой архитектуры много. Если нужна высокая производительность, то можно добавить еще процессоров, а если ограничены финансы или заранее известна требуемая вычислительная мощность, то легко подобрать оптимальную конфигурацию. Однако у MPP есть и недостатки. Дело в том, что взаимодействие между процессорами идет намного медленнее, чем обработка данных самими процессорами.

У параллельных компьютеров с общей памятью вся оперативная память разделяется между несколькими одинаковыми процессорами. Это снимает проблемы предыдущего класса, но добавляет новые. Дело в том, что число процессоров, имеющих доступ к общей памяти, по чисто техническим причинам нельзя сделать большим.

Основные особенности векторно-конвейерных компьютеров — это, конечно, конвейерные функциональные устройства и набор векторных команд. В отличие от традиционного подхода векторные команды оперируют целыми массивами независимых данных, что позволяет эффективно загружать доступные конвейеры.

Последнее направление, строго говоря, не является самостоятельным, а скорее представляет собой комбинации предыдущих трех. Из нескольких процессоров (традиционных или векторно-конвейерных) и общей для них памяти формируется вычислительный узел. Если полученной вычислительной мощности недостаточно, то объединяют несколько узлов высокоскоростными каналами. Как известно, подобную архитектуру называют кластерной.

MPP-системы

Массово-параллельные масштабируемые системы предназначены для решения прикладных задач, требующих большого объема вычислений и обработки данных. Рассмотрим их подробнее. Как правило, они состоят из однородных вычислительных узлов, включающих:

  • один или несколько центральных процессоров;
  • локальную память (прямой доступ к памяти других узлов невозможен);
  • коммуникационный процессор или сетевой адаптер;
  • иногда накопители на жестких дисках и/или другие устройства ввода-вывода.

Кроме того, в систему могут быть добавлены специальные узлы ввода-вывода и управляющие узлы. Все они связаны через некоторую коммуникационную среду (высокоскоростная сеть, коммутатор и т. п.). Что касается ОС, то здесь есть два варианта. В первом случае полноценная ОС работает только на управляющей машине, тогда как на каждом узле работает сильно урезанный вариант ОС, обеспечивающий только работу расположенной в нем ветви параллельного приложения. В другом случае на каждом узле работает полноценная UNIX-подобная ОС.

Число процессоров в системах с распределенной памятью теоретически ничем не ограничено. С помощью подобных архитектур можно строить масштабируемые системы, производительность которых растет линейно с увеличением числа процессоров. Кстати, сам термин «массивно-параллельные системы» применяется обычно для обозначения таких масштабируемых компьютеров с большим числом (десятки и сотни) узлов. Масштабируемость вычислительной системы необходима для пропорционального ускорения вычислений, но ее, увы, недостаточно. Чтобы получить адекватный выигрыш при решении задачи, требуется еще и масштабируемый алгоритм, способный загрузить полезными вычислениями все процессоры суперкомпьютера.

Напомним, что существуют две модели выполнения программ на многопроцессорных системах: SIMD (single instruction stream — multiple data streams) и MIMD (multiple instructions streams — multiple data streams). Первая предполагает, что все процессоры выполняют одну и ту же команду, но каждый над своими данными. Во второй каждый процессор обрабатывает свой поток команд.

В системах с распределенной памятью для пересылки информации от процессора к процессору необходим механизм передачи сообщений по сети, связывающей вычислительные узлы. Чтобы абстрагироваться от подробностей функционирования коммуникационной аппаратуры и программировать на высоком уровне, обычно пользуются библиотеками передачи сообщений.

Суперкомпьютеры Intel

Корпорация Intel (http://www.intel.com) хорошо известна в мире суперкомпьютеров. Ее многопроцессорные компьютеры Paragon с распределенной памятью стали такой же классикой, как векторно-конвейерные компьютеры от Cray Research.

Intel Paragon использует в одном узле пять процессоров i860 ХР с тактовой частотой 50 МГц. Иногда в один узел помещают процессоры разных типов: скалярный, векторный и коммуникационный. Последний служит для того, чтобы разгрузить основной процессор от выполнения операций, связанных с передачей сообщений.

Самая существенная характеристика новой параллельной архитектуры — тип коммуникационного оборудования. Именно от него зависят два наиболее важных показателя работы суперкомпьютера — скорость передачи данных между процессорами и накладные расходы на передачу одного сообщения.

Межсоединение сконструировано таким образом, чтобы обеспечить высокую скорость обмена сообщениями при минимальной задержке. Оно обеспечивает соединение более тысячи гетерогенных узлов по топологии двухмерной прямоугольной решетки. Однако при разработке большинства приложений можно считать, что любой узел непосредственно связан со всеми другими узлами. Межсоединение масштабируемо: его пропускная способность возрастает с увеличением числа узлов. При конструировании разработчики стремились минимизировать участие в передаче сообщений тех процессоров, которые выполняют пользовательские процессы. С этой целью введены специальные процессоры обработки сообщений, которые располагаются на плате узла и отвечают за отработку протокола обмена сообщениями. В результате основные процессоры узлов не отвлекаются от решения задачи. В частности, не происходит достаточно дорогостоящего переключения с задачи на задачу, а решение прикладных задач идет параллельно с обменом сообщениями.

Собственно передача сообщений осуществляется системой маршрутизации, основанной на компонентах маршрутизатора узлов сети (Mesh Router Components, MRC). Для доступа MRC данного узла к его памяти в узле имеется еще специальный интерфейсный сетевой контроллер, который представляет собой заказную СБИС, обеспечивающую одновременную передачу в память узла и обратно, а также отслеживающую ошибки при передаче сообщений.

Модульное строение Intel Paragon способствует не только поддержанию масштабируемости. Оно позволяет рассчитывать на то, что данная архитектура послужит основой для новых компьютеров, базирующихся на иных микропроцессорах или использующих новые технологии обмена сообщениями. Масштабируемость опирается также на сбалансированность различных блоков суперкомпьютера на самых разных уровнях; в противном случае с ростом числа узлов где-либо в системе может появиться узкое место. Так, скорость и емкость памяти узлов балансируются с пропускной способностью и задержками межсоединения, а производительность процессоров внутри узлов — с пропускной способностью кэш-памяти и оперативной памяти и т. д.

До недавнего времени одним из самых быстродействующих компьютеров был Intel ASCI Red — детище ускоренной стратегической компьютерной инициативы ASCI (Accelerated Strategic Computing Initiative). В этой программе участвуют три крупнейшие национальные лаборатории США (Ливерморская, Лос-Аламосская и Sandia). Построенный по заказу Министерства энергетики США в 1997 г., ASCI Red объединяет 9152 процессора Pentium Pro, имеет 600 Гбайт суммарной оперативной памяти и общую производительность 1800 млрд операций в секунду.

Суперкомпьютеры IBM

Когда на компьютерном рынке появились универсальные системы с масштабируемой параллельной архитектурой SP (Scalable POWER parallel) корпорации IBM (http://www.ibm.com), они достаточно быстро завоевали популярность. Сегодня подобные системы работают в различных прикладных областях — таких, как вычислительная химия, анализ аварий, проектирование электронных схем, сейсмический анализ, моделирование водохранилищ, поддержка систем принятия решений, анализ данных и оперативная обработка транзакций. Успех систем SP определяется прежде всего их универсальностью, а также гибкостью архитектуры, базирующейся на модели распределенной памяти с передачей сообщений.

Вообще говоря, суперкомпьютер SP — это масштабируемая массивно-параллельная вычислительная система общего назначения, представляющая собой набор базовых станций RS/6000, соединенных высокопроизводительным коммутатором. Действительно, кому не известен, например, суперкомпьютер Deep Blue, который сумел обыграть в шахматы Гарри Каспарова? А ведь одна из его модификаций состоит из 32 узлов (IBM RS/6000 SP), базирующихся на 256 процессорах P2SC (Power Two Super Chip).

Семейство RS/6000 — это второе поколение компьютеров IBM, основанное на архитектуре с ограниченным набором команд (RISC), разработанной корпорацией в конце 70-х годов. Благодаря этой концепции для выполнения всей работы в компьютерной системе используется очень простой набор команд. Поскольку команды просты, они могут исполняться с очень высокой скоростью а также обеспечивают более эффективную реализацию исполняемой программы. Семейство RS/6000 основано на архитектуре POWER (архитектура с производительностью, оптимизированной за счет применения модернизированного RISC) и ее производных — PowerPC, P2SC, POWER3 и т. д. Поскольку архитектура POWER сочетает концепции архитектуры RISC с некоторыми более традиционными концепциями, в результате получается система с оптимальной общей производительностью.

Система RS/6000 SP предоставляет мощность нескольких процессоров для решения самых сложных вычислительных задач. Система коммутации SP — это новейшая разработка IBM в области широкополосной межпроцессорной связи без задержек для эффективных параллельных вычислений. Несколько разновидностей узлов процессора, изменяемые размеры фрейма (стойки) и разнообразные дополнительные возможности ввода-вывода обеспечивают подбор наиболее подходящей конфигурации системы. SP поддерживается лидирующими производителями ПО в таких областях, как параллельные базы данных и обработка транзакций в реальном времени, а также основными производителями технического ПО в таких областях, как обработка сейсмических данных и инженерное конструирование.

IBM RS/6000 SP расширяет возможности приложений благодаря параллельной обработке. Система снимает ограничения по производительности, помогает избежать проблем, связанных с масштабированием и присутствием неделимых, отдельно выполняемых фрагментов. Установленные по всему миру более чем у тысячи клиентов, SP предлагают решения для сложных и объемных технических и коммерческих приложений.

Основной блок SP — это процессорный узел, который имеет архитектуру рабочих станций RS/6000. Существует несколько типов SP-узлов: Thin, Wide, High, отличающихся рядом технических параметров. Так, например, High-узлы на базе POWER3-II включают до 16 процессоров и до 64 Гбайт памяти, а вот Thin-узлы допускают не более 4 процессоров и 16 Гбайт памяти.

Система масштабируется до 512 узлов, при этом возможно совмещение узлов различных типов. Узлы устанавливаются в стойки (до 16 узлов в каждой). SP может практически линейно масштабировать диски вместе с процессорами и памятью, что позволяет получать реальный доступ к терабайтам памяти. Такое увеличение мощности упрощает наращивание и расширение системы.

Узлы связаны между собой высокопроизводительным коммутатором (IBM high-performance switch), который имеет многостадийную структуру и работает с коммутацией пакетов.

Каждый узел SP работает под управлением полноценной ОС AIX, благодаря чему можно использовать тысячи уже существующих приложений для этой ОС. Кроме того, узлы системы можно объединять в группы. К примеру, несколько узлов могут выполнять роль серверов Lotus Notes, в то время как все остальные — обрабатывать параллельную базу данных.

Управление большими системами — это всегда сложная задача. SP использует для этих целей одну графическую консоль, на которой отображаются состояния аппаратного и программного обеспечения, выполняемые задачи и информация о пользователях. Системный администратор при помощи такой консоли (управляющей рабочей станции) и прилагаемого к SP программного продукта PSSP (Parallel Systems Support Programs) решает задачи управления, в том числе управления защитой паролями и полномочиями пользователей, учета выполняемых задач, управления печатью, системного мониторинга, запуска и выключения системы.

Самые-самые

Как уже отмечалось, согласно Top500 (таблица), самый мощный суперкомпьютер современности — ASCI White, занимающий площадь размером в две баскетбольные площадки и установленный в Ливерморской национальной лаборатории. Он включает 512 SMP-узлов на базе 64-разрядных процессоров POWER3-II (в общей сложности 8192 процессора) и использует новую коммуникационную технологию Colony с пропускной способностью около 500 Мбайт/с, что почти в четыре раза быстрее коммутатора SP high-performance switch.

Первая десятка Top500 (18-я редакция)

Позиция Производитель Компьютер Где установлен Страна Год Число процес-соров
1 IBM ASCI White США 2000 8192
2 Compaq AlphaServer SC Питтсбургский суперкомпью-терный центр США 2001 3024
3 IBM SP Power3 Институт исследований в области энергетики NERSC США 2001 3328
4 Intel ASCI Red Национальная лаборатория Sandia США 1999 9632
5 IBM ASCI Blue Pacific Ливерморская национальная лаборатория США 1999 5808
6 Compaq AlphaServer SC США 2001 1536
7 Hitachi SR8000/MPP Токийский университет Япония 2001 1152
8 SGI ASCI Blue Mountain Лос-Аламосская национальная лаборатория США 1998 6144
9 IBM SP Power3 Океанографи-ческий центр NAVOCEANO США 2000 1336
10 IBM SP Power3 Немецкая служба погоды Германия 2001 1280

Архитектура нового суперкомпьютера основана на зарекомендовавшей себя массивно-параллельной архитектуре RS/6000 и обеспечивает производительность в 12,3 Тфлопс (триллионов операций в секунду). Система включает в общей сложности 8 Тбайт оперативной памяти, распределенной по 16-процессорным SMP-узлам, и 160 Тбайт дисковой памяти. Доставка системы из лабораторий IBM в штате Нью-Йорк в Ливермор (Калифорния) потребовалось 28 грузовиков-трейлеров.

Все узлы системы работают под управлением ОС AIX. Суперкомпьютер используется учеными Министерства энергетики США для расчета сложных трехмерных моделей с целью поддержания ядерного оружия в безопасном состоянии. Собственно ASCI White — это третий шаг в пятиступенчатой программе ASCI, которая планирует создание нового суперкомпьютера в 2004 г. Вообще говоря, ASCI White состоит из трех отдельных систем, среди которых самой большой является White (512 узлов, 8192 процессора), а есть еще Ice (28 узлов, 448 процессоров) и Frost (68 узлов, 1088 процессоров).

Предшественником ASCI White был суперкомпьютер Blue Pacific (другое название ASCI Blue), включающий 1464 четырехпроцессорных узла на базе кристаллов PowerPC 604e/332 МГц. Узлы связаны в единую систему с помощью кабелей общей длиной почти в пять миль, а площадь машинного зала составляет 8 тыс. квадратных футов. Система ASCI Blue состоит в общей сложности из 5856 процессоров и обеспечивает пиковую производительность в 3,88 Тфлопс. Суммарный объем оперативной памяти составляет 2,6 Тбайт.

Суперкомпьютер — это километры кабелей.

Американский национальный центр по исследованию атмосферы (NCAR) выбрал IBM в качестве поставщика самого мощного в мире суперкомпьютера, предназначенного для прогнозирования климатических изменений. Система, известная под именем Blue Sky («Синее небо»), после окончательного ввода в эксплуатацию в этом году на порядок увеличит возможности NCAR в области моделирования климата. Ядром Blue Sky станут суперкомпьютер IBM SP и системы IBM eServer p690, применение которых позволит добиться пиковой производительности почти в 7 Тфлопс при объеме дисковой подсистемы IBM SSA в 31,5 Тбайт.

Суперкомпьютер, получивший название «Синий шторм» (Blue Storm), создается по заказу Европейского центра среднесрочных прогнозов погоды (European Centre for Medium-Range Weather Forecasts — ECMWF). Blue Storm будет в два раза мощнее ASCI White. Для его создания необходимо 100 серверов IBM eServer p690, также известных как Regatta. Каждый системный блок размером с холодильник содержит более тысячи процессоров. В 2004 г. «Синий шторм» будет оснащен серверами нового поколения p960, которые сделают его еще в два раза мощнее. Суперкомпьютер будет работать под управлением ОС AIX. Первоначально общая емкость накопителей Blue Storm составит 1,5 петабайт, вычислительная мощь — около 23 Тфлопс. Система будет весить 130 т, а по мощи будет в 1700 раз превосходить шахматный суперкомпьютер Deep Blue.

Исследователи IBM совместно с Ливерморской национальной лабораторией ведут работы над компьютерами Blue Gene/L и Blue Gene/C. Эти компьютеры — часть начатого еще в 1999 г. с целью изучения белков 5-летнего проекта Blue Gene, в который было вложено 100 млн долл. Создание нового суперкомпьютера Blue Gene/L (200 Тфлоп) будет завершено в 2004 г. — на полгода-год раньше, чем ожидается завершение работ над более мощным компьютером Blue Gene/C (1000 Тфлоп). Проектная производительность Blue Gene/L будет, таким образом, превышать суммарную производительность 500 самых мощных компьютеров в мире. При этом новый суперкомпьютер занимает площадь, равную всего половине теннисного корта. Инженеры IBM поработали и над снижением потребления энергии — его удалось уменьшить в 15 раз.

Примечания

Тесты LINPACK .
Эталонные тесты LINPACK базируются на решении системы линейных уравнений с плотно заполненной матрицей коэффициентов над полем действительных чисел методом исключения Гаусса. Вещественные числа, как правило, представляются с полной точностью. Благодаря большому числу операций над вещественными числами результаты LINPACK принято считать эталоном производительности аппаратно-программной конфигурации в областях, интенсивно использующих сложные математические вычисления.

Earth Simulator .
По мнению журнала New Scientist, в новой, 19-й версии списка суперкомпьютеров Top500 на первое место выйдет суперкомпьютерная система для проекта Earth Simulator корпорации NEC. Она установлена в японском Институте наук о Земле (Yokohama Institute for Earth Sciences) в г. Канагава, префектура Йокогама. Разработчики утверждают, что ее пиковая производительность может достигать 40 Тфлопс.

Суперкомпьютер Earth Simulator предназначен для моделирования климатических изменений на основе данных, которые поступают со спутников. По утверждению представителей NEC, высокая производительность компьютера достигнута за счет использования специально разработанных векторных процессоров. Система базируется на 5120 таких процессорах, объединенных в 640 узлов SX-6 (по 8 процессоров в каждом). Суперкомпьютер работает под управлением ОС SUPER-UX. В числе средств разработки установлены компиляторы языков C/C++, Fortran 90 и HPF, а также средства автоматической векторизации, реализация интерфейса MPI-2 и математическая библиотека ASL/ES. Вся машина занимает площадь трех теннисных кортов (50в65 м) и использует несколько километров кабеля.


Первый суперкомпьютер Atlas появился в начале 60-х годов и был установлен в Манчестерском университете. Он был в разы менее мощный, чем современные домашние компьютеры. В нашем обзоре собрана «десятка» самых мощных в истории суперкомпьютеров. Правда в связи с быстро развивающимися в этой сфере технологиями устаревают эти мощные машины в среднем за 5 лет..

Производительность современных суперкомпьютеров измеряется в петафлопсах - единице измерения, показывающей, сколько операций с плавающей запятой в секунду выполняет компьютер. Сегодня речь пойдет о десяти самых дорогих современных суперкомпьютерах.

1. IBM Roadrunner (США)


$ 130 млн
Roadrunner был построен IBM в 2008 году для Национальной лаборатории в Лос-Аламосе (Нью-Мексико, США). Он стал первым в мире компьютером, чья средняя рабочая производительность превысила 1 петафлопс. При этом он был рассчитан на максимальную производительность в 1,7 петафлопса. Согласно списка Supermicro Green500, в 2008 году Roadrunner был четвертым по энергоэффективности суперкомпьютером в мире. Списан Roadrunner был 31 марта 2013 года, после чего его заменили меньшим по размерам и более энергоэффективным суперкомпьютером под названием Cielo.

2. Vulcan BlueGene/Q (США)


$ 100 млн
Vulcan – суперкомпьютер, состоящий из 24 отдельных блоков-стоек, который был создан IBM для Министерства энергетики и установлен в Национальной лаборатории Лоуренса Ливермора, штат Калифорния. Он имеет пиковую производительность в 5 петафлопсов и в настоящее время является девятым по скорости суперкомпьютером в мире. Vulcan вступил в строй в 2013 году и сейчас используется Ливерморской национальной лабораторией для исследований в области биологии, физики плазмы, климатических именений, молекулярных систем и т. д.

3. SuperMUC (Германия)

$ 111 млн
SuperMUC в настоящее время является 14-м по скорости суперкомпьютером в мире. В 2013 году он был 10-м, но развитие технологий не стоит на месте. Тем не менее, он в данный момент является вторым по скорости суперкомпьютером в Германии. SuperMUC находится в ведении Лейбницкого суперкомпьютерного центра при Баварской академии наук рядом с Мюнхеном.

Система была создана IBM, работает на оболочке Linux, содержит более 19000 процессоров Intel и Westmere-EX, а также имеет пиковую производительность чуть более 3 петафлопсов. SuperMUC используется европейскими исследователями в областях медицины, астрофизики, квантовой хромодинамики, вычислительной гидродинамики, вычислительной химии, анализа генома и моделирования землетрясений.

4. Trinity (США)

$ 174 млн
Можно было бы ожидать, что подобный суперкомпьютер (учитывая то, для чего он строится) должен быть безумно дорогим, но благодаря развитию технологий стало возможным удешевление цены Trinity. Правительство США собирается использовать Trinity для того, чтобы поддерживать эффективность и безопасность ядерного арсенала Америки.

Trinity, который строится в настоящее время, станет совместным проектом Сандийской национальной лаборатории и Лос-Аламосской национальной лаборатории в рамках программы Прогнозного моделирования и вычислительной обработки данных Национальной администрации по ядерной безопасности.

5. Sequoia BlueGene/Q (США)


$ 250 млн
Суперкомпьютер Sequoia класса BlueGene/Q был разработан IBM для Национальной администрации по ядерной безопасности, в рамках программы Прогнозного моделирования и вычислительной обработки данных. Он был запущен в эксплуатацию в июне 2012 года в Ливерморской национальной лаборатории и стал на тот момент самым быстрым суперкомпьютером в мире. Сейчас он занимает третье место в мире по скорости (теоретический пик производительности Sequoia - 20 петафлопсов или 20 триллионов вычислений в секунду).

Стабильно компьютер работает при 10 петафлопсах. Используется Sequoia для поддержки различных научных приложений, изучения астрономии, энергетики, человеческого генома, изменения климата и разработки ядерного оружия.

6. ASC Purple и BlueGene / L (США)


$ 290 млн
Эти два суперкомпьютера работали вместе. Они были построены IBM и установлены в 2005 году в Ливерморской национальной лаборатории. Из эксплуатации они были выведены в 2010 году. На момент создания ASC Purple занимал 66-е место по скорости в списке топ-500 суперкомпьютеров, а BlueGene / L был предыдущим поколением модели BlueGene / Q.

ASCI Purple был построен для пятого этапа программы Прогнозного моделирования и вычислительной обработки данных Министерства энергетики США, а также Национальной администрации по ядерной безопасности. Его целью являлась симуляция и замена реальных испытаний оружия массового уничтожения. BlueGene/L использовали для прогнозирования глобального изменения климата.

7. Sierra и Summit (США)


$ 325 млн
Nvidia и IBM скоро помогут Америке вернуть лидирующие позиции в области сверхскоростных суперкомпьютерных технологий, научных исследований, а также экономической и национальной безопасности. Оба компьютера будут закончены в 2017 году.

В настоящее время самым быстрым суперкомпьютером в мире является китайский Tianhe-2, который способен достигнуть мощности в 55 петафлопсов, что в два раза больше, чем устройство, находящееся на втором месте в списке. Sierra будет выдавать более чем 100 петафлопсов, в то время как Summit сможет развить 300 петафлопсов.

Sierra, которая будет установлена в Ливерморской национальной лаборатории, будет обеспечивать безопасность и эффективность ядерной программы страны. Summit заменит устаревший суперкомпьютер Titan в национальной лаборатории Oak Ridge и будет предназначаться для тестирования и поддержки научных приложений по всему миру.

8. Tianhe-2 (Китай)

$ 390 млн
Китайский Tianhe-2 (что переводится как "Млечный путь-2") является самым быстрым суперкомпьютером в мире. Компьютер, разработанный командой из 1300 ученых и инженеров, находится в Национальном суперкомпьютерном центре в Гуанчжоу. Он был построен китайским Оборонным научно-техническим университетом Народно-освободительной армии Китая. Tianhe-2 способен выполнять 33 860 триллионов вычислений в секунду. К примеру, один час расчетов суперкомпьютера эквивалентен 1000 годам работы 1,3 миллиарда человек. Используется машина для моделирования и анализа правительственных систем безопасности.

9. Earth Simulator (Япония)


$ 500 млн
"Симулятор Земли" был разработан японским правительством еще в 1997 году. Стоимость проекта составляет 60 млрд иен или примерно $ 500 млн. Earth Simulator был завершен в 2002 году для агентства аэрокосмических исследований Японии, Японского научно-исследовательского института по атомной энергии и Японского центра морских и наземных исследований и технологий.

ES был самым быстрым суперкомпьютером в мире с 2002 по 2004 годы, а служит он и поныне для работы с глобальными климатическими моделями, для оценки последствий глобального потепления и оценки проблем геофизики коры Земли.

10. Fujitsu K (Япония)

$ 1,2 млрд
Самый дорогой в мире суперкомпьютер всего лишь четвертый по скорости в мире (11 петафлопсов). В 2011 году он был самым быстрым суперкомпьютером в мире. Fujitsu K, расположенный в Институте передовых вычислительных технологий RIKEN, примерно в 60 раз быстрее, чем Earth Simulator. На его обслуживание уходит порядка $ 10 млн в год, а использует суперкомпьютер 9,89 МВт (сколько электроэнергии используют 10 000 загородных домов или один миллион персональных компьютеров).

Стоит отметить, что современные учёные шагнули так далеко, что уже появились .

В последние годы компании по созданию и производству компьютеров работают не покладая рук. В результате количество техники в мире растет в геометрической прогрессии.

Самые мощные компьютеры

Еще недавно назад мир не знал о DirectX10, а графика FarCry или NFS Underground 2 казалась вершиной компьютерных возможностей. Когда-то диск, способный вместить 600 мегабайт информации, казался чудом техники, а сейчас в свободном доступе продаются карты памяти на терабайт.

В области суперкомпьютеров происходит почти то же самое. В 1993 году профессор университета Теннесси Джек Донгарра выдвинул идею создания рейтинга самых мощных компьютеров в мире. С тех пор этот список, именуемый TOP500, обновляется дважды в год: в июне и в ноябре.

Время идет, и лидеры рейтинга суперкомпьютеров начала 90-х уже безбожно устарели даже по меркам рядовых пользователей ПК. Так, первым в 1993 году был CM-5/1024, собранный компанией Thinking Machines: 1024 процессора с тактовой частотой 32МГц, вычислительная скорость 59,7 гигафлопс – чуть быстрее обыкновенного 8-ядерного ПК под вашим столом. А какой компьютер самый лучший сегодня?


Sunway TaihuLight

Еще пять лет назад пальму первенства по мощности стабильно держали супер-ЭВМ производства США. В 2013 году лидерство перехватили китайские ученые и, судя по всему, не собираются его отдавать.

В настоящий момент самым сильным компьютером в мире считается Sunway TaihuLight (в переводе – «Божественная сила света озера Тайху»), грандиозная машина со скоростью вычислений 93 петафлопс (максимальная скорость – 125,43 петафлопс). Это в 2,5 раза мощнее предыдущего рекордсмена – суперкомпьютера Тяньхэ-2, который считался самым мощным до июня 2016 года.


В «Санвей Тайхулайт» встроено 10,5 миллионов ядер (40 960 процессора, в каждом из которых по 256 вычислительных и 4 управляющих ядра).

Так выглядит самый мощный компьютер 2016 года

Все оборудование разработано и произведено в Китае, тогда как процессоры прошлого мощнейшего компьютера были произведены американской компанией Intel. Стоимость Sunway TaihuLight оценивают в $270 миллионов. Находится суперкомпьютер в Национальном суперкомпьютерном центре округа Уси.

Рекордсмены прошлых лет

До июня 2016 года (а список TOP500 обновляется каждый июнь и ноябрь) самым мощным и быстрым компьютером являлась супермашина Tianhe-2 (в переводе с китайского «Млечный путь»), разработанная в КНР на базе Оборонного научно-технического университета в Чанша при помощи компании Inspur.


Мощность Тяньхэ-2 обеспечивает выполнение 2507 триллионов операций в секунду (33,86 петафлопс в секунду), пиковая производительность – 54,9 Петафлопс. Китайская разработка возглавляла этот рейтинг с момента запуска в 2013 году – невероятно внушительный показатель!

Суперкомпьютер Тяньхэ-2

Характеристики Тяньхэ-2 таковы: 16 тысяч узлов, 32 тысячи 12-ядерных процессоров Intel Xeon E5-2692 и 48 тысяч 57-ядерных ускорителей Intel Xeon Phi 31S1P, а значит, 3120000 ядер в сумме; 256 тысяч планок оперативной памяти DDR3 по 4 Гб каждая и 176000 планок GDDR5 по 8 Гб – 2432000 Гб оперативной памяти в общей сложности. Объем жесткого диска – более 13 миллионов Гб. Однако поиграть на нем не выйдет – он предназначен исключительно для вычислений, на «Млечный путь-2» не установлена видеокарта. В частности, он помогает при расчетах для прокладки метро и городской застройки.

Jaguar

Долгое время на вершине рейтинга располагался Jaguar – суперкомпьютер из США. Чем он отличается от остальных и в чем его технические преимущества?


Суперкомпьютер под названием Jaguar состоит из большого количества независимых ячеек, разделенных на два раздела - XT4 и XT5. В последнем разделе находится ровно 18688 вычислительных ячеек. В каждой ячейке расположились два шестиядерных процессора AMD Opteron 2356. частотой 2.3 Ггц, 16 Гб оперативной памяти DDR2, а так же роутер SeaStar 2+. Даже одной ячейки из этого раздела хватило бы для того, чтобы создать самый мощный компьютер для игр. В разделе же содержится всего 149504 вычислительных ядер, огромное количество оперативной памяти – более 300 ТБ, а так же производительность 1.38 Петафлопс и больше 6 Петабайт дискового пространства.

Сборка компьютерного монстра

В разделе XT4 находится 7832 ячеек. У них характеристики поскромнее, чем у предыдущего раздела XT5: каждая ячейка содержит один шестиядерный процессор частотой 2,1 Ггц, 8 Гб оперативной памяти и роутер SeaStar 2. Всего в разделе 31328 вычислительных ядер и более 62 Тб памяти, а так же пиковая производительность 263 TFLOPS и более 600 ТБ дискового пространства. Суперкомпьютер Jaguar работает на собственной операционной системе Cray Linux Environment.

В спину Jaguar дышит еще один компьютер, детище компании IBM – Roadrunner. Мощнейший вычислительный монстр способен высчитывать до 1000.000.000.000 операций в секунду. Он был разработан специально для энергетического департамента Национальной администрации по ядерной безопасности в Лос-Аламосе (или Department of Energy’s National Nuclear Security Administration). С помощью этого суперкомпьютера планировали контролировать работу всех ядерных установок, расположенных на территории США.


Пиковая скорость обработки данных у «Дорожного бегуна» составляет около 1,5 петафлопсов. Речь идет об общей мощности 3456 оригинальных серверов tri-blade, каждый из которых способен выполнять около 400 миллиардов операций в секунду (то есть 400 гигафлопов). Внутри Roadrunner расположились около 20 тысяч высокопроизводительных двухъядерных процессоров - 12 960 Cell Broadband Engine и 6948 AMD Opteron, детище самой компании IBM. У такого суперкомпьютера системная память равна 80 терабайтам.

Так сколько же пространства занимает такое чудо техники? Машина расположилась на площади равной 560 квадратным метрам. А упаковано все хозяйство департамента в сервера оригинальной архитектуры. Все оборудование весит около 23 тонн. Так что для его транспортировки сотрудникам национальной администрации по ядерной безопасности потребуется как минимум 21 крупногабаритный тягач.

Пару слов о том, что же такое петафлопс. Один петафлопс примерно равен общей мощности 100 тысяч современных ноутбуков. Если попробовать представить, то ими можно выстлать дорогу длинной практически в два с половиной километра. Еще одно доступное сравнение: все население планеты в течение 46 лет будет с помощью калькуляторов делать вычисления, которые под силу сделать Roadrunner за один день. А представьте, как ничтожно мало потребуется Sunway TaihuLigh, лидеру нашего рейтинга?

Titan

В 2012 году Оукриджская национальная лаборатория Министерства энергетики США запустила суперкомпьютер Titan, рассчитанный на 20 петафлопсов, другими словами, он сможет сделать за одну секунду квадриллион операций с плавающей запятой.


Разработкой Titan занималась компания Cray. Кроме «Титана» американские специалисты за последние годы разработали еще два суперкомпьютера. Один из них - Mira – предназначен для промышленных и научно-исследовательских нужд, а с помощью другого – Sequoia – моделируют испытания ядерного оружия. За всеми этими разработками стоит корпорация IBM.

Самый мощный компьютер в России

Увы, российская разработка «Ломоносов-2», признанная самым мощным компьютером России, находится лишь на 41-м месте в ТОР500 (по состоянию на июнь 2016 года). Он базируется в научно-вычислительном центре МГУ. Мощность отечественного суперкомпьютера – 1,849 петафлопс, пиковая – около 2,5 петафлопс. Количество ядер: 42 688.



Подпишитесь на наш канал в Яндекс.Дзен

Супер-ЭВМ это достаточно гибкий и очень широкий термин. В общем понимании супер-ЭВМ это компьютер значительно мощнее всех имеющихся доступных на рынке компьютеров. Некоторые инженеры, шутливо, называют суперкомпьютером любой компьютер масса которого превосходит одну тонну. И хотя большинство современных супер-ЭВМ действительно весят более тонны. Не всякую ЭВМ можно назвать «супер», даже если она весит более тонны. Марк-1, Эниак – тоже тяжеловесы, но суперкомпьютерами не считаются даже для своего времени.

Скорость технического прогресса настолько велика, что сегодняшняя супер-ЭВМ через 5 -10 лет будет уступать домашнему компьютеру. Термин супервычисления появился еще 20-х годах прошлого века, а термин супер-ЭВМ в 60-х годах. Но получил широкое распространение во многом благодоря Сеймура Крея и его супер-ЭВМ Cray-1, Cray-2. Хотя сам Сеймур Крей не предпочитает использовать данный термин. Называет свои машины, просто компьютер.

В 1972 году С.Крэй покидает CDC и основывает свою компанию Cray Research, которая в 1976г. выпускает первый векторно-конвейерный компьютер CRAY-1 : время такта 12.5нс, 12 конвейерных функциональных устройств, пиковая производительность 160 миллионов операций в секунду, оперативная память до 1Мслова (слово - 64 разряда), цикл памяти 50нс. Главным новшеством является введение векторных команд, работающих с целыми массивами независимых данных и позволяющих эффективно использовать конвейерные функциональные устройства.

Cray-1 принято считать одним из первых супер-ЭВМ. В процессорах компьютера был огромный, по тем временам, набор регистров. Которые разделялись на группы. Каждая группа имело свое собственное функциональное назначение. Блок адресных регистров который отвечал за адресацию в памяти ЭВМ. Блок векторных регистров, блок скалярных регистров.

Сборка компьютера Cray-1

Компьютер Cray-2

Первый советский супер-ЭВМ

В самом начале появления супер-ЭВМ было связано с потребностью быстрой обработки больших массивов данных и сложных математически - аналитических вычислениях. Поэтому первые суперкомпьютеры по своей архитектуре мало отличались от обычных ЭВМ. Только их мощность была во много раз больше стандартных рабочих станций. Изначально супер-ЭВМ оснащались векторными процессорами, обычные скалярными. К 80-м перешли на параллельную работу нескольких векторных процессоров. Но данный путь развития оказался не рациональным. Супер-ЭВМ перешли на параллельно работающие скалярные процессоры.

Массивно-параллельные процессоры стали базой для супер-ЭВМ. Тысячи процессорных элементов объединялись создавая мощную платформу для вычислений. Большинство параллельно работающих процессоров создавались на основе архитектуры RISC. RISC (Reduced Instruction Set Computing) – вычисления с сокращенным набором команд. Под этим термином производители процессоров понимают концепцию, где более простые инструкции выполняться быстрее. Данный метод позволяет снизить себестоимость производства процессоров. Одновременно увеличить их производительность.

Потребность в мощных вычислительных решениях быстро возрастала. Супер-ЭВМ слишком дорогие. Требовалась альтернатива. И на смену им пришли кластеры. Но и на сегодняшний день мощные компьютеры называют суперкомпьютерами. Кластер это множество серверов объеденных в сеть и работают над одной задачей. Эта группа серверов обладает высокой производительностью. Во много раз больше чем то же самое количество серверов которые работали бы отдельно. Кластер дает высокую надежность. Выход из строя одного сервера не приведет к аварийной остановке всей системы, а лишь не много отразиться на ее производительности. Возможно произвести замену сервера в кластере без остановки всей системы. Не нужно сразу выкладывать огромные суммы за супер-ЭВМ. Кластер можно наращивать постепенно, что значительно амортизирует затраты предприятия.

Университетский кластер

Цели Супер-ЭВМ

1.Максимальная арифметическая производительность процессора;

2.эффективность работы операционной системы и удобство общения с ней для программиста;

3.Эффективность трансляции с языков высокого уровня и исключение написания программ на автокоде;

4.Эффективность распараллеливания алгоритмов для параллельных архитектур;

5.Повышение надежости.

Архитектура современных Супер-ЭВМ

Архитектура ЭВМ охватывает значительный круг проблем, связанных с созданием комплекса аппаратных и программных средств и учитывающих большое количество определяющих факторов. Среди этих факторов основными являются: стоимость, сфера применения, функциональные возможности, удобство в эксплуатации, а одним из основных компонентов архитектуры считаются аппаратные средства.Архитектура ЭВМ включает в себя как структуру, отражающую состав ПК, так и программно – математическое обеспечение. Структура ЭВМ - совокупность элементов и связей между ними. Основным принципом построения всех современных ЭВМ является программное управление.

Все компьютеры делятся на четыре класса в зависимости от числа потоков команд и данных.

К первому классу (последовательные компьютеры фон Неймана) принадлежат обычные скалярные однопроцессорные системы: одиночный поток команд - одиночный поток данных (SISD). Персональный компьютер имеет архитектуру SISD, причем не важно, используются ли в ПК конвейеры для ускорения выполнения операций.

Второй класс характеризуется наличием одиночного потока команд, но множественного nomoka данных (SIMD). К этому архитектурному классу принадлежат однопроцессорные векторные или, точнее говоря, векторно-конвейерные суперкомпьютеры, например, Cray-1 . В этом случае мы имеем дело с одним потоком (векторных) команд, а потоков данных - много: каждый элемент вектора входит в отдельный поток данных. К этому же классу вычислительных систем относятся матричные процессоры, например, знаменитый в свое время ILLIAC-IV. Они также имеют векторные команды и реализуют векторную обработку, но не посредством конвейеров, как в векторных суперкомпьютерах, а с помощью матриц процессоров.

К третьему классу - MIMD - относятся системы, имеющие множественный поток команд и множественный поток данных. К нему принадлежат не только многопроцессорные векторные суперЭВМ, но и вообще все многопроцессорные компьютеры. Подавляющее большинство современных суперЭВМ имеют архитектуру MIMD.

Четвертый класс в систематике Флинна, MISD, не представляет практического интереса,по крайней мере для анализируемых нами компьютеров. В последнее время в литературе часто используется также термин SPMD (одна программа - множественные данные). Он относится не к архитектуре компьютеров, а к модели распараллеливания программ и не является расширением систематики Флинна. SPMD обычно относится к MPP (т.е. MIMD) - системам и означает, что несколько копий одной программы.

Задачи супер-ЭВМ

В самом начале появления супер-ЭВМ было связано с потребностью быстрой обработки больших массивов данных и сложных математически - аналитических вычислениях. ЭВМ - машины для крупно-маштабных задач.

1.Для решения сложных и больших научных задач, в управлении, разведке

2.Новейшее архитектурные разработки с использованием современной элементарной базы и арифметических ускорителей

3.Проектирование и имитационное моделирование

4.Повышение производительности

5. Централизованное хранилище информции

6.Оценка сложности решаемых на практике задач

Супер-ЭВМ в Мюнхенском техническом университете

Супер-ЭВМ второго поколения,находящийся в ВНИИЭФ

Харакеристики производительности Супер-ЭВМ

За полвека производительность компьютеров выросла более, чем в семьсот миллионов раз. При этом выигрыш в быстродействии, связанный с уменьшением времени такта с 2 микросекунд до 1.8 наносекунд, составляет лишь около 1000 раз.Использование новых решений в архитектуре компьютеров. Основное место среди них занимает принцип параллельной обработки данных, воплощающий идею одновременного (параллельного) выполнения нескольких действий. Параллельная обработка данных, воплощая идею одновременного выполнения нескольких действий, имеет две разновидности: конвейерность и собственно параллельность.Параллельная обработка данных, воплощая идею одновременного выполнения нескольких действий, имеет две разновидности: конвейерность и собственно параллельность.

Параллельная обработка. Если некое устройство выполняет одну операцию за единицу времени, то тысячу операций оно выполнит за тысячу единиц. Если предположить, что есть пять таких же независимых устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить уже не за тысячу, а за двести единиц времени. Аналогично система из N устройств ту же работу выполнит за 1000/N единиц времени. Подобные аналогии можно найти и в жизни: если один солдат вскопает огород за 10 часов, то рота солдат из пятидесяти человек с такими же способностями, работая одновременно, справятся с той же работой за 12 минут - принцип параллельности в действии!

Конвейерная обработка Целое множество мелких операций таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п. Процессоры первых компьютеров выполняли все эти "микрооперации" для каждой пары аргументов последовательно одна за одной до тех пор, пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых.

Все самые первые компьютеры (EDSAC, EDVAC, UNIVAC) имели разрядно-последовательную память, из которой слова считывались последовательно бит за битом. Первым коммерчески доступным компьютером, использующим разрядно-параллельную память (на CRT) и разрядно-параллельную арифметику, стал IBM 701, а наибольшую популярность получила модель IBM 704 (продано 150 экз.), в которой, помимо сказанного, была впервые применена память на ферритовых сердечниках и аппаратное АУ с плавающей точкой. Иерархия памяти. Иерархия памяти пямого отношения к параллелизму не имеет, однако, безусловно, относится к тем особенностям архитектуры компьютеров, которые имеет огромное значение для повышения их производительности (сглаживание разницы между скоростью работы процессора и временем выборки из памяти). Основные уровни: регистры, кэш-память, оперативная память, дисковая память. Время выборки по уровням памяти от дисковой памяти к регистрам уменьшается, стоимость в пересчете на 1 слово (байт) растет. В настоящее время, подобная иерархия поддерживается даже на персональных компьютерах.

В настоящее время исрльзуются:

1. Векторно-конвейерные компьютеры. Конвейерные функциональные устройства и набор векторных команд

2. Массивно-параллельные компьютеры с распределенной памятью.

3. Параллельные компьютеры с общей памятью. Вся оперативная память таких компьютеров разделяется несколькими одинаковыми процессорами

4.Использование параллельных вычислительных систем

Список самых мощных компьютеров в мире

Организация, где установлен компьютер Тип компьютера Количество вычислительных ядер Максимальная производительность Электропотребление
Jaguar - Cray XT5-HE Opteron Six Core 2.6 GHz / 2009 224162 1759.00 6950.60
National Supercomputing Centre in Shenzhen (NSCS) Nebulae - Dawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPU / 2010 120640 1271.00 2984.30
DOE/NNSA/LANL Roadrunner - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband / 2009 122400 1042.00 2345.50
National Institute for Computational Sciences/University of Tennessee Kraken XT5 - Cray XT5-HE Opteron Six Core 2.6 GHz / 2009 98928 831.70 2569
JUGENE - Blue Gene/P Solution / 2009 294912 825.50 2268.00
National SuperComputer Center in Tianjin/NUDT Tianhe-1 - NUDT TH-1 Cluster, Xeon E5540/E5450, ATI Radeon HD 4870 2, Infiniband / 2009 71680 563.10 2578
DOE/NNSA/LLNL BlueGene/L - eServer Blue Gene Solution / 2007 212992 478.20 2329.60
Argonne National Laboratory Intrepid - Blue Gene/P Solution / 2007 163840 458.61 1260
Sandia National Laboratories / National Renewable Energy Laboratory Red Sky - Sun Blade x6275, Xeon X55xx 2.93 Ghz, Infiniband / 2010

Sun Microsystems

42440 433.50 1254
Texas Advanced Computing Center/Univ. of Texas Ranger - SunBlade x6420, Opteron QC 2.3 Ghz, Infiniband / 2008

Sun Microsystems

62976 433.20 2000.00
DOE/NNSA/LLNL Dawn - Blue Gene/P Solution / 2009 147456 415.70 1134
Moscow State University - Research Computing Center Russia Lomonosov - T-Platforms T-Blade2, Xeon 5570 2.93 GHz, Infiniband QDR / 2009 T-Platforms 35360 350.10 1127
Forschungszentrum Juelich (FZJ) JUROPA - Sun Constellation, NovaScale R422-E2, Intel Xeon X5570, 2.93 GHz, Sun M9/Mellanox QDR Infiniband/Partec Parastation / 2009 26304 274.80 1549.00
KISTI Supercomputing Center TachyonII - Sun Blade x6048, X6275, IB QDR M9 switch, Sun HPC stack Linux edition / 2009

Sun Microsystems

26232 274.20 307.80
University of Edinburgh HECToR - Cray XT6m 12-Core 2.1 GHz / 2010 43660 274.70 1189.80
NERSC/LBNL Franklin - Cray XT4 QuadCore 2.3 GHz / 2008 38642 266.30 1150.00
Grand Equipement National de Calcul Intensif - Centre Informatique National de l"Enseignement Supц╘rieur (GENCI-CINES) Jade - SGI Altix ICE 8200EX, Xeon E5472 3.0/X5560 2.8 GHz / 2010 23040 237.80 1064.00
Institute of Process Engineering, Chinese Academy of Sciences Mole-8.5 - Mole-8.5 Cluster Xeon L5520 2.26 Ghz, nVidia Tesla, Infiniband / 2010

IPE, nVidia Tesla C2050, Tyan

33120 207.30 1138.44
Oak Ridge National Laboratory Jaguar - Cray XT4 QuadCore 2.1 GHz / 2008 30976 205.00 1580.71}

 

Возможно, будет полезно почитать: