Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

Тема 18. Суперкомпьютеры. Параллельные вычислительные системы

Лекция



Привет, сегодня поговорим про суперкомпьютер, обещаю рассказать все что знаю. Для того чтобы лучше понимать что такое суперкомпьютер, суперкомпьютеры, параллельные вычислительные системы, параллельная вычислительная система, supercomputer, сверхэвм, суперэвм, сверхвычислитель , настоятельно рекомендую прочитать все из категории Компьютерная схемотехника и архитектура компьютеров.

суперкомпьютер (англ. Supercomputer, сверхэвм , суперэвм , сверхвычислитель ) — специализированная вычислительная машина, значительно превосходящая по своим техническим параметрам и скорости вычислений большинство существующих в мире компьютеров.

Как правило, современные суперкомпьютеры представляют собой большое число высокопроизводительных серверных компьютеров, соединенных друг с другом локальной высокоскоростной магистралью для достижения максимальной производительности в рамках реализации распараллеливания вычислительной задачи.

Определение понятия суперкомпьютер

Определение понятия «суперкомпьютер» не раз было предметом многочисленных споров и обсуждений.

Чаще всего авторство термина приписывается Джорджу Майклу (George Anthony Michael) и Сиднею Фернбачу (Sidney Fernbach), в конце 60-х годов XX века работавшим в Ливерморской национальной лаборатории, и компании CDC. Тем не менее, известен тот факт, что еще в 1920 году газета New York World (англ.) рассказывала о «супервычислениях», выполнявшихся при помощи табулятора IBM, собранного по заказу Колумбийского университета.

В общеупотребительный лексикон термин «суперкомпьютер» вошел благодаря распространенности компьютерных систем Сеймура Крэя, таких как, CDC 6600, CDC 7600, Cray-1, Cray-2, Cray-3 (англ.) и Cray-4 (англ.). Сеймур Крэй разрабатывал вычислительные машины, которые по сути становились основными вычислительными средствами правительственных, промышленных и академических научно-технических проектов США с середины 60-х годов до 1996 года. Не случайно в то время одним из популярных определений суперкомпьютера было следующее: — «любой компьютер, который создал Сеймур Крэй». Сам Крэй никогда не называл свои детища суперкомпьютерами, предпочитая использовать вместо этого обычное название «компьютер».

Компьютерные системы Крэя удерживались на вершине рынка в течение 5 лет с 1985 по 1990 годы. 80-е годы XX века охарактеризовались появлением множества небольших конкурирующих компаний, занимающихся созданием высокопроизводительных компьютеров, однако к середине 90-х большинство из них оставили эту сферу деятельности, что даже заставило обозревателей заговорить о «крахе рынка суперкомпьютеров».

Ныне каждый суперкомпьютер представляет собой уникальную систему, создаваемую одним из «традиционных» игроков компьютерной индустрии (например: IBM, Hewlett-Packard, NEC и другими), которые приобрели множество ранних компаний, вместе с их опытом и технологиями. Компания Cray по-прежнему занимает достойное место в ряду производителей суперкомпьютеров.

Из-за большой гибкости самого термина до сих пор распространены довольно нечеткие представления о понятии «суперкомпьютер». Шутливая классификация Гордона Белла и Дона Нельсона, разработанная приблизительно в 1989 году, предлагала считать суперкомпьютером любой компьютер, весящий более тонны. Современные суперкомпьютеры действительно весят более 1 тонны, однако далеко не каждый тяжеловесный компьютер достоин чести считаться суперкомпьютером. В общем случае, суперкомпьютер — это компьютер намного более мощный, чем доступные для большинства пользователей машины. При этом скорость технического прогресса сегодня такова, что сегодняшний суперкомпьютер-лидер завтра легко может сдать лидерскую позицию.

Архитектура также не может считаться признаком принадлежности к классу суперкомпьютеров. Ранние компьютеры CDC были обычными машинами, всего лишь оснащенными быстрыми для своего времени скалярными процессорами, скорость работы которых была в несколько десятков раз выше, чем у компьютеров, предлагаемых другими компаниями.

Большинство суперкомпьютеров 70-х оснащались векторными процессорами, а к началу и середине 80-х небольшое число (от 4 до 16) параллельно работающих векторных процессоров практически стало стандартной основой конфигурацией суперкомпьютеров. Конец 80-х и начало 90-х годов охарактеризовались сменой магистрального направления развития суперкомпьютеров от векторно-конвейерной обработки к большому и сверхбольшому числу параллельно соединенных скалярных процессоров.

Массово-параллельные системы стали объединять в себе сотни и даже тысячи отдельных процессорных элементов, причем ими могли служить не только специально разработанные, но и массово производимые и, следовательно, доступные в свободной продаже процессоры. Большинство массово-параллельных компьютеров создавалось на основе мощных процессоров с архитектурой RISC, наподобие PowerPC или PA-RISC.

В конце 90-х годов высокая стоимость специализированных суперкомпьютерных систем и нарастающая потребность разных слоев общества в доступных вычислительных ресурсах привели к широкому распространению компьютерных кластеров. Для этого класса систем характерно использование отдельных узлов на основе дешевых и широко доступных компьютерных комплектующих для серверов и персональных компьютеров и объединенных при помощи мощных коммуникационных систем и специализированных программно-аппаратных решений. Несмотря на кажущуюся простоту, кластеры довольно быстро заняли достаточно большой сегмент суперкомпьютерной индустрии, обеспечивая высочайшую производительность при минимальной стоимости системы.

В настоящее время суперкомпьютерами принято называть компьютеры с огромной вычислительной мощностью («числодробилки» или «числогрызы»). Такие машины используются для выполнения программ, реализующих наиболее интенсивные вычисления (например, прогнозирование погодно-климатических условий, моделирование ядерных взрывов и т. п.), что в том числе отличает их от серверов и мэйнфреймов (англ. mainframe) — компьютеров с высокой общей производительностью, призванных решать типовые задачи (например, обслуживание больших баз данных или одновременная работа с множеством пользователей).

Иногда суперкомпьютер выполняет одну-единственную программу, использующую всю доступную память и все процессоры системы. В иных случаях они обеспечивают выполнение большого числа разнообразных прикладных программ.

История суперкомпьютеров

Одним из первых суперкомпьютеров считается Cray-1, созданный в 1974 году. С помощью поддержки векторных операций эта суперЭВМ достигала производительности в 180 миллионов операций в секунду над числами с плавающей точкой (FLOPS).

По применению суперкомпьютеров Россия сильно отстает от США, Китая, Европы и Японии. Если в 2018 г. доля России в мировом ВВП составила 1,8 %, то в мировой производительности суперкомпьютеров лишь 0,32 %.

Применение

Суперкомпьютеры используются во всех сферах:

  • где для решения задачи применяется численное моделирование, сопряженное с очень большим объемом сложных вычислений;
  • там, где требуется огромный объем сложных вычислений, обработка большого количества данных в реальном времени, или решение задачи может быть найдено простым перебором множества значений множества исходных параметров (см. Метод Монте-Карло).

Совершенствование методов численного моделирования происходило одновременно с совершенствованием вычислительных машин, — чем сложнее были задачи, тем выше были требования к создаваемым машинам. Чем быстрее были машины, тем сложнее были задачи, которые на них можно было решать. Поначалу суперкомпьютеры применялись почти исключительно для оборонных задач: расчеты по ядерному и термоядерному оружию, ядерным реакторам, проектированию подводных кораблей. Потом, по мере совершенствования математического аппарата численного моделирования, развития знаний в других сферах науки — суперкомпьютеры стали применяться и в «мирных» расчетах, создавая новые научные дисциплины, как то:

  • численный прогноз погоды,
  • вычислительная биология и медицина,
  • вычислительная химия,
  • вычислительная гидродинамика,
  • вычислительная лингвистика и проч., — где достижения информатики сливались с достижениями прикладной науки.

Ниже приведен далеко не полный список областей применения суперкомпьютеров:

  • Математические проблемы:
    • Криптография
    • Статистика
  • Физика высоких энергий:
    • Ядерная физика, физика плазмы, анализ данных экспериментов, проведенных на ускорителях микрочастиц
    • разработка и совершенствование атомного и термоядерного оружия, управление ядерным арсеналом, моделирование ядерных взрывов
    • моделирование жизненного цикла ядерных топливных элементов, проекты ядерных и термоядерных реакторов
  • Наука о Земле:
    • прогноз погоды, состояния морей и океанов
    • предсказание эволюции климата и ее последствий
    • исследование процессов, происходящих в земной коре, для предсказания землетрясений и извержений вулканов
    • анализ данных геологической разведки для поиска и оценки нефтяных и газовых месторождений, моделирование процесса выработки месторождений
    • моделирование растекания рек во время паводка, растекания нефти во время аварий
  • Вычислительная биология: фолдинг белка, расшифровка ДНК
  • Вычислительная химия и медицина: изучение строения вещества и природы химической связи как в изолированных молекулах, так и в конденсированном состоянии, поиск и создание новых катализаторов и лекарств
  • Физика:
    • газодинамика: турбины электростанций, горение топлива, аэродинамические процессы для создания совершенных форм крыла, фюзеляжей самолетов, ракет, кузовов автомобилей
    • гидродинамика: течение жидкостей по трубам, по руслам рек
    • материаловедение: создание новых материалов с заданными свойствами, анализ распределения динамических нагрузок в конструкциях, моделирование крэш-тестов при конструировании автомобилей
  • в качестве сервера для искусственных нейронных сетей
  • создание принципиально новых способов вычисления и обработки информации (Квантовый компьютер , Искусственный интеллект )

Производительность супекомпьютера

Производительность суперкомпьютеров чаще всего оценивается и выражается в количестве операций над числами с плавающей точкой в секунду (FLOPS). Это связано с тем, что задачи численного моделирования, под которые и создаются суперкомпьютеры, чаще всего требуют вычислений, связанных с вещественными числами, зачастую с высокой степенью точности, а не целыми числами. Поэтому для суперкомпьютеров неприменима мера быстродействия обычных компьютерных систем — количество миллионов операций в секунду (MIPS). При всей своей неоднозначности и приблизительности, оценка во флопсах позволяет легко сравнивать суперкомпьютерные системы друг с другом, опираясь на объективный критерий.

Первые суперкомпьютеры имели производительность порядка 1 кфлопс, то есть 1000 операций с плавающей точкой в секунду. В США компьютер, имевший производительность в 1 миллион флопсов (1 Мфлопс) (CDC 6600), был создан в 1964 году. Известно, что в 1963 году в московском НИИ-37 (позже НИИ ДАР) был разработан компьютер на основе модулярной арифметики с производительностью 2,4 млн оп/с. Это экспериментальный компьютер второго поколения (на дискретных транзисторах) Т340-А (гл. конструктор Д. И. Юдицкий). Однако следует отметить, что прямое сравнение производительности модулярных и традиционных ЭВМ некорректно. Модулярная арифметика оперирует только с целыми числами. Представление вещественных чисел в модулярных ЭВМ возможно только в формате с фиксированной запятой, недостатком которого является существенное ограничение диапазона представимых чисел.

  1. Планка в 1 миллиард флопс (1 Гигафлопс) была преодолена суперкомпьютерами NEC SX-2 в 1983 году с результатом 1.3 Гфлопс.
  2. В 1996 году суперкомпьютером ASCI Red взят барьер в 1 триллион флопс (1 Тфлопс).
  3. Рубеж 1 квадриллион флопс (1 Петафлопс) перейден в 2008 году суперкомпьютером IBM Roadrunner.

В 2010-х годах несколькими странами ведутся работы, нацеленные на создание к 2020 году экзафлопсных компьютеров, способных выполнять 1 квинтиллион операций с плавающей точкой в секунду и потребляющих при этом не более нескольких десятков мегаватт. К 2021 году корпорации Intel и Cray планируют создать первую в США экзафлопсную систему под названием Aurora для Аргоннской национальной лаборатории Министерства энергетики США [10].

Программное обеспечение суперкомпьютеров

Наиболее распространенными программными средствами суперкомпьютеров, так же, как и параллельных или распределенных компьютерных систем, являются интерфейсы программирования приложений (API) на основе MPI и PVM, и решения на базе открытого программного обеспечения, наподобие Beowulf и openMosix, позволяющего создавать виртуальные суперкомпьютеры даже на базе обыкновенных рабочих станций и персональных компьютеров. Для быстрого подключения новых вычислительных узлов в состав узкоспециализированных кластеров применяются технологии наподобие ZeroConf. Примером может служить реализация рендеринга в программном обеспечении Shake, распространяемом компанией Apple. Для объединения ресурсов компьютеров, выполняющих программу Shake, достаточно разместить их в общем сегменте локальной вычислительной сети.

В настоящее время границы между суперкомпьютерным и общеупотребимым программным обеспечением сильно размыты и продолжают размываться еще более вместе с проникновением технологий параллелизации и многоядерности в процессорные устройства персональных компьютеров и рабочих станций. Исключительно суперкомпьютерным программным обеспечением сегодня можно назвать лишь специализированные программные средства для управления и мониторинга конкретных типов компьютеров, а также уникальные программные среды, создаваемые в вычислительных центрах под «собственные», уникальные конфигурации суперкомпьютерных систем.

Top500 суперкомпьютеров

Начиная с 1993, суперкомпьютеры ранжируют в списке Top500. Список составляется на основе теста LINPACK по решению системы линейных алгебраических уравнений, являющейся общей задачей для численного моделирования.

Самым мощным суперкомпьютером в 2016 году по этому списку стал Sunway TaihuLight, работающий в национальном суперкомпьютерном центре Китая. Скорость вычислений, производимых им, составляет 93 петафлопс (10 в 15 степени вычислительных операций с плавающей запятой в секунду). По этому показателю он в два раза быстрее и в три раза эффективнее предыдущего рекордсмена — Tianhe-2, также разработанного в Китае и возглавлявшему список с 2013 года.

Общее распределение по количеству суперкомпьютеров в разных частях света: 213 суперкомпьютера находится в Азии (217 в прошлогоднем списке), 175 в Америке (170 в прошлогоднем списке) и 104 в Европе (ранее 105);

Распределение по количеству эксплуатируемых суперкомпьютеров в разных странах мира в июне 2018 года:

  • Китай — 206[11]
  • США — 124
  • Япония — 36
  • Великобритания — 22
  • Германия — 21
  • Франция — 18
  • Нидерланды — 9
  • Южная Корея — 7
  • Ирландия — 7
  • Канада — 6
  • другие страны — 44 (включая Россию — 4, пик количества суперкомпьютерных систем в России пришелся на июнь 2011 года — 12 ед.[12]).

На всех используемых суперкомпьютерах на момент 2018 года используется операционная система Linux[13]. Linux стал использоваться на всех суперкомпьютерах списка с ноября 2017 года, вытеснив последним операционную систему UNIX OS.

Из Linux-систем 64,2% не детализируют дистрибутив, 12,6% используют CentOS, 8,6% — Cray Linux, 5% — SUSE, 3% — RHEL, 0,6% — Scientific Linux, 0,6% — Ubuntu;

25.1. Смена приоритетов в области высокопроизводительных вычислений

Потребности человека к производительности вычислительных систем постоянно растут. Одним из возможных решений является разработка и применение систем с массовым параллелизмом — кластеров, Grid-систем, многопроцессорных комплексов, систем на многоядерных процессорах.

Происходит смена приоритетов при разработке процессоров, систем на их основе и, соответственно, программного обеспечения. Направле­ние смены приоритетов связано с преодолением трех, так называемых "стен", когда на смену прежним истинам приходят новые:

Энергетическая стена. Старая истина — энергия не стоит ничего, транзисторы дороги. Новая истина — дорога энергия, транзисто­ры не стоят ничего.

Стена памяти. Старая истина — память работает быстро, а опера­ции с плавающей запятой медленны. Новая истина — системную производительность сдерживает память, операции выполняются быстро.

Стена параллелизма на уровне команд. Об этом говорит сайт https://intellect.icu . Старая истина — производи­тельность можно повысить за счет качества компиляторов и таких архитектурных усовершенствований, как конвейеры, внеочередное выполнение команд, сверхдлинное командное слово (Very Long Instruction Word, VLIW), явный параллелизм команд (Explicitly Parallel Instruction Computing, EPIC) и др. Новая истина — естест­венный параллелизм, команды допустимы и длинные, и короткие, но выполняются они параллельно, на разных ядрах.

Можно говорить о двух заметно разнящихся между собой тенденциях в процессе увеличения числа ядер. Одна носит название мультиядерность (multi-core). В этом случае предполагается, что ядра являются высокопроизводительными и их относительно немного, но согласно закону Мура их число будет периодически удваиваться. Основных недостатков два: первый — высокое энергопотребление, второй — высокая сложность чипа и, как следствие, низкий процент выхода готовой продукции. При производстве 8-ядерного процессора IBM Сell только 20% производимых кристаллов являются годными. Другой путь — многоядерность(many-core). В таком случае на кристалле собирается на порядок большее число ядер, но имеющих более простую структуру и потребляющих миливатты мощности. Сейчас количество ядер варьируется от 40 до 200, и если закон Мура будет выполняться и для них, то можно ожидать появления процессоров с тысячами и десятками тысяч ядер.

Традиционным средством повышения производительности процессоров всегда было увеличение тактовой частоты, но рост потребления энергии и проблемы с отводом тепла заставили разработчиков вместо этого наращивать количество ядер. Однако, многоядерные процессоры, если все сводится к размещению большего числа классических простых ядер на одной подложке, нельзя воспринимать как решение всех проблем. Их чрезвычайно сложно программировать, они могут быть эффективны только на приложениях, обладающих естественной многопоточностью.

Энергетическая стена, стена памяти и стена параллелизма на уровне команд являются прямым следствием фон-неймановской архитектуры. Из-за технологических ограничений Джоном фон Нейманом была избрана схема, в основе которой лежит управляемый поток команд, программа, выбирающая необходимые для команд данные. Этим определяется канонический состав архитектурных компонентов, составляющих любой компьютер, — счетчик команд, код операции и адреса операндов; он остается неизменным по сей день. Все мыслимые и немыслимые усовершенствования архитектуры фон Неймана в конечном счете сводятся к повышению качества управления потоком команд, методам адресации данных и команд, кэшированию памяти и т.п. При этом последовательная архитектура не меняется, но сложность ее возрастает. Очевидно, что представление о компьютере как об устройстве, выполняющем заданную последовательность команд, лучше всего подходит для тех случаев, когда объем обрабатываемых данных невелик, а данные являются статическими. Но в современных условиях приходится сталкиваться с приложениями, где относительно небольшое количество команд обрабатывает потоки данных. В таком случае целесообразно предположить, что компьютером может быть и устройство, которое имеет каким-то образом зашитые в него алгоритмы и способно обрабатывать потоки данных. Такие компьютеры могли бы обладать естественным параллелизмом, а их программирование свелось бы к распределению функций между большим числом ядер.

Можно допустить существование следующих альтернативных схем. Одна, фон-неймановская, предполагает, что вычислительным процессом управляет поток команд, а данные, в основном статичные, выбираются из каких-то систем хранения или из памяти. Вторая схема основывается на том, что процессом вычислений управляют входные потоки данных, которые на входе системы попадают в подготовленную вычислительную инфраструктуру, обладающую естественным параллелизмом. С точки зрения реализации первая схема гораздо проще, кроме того, она универсальна, программы компилируются и записываются в память, а вторая требует специальной сборки нужной для определенной задачи аппаратной конфигурации. Вторая схема старше; пример тому — табуляторы, изобретенные Германом Холлеритом и с успехом использовавшиеся на протяжении нескольких десятилетий. Корпорация IBM достигла своего могущества и стала одной из самых влиятельных компаний в США, производя электромеханические табуляторы для обработки больших массивов информации, не требующей выполнения логических операций. Их программирование осуществлялось посредством коммутации на пульте, а далее устройство управления в соответствии с заданной программой координировало работу остальных устройств.

От машины фон Неймана антимашина отличается наличием одного или нескольких счетчиков данных, управляющих потоками данных. Она программируется с использованием потокового обеспечения (Flowware), а роль центрального процессора в ней играют один или несколько процессоров данных (Data Path Unit, DPU). Центральной частью антимашины может стать память с автоматической последовательностью (Auto-Sequence Memory)(рис.18.1).

Асимметрия между машиной и антимашиной наблюдается во всем, за исключением того, что антимашина допускает параллелизм внутренних циклов, а это значит, что в ней решается проблема параллельной обработки данных. В антимашине доступ к памяти обеспечивается не по адресу команды или фрагмента данных, записанному в соответствующий регистр, а посредством универсального генератора адресов (Generic Address Generator, GAG). Его преимущество в том, что он позволяет передавать блоки и потоки данных. В то же время компиляция, посредством которой создается специализированная под определенную задачу система, заключается в объединении нужного количества настроенных процессоров данных в общий массив (Data Process Array, DPA), на котором выполняются алгоритмы Flowware и который может быть реконфигурируемым.

Методология GAG непоследовательна, а потому обладает такими достоинствами, как возможность работы с двумерными адресами, что дает неоспоримые преимущества при работе с видеоданными и при выполнении параллельных вычислений. Счетчик данных (data counter) — альтернатива счетчику команд в машине фон Неймана; его содержимым управляет Flowware. Для новой методологии придумано и новое название — twin.paradigm; оно отражает симбиоз вычислительных ядер двух классов как обычных центральных процессоров, построенных по фон-неймановской схеме, так и процессоров данных, реализующих антимашины.

Тема 18. Суперкомпьютеры. Параллельные вычислительные системы

Рис.25.1. Антимашина

Главные отличия антимашины от машины фон Неймана в том, что антимашина по природе своей параллельна и к тому же нестатична — ее нужно программировать индивидуально, а не просто загружать различные программы в универсальную машину. Существуют наработки, которые хотя бы могут дать представление о том, как и из чего можно собрать антимашину. Реализовать ее можно средствами реконфигурируемого компьютинга.

Теоретически возможно существование трех подходов к созданию реконфигурируемых процессоров.

Специализированные процессоры (Application-Specific Standard Processor). Процессоры, имеющие набор команд, адаптированный к определенным приложениям.

Конфигурируемые процессоры (Configurable Processor). Своего рода "заготовки" для создания специализированных процессоров, содержат в себе необходимый набор компонентов, адаптируемый к требованиям приложений. В таком случае проектирование специализированного процессора оказывается проще, чем с чистого листа.

Динамические реконфигурируемые процессоры (Dynamically Reconfigurable Processor). Процессоры, содержащие стандартное ядро и расширяющее его возможности устройство, которое может быть запрограммировано в процессе исполнения; обычно это бывает программируемая логическая матрица (Field Programmable Gate-Array, FPGA).

В качестве еще одного пути развития вычислительных средств, сочетающего в себе и переход к параллельным системам и процессорам, и управление данными, можно назвать постепенный переход к системам на базе или с применением искусственного интеллекта. Действительно, если рассмотреть традиционное сравнение характеристик систем искусственного интеллекта с традиционными программными системами, видно, что в них подразумевается и адаптивность структуры, и высокий уровень параллелизма — таким образом, есть потенциальная возможность наиболее полно использовать возможности многоядерных архитектур.

Также следует отметить, что интерес к системам на базе искусственного интеллекта (ИИ) возрос — это связано отчасти и с успехами в области полупроводниковой техники, позволяющими получать достаточно компактные устройства, которые имеют достаточно ресурсов для поддержания приложений ИИ. Одним из направлений ИИ, близкого по структуре к параллельным системам, являются искусственные нейронные сети, которые обладают рядом свойств, делающих их незаменимыми во многих приложениях. Применительно к задачам — это способность к обобщению, выявлению скрытых закономерностей, способность настраиваться на задачу, отсутствие необходимости выстраивать аналитические модели. Применительно к организации вычислений — нейросети позволяют наиболее полно использовать аппаратные ресурсы системы (в частности, для параллельной системы возможна наиболее полная загрузка вычислительных ядер).

25.2. Сферы применения многоядерных процессоров и многопроцессорных вычислительных систем

Широкое внедрение многоядерных технологий позволяет по-новому взглянуть на вычислительные возможности компьютеров и порождает всплеск творческой активности по созданию инновационных решений. Разработчики клиентских приложений могут исследовать новые способы применения многозадачности, которые в прошлом не имели практического значения или были сложны в реализации. Например, важные системные задачи теперь могут выполняться постоянно — непрерывный и упреждающий поиск вирусов, автоматическое резервное копирование, гарантирующее сохранение всех рабочих файлов, интеллектуальная система мониторинга потоков работ, способная прогнозировать потребности пользователя и выдавать информацию в реальном времени по запросу. С ростом распространения многоядерных клиентских ПК список полезных приложений, которые могут непрерывно выполняться в фоновом режиме, будет постоянно расти.

Можно выделить несколько классов приложений, которые требуют значительных вычислительных ресурсов и могут быть соотнесены с термином "HPC-приложения".

Приложения, обрабатывающие большие файлы данных:

  • 2D/3D САПР;
  • системы моделирования, средства работы с анимацией;
  • средства обработки цифровых изображений;
  • электронные издательские системы;
  • средства видеомонтажа/рендеринга;
  • компьютерные игры (на клиентских компьютерах и серверах);
  • средства поиска/индексирования;
  • системы потокового мультимедиа;
  • средства защиты и криптографии.

Приложения, нуждающиеся в увеличенном адресном пространстве ОЗУ:

  • финансовое моделирование;
  • научные и технические расчеты;
  • исполняющиеся на сервере приложения, обслуживающие множество пользователей настольных машин, или тонких клиентов.

Приложения, работающие с большими массами транзакций/пользователей:

  • СУБД;
  • веб-серверы;
  • серверы электронной почты.

Было показано, что многоядерные процессоры позволяют существенно снизить потребление энергии при сохранении производительности. Это, в свою очередь, открывает новые области применения:

  • компактные высокопроизводительные устройства с низким тепловым излучением;
  • серверные помещения, позволяющие снизить расход электроэнергии и требования к кондиционированию воздуха;
  • решения для мобильных ПК с увеличенным временем автономной работы батарей;
  • решения для дома и офиса, реализация которых раньше была физически невозможна при использовании процессоров предыдущих поколений.

Обеспечение энергосберегающей производительности, основа которой — переход на многоядерные вычисления, принесет выгоды практически для всех платформ.

По мере появления дополнительных вычислительных возможностей перед разработчиками откроются перспективы, лежащие далеко за пределами простого повышения быстродействия приложений. Голосовое управление, IP-телефония и видеотелефония, новые электронные секретари, доступ к информации в реальном времени, расширенные возможности управления через IP, многоуровневые функции поиска и извлечения данных, — вот лишь несколько примеров преимуществ, которые могут получить пользователи мощных вычислительных систем с быстрым реагированием.

Многопроцессорные вычислительные системы (МВС)могут существовать в различных конфигурациях. Наиболее распространенными типами МВС являются:

  • системы высокой надежности;
  • системы для высокопроизводительных вычислений;
  • многопоточные системы.

Отметим, что границы между этими типами МВС до некоторой степени размыты, и часто система может иметь такие свойства или функции, которые выходят за рамки перечисленных типов. Более того, при конфигурировании большой системы, используемой как система общего назначения, приходится выделять блоки, выполняющие все перечисленные функции.

МВС являются идеальной схемой для повышения надежности информационно-вычислительной системы. Благодаря единому представлению, отдельные узлы или компоненты МВС могут незаметно для пользователя заменять неисправные элементы, обеспечивая непрерывность и безотказную работу даже таких сложных приложений какбазы данных.

Катастрофоустойчивые решения создаются на основе разнесения узловмногопроцессорной системы на сотни километров и обеспечения механизмов глобальной синхронизации данных между такими узлами.

МВС для высокопроизводительных вычислений предназначены для параллельных расчетов. Имеется много примеров научных расчетов, выполненных на основе параллельной работы нескольких недорогих процессоров, обеспечивающих одновременное проведение большого числа операций.

МВС для высокопроизводительных вычислений обычно собраны из многих компьютеров. Разработка таких систем – процесс сложный, требующий постоянного согласования таких вопросов как инсталляция, эксплуатация и одновременное управление большим числом компьютеров, технических требований параллельного и высокопроизводительного доступа к одному и тому же системному файлу (или файлам), межпроцессорной связи между узлами и координации работы в параллельном режиме. Эти проблемы проще всего решаются при обеспечении единого образа операционной системы для всего кластера. Однако реализовать подобную схему удается далеко не всегда, и обычно она применяется лишь для небольших систем.

Многопоточные системы используются для обеспечения единого интерфейса к ряду ресурсов, которые могут со временем произвольно наращиваться (или сокращаться). Типичным примером может служить группа

продолжение следует...

Продолжение:


Часть 1 Тема 18. Суперкомпьютеры. Параллельные вычислительные системы
Часть 2 25.3. Классификация архитектур вычислительных систем по степени параллелизма обработки данных

См.также

Надеюсь, эта статья про суперкомпьютер, была вам полезна, счастья и удачи в ваших начинаниях! Надеюсь, что теперь ты понял что такое суперкомпьютер, суперкомпьютеры, параллельные вычислительные системы, параллельная вычислительная система, supercomputer, сверхэвм, суперэвм, сверхвычислитель и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Компьютерная схемотехника и архитектура компьютеров


Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Компьютерная схемотехника и архитектура компьютеров

Термины: Компьютерная схемотехника и архитектура компьютеров