Научная Петербургская Академия

Реферат: Суперкомпьютеры

Реферат: Суперкомпьютеры

Муниципальное общеобразовательное учреждение-

Средняя общеобразовательная школа №204

«Суперкомпьютеры - вчера, сегодня, завтра.

Функции, особенности, роль в современной жизни,

принципы архитектура»

Исполнитель: Карлушин Никита Сергеевич,

11 класс

Руководитель: Данилина Ирина Исаковна

Екатеринбург,

2003

Оглавление:

1. Введение. История развития персональных ЭВМ.

2. Краткие описания процессоров:

2.1. 8088

2.2. 80286

2.3. 80386

2.4. 80486

2.5. Линейка процессоров Pentium

3. СуперЭВМ:

3.1. Что такое суперкомпьютеры?

3.2. Для чего они необходимы?

3.3. Принципы обработки данных:

3.3.1. Параллельная обработка.

3.3.2. Конвейерная обработка.

3.4. Современные суперкомпьютеры

3.4.1. Векторно-конвейерные компьютеры

3.4.2. Массивно-параллельные компьютеры с распределённой памятью

3.4.3. Параллельные компьютеры с общей памятью

3.4.4. Кластерные компьютеры

3.4.5. Виртуальная многопроцессорность

3.5. СуперЭВМ в России

3.6. СуперЭВМ за рубежом

4. Заключение.

Введение

На сегодняшний день информационные технологии и электронно-вычислительная

техника играют очень большую роль в нашей жизни. Но потребности общества

растут практически с каждым днем, и, соответственно, уровень

производительности компьютеров возрастает также быстро. За какие-то 50 лет

производительность компьютеров возросла в несколько раз, да и это еще мягко

сказано.

Какие-то 35 лет назад пределом технического совершенства был простейший

калькулятор, и переход компании с арифмометра на «электронно-вычислительную

технику» очень поднимал престиж организации. И никому и в голову не могло

придти, что произойдет через пару десятилетий. Что через пару десятков лет

компьютер, хотя и очень простой, будет стоять не только в каждой уважающей

себя фирме, компании, офисе, предприятии, но и во многих квартирах. Что его

можно будет использовать не только для решения сложнейших задач, но и для

обучения, общения и развлечений. И тем более никто и не мог подумать о

развитии электронно-вычислительной техники до того уровня, на котором она

находится сегодня.

Хотя, в принципе, такая ситуация существует и сейчас. Несколько лет назад мои

знакомые обратились к нескольким программистам с просьбой написать программу,

составляющую расписание занятий для общеобразовательного учреждения. Им

ответили, что такую программу создать невозможно, так как в ней будет

задействовано столь огромное количество переменных, что процессор просто не

сможет выполнить задачу. Сегодня программами, составляющими расписание,

торгуют многие компании по созданию программного обеспечения, причем за

сравнительно низкую плату, и это уже никого не удивляет. Излишне говорить,

что сегодняшние персональные компьютеры отлично справляются с задачей,

поставленной программистами.

Если рассматривать более глобальные проблемы, можно вспомнить о, например,

прогнозировании погоды. Лет 25-30 назад, все данные рассчитывались

метеорологами вручную, соответственно, и погрешность в измерениях была столь

высокой, что «прогнозы погоды» на деле оказывались лишь предсказаниями.

Сегодня же ученые в состоянии не только точно прогнозировать климат в

отдельном регионе, но и составлять общемировую сводку погоды, как ото

делается, например, при расчете траектории движения торнадо в США.

В 1969 году в корпорацию Intel поступил заказ на специализированные

микросхемы для бухгалтерских калькуляторов, появившихся после «технической

революции» - создания микропроцессора, над которым трудились все инженеры

этой, только что созданной, компании. Тогда, в рамках данного заказа Гордоном

Муром и Робертом Нойсом был создан однокристальный микропроцессор,

предназначенный для применения в калькуляторах, получивший название 4004 (4-

разрядная шина данных и 16-контактный корпус). Для того времени это было

величайшим изобретением компьютерщиков.

Краткие технические описания различных процессоров

Процессор 8088, родоначальник большинства процессоров для персональных

компьютеров, состоял из 29 тысяч транзисторов, производился по 3-микронной

технологии и имел общую площадь подложки 33 кв.мм. Для сравнения, современный

процессор Pentium 4 состоит из 42 млн. транзисторов, производится по 0,18-

микронному техпроцессу и имеет площадь, равную 217 кв.мм.

После этого началось, можно сказать, стремительное развитие ЭВМ. Теперь они,

вместо здания, подвала или комнаты, занимали лишь часть помещения, а то и

умещались на столе (начиная с компьютеров на базе процессора 80286).

Единственным недостатком было отсутствие возможности постоянного хранения

информации, но и эта проблема была решена американскими учеными, в году

разработавшими проект под кодовым названием «винчестер».

Начиная с процессора 80286, в Intel Architecture появляется защищенный режим.

В нем содержимое сегментных регистров используется в качестве указателей на

таблицы дескрипторов, которые давали возможность 24-разрядной адресации, что

составляло 16 мегабайт адресного пространства. К тому же, появилась

возможность проверки границ сегментов, опций read и execute-only для

сегментов и 4 уровня защиты кода операционной системы от приложений и защита

приложений друг от друга.

А Intel 80386 стал первым 32-разрядным процессором. В архитектуру введены 32-

разрядные регистры общего назначения, подходящие как для хранения адресов,

так и для операндов. Нижняя и верхняя половина сохранили возможность работы в

качестве самостоятельных регистров для обеспечения совместимости с

предыдущими процессорами. Для обеспечения эффективного выполнения кода,

созданного под ранние процессоры, на 32-разрядных процессорах, был введен

виртуальный х86 режим. Имея 32-разрядную шину адреса, 80386 процессор

поддерживал адресацию до 4 гигабайт памяти. При этом была возможность

использования как сегментированной памяти, так и «плоской», при которой все

сегментные регистры содержали указатель на один и тот же адрес, и в каждом

сегменте доступно все 4-х гигабайтное адресное пространство.

Для виртуального управления памятью вводится страничный метод, при котором

адресное пространство делится на фиксированные страницы размером по 4

килобайта, эффективность которого значительно превышала использование

сегментов. 16-разрядные инструкции, доставшиеся в наследство от предыдущих

процессоров, получили возможность работы с 32-разрядными операндами и

адресами, а также был добавлен ряд новых 32-разрядных инструкций. В поисках

новых технологий для увеличения быстродействия, в 80386 впервые реализована

возможность параллельной работы нескольких блоков процессора.

Процессор же 80486, на мой взгляд, стал родоначальником современных

суперкомпьютеров, так как в нем использовался принцип конвейерной обработки

информации, блестяще реализованный в современных, наиболее мощных ЭВМ. В

данной модели это был пяти-стадийный конвейер, в котором каждая стадия, по

мере надобности, выполнятся параллельно с другими, исполняя до пяти команд на

разных стадиях работы. Конвейерные микропроцессоры выполняют команды подобно

сборочной линии: полная обработка каждой инструкции занимает несколько

тактов, но, разбивая процесс на несколько этапов, и начиная выполнение

следующей команды сразу вслед за тем, как предыдущая команда пройдет первый

этап, можно быстро выдать несколько завершенных команд. При этом нельзя не

отметить и такие технологические инновации, как 8-килобайтный кэш первого

уровня в чипе для обеспечения полноценной загрузки конвейера, интегрированный

х87 сопроцессор, а также расширения для поддержки внешнего кэша 2-го уровня и

многопроцессорных систем. 486-й микропроцессор обладал достаточным для того

времени быстродействием.

Чуть выше я несколько раз употребил термин «кэш», и мне хотелось бы

расшифровать этот термин для тех, кто никогда не сталкивался в данным

понятием. Кэш (от англ. cashe – сверхоперативная память) – очень быстрая и

очень дорогая память, служащая буфером между процессором и оперативной

памятью и используемая для хранения излишка информации.

Немного позже началось самое активное развитие персональных ЭВМ. Появились

процессоры Pentium, Pentium Pro, Pentium II, Pentium III и, наконец, Pentium

IV. Кроме тактовой частоты и количества кэш-памяти они не имели серьёзных

различий, поэтому я не буду подробно останавливаться на каждом из них.

Достаточно лишь сказать, что частота работы процессора изменилась с 75 MHz до

современных значений – более 2 GHz, то есть, более чем в двадцать пять раз.

Частота шины изменилась с 33 MHZ до 800 MHz, а вот количество кэш-памяти по

большей части не изменилось – 512 Kb, хотя также выпускаются процессоры со

128 Kb кэша, стоящие в два раза дешевле; кроме того, на сегодняшний день,

существует конкурирующая с Intel’ом и выпускающая два типа процесcоров –

Athlon и Duron, но с ними наблюдается та же ситуация, что и с Intel’ом –

процессорами Pentium и Celeron. Но одновременно с этим началось активное

развитие и тех устройств, о которых я и хочу рассказать – суперкомпьютеров,

или суперЭВМ.

Суперкомпьютеры

Что же вообще такое – суперкомпьютеры?

Считается, что супер-ЭВМ - это компьютеры с максимальной производительностью.

Однако быстрое развитие компьютерной индустрии делает это понятие весьма и

весьма относительным: то, что десять лет назад можно было назвать

суперкомпьютером, сегодня под это определение уже не подпадает.

Производительность первых супер-ЭВМ начала 70-х годов была сравнима с

производительностью современных ПК на базе традиционных процессоров Pentium.

По сегодняшним меркам ни те, ни другие к суперкомпьютерам, конечно же, не

относятся.

В любом компьютере все основные параметры взаимосвязаны. Трудно себе

представить универсальный компьютер, имеющий высокое быстродействие и

мизерную оперативную память либо огромную оперативную память и небольшой

объем дисков. Отсюда простой вывод: супер-ЭВМ — но компьютер, имеющий не

только максимальную производительность, но и максимальный ли объем

оперативной и дисковой памяти и совокупности со специализированным

программным обеспечением, с помощью которого этим монстром можно эффективно

пользоваться.

Суперкомпьютерам не раз пытались давать универсальные определения — иногда

они получались серьезными, иногда ироничными. Например, как-то предлагалось

считать суперкомпьютером машину, вес которой превышает одну тонну. Несколько

лет назад был предложен и такой вариант: суперкомпьютер — это устройство,

сводящее проблему вычислений к проблеме ввода/вывода. В самом деле, задачи,

которые раньше вычислялись очень долго, на супер-ЭВМ выполняются мгновенно, и

почти все время теперь уходит на более медленные процедуры ввода и вывода

данных, производящиеся, как правило, с прежней скоростью.

Так что же такое современный суперкомпьютер? Самая мощная ЭВМ на сегодняшний

день — это система Intel ASCI RED, построенная по заказу Министерства

энергетики США. Чтобы представить себе возможности этого су1еркомпьютера,

достаточно сказать, что он объединяет в себе 9632 (!) процессора Pentium Pro,

имеет более 600 Гбайт оперативной памяти и общую производительность в 3200

миллиардов операций в секунду. Человеку потребовалось бы 100000 лет, чтобы

даже с калькулятором выполнить все те операции, которые этот компьютер делает

всего за 1 секунду!

Создать подобную вычислительную систему — всё равно, что построить целый

завод со своими системами охлаждения, бесперебойного питания и т.д. Понятно,

что любой суперкомпьютер, даже в более умеренной конфигурации, должен стоить

не один миллион долларов США: ради интереса прикиньте, сколько стоят, скажем,

лишь 600 Гбайт оперативной памяти? Возникает естественный вопрос: какие

задачи настолько важны, что требуются компьютеры стоимостью в несколько

миллионов долларов? Или еще один:

какие задачи настолько сложны, что хорошего Pentium IV для их решения

недостаточно?

Для чего же необходимы суперкомпьютеры?

Оказывается, существует целый ряд жизненно важных проблем, которые просто

невозможно решать без использования суперкомпьютерных технологий.

Возьмем, к примеру, США, по территории которых два раза в год проходят

разрушительные торнадо. Они сметают на. своем пути города, поднимают в воздух

автомобили и автобусы, выводят реки из берегов, заливая тем самым гигантские

территории. Борьба с торнадо — существенная часть американского бюджета.

Только штат Флорида, который находится недалеко от тех мест, где эти смерчи

рождаются, за последние годы потратил более 50 миллиардов долларов на

экстренные меры по спасению людей. Правительство не жалеет денег на внедрение

технологий, которые позволили бы предсказывать появление торнадо и

определять, куда он направится.

Как рассчитать торнадо? Очевидно, что для этого надо решить задачу о

локальном изменении погоды, то есть задачу о движении масс воздуха и

распределении тепла в неком регионе. Принципиально это несложно, однако на

практике возникают две проблемы. Проблема первая: чтобы заметить появление

смерча, надо проводить расчет на характерных для его образования размерах, то

есть на расстояниях порядка двух километров. Вторая трудность связана с

правильным заданием начальных и граничных условий. Дело в том, что

температура на границах интересующего вас региона зависит от того, что

делается в соседних регионах. Рассуждая дальше, легко убедиться, что мы не

можем решить задачу о смерче, не имея данных о климате на всей Земле. Климат

на планете рассчитать можно, что и делается каждый день во всех странах для

составления среднесрочных прогнозов погоды. Однако имеющиеся ресурсы

позволяют вести расчеты лишь с очень большим шагом — десятки и сотни

километров. Ясно, что к предсказанию смерчей такой прогноз не имеет никакого

отношения.

Необходимо совместить две, казалось бы, плохо совместить е задачи: глобальный

расчет, где шаг очень большой, и локальный, где шаг очень маленький. Сделать

это можно, но лишь собрав в кулаке действительно фантастические

вычислительные ресурсы. Дополнительная трудность состоит еще и в том, что

вычисления не должны продолжаться более 4 часов, так как за 5 часов картина

погоды смазывается совершенно, и все, что вы считаете, уже не имеет никакого

отношения к реальности. Нужно не только обработать гигантский объем данных,

но и сделать это достаточно быстро. Такое под силу лишь суперкомпьютерам.

Предсказание погоды — далеко не единственный пример использования

суперкомпьютеров. Сегодня без них не обойтись в сейсморазведке, нефте- и

газодобывающей промышленности, автомобилестроении, проектировании электронных

устройств, фармакологии, синтезе новых материалов и многих других отраслях.

Так, по данным компании Ford, для выполнения crash-тестов, при которых

реальные автомобили разбиваются о бетонную стену с одновременным замером

необходимых параметров, со съемкой и последующей обработкой результатов, ей

понадобилось бы от 10 до 150 прототипов для каждой новой модели. При этом

общие затраты составили бы от 4 до 60 миллионов долларов. Использование

суперкомпьютеров позволило сократить число прототипов на одну треть.

Известной фирме DuPont суперкомпьютеры помогли синтезировать материал,

заменяющий хлорофлюрокарбон. Нужно было найти материал, имеющий те же

положительные качества: невоспламеняемость, стойкость к коррозии и низкую

токсичность, но без вредного воздействия на озоновый слой Земли. За одну

неделю были проведены необходимые расчеты на суперкомпьютере с общими

затратами около 5 тысяч долларов. По оценкам специалистов DuPont,

использование традиционных экспериментальных методов исследований потребовало

бы 50 тысяч долларов и около трех месяцев работы — и это без учета времени,

необходимого на синтез и очистку требуемого количества вещества.

Принципы обработки данных

Итак, мы видим, что без суперкомпьютеров сегодня действительно не обойтись.

Осталось прояснить еще один вопрос: почему они считают так быстро? Это может

быть связано, во-первых, с развитием элементной базы и, во-вторых, с

использованием новых решений в архитектуре компьютеров. | Попробуем

разобраться, какой из этих факторов оказывается решающим для достижения

рекордной производительности. Обратимся к известным историческим фактам. На

одном из первых компьютеров мира EDSAC, появившемся в 1949 году в Кембридже и

имевшем время такта 2 микросекунды (210* секунды), можно было выполнить 2п

арифметических операций за 18п миллисекунд, то есть в среднем 100

арифметических операций в секунду. Сравним с одним вычислительным узлом

современного суперкомпьютера Hewlett-Packard V2600: время такта

приблизительно 1,8 наносекунды , а пиковая производительность—около 77

миллиардов арифметических операций в секунду.

Что же получается? За полвека производительность компьютеров выросла более

чем в семьсот миллионов раз. При этом выигрыш в быстродействии, связанный с

уменьшением времени такта с 2 микросекунд до 1,8 наносекунды, составляет лишь

около 1000 раз. Откуда же взялось остальное? Ответ очевиден — за счет

использования новых решений в архитектуре компьютеров. Основное место среди

них занимает принцип параллельной обработки данных, воплощающий идею

одновременного (параллельного) выполнения нескольких действий.

Различают два способа параллельной обработки: собственно параллельную и

конвейерную. Оба способа интуитивно абсолютно понятны, поэтому сделаем лишь

небольшие пояснения.

Параллельная обработка

Предположим для простоты, что некое устройство выполняет одну операцию за

один такт. В этом случае тысячу операций такое устройство выполнит за тысячу

тактов. Если имеется пять таких же независимых устройств, способных работать

одновременно, то ту же тысячу операций система из пяти устройств может

выполнить уже не за тысячу, а за двести тактов. Аналогично система из N

устройств ту же работу выполнит за 1000/N тактов. Подобные примеры можно

найти и в жизни: если один солдат выкопает траншею за 10 часов, то рота

солдат из пятидесяти человек с такими же способностями, работая одновременно,

справится с той же работой за 12 минут— принцип параллельности в действии!

Кстати, пионером в параллельной обработке потоков данных был академик А. А.

Самарский, выполнявший в начале 50-х годов расчеты, необходимые для

моделирования ядерных взрывов. Самарский решил эту задачу методом сеток,

посадив несколько десятков барышень с арифмометрами за столы (узлы сетки).

Барышни передавали данные одна другой просто на словах и откладывали

необходимые цифры на арифмометрах. Таким образом, в частности, была

рассчитана эволюция взрывной волны. Работы было много, барышни уставали, а

Александр Андреевич ходил между ними и подбадривал. Так создали, можно

сказать, первую параллельную систему. Хотя расчеты водородной бомбы провели

мастерски, точность их оказалась очень низкой, потому что узлов в

используемой сетке было мало, а время счета получалось слишком большим.

Конвейерная обработка

Что необходимо для сложения двух вещественных чисел, представленных в форме с

плавающей запятой? Целое множество мелких операций, таких, как сравнение

порядков, выравнивание порядков, сложение мантисс, нормализация и т.п.

Процессоры первых компьютеров выполняли все эти «микрооперации» для каждой

пары слагаемых последова­тельно, одну за другой, до тех пор пока не доходили

до окончательного результата, и лишь после этого переходили к обработке

следующей пары слагаемых.

Идея конвейерной обработки заключается в расчленении операции на отдельные

этапы, или, как это принято называть, ступени кон­вейера. Каждая ступень,

выполнив свою ра­боту, передает результат следующей ступени, одновременно

принимая новую порцию вход­ных данных. Получается очевидные выигрыш в

скорости обработки

Современные суперкомпьютеры

А что же сейчас используют в мире? По каким направлениям идет развитие

высокопроизводительной вычислительной техники? Таких направлений четыре.

Векторно-конвейерные компьютеры

Две главные особенности таких машин: наличие функциональных конвейерных

устройств и набора векторных команд. В отличие от обычных команд векторные

оперируют целыми массивами независимых данных, то есть команда вида А=В+С

может означать сложение двух массивов, а не двух чисел. Характерный

представитель данного направления — семейство векторно-конвейерных

компьютеров CRAY, куда входят, например, CRAY EL, CRAY J90, CRAY T90 (в марте

этого года американская компания TERA перекупила подразделение CRAY у

компании Silicon Graphics, Inc.).

Массивно-параллельные компьютеры с распределенной памятью

Идея построения компьютеров этого класса тривиальна: серийные микропроцессоры

соединяются с помощью сетевого оборудования — вот и все. Достоинств у такой

архитектуры масса: если нужна высокая производительность, то можно добавить

процессоры, а если ограничены финансы или заранее известна требуемая

вычислительная мощность, то легко подобрать оптимальную конфигурацию. К этому

же классу можно отнести и простые сети компьютеров, которые сегодня все чаще

рассматриваются как дешевая альтернатива крайне дорогим суперкомпьютерам.

(Правда, написать эффективную параллельную программу для таких сетей довольно

сложно, а в некоторых случаях просто невозможно). К массивно-параллельным

можно отнести компьютеры Intel Paragon, ASCI RED, IBM SP1, Parsytec, в какой-

то степени IBM SP2 и CRAYT3D/T3E.

Параллельные компьютеры с общей памятью.

Вся оперативная память в таких компьютерах разделяется несколькими

одинаковыми процессорами, обращающимися к общей дисковой памяти. Проблем с

обменом данными между процессорами и синхронизацией их работы практически не

возникает. Вместе с тем главный недостаток такой архитектуры состоит в том,

что по чисто техническим причинам число процессоров, имеющих доступ к общей

памчти, нельзя сделать большим. В данное направление суперкомпьютеров входят

многие современные SMP-компьютеры (Symmetric)

Кластерные компьютеры

Этот класс суперкомпьютеров, строго говоря, нельзя назвать самостоятельным,

скорее, он представляет собой комбинации предыдущих трех. Из нескольких

процессоров, традиционных или векторно-конвейерных, и общей для них памяти

формируется вычислительный узел. Если мощности одного узла недостаточно,

создается кластер из нескольких узлов, объединенных высокоскоростными

каналами. По такому принципу построены CRAY SV1..HP Exemplar, Sun StarFire,

NEC SX-5, последние модели IBM SP2 и другие. В настоящее время именно это

направление считается наиболее перспективным.

Два раза в год составляется список пятисот самых мощных вычислительных

установок мира Согласно последней редакции списка top500, вышедшей в ноябре

прошлого года, первое место занимает массивно-параллельный компьютер Intel

ASCI Red. На второй позиции стоит компьютер ASCI Blue-Pacific от IBM,

объединяющий 5808 процессоров PowerPC 604e/332MHz. Оба эти суперкомпьютера

созданы в рамках американской национальной программы Advanced Strategic

Computing Initiative, аббревиатура которой и присутствует в названии.

Производительность компьютера, стоящего на последнем, 500-м, месте в списке

самых мощных, составляет 33,4 миллиарда операций в секунду.

Если мощность существующих компьютеров поражает, то что говорить о планах. В

декабре 1999 года корпорация IBM сообщила о новом исследовательском проекте

общей стоимостью около 100 миллионов долларов, цель которого — построение

суперкомпьютера, в 500 раз превосходящего по производительности самые мощные

компьютеры сегодняшнего дня. Компьютер, имеющий условное название Blue Gene,

будет иметь производительность порядка 1 PETAFLOPS (10й операций в секунду) и

использоваться для изучения свойств белковых молекул. Предполагается, что

каждый отдельный процессор Blue Gene будет иметь производительность порядка 1

GFLOPS (109 операций в секунду). 32 подобных процессора будут помещены на

одну микросхему. Компактная плата размером 2x2 фута будет вмещать 64

микросхемы, что по производительности не уступает упоминавшимся ранее

суперкомпьютерам ASCI, занимающим площадь 8000 квадратных метров. Более ого,

8 таких плат будут помещены в 6-футо зую стойку, а вся система будет состоять

и: 64 стоек с суммарной производительности) 1 PFLOPS.

Виртуальная многопроцессорность

Основной смысл технологии Hyper-Threading заключается в поддержке

многопотокового исполнения программ. Эта технология позволяет на одном

физическом процессоре одновременно исполнять два задания или два фрагмента

кода одной программы. Таким образом, один процессор воспринимается

операционной системой как два логических устройства, интенсивная работа

которых осуществляется параллельно. Производительность таких систем, как

правило, значительно превышает аналогичные параметры компьютеров, построенных

на основе процессоров традиционной архитектуры. Нередки случаи, когда

производительность однопроцессорных решений с реализацией Hyper-Threading

повышается на 30%. А это для конфигурации с 3 ГГц процессором эквивалентно

применению модели с частотой работы 4 ГГц. Остается добавить, что аудитории

были продемонстрированы различные смеси задач, в которых рост

производительности превышал 60%, что соответствует уже, по крайней мере,

процессору 5 ГГц — уровень пока практически недостижимый даже для

оверклокеров, оперирующих традиционными средствами охлаждения.

Поддержка технологии Hyper Treading осуществляется многозадачными

операционными системами. В качестве таких систем можно привести, например,

Linux (с версии ядра 2.4) и Windows XP. А вот популярные Windows 95/98/ME для

этих целей уже не подходят. Что же касается Windows 2000, то фирма Microsoft

настоятельно рекомендует использовать в компьютерах, созданных на основе

Pentium 4 с Hyper Treading, операционную систему Windows XP.

Рисунок 1. Сравнение ПК на базе процессора Pentium(R) 4 с поддержкой технологии Hyper-Threading и обычной двухпроцессорной системы

Сравнение ПК на базе процессора Pentium® 4 с поддержкой технологии Hyper-

Threading и обычной двухпроцессорной системы

Рисунок 3. Сравнение производительности обычного однопроцессорного ПК, обычной двухпроцессорной системы и ПК на базе процессора Pentium 4 с поддержкой технологии Hyper-Threading

Сравнение производительности обычного однопроцессорного ПК, обычной

двухпроцессорной системы и ПК на базе процессора Pentium 4 с поддержкой

технологии Hyper-Threading (Примечание: этот рисунок демонстрирует лишь

концепцию, заключенную в технологии Hyper-Threading, и не свидетельствует об

использовании ресурсов любого существующего процессора или прикладной

программы).

Суперкомпьютеры в России

Идеи построения собственных суперкомпьютерных систем существовали в России

всегда. Еще в 1966 году М.А.Карцев выдвинул идею создания многомашинного

вычислительного комплекса М-9 производительностью около миллиарда операций в

секунду. В то время ни одна из машин мира не работала с такой скоростью.

Однако, несмотря на положительную оценку министерства, комплекс М-9

промышленного освоения не получил.

Работы по созданию суперкомпьютерных систем и суперкомпьютерных центров

ведутся в России и сейчас. Наиболее известна линия отечественных

суперкомпьютеров М8С-1000, создаваемая в кооперации научно-исследовательских

институтов Российской академии наук и 1ромышленности. Супер-ЭВМ линии МВС-

1000—это мультипроцессорный массив, объединенный с внешней дисковой памятью,

устройствами ввода/вывода информации и управ 1яющим компьютером. Компьютеры

МВС-КЮ0 используют микропроцессоры Alpha 21I64 (разработка фирмы DEC-Compaq)

с производительностью до 1—2 миллиардов операций в секунду и оперативной

памятью объемом 0,1—2 Кбайт.

Спектр научных и практических задач, решаемых на таком компьютере, может быть

очень велик: насчет трехмерных нестационарных течение вязкосжимаемого газа,

расчеты течений с л жальными тепловыми неоднородностями в потоке,

моделирование структурообразования и динамики молекулярных и биомолекулярных

систем, решение задач линейных дифференциальных игр, расчет деформаций

твердых тел с учетом процессов разрушения и многие другие. Одна из самых

мощных систем линии КIBC-1000, установленная в Межведомственно и

суперкомпьютерном центре, содержит 96 процессоров.

В последнее время в России, так же как и во всем мире, активно используется

кластерный подход к построению суперкомпьютеров. Подкупаются стандартные

компьютеры и рабочие. станции, которые с помощью стандартных сетевых средств

объединяются в параллельную вычислительную систему. По такому пути пошел, и,

надо сказать, успешно, НИ вычислительный центр МГУ, создавший кластер из 12

двухпроцессорных серверов. Сегодня это одна из самых крупнейших в России

вычислительных станций. При невысокой стоимости кластер НИВЦ МГУ имеет

производительность 5,7 миллиарда операций в секунду при решении линейных

уравнений с плотной матрицей размером 16000*16000! В будущем планируется

увеличить мощность кластера как за счет добавления новых узлов, так и за счет

технической модернизации старых.

Зарубежные суперкомпьютеры

Организация TOP500 Supercomputer sites с 1993 года публикует статистику по

500 наиболее мощным суперкомпьютерам. По данным на июнь 2003 года 5 лучших

компьютеров:

Реферат: Суперкомпьютеры 1. Система Earth

Simulator (ES), созданная японскими агентствами NASDA, JAERI and JAMSTEC с

производительностью 40 TFLOPS, предназначена для точного прогнозирования

погодных условий

2. Компьютер ASCI Q

2. Компьютер ASCI Q. Национальная лаборатория США, г. Лос-Аламос.

Производитель Hewlett-Packard. 3072 серверов AlphaServer ES45s, 12288

процессоров EV-68 1.25 ГГц. Быстродействие 13,88 TFLOPS .

Суперкомпьютерная система Q в Национальной лаборатории Лос Аламоса (LANL) -

компонент Программы Углубленных Моделирований и вычислений (ASCI) -

сотрудничества между департаментом Ядерной Безопасности Министерства

Энергетики США и национальных лабораторий Лос Аламоса. Задачей ASCI является

создание и использование возможностей для обеспечения безопасности хранения

ядерного запаса.

Реферат: Суперкомпьютеры 3. Кластер G5 в

Блэксбурге, США, содержит 1100 компонентов Apple G5, каждый из которых

содержит 970 процессоров IBM PowerPC, частотой в 2GHz. Каждый узел имеет 4GB

КЭШ-памяти и 160GB SATA накопителей. 176TB общих накопителей. 4 главных узла

для запуска компиляций/работы. 1 узел управления. Быстродействие 10,28 TFLOPS.

Производитель – Apple G5/Mellanox.

Реферат: Суперкомпьютеры 4. Tungsten, самый

последний кластер NCSA, будет использовать более чем 1450 двойных процессоров

Dell PowerEdge, 1750 серверов, управляемых Red Hat Linux, специальную cеть

высокого быстродействия Myrinet 2000, группу ввода-вывода с более чем 120 TB

памяти. Этот комплекс создан для вычислений по решению проблем окружающей

среды. Как ожидается, Tungsten будет обладать производительностью в 17.7

TFLOPS.

Реферат: Суперкомпьютеры 5. Тихоокеанская

Северо-западная Национальная лаборатория Ричланда, США, обладает пятым в

мире по производительности суперкомпьютером MPP2. Его производительность

равняется 11 TFLOPS? Что достигнуто благодаря 980 процессорам HP/Linux

Titanium 2 (Madison), каждый с тактовой частотой в 1,5 ГГц. Система

управляется операционной системой Linux версии Red Hat Linux Advanced Server.

Комплекс предназначен для решения сложных вычислительных процессов, связанных

с экологическими и биологическими процессами.

Заключение

К сожалению, чудеса в нашей жизни совершаются редко. Гигантская

производительность параллельных компьютеров и суперЭВМ с лихвой

компенсируется стоимостью и сложностью их использования. Но даже вопросы,

возникающие вокруг суперкомпьютеров, ставят в тупик. Например, простой пример

и жизни: землекоп выкопает яму за один час. Как вы думаете, 60 землекопов

выкопают яму за одну минуту? Так и в компьютере: начиная с некоторого

момента, они будут просто мешать друг другу, не ускоряя, а замедляя работу.

Но все вопросы, сопровождающие суперкомпьютер, конечно же, решаются. Да,

использовать суперкомпьютер сложнее, чем PC: нужны дополнительные знания и

технологии, высококвалифицированные специалисты, более сложная структура

информации. Написать эффективную параллельную программу сложнее, чем

последовательную, да и вообще создание параллельного программного обеспечения

для параллельных компьютеров – основная проблема суперкомпьютерных

вычислений. Но без суперЭВМ сегодня не обойтись, и отрадно, что в нашей

стране есть понимание необходимости развития этих технологий. В ноябре 2000

года в Президиуме РАН состоялось открытие межведомственного

суперкомпьютерного центра. В процессе становления суперкомпьютерные центры в

Дубне, Черноголовке, Институте прикладной математики им. М.В. Келдыша и т.п.

Создана и развивается линия отечественных суперкомпьютеров МВС-100. За

рубежом также происходит интенсивное развитие суперкомпьютеров всех типов

(векторные, кластерные и т.п.), и использование их практически во всех

отраслях человеческой жизни. А иначе и нельзя, так как параллельные

компьютеры и вычисления – не будущее, а реальность.



(C) 2009