Мы живем в век компьютеров, так что не удивительно, что международный вес того или иного государства может усиливаться в связи с количеством и размерами суперкомпьютеров, которые на него работают. Примером этому служит, например, Китай, где трижды признанный самым мощным суперкомпьютером Tianhe-2 из китайского Национального университета оборонных технологий в Гуанчжоу и обладающий вычислительной мощностью в 33,86 петафлопс снова был назван самой наиболее мощной системой в мире. Следующий в Тор-500 самых мощных суперкомпьютеров в мире, выявленных в ходе Международной конференции по суперкомпьютерам (ISC), прошедшей в ноябре 2014 года в Нью-Орлеане, расположен в США в Национальной лаборатории Ок-Ридж и обладает вычислительной мощностью в 17,59 петафлопс. Означает ли это, что благодаря Tianhe-2 Китай доминирует в данной сфере?
«Китай также является одной из самых густонаселенных стран мира, — отмечает Джордж К.Тируватукал (George K.Thiruvathukal), член компьютерного сообщества IEEE и профессор компьютерных наук в чикагском Университете Лойолы. — У них есть сотни городов с населением более миллиона человек. Это лишний намек Великобритании и США на то, что необходимо продолжать делать инвестиции в суперкомпьютеры и современные вычислительные методы в целом». Господин Тируватукал считает, что меры жесткой экономии, которые в настоящее время очень популярны во многих странах Запада, могут дать шанс увеличить свои вычислительные мощности таким государствам, как Индия и Китай. «После того, как Индия начала исследования Марса, затратив лишь одну десятой от стоимости эквивалентной программы в США, стало нарастать ощущение, что лишь большие вливания капиталов позволяют Великобритании и США оставаться впереди, — говорит он. — Тем не менее, без таких трат сегодня уже никак не обойтись. Их отсутствие грозит еще большим отставанием». Об этом говорят и цифры. Например, в списке Top-500 на ноябрь прошлого года был зафиксирован 61 суперкомпьютер. Но если Китай лидирует как владелец самого мощного суперкомпьютера в мире, то США нет равных по количеству этих ЭВМ, расположенных в пределах границ страны. В список Тop-500 вошел 231 американский суперкомпьютер. Впрочем, ровно год назад их количество составляло 265 единиц, так что США сдают позиции».
Десятка лидеров
Вот краткое изложение того, что могут суперкомпьютеры, попавшие в первую десятку Top-500. Посмотрите, что эти машины способны сделать за один день в противовес 20 годам работы обычного персонального компьютера:
1. Tianhe-2 (Китай). Суперкомпьютер Tianhe-2, спроектированный компанией Inspur совместно с Оборонным научно-техническим университетом Народно-освободительной армии Китайской Народной Республики, был запущен в 2013 году. Строительство этого гиганта обошлось в 200-300 млн. долларов. Более 1300 ученых и инженеров трудились над созданием Tianhe-2, что в переводе означает «Млечный путь-2». Суперкомпьютер занимает 125 стоек, имеет 3120000 ядер, а его теоретическая пиковая производительность равна 54,9 петафлопс. Объем оперативной памяти этого монстра равен 1024000 Gb, а работает он под управлением операционной системы Kylin Linux.
2. Titan (США). Суперкомпьютер изготовлен компанией Cray Inc. в октябре 2012 года. Titan стал обновлением предыдущего суперкомпьютера Jaguar. Располагается в Национальной лаборатории Ок-Ридж Университета Теннесси. По большей части мощности этой машины используются для программы Министерства энергетики США Innovative and Novel Computational Impact on Theory and Experiment program (INCITE). Суперкомпьютер имеет 560640 ядер и 710144 Gb оперативной памяти. Рабочая производительность равна 17,59 петафлопс. Работает он под управлением операционной системы Cray Linux Environment.
3. Sequoia (США). Создан компанией IBM в июне 2012 года. Используется Национальной администрации по ядерной безопасности для программы Advanced Simulation and Computing Program. Занимает 96 стоек, вычислительная мощность обеспечивается 1572864 процессорными ядрами, а объем оперативной памяти составляет 1572864 Gb. Производительность системы находится на уровне 17,17 петафлопс. Операционная система — Linux.
4. K Computer от компании Fujitsu, запущенный в 2011 году. Расположен в Институте физико-химических исследований в город Коба (Япония). Суперкомпьютер занимает 864 стоики и предлагает мощность 705024 процессорных ядер. Объем оперативной памяти здесь равен 1410048 Gb, а теоретическая пиковая производительность составляет 11,28 петафлопс. И снова в качестве операционной системы используется Linux.
5. Mira — суперкомпьютер IBM Blue Gene / Q, расположенный в здании Argonne Leadership Computing (США). Оснащен 786432 ядрами и 768 Tb оперативной памяти. Пиковая производительность равна 10 петафлопс. Суперкомпьютер имеет 49152 вычислительных узла, оборудованных процессорами PowerPC A2 1,6 GHz. Mira предоставляет доступ к файловой системе GPFS емкостью 24 петабайт и пропускной способностью 240 Гб/с. Пользователи также получат доступ к HPSS-архивам данных и Tukey, новому кластеру анализа и визуализации. Используется операционная система Linux.
6. Piz Daint (Швейцария). Запущен в ноябре 2013 года в Швейцарском национальном центре суперкомпьютеров (Swiss National Supercomputing Centre / CSCS). Используется для выполнения большого числа различных проектов, в основном в сфере компьютерного моделирования. Piz Daint был создан компанией Cray Inc и имеет 115984 ядра. Производительность Piz Daint составляет 6,27 петафлопс, а работает суперкомпьютер на проприетарной операционной системе Cray Linux Environment.
7. Stampede (США) из Техасского университета в Остине. Stampede является детищем компании Dell и занимает 182 стойки. Количество ядер в этой машине равно 462462, а объем оперативной памяти составляет 192192 Gb. Производительность Stampede в теории может достигать 8,52 петафлопс. Операционная система — Linux.
8. JUQUEEN (Германия) занимает это место с 2012 года. Был разработан компанией IBM специально для Исследовательского центра Юлиха. Данный суперкомпьютер, основанный на базе Blue Gene/P, успешно заменил своего предшественника JUBL, который создавался по более давней архитектуре. Число вычислительных ядер здесь составляет 458752, а объем оперативно памяти равен 458752 Gb. Производительность суперкомпьютера равна 5 петафлопс.
9. Vulcan (США). Суперкомпьютер производства IBM из Ливерморской национальной лаборатории Калифорнийского университета начал свое существование еще в 2013 году. Используется в работе различных научных проектов Livermore’s High Performance Computing (HPC) Innovation Center, который, в свою очередь, академически сотрудничает с Администрацией по Ядерной безопасности США. Производительность Vulcan составляет 4,29 петафлопс. Вычислительные мошности обеспечивают 393216 ядра и 393216 Gb оперативной памяти. Операционная система – Linux.
10. Storm CS Cray (Mystery). Окутанный дымкой таинственности суперкомпьютер расположен в США. Точное его месторасположение и цель существования неизвестны, так как является он не только суперкомпьютером, но и суперсекретным объектом. Обеспечивая 2,39 петафлопс на 1 W мощности, этот суперкомпьютер считается самым энергоэффективнным. Номинальная же мощность равна 3,57 петафлопс. В данном комплексе используются процессоры Intel Xeon E5-2660v2 10C 2,2 GHz, а суммарное число ядер составляет 72800.
Мы также решили предоставить вам информацию об обладателе 11-го места в Top-500. Новинка под номером 11 в Top-500. Суперкомпьютер Pleiadas вперые занял это место и интересен тем, что располагается в исследовательском центре имени Эймса, NASA (Калифорния). В настоящее время этот, модернизированный в октябре 2014 года, суперкомпьютер, построенный на базе процессоров Intel Xeon E5-2680 v3 и оснащенный системой питания SGI ICE X, использует свои мощности в размере 3,37 петафлопс ни на что другое, как на совершенствование будущего человека и освоения космоса роботами. Получить же информацию о полном списке суперкомпьютеров, вошедших в Top-500 на ноябрь 2014 года, вы можете по этой ссылке: www.top500.org/lists/2014/11.
Действительно ли больше, значит лучше, если разговор идет о суперкомпьютерах?
«Для некоторых размер суперкомпьютера по-прежнему является ключевым фактором в мире высокопроизводительных вычислений. Принято считать, что, чем больше суперкомпьютер, тем реалистичнее моделирование, обширнее аналитика данных и богаче инновации в сфере научных запросов, — говорит Энди Грант (Andy Grant), директор направления высокопроизводительных вычислений и больших данных в компании Bull Information Systems. — Данное мнение имело почву на заре эры высокопроизводительных вычислений более половины века назад, когда технология применялась в основном для специализированных приложений, начиная от прогноза погоды до сложных систем телефонной коммутации и испытаний ядерного оружия».
С приходом облачных суперкомпьютеров, так называемых HPC-on-Demand, все начало меняется. «Акцентирование внимания на размерах отвлекает массы от того, что действительно важно», — говорит Грант. — HPC-on-Demand могут справиться с данными в одно мгновение, сокращая время между постановкой задачи и достижением в понимании ее решения». Грант считает, что результат — это наиболее быстрая инновация, более точная и эффективная, а также более глубокая в плане понимание сложных вопросов. «Необходимо сместить акцент с размеров компьютеров на экономическую выгоду, которую может привнести вся HPC-инфраструктура».
Тенденции на рынке суперкомпьютеров
Миниатюризация компонентов процессоров — это только полдела. Суперкомпьютерам нужна специальная сборка для увеличения мощности. В 2008 году IBM Roadrunner преодолел предел в один петафлопс: один квадриллион операций в секунду. В научном представлении петафлопс измеряется в 1015 операций в секунду. Экзафлопсный компьютер, который по разным прогнозам появится в 2019 году, будет иметь производительность в 1018 операций в секунду, то есть в 1000 раз больше, чем петафлопсные компьютеры, которые мы наблюдаем сегодня. А к 2030 году суперкомпьютеры должны набрать производительность в зеттафлопс, или 1021 операций в секунду, а потом и йоттафлопс, или 1024. Что эти цифры на самом деле означают? Предполагается, что полная имитация компьютерного мозга станет возможной к 2025 году, а зеттафлопсовые суперкомпьютеры смогут точно предсказывать всю погоду на планете за две недели.
Одна из основных проблем разработчиков суперкомпьютеров связана с поиском разумного пути установки и использования машин без сбоев или ущерба для планеты. В конце концов, одно из главных назначений моделирования погодных условий будет направлено на управление выбросами оксида углерода, так что было бы не очень разумно прибавлять климатологам проблем в процессе решения этих задач. Компьютер работает крайне плохо, если перегревается. Любая компьютерная система полезна настолько, насколько она работает в свои худшие дни, поэтому охлаждение горячих микросхем представляет крупный интерес для инженеров. Более половины энергии, используемой суперкомпьютерами, уходит на охлаждение. И экологические проблемы уже вызывают серьезную обеспокоенность в свете повышения производительности компьютеров. Зеленые решения и энергоэффективность давно стали основой каждого проекта суперкомпьютера. От охлаждения «бесплатным воздухом», когда инженеры пытаются подвести внешний воздух к системе, до аппаратных конструкций, увеличивающих площадь поверхности системы, компании пытаются быть максимально инновационными с целью повышения эффективности охлаждения суперкомпьютеров. Одной из наиболее интересных идей, которые пытаются внедрить, является охлаждение системы жидкостью, которая будет собирать тепло по мере течения по трубам в самом компьютере. Проекты, которые входят в Top-500 самых мощных суперкомпьютеров, воспринимают это очень серьезно.
Теперь давайте поговорим о том, что должно произойти в период между 2025 и 2030 годами, когда суперкомпьютеры смогут картографировать человеческий мозг. В 1996 году ученый из Сиракузского университета оценил, что наши мозги обладают памятью от 1 до 10 терабайт (в среднем около 3 Tb). Конечно, чрезвычайно уместным будет отметить, что наши мозги работают не так, как компьютеры. Но в течение следующих 20 лет компьютеры должны заработать как они. Точно так же, как суперкомпьютеры чрезвычайно полезны в картографировании генома человека, решении медицинских проблем и в других сферах, точные модели человеческого мозга существенно облегчат диагностику, лечение и понимание сложностей человеческой мысли и эмоций. В сочетании с технологией визуализации, врачи смогут выявлять проблемные зоны, моделировать различные формы лечения и даже добраться до корней многих вопросов, которые мучают нас с начала времен. Имплантируемые и прививаемые чипы помогут наблюдать и даже изменять уровень серотонина и других нейромедиаторов для улучшения настроения и общего эмоционального состояния, а неправильная работа отдельных участков мозга в процессе травм, например, и вовсе может быть искоренена. Помимо успехов в медицине, которые обещают нам суперкомпьютеры, существует также вопрос искусственного интеллекта. Уже сейчас компьютеры средней производительности могут научиться некоторым возможностям искусственного интеллекта, среди которых умная система подборки рекомендаций книг и телевизионных программ — самое меньшее. Представьте себе интернет-врача, который сможет заменить собой настоящего врача и даже целый консилиум лучших врачей мира.
К 2030 году, как предполагается, зеттафлопные суперкомпьютеры смогут точно смоделировать целую погодную систему Земли за две недели. Имеется в виду 100% точную модель всей нашей планеты и экосферы, с местными и глобальными прогнозами, доступными по нажатию кнопки. Климат Земли — настолько сложная система, что ее часто обсуждают в связи с теорией хаоса, сложность которой некоторые из нас даже и представить не могут. Вопрос о том, может ли взмах крыла бабочки в Бразилии вызвать торнадо в Техасе, перестанет существовать. Короче говоря, сложно даже представить более сложную систему большого масштаба, нежели погода нашей планеты. Производство продуктов и сельское хозяйство, влияние погоды на другие масштабные научные проекты (полярные экспедиции или запуск космических аппаратов), предсказание стихийных бедствий — это только несколько спасительных вариантов, которые предложит нам вычислительная мощность. И конечно, погодная система — это только верхушка айсберга. Если вы сможете идеально представить погодные условия, вы так же просто сможете воссоздать любую сложную и большую систему.
Виртуальная реальность всегда была любимым сюжетом научной фантастики. Но если вы умножите ее на возможности суперкомпьютеров, игры и виртуальная среда могут стать больше, чем просто развлечением. Представьте, как упростятся вопросы городского планирования, застройки новых районов, неравномерного распределения продуктов питания и ресурсов. Суперкомпьютеры не будут гадать на кофейной гуще. Они будут получать информацию из всех возможных источников, и создавать модели, которые помогут регулировать не только текущие факторы, но и будущие планы. Дефицит газа, электричества, воды, планомерное использование этих ресурсов и обеспечение энергией масштабных событий перестанут волновать людей. С беспроводным интернетом, который захватывает весь мир, качественная модель нашего мира в один прекрасный момент не будет отличаться от мира, в котором мы живем. Только сейчас мы начинаем воплощать в жизнь все эти возможности, которые не были бы доступны без суперкомпьютеров.
Так что когда дело дойдет до решения серьезных вопросов, помочь смогут только суперкомпьютеры.
IBM вместе с NVIDIA работает над созданием суперкомпьютеров нового поколения
В конце 2014 года Министерство энергетики США выделило 325 млн. долларов корпорации IBM на создание двух суперкомпьютеров, которые уже получили собственные названия: Sierra и Summit. В системах будут использоваться технологии IBM, процессорные ускорители NVIDIA и сетевая инфраструктура от Mellanox. Один из суперкомпьютеров будет выполнять расчеты по проектам, которые нужны для энергетиков, метеорологов, физиков и представителей других специальностей. Эта работа ляжет на плечи Sierra, а установлена система будет в Oak Ridge National Laboratory (Теннесси). Второй суперкомпьютер Summit будет работать на военных в Lawrence Livermore National Laboratory (Калифорния). Системы будут идентичны. Пиковая производительность каждого из суперкомпьютеров составит 100 петафлопс, что автоматически поднимет их на 1-е место в списке Top-500. По приблизительным оценкам специалистов NVIDIA, для достижения такой производительности нужно собрать 3 млн. мощных ноутбуков в единую систему.
Дополнительно Министерство энергетики США выделит около 100 млн. долларов США на проект FastForward2, целью которого станет создание суперкомпьютеров следующего поколения, которые будут в 20-40 раз более производительными, чем современные системы. Сейчас уже известно, что в суперкомпьютерах будут установлены процессоры семейства Power от IBM, и графические ускорители Volta от NVIDIA. Соединять Power8 и Volta планируется посредством интерфейса NVIDIA NVLink. Этот интерфейс, по словам специалистов, позволит ускорить передачу данных от 5 до 12 раз. В IBM этот проект считают одним из прогрессивных, так как он подразумевает размещение вычислительных центров как можно ближе к хранилищу данных для увеличения производительности суперкомпьютеров. В системах также будут использоваться не обычные жесткие диски, а системы с flash-накопителями.
Intel разработает самый мощный суперкомпьютер в мире
В прошлом месяце и корпорация Intel объявила о том, что вычислительный центр ALCF (Argonne Leadership Computing Facility) Министерства энергетики США заключил договор с Intel Federal, стопроцентной дочерней компанией корпорации Intel, на поставку двух суперкомпьютеров следующего поколения для Аргонской национальной лаборатории. Договор был подписан в рамках многомиллионной инициативы Министерства энергетики США по оборудованию Аргонской национальной лаборатории, Ливерморской национальной лаборатории и Национальной лаборатории в Ок-Ридж суперкомпьютерами, которые будут работать в 5-7 раз быстрее самых мощных вычислительных систем. Intel была выбрана в качестве генерального подрядчика. Корпорация будет работать с Cray в качестве системного интегратора и производителя высокопроизводительных вычислительных систем следующего поколения для ALCF. Самый мощный компьютер, который получит название Aurora, основан на масштабируемой среде Intel для высокопроизводительных вычислений. Новая разработка станет следующим поколением суперкомпьютера Cray (Shasta). Aurora будет создан к 2018 году и будет иметь пиковую производительность на уровне 180 петафлопс, что сделает его самой мощной вычислительной системой на тот момент. Этот будет первый проект за последние 20 лет, когда Intel выступит в качестве головного подрядчика при создании суперкомпьютера. Вторая система, которая получит название Theta, станет системой ранней эксплуатации для ALCF. Суперкомпьютер запустят в 2016 году и он будет обеспечивать производительность на уровне 8,5 петафлопс, потребляя 1,7 МВт мощности.