In English

СК: классик корпоративного жанра?

01.06.2011, Стародумов Артем
Издание: CIO
Процесс интенсивного роста суперкомпьютерной отрасли начался в России с 2006 года. Одним из самых активных потребителей мощных вычислителей стала сфера образования и науки: поддержка на федеральном уровне дала импульс реализации целой серии проектов по развертыванию кластерных комплексов. Сегодня вычислительные кластеры находят все более широкое применение в коммерческой сфере.

Если взглянуть на список Топ-500, то лишь менее 20% его позиций – это суперкомпьютеры (СК) для научно-образовательных учреждений. Остальные созданы для коммерческого применения. Именно коммерческий сегмент рынка сейчас показывает наибольший рост частоты попадания в упомянутый рейтинг. Статистика приводит более 30 областей применения СК.

«Научно-технические задачи решаются, как правило, именно в рамках коммерческих проектов, – подчеркивает Михаил Миньковский, вице-президент по новым технологиям ОАО «СИТРОНИКС». – Например, симуляция систем в энергетике, моделирование месторождений в нефтяной и газовой добыче, моделирование аэродинамики в авиастроении, автомобильное проектирование, анализ прочности сложных узлов, молекулярные модели для фармацевтики просто невозможны без суперкомпьютеров. Это далеко не полный перечень».

Суперкомпьютеры стали инструментом, без которого невозможно форсировать дальнейшее развитие многих сфер человеческой деятельности. Аэродинамика, термоядерный синтез, генетика, фармацевтика, молекулярные исследования, акустические процессы, турбулентные течения, теплообменные потоки, климатические изменения, исследования в области запасов нефти, выполнение расчетов по конверсии радиочастотного спектра и многое, многое другое... Проведение расчетов для моделирования процессов в этих областях без компьютеров с реальной производительностью тера- и даже петафлопсного диапазона сегодня невозможно себе представить.

«Существует определенный класс задач, которые имеет смысл выполнять лишь на сверхмощных компьютерах, адаптированных для их решения, – подчеркивает директор по маркетингу компании «Т-Платформы» Андрей Комков. – Первую категорию таких задач составляют те, что оперируют огромными объемами данных. Вторая связана со сложными расчетами».

Решение системы уравнений, описывающих постановку таких задач, требует применения сверхмощных вычислителей: на обычных компьютерах процессы будут идти очень долго. «Если Гидрометеоцентр начнет выполнять расчеты прогноза погоды на обычных компьютерах, в лучшем случае через пару дней будут представлены результаты погоды на вчера, – говорит Комков. – Применение обычной вычислительной техники при решении подобных задач ведет к тому, что результат становится неактуальным».

Важным трендом стало моделирование конечных изделий в различных режимах работы. К примеру, моделирование столкновения автомобиля с препятствием. «Такое раннее моделирование позволяет избежать создания дорогостоящих натурных моделей или уменьшить их число, что положительно сказывается на стоимости разработки», – отмечает Комков.

Архитектурные принципы


Успехам суперкомпьютеров способствует быстрое совершенствование элементной базы: суммарная вычислительная мощность растет в соответствии с законом Мура, который до сих пор соблюдался. Денис Андриков обращает внимание на то, что СК работают очень быстро не только за счет самой современной элементной базы, но и за счет решений, заложенных в их архитектуру. Главное в ней – принцип параллельной обработки данных, воплощающий в жизнь идею одновременного (параллельного) выполнения нескольких действий. При классификации параллельных компьютеров основным параметром становится наличие общей или распределенной памяти. Есть и промежуточные архитектуры, где память физически распределена, но логически общедоступна.

- Главная особенность систем с симметричной многопроцессорной архитектурой SMP (Symmetric Multiprocessing) – наличие общей физической памяти, разделяемой всеми процессорами, – отмечает Денис Андриков. – В массивно-параллельной архитектуре МРР (Massive Parallel Processing) память физически разделена. В этом случае система строится из отдельных модулей, содержащих процессор, локальный банк операционной памяти, два коммуникационных процессора или сетевой адаптер, иногда – жесткие диски и (или) другие устройства ввода/вывода. Обычно один коммутационный процессор используется для передачи команд, другой – для передачи данных. По сути, такие модули представляют собой полнофункциональные компьютеры. Доступ к банку оперативной памяти из данного модуля имеют только процессоры из этого же модуля. Модули соединяются специальными коммуникационными каналами.

Комбинация двух подходов воплотилась в гибридной архитектуре (Non-Uniform Memory Access), которая сочетает удобства систем с общей памятью и относительную дешевизну – с раздельной. Суть этой архитектуры состоит в особой организации памяти. Будучи физически распределенной по различным частям системы, память остается логически разделяемой, так что пользователь видит единое адресное пространство. Система построена из однородных базовых модулей, состоящих из небольшого числа процессоров и блока памяти. Модули объединены с помощью высокоскоростного коммутатора. Обеспечивается единое адресное пространство, аппаратно поддерживается доступ к удаленной памяти, то есть к памяти других модулей. При этом доступ к локальной памяти происходит в несколько раз быстрее, чем к удаленной. «По существу, архитектура NUMA – это массивно-параллельная архитектура, где в качестве отдельных вычислительных элементов выступают SMP-узлы», – поясняет Денис Андриков.

Основной признак параллельно-векторных систем (PVP, ParallelVectorProcessing) – наличие специальных векторно-конвейерных процессоров, в которых предусмотрены команды однотипной обработки векторов независимых данных, эффективно выполняющиеся на конвейерных функциональных устройствах. Как правило, несколько таких процессоров работают одновременно с общей памятью (аналогично SMP) в рамках многопроцессорных конфигураций. Можно объединить несколько таких узлов с помощью коммутатора.

Михаил Миньковский («СИТРОНИКС») обращает внимание на то, что архитектура современных суперкомпьютеров – это совокупность большого количества процессорных узлов (серверов) сравнительно небольшой мощности, соединенных быстродействующей системой передачи данных с низкой латентностью. «Все последние изменения касаются в основном увеличения мощности узла, применения специализированных процессоров, а также ускорения и снижения задержки сетей, – констатирует специалист. – То есть это в большей степени количественное развитие, чем качественное, а достижение новых рубежей в производительности связано с ростом энергоэффективности и плотности вычислений, с качеством процессоров и количеством ядер».

Однако качественный рывок назрел, уверен Миньковский: «Ведь следующая задача, поставленная перед суперкомпьютерным сообществом, – это построение экзафлопсной машины, и для ее решения по ряду причин существующей архитектуры недостаточно».

Переход к многопроцессорным решениям, но уже в рамках одного вычислительного узла, на базе специализированных процессоров CELL с пониженным энергопотреблением в свое время предлагала компания IBM.

Андрей Синяченко, технический директор департамента инфраструктурных решений в московском офисе компании «АйТи», замечает, что подобное решение не получило широкого распространения. CELL – это специализированные процессоры, на которых в свое время создавались игровые приставки. IBM установила большое количество таких процессоров на одной материнской плате, упаковав ее в формфакторблейд-сервера: таким образом появились гибридные решения, когда часть вычислений производится на платформе Х86, а те алгоритмы, которые хорошо распараллеливаются и не требуют особо сложного математического аппарата, выполняются на CELL-процессорах. В России это направление пыталась развивать компания «Т-Платформы», установив с IBM отношения стратегического партнерства. Но распространения данное решение не получило.

Денис Андриков отмечает, что последние годы были ознаменованы переходом на модульную инфраструктуру с хорошей линейной масштабируемостью.

- Бесспорно, – продолжает он, – оставил свой отпечаток и тренд повышения энергоэффективности, что выразилось в использовании «умной» ИТ-инфраструктуры, процессоров с низким энергопотреблением и современных источников питания, а также методов охлаждения. В связи с повышением быстродействия изменились и подходы к организации хранения информации как результатов вычислений и исходных данных. Современные суперкомпьютеры требуют использования в составе архитектуры высокопроизводительных хранилищ.

Выбор архитектуры суперкомпьютера в критической степени зависит от класса решаемых задач, отмечает Андрей Юдин. Он убежден, что без знания характеристик прикладного ПО невозможно построить оптимальный СК.

У компании HP имеются центры компетенции в США и Европе, которые проводят профилирование прикладных вычислительных пакетов, чтобы выяснить требования к архитектуре – зависимости эффективности от частоты и микроархитектуры процессоров, количества вычислительных ядер на узел, интерконнектов, вычислительных ускорителей и т. п. «Оптимальную систему можно построить, только зная, какие приложения планирует использовать заказчик и какие требования предъявляют эти приложения», – подчеркивает Юдин.

Проблемы и решения


Главный системный архитектор компании «Т-Платформы» Андрей Спепухин называет ряд проблем, присущих архитектуре современных вычислительных кластеров. Одна из них связана с зависимостью энергопотребления от тактовой частоты процессора: она нелинейная, растет пропорционально кубу частоты. «За последние несколько лет частота процессоров практически стабилизировалась, – отмечает Спепухин, – но процессоры стали многоядерными. Это привело к тому, что количество отдельных вычислительных элементов в системе стало расти гораздо быстрее. Эти технологические зависимости требуют изменения подходов к созданию математических моделей расчетов и нуждаются в очень больших ресурсах для обеспечения эффективной взаимосвязи между отдельными вычислительными элементами».

Вторая проблема, на которую обращает внимание специалист, связана с тем, что суммарная вычислительная мощность растет в соответствии с законом Мура. Но если наращивать вычислительную мощность, то остаются проблемы с тем, что для получения сбалансированной системы производительность процессоров должна расти с той же скоростью, что и производительность памяти.

«А на деле производительность доступа к памяти растет намного медленнее, – поясняет Спепухин, – и это не позволяет в полной мере использовать вычислительные мощности. Пока прорывов в этой области нет. В настоящее время предпринимаются попытки разработать новые алгоритмы, не столь чувствительные к производительности памяти и при этом достаточно эффективные».

Еще одна проблема связана с резким увеличением электроэнергии, потребляемой мощными СК.

- Системы, расположенные в верхней части рейтинга Топ-500, уже потребляют мегаватты, – отмечает Андрей Слепухин. – К примеру, СК МГУ «Ломоносов» с учетом затрат на охлаждение потребляет около 3 МВт. Если экстраполировать ситуацию на несколько лет вперед, предполагая такие же темпы технологического развития, как сегодня, то энергопотребление суперкомпьютеров в скором времени достигнет сотни мегаватт. Даже самые оптимистичные прогнозы о снижении энергопотребления вычислительных единиц свидетельствуют о том, что к 2018-2020 годам потребление системами высшего уровня достигнет 20-50 мегаватт, а таких мощностей может просто не оказаться. Энергопотребление – это одна из основных проблем, создающих барьеры на пути развития данной отрасли.

Графические ускорители


Одна из характерных тенденций последнего времени – применение гибридных решений, в состав которых входят графические ускорители. Денис Андриков рассказывает: «Практика применения графических ускорителей в суперкомпьютерах пришла из прошлого, когда СК были еще дороже, чем сейчас. Стремление к удешевлению заставляло опытных разработчиков переписывать драйверы для обычных игровых графических карт, с тем чтобы приспособить их под решение научных задач». Причиной же появления гибридных решений на рынке, отмечает Андриков, стали наилучшее соотношение «цена – качество» (скорость решения задачи), модульность построения (как основа защиты инвестиций), легкость и скорость внедрения.

Андрей Слепухин называет еще одну причину применения графических ускорителей на рынке суперкомпьютеров: производители графических карт по мере их усложнения стали делать их программируемыми. «Возможность видеокарты запрограммировать различные алгоритмы поначалу нашла применение в сфере компьютерных игр, а затем стала использоваться и для других приложений, – говорит он. – По сути, те графические ускорители, которые применяются в СК, ничем принципиально не отличаются от игровых видеокарт».

Графические карты хорошо справляются с операциями над различными геометрическими элементами, с вещественными числами, с плавающей запятой – теми операциями, которые нужны в реальных приложениях. Графическая карта значительно выигрывает по сравнению со стандартным процессором в достижении пиковой производительности, теоретического предела производительности, а также по абсолютной величине и по соотношению производительности на ватт, что немаловажно в условиях ограниченного энергопотребления.

Проблема состоит в том, поясняет Андрей Слепухин, что графические ускорители также не являются панацеей в решении всех проблем, ибо далеко не все алгоритмы могут быть на них эффективно реализованы:

- Поэтому системы на базе стандартных процессоров с традиционной архитектурой по-прежнему будут успешно развиваться, а системы с графическими ускорителями займут свою нишу для определенного класса задач. Нужно еще учесть, что переписывание задач для такого рода гибридной системы – сложное дело. Этот процесс идет, хотя и не очень быстро. На Западе графические ускорители очень эффективно применяются для всевозможного рода финансовых расчетов, для решения некоторых задач в нефтегазовой отрасли, особенно касающихся разведки новых месторождений, сейсмического анализа.

Специалисты отмечают серьезные усилия со стороны производителя графических ускорителей NVIDIA Tesla как в продвижении решения на отечественный рынок, так и в прикладной и научно-исследовательской работе по развитию этого направления.

Вычислительные ускорители (не только Tesla и AMD FireStream, но и другие) позволяют получить нужную вычислительную мощность при стоимости и требованиях к энергопотреблению на порядок ниже, чем традиционные СК с использованием только CPU.

- Далеко не все приложения могут использовать вычислительные ресурсы сопроцессоров, – подчеркивает Андрей Юдин, ведущий руководитель направления НРС отдела корпоративных решений HP Россия. – Но в настоящее время сложилась устойчивая экосистема средств разработки, отладки, оптимизации программного кода. Как результат, сегодня существует большое количество коммерческого и свободно распространяемого вычислительного ПО, которое при работе на вычислительных комплексах с применением ускорителей даст выигрыш в производительности от двух до сотен раз.

Андрей Синяченко считает, что строить суперкомпьютер исключительно на графических процессорах смысла нет: «На них хорошо выполняются потоковые преобразования данных, короткие вычислительные алгоритмы, без особых ветвлений. Но не все алгоритмы оптимально адаптируются к архитектуре с использованием графических процессоров. Кроме того, графические ускорители появились, а программного обеспечения, поддерживающего работу с ними, очень мало».

По словам Синяченко, рынок ПО для работы на высокопроизводительных кластерах, имеющих механизмы распределения задач по вычислительным узлам, управления очередями, уже сложился. Там присутствуют библиотеки алгоритмов, предварительно скомпилированные под разные процессоры и позволяющие наиболее эффективно решать вычислительную задачу на определенном узле. «Поэтому, – говорит Андрей Синяченко, – задача исследователя, работающего с таким видом оборудования, упрощается. Ему остается представить физическую модель своей задачи, описать происходящие физические явления. Но он уже не задумывается, какой алгоритм и где нужно применять: все эти библиотеки уже встроены в ПО. Однако с появлением в вычислительной системе нового класса процессоров требуется создавать и новый набор библиотек, и новые планировщики очередей».

Внедрение гибрида


Денис Андриков считает, что рост популярности гибридных суперкомпьютеров сегодня объясняется большей доступностью технологии по сравнению с классическими подходами к построению архитектуры суперкомпьютеров.

«Гибридная архитектура, использующая комбинацию стандартных серверов с процессорами х86 со специализированными вычислителями на основе графических процессоров, в сочетании с адаптированной для нее программной средой обеспечивает значительно более высокую производительность (в десятки, а для ряда приложений – в сотни раз!) при существенно более низких затратах на приобретение и владение в сравнении с традиционными вычислителями на базе обычных процессоров, – отмечает эксперт. – Кроме того, переход к гибридным вычислительным кластерам обеспечит немалую экономию в стоимости и потребляемой электроэнергии».

Наиболее успешно гибридные вычислительные системы сегодня применяются в научно-исследовательских и образовательных учреждениях для решения теоретических, экспериментальных и прикладных расчетных задач из различных областей науки. «На таких системах может работать не только ПО собственной разработки, но и популярные приложения – такие, к примеру, как MATLAB и Mathematica, которые уже поддерживают гибридные системы», – приводит пример Андриков.

Суперкомпьютеры, построенные с использованием специализированных вычислителей на основе графических процессоров, нашли широкое применение в разных областях: в конструкторских и дизайн-бюро промышленных предприятий, занимающихся промышленным дизайном, расчетами, анализом и моделированием, для ускорения систем CAD/CAE, таких как пакеты ANSYS и MSC; на предприятиях нефтегазовой отрасли для анализа сейсмических данных, моделирования и визуализации; в финансовых и страховых организациях – для онлайн-расчета кредитных и страховых рисков, онлайн-анализа рынка ценных бумаг и других задач; в предприятиях медиаиндустрии (создание фотореалистичных 30-изображений, интерактивная трассировка лучей, создание спецэффектов); в передовых медицинских учреждениях (возможные области применения – трехмерная томография и УЗИ, другие задачи).

Классика коммерческого жанра


В последние годы СК не только начинают использоваться для решения научно-технических задач, но и находят все более широкое применение в коммерческих проектах.

«Такие задачи, как моделирование краш-тестов автомобилей или расчет траектории затопления орбитальной станции «Мир», также относятся к классу научно-технических, но применяются в реальных коммерческих и производственных проектах», – приводит примеры Андрей Юдин из HP.

Если задача не распадается на параллельные процессы, то ее можно выполнять только на одном вычислительном процессоре: это лишь вопрос памяти и времени. «В настоящее время практически все современные задачи могут быть распараллелены, – считает Андрей Комков («Т-Платформы»). – Но нужно понимать, что есть разные классы задач, которые распараллеливаются по-разному. Например, механические задачи – на 50 процессов, молекулярная динамика – на 200-300».

Денис Андриков отмечает, что многие высокотехнологичные проекты требуют длительной работы по имитационному моделированию, построению и изучению сложных взаимосвязей. «Проделать такую работу без помощи суперкомпьютера очень сложно, – подчеркивает он. – Поэтому труднее сказать, где суперкомпьютер используется сугубо в научных целях».

Для малого и среднего бизнеса покупка дорогостоящих суперкомпьютерных комплексов оказывается не по карману. Но по разумной цене на рынке можно приобрести услуги по предоставлению вычислительных мощностей суперкомпьютеров.

«У компании «Т-Платформы» имеются собственные суперкомпьютерные мощности, на базе которых мы предоставляем подобные услуги в аренду предприятиям среднего бизнеса, – рассказывает Андрей Комков. – Еще одна услуга, востребованная со стороны средних компаний, – выполнение математических расчетов».

Методы расчетов все более совершенствуются, появляются новые алгоритмы. Ведь многие математические методы были разработаны десятки лет назад, когда не было никаких суперкомпьютеров.

- В настоящее время появляется новое оборудование с большими возможностями, и работа идет в том числе в сторону создания новых алгоритмов, математических методов, – отмечает Андрей Слепухин («Т-Платформы»), – Это процесс сложный, небыстрый. Взять, к примеру, авиастроение, где выполняются расчеты аэродинамических течений, прочности и так далее. Если появляется новый алгоритм, новая математическая модель, то ее недостаточно лишь запрограммировать. Нужно прогнать многие тысячи тестов, сравнить результаты с тем, что было на предыдущих алгоритмах, соотнести с итогами экспериментов. Поэтому любое коммерческое применение требует внедрения новых методов на протяжении не одного года. И проблемы, которые тут стоят, ничуть не меньше, чем те, что возникают при разработке аппаратной части комплексов.

Из-за серьезного технологического отставания в 1980-1990-х годах на рынке прикладных разработок для сверхмощных вычислительных кластеров главенствуют зарубежные компании – Schlumberger, Paradigm, Landmark и др. На последней конференции ПАВТ (параллельные вычислительные технологии) в Москве очень много внимания уделялось решению прикладных задач на суперкомпьютерных мощностях.

Компания «Т-Платформы» не только разрабатывает высокопроизводительные вычислительные комплексы, оказывает услуги крупным компаниям по строительству, пуску, наладке таких объектов, но и содержит команду инженеров, которые умеют работать со специальными программными пакетами – как свободно распространяемыми, так и коммерческими, помогающими заказчикам выполнить моделирование. «Такие услуги востребованы на рынке», – подчеркивает Андрей Комков. В Европе и Америке аренда суперкомпьютерных мощностей для коммерческого применения – дело вполне обычное. А в России пока еще не наступил момент, когда заказчики в массовом порядке стали бы осваивать прикладные пакеты, которым требуются сверхмощности. «Эта область деятельности, – поясняет Комков, – сопряжена с тем, что нужно на протяжении долгого времени растить инженерные кадры. Сегодня существует высокий спрос на инженеров, выполняющих подобные расчеты. В Америке множество небольших и средних компаний успешно применяет такие программные пакеты для моделирования и ускорения производственного процесса, который составляет основу бизнеса».

Эффективность СК


Для эффективной работы СК используются специальные системы управления заданиями, загрузкой, перераспределения потоков информации. Андрей Слепухин убежден, что оптимальное использование ресурсов СК – это не только и не столько задача проектировщиков приложений. Он считает, что если СК изначально строился под расчет одной-двух задач, то у него проблемы с загрузкой ресурсов, как правило, не бывает. В типичной университетской системе или в каком-нибудь суперкомпьютерном центре коллективного пользования – десятки и сотни пользователей, тысячи различных задач.

Группа разработчиков компании «Т-платформы» занимается развитием специализированного ПО для управления всем комплексом ОС, позволяющего распределять задачи и оптимально использовать имеющиеся ресурсы за счет их снижения или отключения определенных узлов.

Проблема состоит в том, считает Андрей Слепухин, что для суперкомпьютеров, находящихся в самом верху списка Топ-500, программы, способные полностью задействовать все ресурсы огромной машины, можно пересчитать на пальцах двух рук. «Многие из этих машин строятся под одну-две задачи, большая часть которых относится к области разработки ядерных вооружений», – говорит он.

По мнению Михаила Миньковского («СИТРОНИКС»), для повышения загрузки СК существует, по сути, один способ – постановка правильных задач и адекватное оснащение ПО: «Нужно четко понимать, для каких целей нужен СК, и делать при покупке соответствующий выбор. Запускать же какие-то бесконечные процессы лишь для того, чтобы загрузить процессор, бессмысленно».

Еще одним основополагающим принципом работы комплекса, в котором параллельно функционируют десятки тысяч узлов, является его надежность. Реализованная на программном уровне система управления кластером должна уметь определять неисправность и в оперативном режиме реагировать – перебросить задачу на другие узлы, отключить определенные блоки или весь кластер целиком, чтобы дорогостоящее оборудование могло в дальнейшем восстановить свою работоспособность. Разработка подобных систем управления, подчеркивает Андрей Комков, – еще одно направление работы компании «Т-Платформы».

Примером инструмента повышения эффективности СК может служить популярная портативная система пакетной обработки Altair PBS Professional (Portable Batch System), поставляемая американской корпорацией Altair Engineering. В частности, широко использует и оснащает свои СК этой технологией компания HP. Более 20% всех потребителей таких систем в мире работают на PBS Professional. Система дает возможность не только максимально использовать мощности процессоров, тем самым позволяя обрабатывать большее количество информации на меньшем количестве вычислительных ресурсов, но и снижать затраты на электроэнергию, обеспечивать надежность хранения данных и устранение сбоев, выставлять приоритеты для «оперативных заданий», выстраивать очереди обработки в зависимости от запросов пользователей, работать с «облаками» и многое другое. Все это производится в автоматическом режиме, позволяя при этом настраивать приоритеты в зависимости от пожеланий пользователей.

Кроме того, HP уже несколько лет взаимодействует с ведущими ИТ-компаниями (Intel, PGI, Nallatech, Nvidia, AccelrysInc.. Wolfram, Microsoft, AMD, Allinea) по нескольким программам. Одна из них, Multi-coreOptimization, направлена на создание набора средств для оптимизации использования многоядерных систем. Другая, HP Accelerator Program, – на применение вычислительных ускорителей (сопроцессоров) для повышения производительности систем.

Модернизация СК


СК – решение дорогое. Заказчик заинтересован в том, чтобы продлить его жизненный цикл. «Наилучшим примером продления срока службы суперкомпьютера является перевод со стандартной архитектуры х86 на гибридную», – считает Андрей Комков. – Серверные мощности можно перевести постепенно. В таком случае большую роль играет модульность архитектуры.

СК УГАТУ отработал 5 лет и по мере необходимости подвергался модернизации: на части узлов была расширена оперативная память до 32 Гб (2008 год); добавлено дополнительное дисковое хранилище на 10 Тб (2010); организован высокоскоростной обмен с суперкомпьютером (2010); добавлен вычислительный узел с графическими процессорами IBMiDataPlexdx360 МЗ server (2xlntelXeon 5670 SixCore, 48 Гб ОЗУ.два графических ускорителя NVIDIATeslaM2050 (512 cores, 3 GB), 2011). Помимо использования этого вычислительного кластера для решения расчетных задач, планируется использовать кластер для организации обработки данных.

Инженерная инфраструктура СК УГАТУ – система кондиционирования, электропитания, безопасность – до сих пор актуальна. Производительность этого СК в принципе можно увеличить в 4 раза без внесения изменений в инженерную инфраструктуру.

Экскурс в историю


Сергей Калин, президент компании «Открытие технологии»

В 80-х в Институте точной механики и вычислительной техники им. Лебедева (ИТМиВТ) мы разрабатывали полномасштабные отечественные высокопроизводительные МВК «Эльбрус» (теперь их называют суперкомпьютерами) – от архитектуры процессоров, аппаратной части и операционной системы до языка программирования. Кстати говоря, вычислительный комплекс, сданный заказчику в середине 80-х годов, был многопроцессорным, то есть уже тогда вопросы распараллеливания решались в полной мере. Процессоры тогда были совсем другие – такие большие шкафы, связанные друг с другом. Сейчас на многоядерных процессорах, когда несколько процессоров располагаются на одном кристалле, вопрос распараллеливания решается уже на другом уровне. Сегодня и в России, и даже в Европе нет разработок процессоров на той же технологической базе, как это делается в нескольких известных американских компаниях. Главная задача производителей суперкомпьютеров в разных странах – правильно скомпоновать эти процессоры, спроектировать между ними соединения и создать ПО, которое сможет адаптировать задачу под многопоточные вычисления и распараллелить их.

Центральный федеральный округ