Надежность информационных систем. Классификация ИС по показателям субхарактеристик надежности. Средства обеспечения надежности ИС, страница 22

В качестве шлюза для связи с внешними сетями и одновременно файл-сервера используется дополнительный однопроцессорный PC, являющийся головным узлом для загрузки задач на кластер. Он оснащен двумя сетевыми адаптерами - Gigabit Ethernet внутрь (к коммутатору Gigabit Ethernet) и Fast Ethernet наружу.

Программное обеспечение

Операционные системы: все узлы кластера работают под Linux (GNU Debian).

API для параллельных вычислений (ПО промежуточного уровня): MPICH/MPI - реализация MPI и среда разработки MPI-программ для гетерогенных кластеров из UNIX-машин.

Замечание.

MPI (Message Passing Interface) – стандарт и поддерживающая его коммуникационная библиотека для мобильной среды параллельного программирования, реализующая механизм передачи межпроцессных сообщений поверх стандартных сетевых протоколов; обеспечивает полную независимость приложений от архитектуры многопроцессорной системы практически без потери производительности.

MPICH – бесплатная реализация библиотеки MPI, разработанная в Argonne National Laboratory (USA).

ПО прикладного уровня:

- ATLAS (Automatically Tuned Linear Algebra Software) – библиотека автоматической генерации и оптимизации ПО задач линейной алгебры для процессоров с многоуровневой организацией памяти и конвейерными функциональными устройствами;

- PBLAS (Parallel versions of Basic Linear Algebra Software) – библиотека параллельных версий ПО задач линейной алгебры уровней 1,2,3;

ScaLAPACK – библиотека процедур LAPACK, переработанных для использования на MPP-компьютерах, включая: решение систем линейных уравнений, обращение матриц, ортогональные преобразования, поиск собственных значений и т. д., разработанная с использованием PBLAS и коммуникационной библиотеки BLACS (Basic Linear Algebra Communication Software).

Вычислительные кластеры НИВЦ МГУ

Вычислительный комплекс Научно исследовательского вычислительного центра МГУ включает в свой состав четыре малых гомогенных вычислительных кластера, конфигурации которых приведены в таблице 2. Примечательной особенностью этих кластеров является возможность удаленного доступа для зарегистрированных пользователей.


Таблица 2. Конфигурации вычислительных кластеров НИВЦ МГУ

Название
Узлов
Конфигурация узла
CPUs
Коммуникационная Система
ПО
Производительность

SCI, учебный и отладочный кластер

16

2xPentium III/500 МГц, чипсет 440BX, RAM 1 Гбайт, HDD 3.2 Гбайт

32

SCI + Fast Ethernet (Intel Pro/100+, коммутатор 3Com)

RedHat Linux 7.3, SSP 2.1

Производительность на LINPACK - 10.7 Гфлопс (задача 41000x41000). Пиковая производительность - 16 Гфлопс.

AQUA-1

18

2xPentium III/850 МГц, чипсет 440BX, RAM 1 Гбайт, 2xHDD 15 Гбайт

36

Fast Ethernet (Intel Pro/100+, коммутатор 3Com, гигабитный канал к файл-серверу)

RedHat Linux 7.3, MPICH 1.2.5

Производительность на LINPACK - 13 Гфлопс (задача 45000x45000). Пиковая производительность - 30.6 Гфлопс,

AQUA-2

23

2xPentium III/1 ГГц, платформа Intel STL2, чипсет ServerWorks III LE, RAM 1 Гбайт PC-133, HDD 20 Гбайт

46

Fast Ethernet (onboard-адаптеры, коммутатор 3Com, гигабитный канал к файл-серверу)

RedHat Linux 7.3, MPICH 1.2.5

Суммарная полученная производительность на LINPACK (AQUA1+AQUA2) - 31 Гфлопс (задача 55000x55000). Суммарная пиковая производительность (AQUA1+AQUA2) - 76.6 Гфлопс.

LEO

16

2xXeon/2.6 ГГц, платформа Intel ClearWater2, чипсет Intel 7501E, RAM 2 Гбайт, HDD 40 Гбайт

32

SCI (D335) + Fast Ethernet (onboard-адаптеры, коммутатор 3Com, гигабитный канал к файл-серверу), сервисная сеть "СКИФ-ServNet" (вкл/выкл/reset узлов, сериальная консоль).

RedHat Linux 7.3, SSP 3.1

Производительность на LINPACK - 104.3 Гфлопс (задача 60000x60000). Пиковая производительность - 166.4 Гфлопс.