В качестве шлюза для связи с внешними сетями и одновременно файл-сервера используется дополнительный однопроцессорный PC, являющийся головным узлом для загрузки задач на кластер. Он оснащен двумя сетевыми адаптерами - Gigabit Ethernet внутрь (к коммутатору Gigabit Ethernet) и Fast Ethernet наружу.
Операционные системы: все узлы кластера работают под Linux (GNU Debian).
API для параллельных вычислений (ПО промежуточного уровня): MPICH/MPI - реализация MPI и среда разработки MPI-программ для гетерогенных кластеров из UNIX-машин.
Замечание.
MPI (Message Passing Interface) – стандарт и поддерживающая его коммуникационная библиотека для мобильной среды параллельного программирования, реализующая механизм передачи межпроцессных сообщений поверх стандартных сетевых протоколов; обеспечивает полную независимость приложений от архитектуры многопроцессорной системы практически без потери производительности.
MPICH – бесплатная реализация библиотеки MPI, разработанная в Argonne National Laboratory (USA).
ПО прикладного уровня:
- ATLAS (Automatically Tuned Linear Algebra Software) – библиотека автоматической генерации и оптимизации ПО задач линейной алгебры для процессоров с многоуровневой организацией памяти и конвейерными функциональными устройствами;
- PBLAS (Parallel versions of Basic Linear Algebra Software) – библиотека параллельных версий ПО задач линейной алгебры уровней 1,2,3;
ScaLAPACK – библиотека процедур LAPACK, переработанных для использования на MPP-компьютерах, включая: решение систем линейных уравнений, обращение матриц, ортогональные преобразования, поиск собственных значений и т. д., разработанная с использованием PBLAS и коммуникационной библиотеки BLACS (Basic Linear Algebra Communication Software).
Вычислительный комплекс Научно исследовательского вычислительного центра МГУ включает в свой состав четыре малых гомогенных вычислительных кластера, конфигурации которых приведены в таблице 2. Примечательной особенностью этих кластеров является возможность удаленного доступа для зарегистрированных пользователей.
Таблица 2. Конфигурации вычислительных кластеров НИВЦ МГУ
Название |
Узлов |
Конфигурация узла |
CPUs |
Коммуникационная Система |
ПО |
Производительность |
SCI, учебный и отладочный кластер |
16 |
2xPentium III/500 МГц, чипсет 440BX, RAM 1 Гбайт, HDD 3.2 Гбайт |
32 |
SCI + Fast Ethernet (Intel Pro/100+, коммутатор 3Com) |
RedHat Linux 7.3, SSP 2.1 |
Производительность на LINPACK - 10.7 Гфлопс (задача 41000x41000). Пиковая производительность - 16 Гфлопс. |
AQUA-1 |
18 |
2xPentium III/850 МГц, чипсет 440BX, RAM 1 Гбайт, 2xHDD 15 Гбайт |
36 |
Fast Ethernet (Intel Pro/100+, коммутатор 3Com, гигабитный канал к файл-серверу) |
RedHat Linux 7.3, MPICH 1.2.5 |
Производительность на LINPACK - 13 Гфлопс (задача 45000x45000). Пиковая производительность - 30.6 Гфлопс, |
AQUA-2 |
23 |
2xPentium III/1 ГГц, платформа Intel STL2, чипсет ServerWorks III LE, RAM 1 Гбайт PC-133, HDD 20 Гбайт |
46 |
Fast Ethernet (onboard-адаптеры, коммутатор 3Com, гигабитный канал к файл-серверу) |
RedHat Linux 7.3, MPICH 1.2.5 |
Суммарная полученная производительность на LINPACK (AQUA1+AQUA2) - 31 Гфлопс (задача 55000x55000). Суммарная пиковая производительность (AQUA1+AQUA2) - 76.6 Гфлопс. |
LEO |
16 |
2xXeon/2.6 ГГц, платформа Intel ClearWater2, чипсет Intel 7501E, RAM 2 Гбайт, HDD 40 Гбайт |
32 |
SCI (D335) + Fast Ethernet (onboard-адаптеры, коммутатор 3Com, гигабитный канал к файл-серверу), сервисная сеть "СКИФ-ServNet" (вкл/выкл/reset узлов, сериальная консоль). |
RedHat Linux 7.3, SSP 3.1 |
Производительность на LINPACK - 104.3 Гфлопс (задача 60000x60000). Пиковая производительность - 166.4 Гфлопс. |
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.