Composants

Inside Tsubame - le supercalculateur GPU Nvidia

Sunway TaihuLight: Designing and Tuning Scientific Applications at the Scale of 10-Million Cores

Sunway TaihuLight: Designing and Tuning Scientific Applications at the Scale of 10-Million Cores
Anonim

Lorsque vous entrez dans la salle des ordinateurs au deuxième étage du bâtiment informatique de l'Institut de technologie de Tokyo, vous n'êtes pas immédiatement frappé par la taille du deuxième supercalculateur japonais. Vous ne pouvez pas voir l'ordinateur Tsubame pour les climatiseurs industriels qui se dressent sur votre chemin, mais c'est en soi révélateur. Avec plus de 30 000 cœurs de traitement qui bourdonnent, la machine consomme un mégawatt de puissance et doit être maintenue au frais.

Tsubame a été classé 29e supercalculateur le plus rapide au monde dans le dernier classement du Top 500 avec une vitesse de 77,48T (opérations en virgule flottante par seconde) sur le benchmark Linpack standard de l'industrie.

Bien que sa position soit relativement bonne, ce n'est pas ce qui le rend si spécial. Ce qui est intéressant à propos de Tsubame, c'est qu'il ne repose pas uniquement sur la puissance de traitement brute des processeurs (unités centrales de traitement) pour faire son travail. Tsubame comprend des centaines de processeurs graphiques du même type utilisés dans les PC grand public, travaillant aux côtés de processeurs dans un environnement mixte que certains considèrent comme un modèle pour les futurs superordinateurs servant des disciplines telles que la chimie des matériaux. et sauvegarde]

Les processeurs graphiques (GPU) sont très performants pour effectuer rapidement le même calcul sur de grandes quantités de données, ce qui leur permet de résoudre certains problèmes dans des domaines tels que la dynamique moléculaire, les simulations physiques et le traitement d'image. > "Je pense que dans la grande majorité des problèmes intéressants dans l'avenir, les problèmes qui affectent l'humanité où l'impact vient de la nature … nécessite la capacité de manipuler et de calculer sur un très grand ensemble de données", a déclaré Jen-Hsun Huang de Nvidia, qui a parlé à l'université cette semaine. Tsubame utilise 680 cartes graphiques Tesla de Nvidia

A quel point les GPU sont-ils différents? Takayuki Aoki, professeur de chimie des matériaux à l'université, a dit que les simulations qui prenaient auparavant trois mois prenaient 10 heures sur Tsubame.

Tsubame lui-même - une fois passé les climatiseurs - est divisé en plusieurs pièces sur deux étages du bâtiment et est en grande partie composé de systèmes Sun x4600 montés en rack. Il y en a 655, chacune contenant 16 cœurs de processeurs AMD Opteron et des cartes accélératrices Clearspeed CSX600

Les puces graphiques sont contenues dans 170 unités de montage en rack Nvidia Tesla S1070 qui ont été insérées entre les Systèmes solaires Chacun des systèmes 1U Nvidia a quatre GPU à l'intérieur, chacun d'entre eux ayant 240 cœurs de traitement pour un total de 960 cœurs par système.

Les systèmes Tesla ont été ajoutés à Tsubame pendant environ une semaine pendant que l'ordinateur fonctionnait.

"Les gens pensaient que nous étions fous", a déclaré Satoshi Matsuoka, directeur du Centre mondial d'information scientifique et d'informatique de l'université. «C'est un superordinateur de 1 milliard de yens (11 millions de dollars) consommant un mégawatt de puissance, mais nous avons prouvé techniquement que c'était possible.»

Résultat: ce que les universitaires appellent la version 1.2 du supercalculateur Tsubame. Je pense que nous aurions dû être en mesure d'atteindre 85 [T Flops], mais nous avons manqué de temps, alors c'était 77 [T Flops] ", a déclaré Matsuoka sur les benchmarks effectués sur le système. À 85T Flops, il aurait gagné quelques places dans le Top 500 et a été classé le plus rapide au Japon.

La prochaine fois: une nouvelle liste Top 500 devrait sortir en juin 2009, et Tokyo Institute of Technology cherche aussi plus loin.

"Ce n'est pas la fin de Tsubame, c'est juste le début de l'accélération du GPU qui se généralise", a déclaré Matsuoka. "Nous croyons que dans le monde il y aura des supercalculateurs qui enregistreront plusieurs petaflops dans les années à venir, et nous voudrions faire de même."

Tsubame 2.0, comme il l'a surnommé la prochaine mise à jour, devrait être ici dans les deux prochaines années et aura une performance soutenue d'au moins un pétaflop (un pétaflop est de 1.000 téraflops), a-t-il dit. La conception de base de la machine n'est toujours pas finalisée mais elle continuera la base de calcul hétérogène des processeurs et des GPU, a-t-il dit.