Car-tech

Prochain: les ordinateurs exascale devraient arriver d'ici 2020

More than a talking speaker: Bringing AI to the Masses | The Element Podcast - E03

More than a talking speaker: Bringing AI to the Masses | The Element Podcast - E03

Table des matières:

Anonim

Si l'augmentation des vitesses des superordinateurs se poursuit à leur rythme actuel, nous verrons la première machine exascale d'ici 2020, estiment les mainteneurs La compilation Top500 des systèmes les plus rapides du monde

Les architectes de systèmes de ces grands ordinateurs devront cependant faire face à un certain nombre de problèmes critiques, avertit le gardien de la liste.

"Les défis seront considérables pour livrer la machine" a déclaré Jack Dongarra, une Université du Tennessee, Knoxville, chercheur qui est l'un des principaux derrière le Top500. Dongarra a pris la parole lors de la conférence SC2012, qui se tient cette semaine à Salt Lake City, au cours d'une présentation sur la dernière édition de la liste, publiée la semaine dernière.

Nous avons encore beaucoup de chemin à faire. Une machine exascale serait capable d'un quintillion FLOPS (opérations à virgule flottante par seconde), ou de 10 à 18 FLOPS. Même les superordinateurs les plus rapides offrent aujourd'hui moins de 20% de la capacité d'une machine exascale

Top500

Nouvelles hauteurs

Dans la dernière édition de la liste des supercalculateurs Top500, publiée lundi, l'ordinateur le plus rapide de la liste était le système Titan Oak Ridge National Laboratory, une machine capable d'exécuter 17,59 petaflops. Un pétaflop est un quadrillion de calcul en virgule flottante par seconde, soit 10 à 15 FLOPS.

Mais chaque nouveau Top500 - la liste compilée deux fois par an - montre à quelle vitesse les supercalculateurs évoluent rapidement. A en juger par la liste, les superordinateurs semblent gagner dix fois le pouvoir tous les dix ans environ. En 1996, le premier ordinateur teraflop est apparu sur le Top500, et en 2008, le premier ordinateur pétaflop est apparu sur la liste. En extrapolant à partir de ce taux de progression, Dongarra estime que l'informatique exascale devrait arriver vers 2020.

La communauté High Performance Computing (HPC) a pris l'informatique exascale comme une étape majeure. Intel a créé une gamme de processeurs massivement multicœurs, appelés Phi, dont la société espère qu'elle pourrait servir de base aux ordinateurs exascale qui pourraient fonctionner d'ici 2018.

Dans son exposé, Dongarra a esquissé les caractéristiques d'une machine exascale. Une telle machine aura probablement entre 100 000 et 1 000 000 nœuds et pourra exécuter jusqu'à un milliard de threads à tout moment. Les performances des nœuds individuels doivent être comprises entre 1,5 et 15 téraflops et les interconnexions devront avoir des débits compris entre 200 et 400 gigaoctets par seconde.

Les constructeurs de superordinateurs devront construire leurs machines pour que leur coût et leur consommation n'augmentent pas linéairement Avec la performance, de peur qu'ils deviennent trop chers à acheter et à courir, a déclaré Dongarra. Une machine exascale devrait coûter environ 200 millions de dollars et utiliser seulement environ 20 mégawatts, soit environ 50 gigaflops par watt.

Dongarra s'attend à ce que la moitié du coût de construction d'un tel ordinateur soit consacrée à l'achat de mémoire pour le système. Selon les feuilles de route des fabricants de mémoire, Dongarra estime que 100 millions de dollars achèteraient entre 32 pétaoctets et 64 pétaoctets de mémoire d'ici 2020.

Top500

Défi logiciel

Outre les défis matériels, les concepteurs de supercalculateurs exascales doivent également aux prises avec des problèmes logiciels. Un problème sera la synchronisation, a déclaré Dongarra. Les machines d'aujourd'hui transmettent des tâches entre plusieurs nœuds différents, mais cette approche doit être rationalisée à mesure que le nombre de nœuds augmente.

"Aujourd'hui, notre modèle de traitement parallèle est un modèle fork / join, mais vous ne pouvez pas le faire à [l'exascale] niveau d'un parallélisme Nous devons changer notre modèle Nous devons être plus synchrones ", a déclaré Dongarra. Dans le même ordre d'idées, des algorithmes doivent être développés pour réduire la quantité de communication globale entre les nœuds.

D'autres facteurs doivent également être pris en compte. Le logiciel doit venir avec des routines intégrées pour l'optimisation. "Nous ne pouvons pas compter sur le fait que l'utilisateur règle les bons boutons et les bons cadrans pour que le logiciel fonctionne à un niveau proche des performances de pointe", a déclaré Dongarra. La résilience aux fautes sera une autre caractéristique importante, tout comme la reproductibilité des résultats, ou la garantie qu'un calcul complexe produira exactement la même réponse lorsqu'il est exécuté plus d'une fois.

La reproductibilité peut sembler un trait évident pour un ordinateur. Mais en fait, cela peut être un défi pour les gros calculs sur les superordinateurs multinodaux.

"Du point de vue des méthodes numériques, il est difficile de garantir une reproductibilité par bits", a déclaré M. Dongarra. "Le problème principal est de faire une réduction - un résumé des chiffres en parallèle.Si je ne peux pas garantir l'ordre dans lequel ces chiffres se réunissent, je vais avoir des erreurs d'arrondi différentes.Cette petite différence peut être amplifiée "Nous devons trouver un scénario dans lequel nous pouvons garantir l'ordre dans lequel ces opérations sont effectuées, afin que nous puissions garantir que nous avons les mêmes résultats. ", A déclaré Dongarra.

Joab Jackson couvre les logiciels d'entreprise et les nouvelles générales de dernière heure pour

The IDG News Service. Suivez Joab sur Twitter à @Joab_Jackson. L'adresse e-mail de Joab est [email protected]