Le quarante-troisième Top 500 des supercalculateurs mondiaux est sorti aujourd’hui à l’occasion de la conférence International Supercomputing de Leipzig en Allemagne.
Rappelons que le Top 500 se base sur une soumission volontaire (de nombreuses machines puissantes mais classifiées ne participent pas à la course) et sur un comparateur de performances spécifique extrêmement parallélisable (le code LINPACK, qui concerne la résolution de systèmes d’équations linéaires).
L’analyse dans la suite de la dépêche.
Boring ?
Le développeur Linux bien connu Arnd Bergmann a qualifié ce classement de "Most boring #top500 list ever" et il faut bien reconnaitre qu'on trouve assez peu de surprises dans ce top 500 de juin 2014.
Pour la troisième fois d'affilée, le supercalculateur Tianhe-2 est en tête de liste avec un score (inchangé) de 33,86 pétaFLOPS. Les neuf premiers de la liste sont d'ailleurs exactement les mêmes qu'en novembre dernier et il faut attendre la dixième place pour avoir une petite nouveauté à se mettre sous la dent. Il s'agit d'un Cray XC30 mesuré à 3,14 pétaFLOPS et installé dans un centre de recherche américain non dévoilé.
Comme le souligne Arnd, la diversité technique se réduit encore un peu plus puisque la dernière machine vectorielle (l'Earth Simulator 2) a été éjectée du classement. Tout ce qui subsiste ce sont des clusters de processeurs scalaires (en majorité des x86-64 mais aussi plusieurs POWER).
Même si nous sommes assez loin d'une architecture révolutionnaire et exotique, espérons toutefois que la future montée en puissance dans les datacenters des coeurs de calcul ARM64 entrainera un certain renouvellement au sein du Top 500.
L’évolution par pays
Les USA voient leur total de machines baisser de 265 à 233 dans cette nouvelle liste de juin 2014, tandis que la Chine reprend sa marche en avant et passe de 63 à 76 supercalculateurs.
Ce nombre s'approche du total combiné des trois plus grandes nations européennes (Grande-Bretagne avec 30 machines, France avec 27 machines et Allemagne avec 23) ce qui souligne le dynamisme effréné de la Chine dans cette course mondiale.
La première machine française reste le calculateur Pangea de la firme Total. Son score de 2 098 TFLOPS le classe en seizième position (deux places de moins par rapport à la liste précédente).
Statistiques sur la liste
Le ticket d’entrée pour accéder à cette liste Top 500 de juin 2014 est de 133,7 TFLOPS. Il était de seulement 117,8 TFLOPS il y a six mois.
Si l’on s’intéresse à la puissance cumulée des 500 machines, on arrive à un total de 274 pétaFLOPS. Là encore, l’évolution est notable, puisque le score cumulé était de 250 pétaFLOPS en novembre dernier, et de 223 pétaFLOPS il y a un an.
On trouve maintenant trente‐sept supercalculateurs à plus d’un pétaFLOPS dans la liste, alors qu’ils n’étaient que trente-et-un il y a six mois.
Le nombre moyen de cœur de calcul des machines de cette nouvelle liste Top500 est de 43 301 cœurs par système. Il était de 41 434 il y a six mois et de 38 700 il y a un an.
Enfin le dernier de la liste était encore en position 384 il y a six mois dans le classement de novembre dernier. Cette chute dans le classement est la plus faible enregistrée depuis deux décennies et elle constitue un nouvel indice pour caractériser cette édition comme étant un mauvais cru.
Les systèmes d’exploitation
Encore une micro-progression pour l'OS au manchot puisque les machines tournant sous Linux sont désormais 485 au lieu de 482 il y a six mois. Cela représente 97% du total des machines et même 98,2 % en terme de capacité de calcul.
Aller plus loin
- La liste du Top 500 (1016 clics)
- Les principales nouveautés (172 clics)
- La news LinuxFr.org sur le classement de novembre 2013 (81 clics)
# distribution linux
Posté par Jarvis . Évalué à 5.
Quand on a 97% de part de marché, il serait intéressant de connaître les distributions utilisées :
http://www.top500.org/statistics/list/
Malheureusement, il y a beaucoup de linux sans plus de précisions…
Dommage pour le troll ;)
[^] # Re: distribution linux
Posté par J Avd . Évalué à 2.
Je pense qu'il s'agit de distribution "sur mesure, mais c'est vrai qu'il doit y avoir une base de paquets .deb .rpm ou autres.
Cette liste est vraiment ennuyeuse si aucun trolls velus ne s'y cache…
"Gentoo" is an ancient african word, meaning "Read the F*ckin' Manual". "Gentoo" also means "I am what I am because you all are freaky n3rdz"
[^] # Re: distribution linux
Posté par Brice Goglin . Évalué à 6.
Si on exclut quelques trucs bizarres (BlueGene et Cray notamment), une très grande majorité tourne en distro RPM, notamment du CentOS, RHEL et SUSE.
[^] # Re: distribution linux
Posté par Renault (site web personnel) . Évalué à 3.
Tu te doutes bien que le format de paquet est totalement secondaire pour le choix d'une distribution pour de telles machines.
[^] # Re: distribution linux
Posté par Philippe F (site web personnel) . Évalué à 10.
Bien évidemment, c'est l'environnement de bureau disponible par défaut qui a été leur critère de choix numéro 1.
[^] # Re: distribution linux
Posté par Maclag . Évalué à 10.
Cela dit, ils ont tous privilégié Vim sur Emacs, parce que ce dernier était trop lourd pour les machines.
[^] # Re: distribution linux
Posté par Loïs Taulelle ࿋ (site web personnel) . Évalué à 1.
C'est surtout que ça scale pas…
Proverbe Alien : Sauvez la terre ? Mangez des humains !
[^] # Re: distribution linux
Posté par Rémi PALANCHER (site web personnel) . Évalué à 6.
Ah bon ?
La plupart des centres de calcul privilégient les distributions supportées par les constructeurs pour leur matériel donc généralement ça se limite à du RHEL/Suse… Pour ceux qui veulent éviter de payer des licences, les issues de secours sont Centos et Scientific Linux.
Mais le format des paquets et le choix de la distrib est bien souvent simplement dicté par les contrats de support du constructeur, les critères techniques (performances, possibilité de tuning et d'intégration, etc) ne sont généralement pas pris en compte…
Quelques irréductibles (avec des compétences en interne) utilisent Debian (ou autre) mais c'est parfois un peu rock n' roll :)
[^] # Re: distribution linux
Posté par omc . Évalué à 5.
À ma connaissance, certains clusters de calcul en france utilisent scientific Linux
# Top500aaS
Posté par KiKouN . Évalué à 7.
On voit de plus en plus d'offre pour des supercalculateurs que l'on peut louer à la demande. Est-ce qu'il y en a qui se rapproche du Top500 ?
[^] # Re: Top500aaS
Posté par Kyle_the_hacker . Évalué à 2.
Oui, bien sûr : tu peux louer du temps de calcul sur JUQUEEN, notamment.
# Décevant oui!
Posté par djano . Évalué à 6.
Est ce que les grandes entrées tonitruantes dans ce classement sont finies?
Même la vitesse d'augmentation des puissances a ralentie.
Il faut dire que les consommations électricité atteintes deviennent titanesque.
Faut-il regarder du cote du green500 pour retrouver un peu de bataille?
# Prévisions ?
Posté par Jiehong (site web personnel) . Évalué à 7.
Cette dépêche aurait été plus attirante avec quelques tracés de courbes sur les dernières années, et d'essayer de prévoir le prochain Top 500.
Merci quand même !
[^] # Re: Prévisions ?
Posté par davandg . Évalué à 10.
J'ai vu un présentation de Wu Feng (un des créateurs du Green500) la semaine dernière, ce qu'il fallait en retenir :
- le top500 ne va pas beaucoup évoluer dans les semestres à venir. Le coup énergétique pour faire tourner ces machines est devenus trop élevé.
- En regardant l'efficacité énergétique des machines du Green500, on remarque que les meilleures machines sont toutes hétérogènes (CPU+accélérateurs (GPU ou MIC)). Actuellement, le top10 du Green500 c'est du Nvidia.
- Les 2 points précédents font que la prochaine grosse machine serra sûrement un cluster de GPU. D'autant plus que les GPU sont de plus en plus indépendants du CPU.
- Du coté ARM, le projet Monc-Blant se fait attendre.
- Du coté CPU, la seule façon d'augmenter l'efficacité énergétique de manière conséquente est de diminuer la vitesse de l'horloge (et d'augmenter le nombre de cores pour garder les mêmes performances). Des processeurs cadencés en dessous des 800MHz ne le surprendrai pas.
[^] # Re: Prévisions ?
Posté par Sytoka Modon (site web personnel) . Évalué à 7.
A vrai dire, ce n'est pas très étonnant. Ce sont en général des clusters inter-connectés en InfiniBand (même IBM s'y est mis) donc cela a un coût. Or qui utilise réellement 100_000 coeurs pour un calcul ? Dans mon laboratoire, nous avons lancé un code qui scale bien jusqu'à 15_000 coeurs (CPU, pas GPU) mais combien de code sont efficaces à ce niveau là ET nécessite une interconnexion rapide ? Attention, on parle ici de HPC, pas de grille…
[^] # Re: Prévisions ?
Posté par davandg . Évalué à 2.
Multiplier de grosses matrices est l'exemple qui me vient en tête.
Sur les logs de Curie on peut voir passer des codes utilisant 60k cores.
[^] # Re: Prévisions ?
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
Intel avait fait une démo avec une techno autour de 0.6V de fonctionnement fait avec un pentium. Il tournait autour de 800 Mhz, avec une consommation très basse. Mais il était 4x plus gros.
"La première sécurité est la liberté"
# Ticket d’entrée
Posté par c-moi . Évalué à 1.
Avec un pareil ticket d'entrée, il n'est pas étonnant que le Top 500 ne change plus.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.