Cela fait 15 ans maintenant que le Top500 existe. C'est en juin 1993 qu'est apparu le premier classement des 500 ordinateurs les plus puissants du monde et, tous les six mois, cette liste est scrupuleusement mise à jour.
Nous avons donc maintenant 30 classements derrière nous et le boss du Top500, le professeur Meuer, a décidé que c'était l'occasion d'écrire un article récapitulatif pour célébrer cet anniversaire.
Autant vous le dire tout de suite cet article est une pure jouissance pour le geek qui sommeille en nous. C'est rempli de tableaux, de statistiques, de comparatifs de toutes sortes...et en plus il y a des prédictions technologiques à la fin du texte ! Rhaaa...le pied !
Je me le suis imprimé en couleur et j'ai passé les 2 dernières heures à tout scruter avec ravissement. Prenez par exemple la figure 14 qui concerne les systèmes d'exploitation. On voit parfaitement que l'apparition de Linux sur ce marché des superordinateurs date de 1999 et qu'il y a eu une accélération dramatique de l'adoption de Linux en 2003 au détriment des Unix propriétaires.
Incroyable de voir aussi sur la figure 17 que jusqu'en 1996 il y avait des ordinateurs qui faisait partie de la liste et qui n'avaient...qu'un seul processeur de calcul ! Un autre monde...
La figure 6 est également très intéressante puisqu'elle compare les constructeurs de superordinateurs de la première liste Top500 à ceux de la trentième. C'est bluffant de voir comment les deux grosses boites traditionnelles que sont IBM et HP ont réussi à reprendre le dessus sur la horde de petits constructeurs qui étaient dans la liste en 1993. Les Meiko, Thinking Machines, nCube et autres MasPar n'existent plus désormais.
Ce qui est proprement stupéfiant à propos du Top500 c'est que cela permet de faire des prédictions extrêmement précises. En juin 1997 le professeur Meuer a décidé de prendre un risque. A cette époque il n'y avait qu'un seul ordinateur dans le monde qui atteignait le Teraflops, le superordinateur ASCI Red au laboratoire Sandia au Nouveau-Mexique. Il a étudié soigneusement la droite du tracé des performances sur une échelle logarithmique qui se trouve à la figure 10 et il a fait la prédiction suivante: En juin 2005 tous les ordinateurs de la liste Top500 auront une puissance supérieure à 1 Teraflops. Les figures 11a, 11b et 11c montrent l'évolution du parc au cours de cette période et on voit qu'exactement en juin 2005, comme cela avait été prédit 8 ans plus tôt, le dernier ordinateur de la liste atteint la puissance d'1 Teraflops. Impressionnant !
Il y a plein d'autres données croustillantes dans l'article. Par exemple la figure 21 montre très bien la progression par plateaux successifs des performances des numéros 1 de la liste. Typiquement quand une très grosse machine s'empare de la couronne, elle la garde pour plusieurs éditions du Top500.
Et savez vous qu'un laptop contemporain de haut de gamme (7 Gigaflops) aurait fait partie de la liste des 500 superordinateurs les plus puissants du monde en 1997 ?
La figure 22 permet de voir ce qui va se passer dans les années à venir en utilisant la même technique de "prolongement de la droite".
Ainsi votre laptop aura une puissance de 1 Teraflops en 2014 (c'est à dire à peine 18 ans après l'apparition d'ASCI Red, le premier ordinateur Teraflops du monde). Il faut entre 6 et 8 ans pour que le numéro 1 de la liste dégringole à la 500ième place et il faut entre 8 et 10 ans pour que la puissance du 500ième devienne celle d'un vulgaire laptop.
Le professeur Meuer a donc énoncé, en toute confiance, une nouvelle prédiction: Alors que dans la dernière liste de novembre 2007 aucun ordinateur n'atteint le Pétaflops, en 2015 il n'y aura plus dans le Top500 que des superordinateurs dépassant ce seuil mythique.
J'ai hâte d'y être !
# Top500 : La rétrospective des 15 ans
Posté par Yoann A. . Évalué à 10.
# Mode vieux chauve
Posté par Jak . Évalué à 8.
Mais c'est un Événement ou situation grave et tragique, présentant souvent un caractère violent, mortel ! C'était tellement mieux les Unix propriétaires.
C'était la minute du chauveDÉ-GAR-NI.
Sinon, très bien le résumé.
[^] # Re: Mode vieux chauve
Posté par xavier dumont . Évalué à 4.
traduction littérale de l'anglais "dramatic" = spectaculaire.
Petit à petit, s'insinue tel un virus impitoyable dans le Français.
[^] # Re: Mode vieux chauve
Posté par Sylvain Sauvage . Évalué à 4.
Ce virus s’insinue dans tous ceux qui parlent le français, pas que dans les Français…
[^] # Re: Mode vieux chauve
Posté par Jak . Évalué à 3.
[^] # Re: Mode vieux chauve
Posté par Sarcastic . Évalué à 6.
En effet, le terme dramatique dans le sens "peinture vive et animée de l'action, des évènements" est présente dès la 6ème édition du dictionnaire de l'Académie Française [http://colet.uchicago.edu/cgi-bin/dico1look.pl?strippedhw=dr(...)].
Et ça date quand même de 1835.
Alors, bon, comme anglicisme qui petit à petit s'insinue tel un virus impitoyable dans le Français, tu m'excuseras, mais on a vu mieux (Ou pire, c'est selon le point de vue).
[^] # Re: Mode vieux chauve
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 2.
J'en conclus que ce troll est a classer parmis les dommages collatéraux de la guerre contre la barbarie. Comme les victimes ne sont pas humaines et qu'il ne s'agit pas d'une guerre contre les barbares comme actuellement en France, je propose que nous en rions de bon cœur. La chasse est ouverte.
----> []
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: Mode vieux chauve
Posté par Sylvain Sauvage . Évalué à 4.
En l’occurrence, « drame » a pris le sens de « tragédie » depuis un bon moment. Sans doute parce que les farces et autres comédies ont toujours été mal considérées (populaires, vulgaires, pas glop) et que les « seules vraies pièces sérieuses » sont des tragédies.
# Et le bilan écologique ?
Posté par Mouns (site web personnel) . Évalué à 3.
et sur la capacité à recycler tout ou partie en fin de vie des coucous ?
sur la quantité de prétrôle nécessaire pour tous les plastiques et autres polymeres présent dans un ordinateur ?
Parce que c'est bien beau de nous promettre des PetaFLOPS pour 2015 ... encore faut il que cela soit écologiquement rentable ...
[^] # Re: Et le bilan écologique ?
Posté par Jak . Évalué à 4.
[^] # Re: Et le bilan écologique ?
Posté par patrick_g (site web personnel) . Évalué à 10.
Sans eux et les prévisions qu'ils génèrent pour les scientifiques il est probable que pas un politique n'aurait bougé le petit doigt pour prendre des mesures contre le réchauffement.
Maintenant c'est vrai que le cycle de vie des superordinateurs est tellement rapide qu'il faut se préoccuper de leur recyclage.
[^] # Re: Et le bilan écologique ?
Posté par cosmocat . Évalué à 2.
Et côté rendement, il me semble que les noyaux unix font des efforts pour être plus "vert".
L'autre question importante reste :
"Quel est le taux d'occupation de ces gros calculateurs ?"
S'ils sont utilisé à 10%, c'est vrai, c'est du gros gachi, sinon je crois pas qu'un gros calculateur à la place de milliers de petits soit pire...
PS : tout ça en partant du principe qu'on construit un calculateur parce qu'on a des calculs à faire et non pas, on fait des calculs car on a construit un gros calculateur.
[^] # Re: Et le bilan écologique ?
Posté par gst . Évalué à 3.
non ça, sans le savoir réellement, j'en doute fort fort.. rien qu'en sachant qu'il suffit d'augmenter la "finesse"/"résolution"/.. dans les simulations pour devoir utiliser plus de puissance..
[^] # bilan écologique : extrémement positif
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 4.
Pour en revenir au sujet, un super calculateur est généralement utilisé par des centaines (voir des dizaines de milliers d'utilisateurs). Ils sont équipés de système de gestions de queues (batch) qui permettent que presque tous les processeurs soient utilisés au max.
Du coup si on ajoute que le super calculateur fonctionne 24h/24 contrairement au bête PC, on a :
- un rendement énérgétique bien meilleur (calculs contre idle)
- une utilité du travail bien supérieur (calculs contre vers/spams/...)
- une taux d'utilisations très supérieur sur la durée de vie qui "rentabilise" la pollution chimique (24h/24 pendant 5 à 10 ans contre 2h/24 pendant 3-6 ans).
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: bilan écologique : extrémement positif
Posté par ckyl . Évalué à 2.
Avoir les queues pleines ne signifie pas que l'on fait quelque chose d'utile. Il y a de la puissance on s'en sert. Plus c'est facile à utiliser et plus on charge le bouzin :-)
[^] # Re: Et le bilan écologique ?
Posté par Mouns (site web personnel) . Évalué à -7.
Sans eux et les prévisions qu'ils génèrent pour les scientifiques il est probable que pas un politique n'aurait bougé le petit doigt pour prendre des mesures contre le réchauffement.
Maintenant c'est vrai que le cycle de vie des superordinateurs est tellement rapide qu'il faut se préoccuper de leur recyclage.
je ne veux pas troller mais :
- je croyais que le réchauffement climatique et le fait que les ressources étaient limités étaient issu du bon sens et non de simulation Pet-a-flop-esque
- je croyais que les prévisions météo de météo France était presques fiable pour des périodes de moins de 3 jours , et fiables pour 24h
- il me semble que sur les 500 superConserves, toutes ne font pas des calculs météo ou climatique
- à coté de cela, fabriquer du matériel top moumoute dans la course au plus grosse B...oite de conserve électronique, ca doit nécessité du prototypage, des tests, de l'électricité, du papier, de l'encre, puis la fabrication des prototype puis du produit fini, ca doit en consommer des ressources énergétiques, de la matière première, ... et ca doit en produire du dechet ...
Donc, en fait, sans répondre, tu me confirme que tout le monde s'en fout que c'est comme d'habitude aux autres de faire des efforts et de montrer l'exemple ;)
[^] # Re: Et le bilan écologique ?
Posté par Nicolas Schoonbroodt . Évalué à 10.
[^] # Re: Et le bilan écologique ?
Posté par Sarcastic . Évalué à 9.
À moins que pour cela, tu n'utilises des papillons ! [http://xkcd.com/378/]
[^] # Re: Et le bilan écologique ?
Posté par nojhan (site web personnel, Mastodon) . Évalué à 3.
http://www.nojhan.net/geekscottes/index.php?strip=84
# Les petites boites
Posté par ribwund . Évalué à 3.
Mais ont-elles été rachetées ou bien ont-elles disparues ?
[^] # Re: Les petites boites
Posté par patrick_g (site web personnel) . Évalué à 3.
En tout cas c'est marrant de voir que la floraison de compagnie qui a suivie l'arrivée des premiers ordinateurs parallèles s'est réduite ensuite comme peau de chagrin. Je n'ai pas l'impression qu'une seule de ces boites se soit imposé.
C'est dire la difficulté de rentrer sur un marché dominé par des géants.
[^] # Re: Les petites boites
Posté par Laurent A. . Évalué à 6.
[^] # Commentaire supprimé
Posté par Anonyme . Évalué à 4.
Ce commentaire a été supprimé par l’équipe de modération.
# Mais comment qu'on calcule la puissance de tout cela ?
Posté par Mr Kapouik (site web personnel) . Évalué à 1.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par patrick_g (site web personnel) . Évalué à 6.
Le classement du Top500 est réalisé en faisant tourner le code de calcul Linpack (résolution de systèmes d'équation linéaires). Voir l'article Wikipedia sur Linpack => http://fr.wikipedia.org/wiki/Linpack
A la fin de son article Meuer explique pourquoi ce choix comme benchmark, quels sont les inconvénients et les avantages...etc
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par djibb (site web personnel) . Évalué à 8.
Bon... je suis qu'à 164996 flops ;)
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par djibb (site web personnel) . Évalué à 5.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par Lapinot (site web personnel) . Évalué à 10.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par Maxime (site web personnel) . Évalué à 2.
Au fait, tu as quoi comme machine ? Tu fais 3 fois mon score...
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par djibb (site web personnel) . Évalué à 2.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par yellowiscool . Évalué à 2.
Car sur un pentium E2140 (un core2duo allégé) j'obtient 709612, ce qui fait en gros 0.46 de ton score. Mais en multipliant par 2, j'ai un truc assez proche (0.91).
Envoyé depuis mon lapin.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par djibb (site web personnel) . Évalué à 2.
http://ashashiwa.free.fr//images_diverses/flop.png
direct cash.. sous kde avec pas mal de trucs qui trainent... (ktorrent, kopete, thunderbird firefox etc.)
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par yellowiscool . Évalué à 2.
Envoyé depuis mon lapin.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par djibb (site web personnel) . Évalué à 2.
je t'avoue que le 8400 me fait de l'oeil... si ma mère demande un ordi j'échange les procs ;)
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par Julien Humbert . Évalué à 0.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par Thomas Debesse (site web personnel) . Évalué à 2.
illwieckz@gimli ~ $ cd /tmp
illwieckz@gimli tmp $ cat > pouet.py
#! /usr/bin/python
import time
a=time.time()
b=a+1
i=0
while a<b :
i+=1
a=time.time()
print i
illwieckz@gimli tmp $ chmod +x pouet.py
illwieckz@gimli tmp $ ./pouet.py
169312
illwieckz@gimli tmp $
Snif mon pauvre p3 800 se fait rétamer /o\
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par Sébastien B. . Évalué à 3.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par Jeanuel (site web personnel) . Évalué à 2.
Rhaaa 22639.
Bien sur, c'est un Ahtlon1.2 mais quand même, je cours de ce pas me pendre à la première poutre venue.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par alexmic . Évalué à 2.
Je ne vois pas très bien le rapport entre ce script et la définition du Linpack :
http://fr.wikipedia.org/wiki/Linpack dit :
Créé par Jack Dongarra, il mesure le temps mis par un ordinateur pour résoudre un système de n équations à n inconnues dense, la solution étant obtenue par une utilisation partielle du pivot de Gauss, par 2/3·n³ + n² opérations à virgule flottantes. La performance est ensuite calculée en divisant le nombre d'opérations par le temps mis, donc en FLOPS.
Une implémentaion un peu vieillote est dispo en java ici :
http://www.netlib.org/benchmark/linpackjava/
J'en suis à 419K sur le nordinateur du bureau...
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par med . Évalué à 5.
De mon côté j'en suis à 591105 (de FLOP djibbien) sur mon portable.
[^] # Re: Mais comment qu'on calcule la puissance de tout cela ?
Posté par thedidouille . Évalué à 0.
# et la panète?
Posté par flyer . Évalué à 3.
# Hum
Posté par Sylvain Sauvage . Évalué à 10.
Non, mais je sais que mon Oric Atmos aurait été premier de la liste en 1812…
⟶[]
# La figure 14
Posté par theocrite (site web personnel) . Évalué à -3.
Encore encore, c'est trop bon. Hmmm oui encore !
# Cray
Posté par Ontologia (site web personnel) . Évalué à 10.
Derrière tout cela, il y a un évènement technologique : la victoire du microprocesseur.
Pendant longtemp, la force des cray était d'assembler massivement des circuit intégrés contenant quelques portes, mais très rapides. Le Cray 1 était de cette race là, avec des IC de type ECL avec 2 portes NAND qui contenait quelques portes (moins de 10), alors qu'à l'époque on commençait à avoir des microprocesseurs complet... qui tournait 100 fois moins vite.
Il faut savoir que le premier ordinateur à utiliser des circuits intégré, était l'ordinateur de bord des missions apollo qui était lui aussi constitué de puces contenant 4 portes NAND.
Le Cray1 était un gigantesque empilage de circuits intégré (248832) qui formait une espèce de Pentium II, très orienté calcul vectoriel.
Le microprocesseur n'était pas vraiment considéré comme quelques chose de sérieux par les vieux de la vieille et Saymour Cray, qui n'a accepté d'utiliser des circuit intégré à la place des transistors qu'en 1976 avec le Cray 1 (il a conçu pas mal de CDC avant). Auparavant il faisait tout en transistor....
Jean-Louis Gassée racontait qu'un peu avant sa mort, Seymour Cray lui avait dit "ça va, j'ai compris, je vais arrêter de faire des machines avec des circuits intégré, je vais me mettre aux microprocesseurs"
Autant concevoir des super ordinateur avant 1990 m'aurait fait triper, autant maintenant, ça consiste principalement à empiler des intel core quad, des cell ou autres choses, et s'arracher la tête à gérer la communication entre les noeuds de sorte à optimiser le flux au maximum. C'est surement intéressant pour certains.
Je me demande, s'il ne serait pas possible de faire tourner une machine à 50 Ghz, en utilisant non plus des processeurs du marché, mais des puces dessinées pour l'occasion, avec des technologies capable de supporter de telles fréquences, sachant qu'évidemment, on mettrait beaucoup moins de transistors dessus
« Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker
[^] # Re: Cray
Posté par Jak . Évalué à 4.
Je pense en effet que ce serait possible (IBM a déjà publié des articles parlant d'arriver sur des circuits travaillant à 100 GHz d'ici à 2010, mais juste des trucs simples, comme sur un vieux Cray[1]). Cependant, à mon avis, le problème est le coût de réalisation d'une telle machine, extrêmement spécialisée pour un marché de niche : les coûts de développement et de production en matière de semi-conducteurs sont de plus en plus élevés, donc le retour sur investissement de moins en moins intéressant.
Il serait intéressant de savoir si le coût au MFlop a suivi une progression linéaire, logarithmique, etc, mais l'auteur de l'article mentionne à la fin qu'ils ne les connaissent pas. Dommage.
[1] mal formulé, mais il y a longtemps que je n'ai plus fait d'électronique. Les 100 GHz correspondent à une histoire de temps de commutation sur un transistor, je crois, mais, c'est une horloge diffcile à propager sur un circuit imposant.
[^] # Re: Cray
Posté par Sytoka Modon (site web personnel) . Évalué à 3.
- les SGI Altix 4700 qui permettent d'avoir une machine a noyau unique ayant plus de 1024 coeurs !
- les NEC SX9 a processeurs vectoriel qui sont les dignes descendantes des Cray d'autrefois.
Ces deux machines ne sont pas dans la même gamme tarifaire et ne se font pas concurrences directement.
Les cluster Infini-band à base Xeon, ca marche mais c'est pas pareil...
[^] # Re: Cray
Posté par patrick_g (site web personnel) . Évalué à 2.
Dans sa configuration maximum il monte jusqu'à 884736 processeurs. Presqu'un million de processeurs !
[^] # Re: Cray
Posté par Sytoka Modon (site web personnel) . Évalué à 3.
[^] # Re: Cray
Posté par rewind (Mastodon) . Évalué à 2.
[^] # Re: Cray
Posté par lasher . Évalué à 5.
Un supercalculateur est un ordinateur spécialisé au même titre qu'une console de jeu selon moi, et doit donc être programmé correctement; je ne vois pas ce qui est choquant là-dedans. Les « applications de la vraie vie », ce sont des simulations météorologiques, tout un tas de simulations qui concernent le nucléaire (Department Of Energy, Commissariat à l'Énergie Atomique), la sismologie, et de façon générale tout ce qui concerne la modélisation de phénomènes physiques de grande envergure.
Bref, effectivement, Linpack est rigolo comme outil de mesure de performance brute (il n'y a presque pas de communication entre les coeurs de calcul, donc effectivement, les machines d'IBM ont l'avantage du coup), mais il existe tout un tas d'autres applications (ScaLapack par exemple) qui permettent de résoudre un ensemble non négligeable de problèmes liés à des systèmes d'équations linéaires (dont se servent les numériciens tous les jours).
Bottom line : quelle que soit la machine de calcul, elle sert vraiment, et est vraiment utilisée. Le gros problème provient surtout de l'allocation des noeuds de calculs. Certains calculs ne nécessitent que la moitié d'un noeud, d'autres plusieurs noeuds à la fois, etc. Faire un ordonnanceur de batches qui soit efficace pour boucher les trous sans faire perdre trop de performance globalement est une tâche ardue.
[^] # Re: Cray
Posté par Sytoka Modon (site web personnel) . Évalué à 4.
IBM a décidé d'avoir toutes les premières places du TOP 500 mais je suis de plus en plus persuadé que ce classement n'est pas le plus intéressant de tous, même s'il a son utilité. D'ailleurs, il a reculé ces derniers temps même s'il maintient sa vraie fausse première place (c'est en effet un centre de recherche IBM / DoD la première place).
[^] # Re: Cray
Posté par Ontologia (site web personnel) . Évalué à 3.
Je t'ai souvent lu expliquer que même avec les meilleurs libs, on ne peut pas exploiter plus de quelques milliers de processus.
En 1995, j'imagine qu'il était largement faisable d'exploiter toute la puissance de la première au top 100, aujourd'hui çe devient plus des fermes de calculs, incapable de gérer des programmes difficilement parallelisable qui atteignent une complexité trop grande.
C'est pour ça que le top 100, qui m'excitait quand j'étais gosse, ne m'inspire maintenant qu'un très vague intérêt.
Je crois qu'il va falloir qu'on attende les ordinateurs quantiques pour revoir des choses intéressantes.
Et là, la recherche sur la preuve de programme montrera toute son utilité.
« Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker
[^] # Re: Cray
Posté par briaeros007 . Évalué à 2.
C'est bizarre, personne n'a parlé de barcelon avec son cluster de ps3, je trouve ca bien marrant moi ;)
[^] # Re: Cray
Posté par rewind (Mastodon) . Évalué à 6.
La preuve [1] : une vraie application qui tourne sur 3654 processeurs chargé au maximum pendant plusieurs dizaines de minutes.
[1] http://www-id.imag.fr/Laboratoire/Membres/Gautier_Thierry/Pe(...)
[^] # Re: Cray
Posté par ckyl . Évalué à 3.
Le problème est de faire scaler des applications parallèles fortement communicantes avec point de synchro. L'idée de nos jours c'est de réduire au maximum les communications et le partage de données (cf map/reduce, les architectures space based ou REST). Mais ce n'est pas applicable dans tout les cas.
Au fait, des applications sur 3000+ cores on le fait en java et ça tourne plutôt bien :-)
[^] # Re: Cray
Posté par Jak . Évalué à 5.
Il faut bien ça !
hop, pula ===> []
[^] # Re: Cray
Posté par Cédric Chevalier (site web personnel) . Évalué à 5.
Tu me vois ravi d'apprendre ça. Il va aussi falloir que je prévienne mes collègues (d'un gros labo américain, d'ailleurs cité dans le journal) ainsi que les contructeurs de matériel que MPI c'est dépassé et inefficace.
Je suis d'accord pour dire que pour certaines applications, MPI/C n'est peut-être pas idéal, mais la plupart des applications de la vraie vie que je connais l"utilise plutôt bien. Ensuite, le calcul sur la grille part d'une bonne idée, mais vouloir adapter ce modèle à tous les problèmes est à mon avis une erreur. J'aimerai bien voir comment coder un solveur numérique efficace sur la grille par exemple. Donc oui, les grilles de clusters c'est bien quand on peut acheter que ça, mais une vraie machine avec des réseaux rapides, c'est quand même mieux pour le cas général.
Autre chose, depuis quand on mesure les performances d'un code par rapport à sa charge CPU ? Parce que si tu veux, je peux moi aussi coder une machine virtuelle qui bouffe du cpu :) *
*: cette remarque n'altère en rien la qualité du travail que tu cites, je veux juste préciser que ta métrique est étrange. On pourrait aussi comparé les chaleurs dégagées par l'éxécution des programmes ou encore leurs incidences sur la facture électrique, ça me paraitrait aussi fiable et représentatif.
[^] # Re: Cray
Posté par rewind (Mastodon) . Évalué à 2.
Et quoi que tu en dises, oui, MPI est un vieux modèle. Il est très utilisé certes, ça ne veut pas dire qu'il résout tous les problèmes, loin de là. MPI, en dehors d'un cluster, point de salut. Or, les clusters, saibien mais l'avenir, c'est les grilles : il n'y a quà voir le CERN qui prépare une grille gigantesque pour faire les calculs sur les résultats du futur accélérateur de particules géant.
Et une grille, ça ne s'achète pas, c'est "juste" une agglomération de clusters. Et si tu ne sais pas programmer sur ce genre d'architecture, et bien ça ne sert à rien de les agglomérer. Les clusters, ça n'est pas extensible à l'infini donc ça ne répond pas à toutes les problématiques.
[^] # Re: Cray
Posté par Cédric Chevalier (site web personnel) . Évalué à 2.
Cependant, il reste important que ces clusters soient gros car pour l'instant la plupart des problèmes ne se modélisent déjà pas très facilement sur les clusters avec des réseaux rapides, alors sur la grille ... Et sur un cluster, je pense que MPI et MPI/threads ont encore de beaux jours devant eux, de même que OpenMP que certains compilateurs semblent capables de transformer en MPI pour sortir du noeud. Après, si tu connais d'autres modèles de programmation qui au final permettent le même niveau de performance, je suis intéressé.
Sinon pour le CERN je ne sais pas s'ils font de très grosses simulations ou un très grand nombre de "petites" auquel cas une grille de petits clusters est parfaitement adaptée. (après, il reste la question du budget : on ne choisit pas toujours ce que l'on voudrait).
[^] # Re: Cray
Posté par ckyl . Évalué à 3.
Vous pouvez vous battre autant que vous voulez vous avez tout les deux raisons. Pour le calcul numérique pur MPI va très vite. C'est un peu l'ASM du calcul parallèle. C'est merdique à utiliser, c'est vieux, c'est moche mais ca bastonne si c'est utilisé a bon escient. Pour toutes les applis ou on peut un minimum découper les données les grilles sont un bien meilleur investissement.
En ce qui concerne le calcul brute mono core, la techno on s'en fou, on a des benchs java ou on est devant du fortran...
Il y a des besoins pour les deux approches, le public n'est pas le même.
Bref chacun voit le monde selon dans quoi il travaille...
[^] # Re: Cray
Posté par Cédric Chevalier (site web personnel) . Évalué à 1.
Par contre, je me permets de douter de la qualité de programmation de tes benchs fortran.
[^] # Re: Cray
Posté par ckyl . Évalué à 2.
On a voulu voir ce que ca donnait quand on allait jouer sur le terrain des autres. Implémentation des kernels NAS sur notre middleware faite par des stagiaires, c'est clairement en notre défaveur côté optimisation. Y'a un papier qui passe à IPDPS en mai avec les résultats. Grosso modo on est devant pour IS et pour FT on obtient les même perfs.
[^] # Re: Cray
Posté par patrick_g (site web personnel) . Évalué à 3.
Alors pourquoi le CNRS vient-il d'acheter une machine Blue Gene/P le mois dernier ?
Le communiqué de presse : http://www2.cnrs.fr/sites/communique/fichier/dp_calculateur.(...)
1à armoires Blue Gene/P (pour 139 Tflops) + 8 armoires Power6 (pour 68 Tflops). Pas mal le bestiau !
Je pense qu'après une période d'attente les grands centres de calcul commencent à se procurer des superordinateurs basés sur l'architecture Blue Gene. Certes tous les codes de calculs ne sont pas adaptés à ce parallélisme extrême mais quand le problème est bien adapté alors ça doit booster.
[^] # Re: Cray
Posté par Sytoka Modon (site web personnel) . Évalué à 6.
> mois dernier ?
Bonne question. Il n'y a pas eu d'appel d'offre à ma connaissance et nous avons appris cette annonce dans "le monde" ! Je ne comprends pas pourquoi les autres constructeurs ne font pas appel en justice de cette décision.
Par ailleurs, la machine ne sera pas donné à 100% pour un programme. C'est une ferme de calcul utilisable par toute la communauté scientifique. A mon avis, si tu arrives à tirer déjà que 10% des ressources de la future machine, c'est bien.
Bref, je ne sais pas exactement comment est la machine mais cela doit être un cluster de cluster. Je doute que MPI soit efficasse sur la globalité.
Sur le papier, c'est beau. Pleins de chercheur de pleins d'équipe vont pouvoir faire des calculs parallèle en parrallèle... Bref, cela répond à un besoin de calcul répartis. Mais en puissance pure sur un code ?
[^] # Re: Cray
Posté par vjm . Évalué à 2.
http://www.lemondeinformatique.fr/actualites/lire-supercalcu(...)
http://www.reseaux-telecoms.net/actualites/lire-polemique-au(...)
Bull a profité de l'annonce de ses résultats pour 2007 en espérant que cette tribune médiatique permettrait de faire un peu de bruit.
Réseaux & Télécoms dit que ce type de contrat "privé" est rendu possible par la Loi de Programmation pour la Recherche de 2006 mais un parcours rapide ne m'a pas permis de trouver la disposition en question : http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTE(...)
Je suppose que si faille il y avait, Bull aurait déjà déposé un retour. En interne, ils étaient plutôt furax.
Par ailleurs le dossier de presse du CNRS donne une assez bonne idée de l'usage qui devrait être fait du nouveau système : http://www2.cnrs.fr/sites/communique/fichier/dp_calculateur.(...)
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.