Blue Gene/L est une grappe (« cluster ») Linux de 16000 processeurs PowerPC mais qui est 100 fois plus petit et consomme 28 fois moins d'énergie que Earth Simulator (5120 processeurs).
C'est pour l'instant un prototype qui servira de base à une version livrée au Lawrence Livermore Laboratory qui elle comportera 130 000 processeurs pour une puissance hallucinante de 360 Tflops.
NdM : la NASA, SGI et Intel annonce 42,7 Tflops avec leur nouveau calculateur sous Linux à 10.240 processeurs d'Altix System. NEC vient de faire l'annonce d'un calculateur à 65 Tflops, dans ce qui semble être une grande course de type « enlarge your cluster and fear my Tflops ». François Pellegrini ajoute :
« Silicon Graphics vient d'annoncer, suite à 15 semaines de travail intensif avec Intel et la NASA, la mise en service effective du super-ordinateur Columbia, composé de 10240 processeurs Itanium® 2, et tournant sous Linux.
En utilisant seulement 8192 de ses processeurs, cette machine a atteint la puissance record de 42.7 téraflops, c'est-à-dire 42 millions de millions d'instructions en virgule flottante par seconde.
Cette machine est localisée au laboratoire NASA Advanced Supercomputing (NAS) du Ames Research Center située à Mountain View, Californie. À la différence de nombreuses autres déploiements de super-ordinateurs, qui ont pu prendre jusqu'à plusieurs années, ce système a été déployé et rendu totalement opérationnel en moins de quatre mois.
Il est constitué de 20 systèmes SGI ® Altix® à 512 processeurs Intel® Itanium® 2 chacun, et dispose d'un système de stockage de 440 téra-octets. Chaque système à 512 processeurs offre à ses utilisateurs la vue d'une seule image (SSI, pour "Single System Image") de Linux.
Nul doute que, parmi les motivations ayant conduit à la réalisation de cette machine, il y ait aussi la volonté de laver l'affront produit par le Earth Simulator, le super-ordinateur japonais qui a, pour un temps seulement, pris la première place du palmarès mondial des super-calculateurs. »
Aller plus loin
- Page du projet Blue Gene (3 clics)
- Annonce NEC (5 clics)
- Annonce SGI sur la mise en service (1 clic)
- Annonce SGI sur la performance du système (2 clics)
# Partage de puissance
Posté par samds . Évalué à 4.
Vous imaginez, la compilation de votre noyau quasi-instantanément, le rendu d'une vidéo 3D high-poly en temps réel ? Ca pourrait être possible.
- Sam, rêveur utopiste
[^] # Re: Partage de puissance
Posté par riba . Évalué à 10.
hé, y'a des calculs scientifiques qui sont plus importants que ta compil' de noyo journalière...
mode ronchon off
[^] # Re: Partage de puissance
Posté par SoWhat . Évalué à 5.
-> []
[^] # Re: Partage de puissance
Posté par mdlh . Évalué à 5.
[^] # Re: Partage de puissance
Posté par Olivier Grisel (site web personnel) . Évalué à 4.
[^] # Re: Partage de puissance
Posté par renoo . Évalué à 5.
C'est pas un truc exponentielle du genre : pour prévoir à une heure de plus il faut deux fois plus de temps de calcul. Ce qui signifie qu'il faudrait un cluster de millions de machines pour prévoir la météo à 7 jours alors qu'une vulgaire machine calculerait facilement la météo à 5 jours.
[^] # Re: Partage de puissance
Posté par Nicolas Boulay (site web personnel) . Évalué à 5.
"La première sécurité est la liberté"
[^] # Re: Partage de puissance
Posté par Erwan . Évalué à 9.
Cela dit le probleme de la meteo est chaotique donc sera toujours exponentiel, et on prefere augmenter la puissance exponentiellement pour une augmentation lineaire des previsions plutot que de renoncer.
[^] # Re: Partage de puissance
Posté par Veiovis . Évalué à 0.
Ton PC à 2Ghz peut facilement calculer de manière satisfaisante la météo à 5 jours.
La blague de la correction des erreurs de calcul par ajout exponentiel de matériel n'est pas de très bon goût non plus.
Les ressources requises en météo sont importantes. Bien sûr, je fais référence aux prévisions les plus complexes (celles du centre de prévision européen, l'ECMWF - http://www.ecmwf.int(...) ). Sur http://www.top500.org(...) , on voit pointer l'ECMWF à la sixème place (en 2003) des plus gros supercalculateurs. Les ressources sont au moins nécessaires aux maillages toujours plus fins et à l'assimilation de données.
[^] # Re: Partage de puissance
Posté par Sylvain Sauvage . Évalué à 3.
Par contre, les utilisateurs sont souvent grossiers...
m(_ _)m
[^] # Re: Partage de puissance
Posté par Stéphane Téletchéa (site web personnel) . Évalué à 4.
[^] # Re: Partage de puissance
Posté par ArBaDaCarBa . Évalué à 1.
[^] # Re: Partage de puissance
Posté par prslump . Évalué à 10.
[^] # Re: Partage de puissance
Posté par Erwan . Évalué à 4.
En gros, les gens qui ont perdu des proches a Niigata (Japon) lors des tremblements de terre a repetition de la semaine derniere auraient bien aime savoir a l'avance qu'ils allaient se prendre une secousse de force 6 sur la face...
[^] # Re: Partage de puissance
Posté par _gp . Évalué à 1.
[^] # Re: Partage de puissance
Posté par XHTML/CSS inside (site web personnel) . Évalué à -1.
Je suis sûr qu'ils trouveront bien qq flops à me prêter !
# Je vote IBM
Posté par patrick_g (site web personnel) . Évalué à 10.
En effet le Blue Gene/L d'IBM est fondé sur des processeurs dual-cores avec un des coeurs qui se charge du calcul et l'autre qui s'occupe des communications : c'est du jamais vu !
comme ce sont des CPU très petits (a l'origine ils sont fait pour de l'embarqué) on obtient un supercalculateur extrèmement dense et dissipant peu de chaleur par rapport à ses conccurents...malgré les 65.000 CPU dual-cores !
[^] # On s'en serait pas douté
Posté par Paerro Trime . Évalué à 6.
En plus ce calculateur il a quand même tenu le haut du pavé pendant vraiment longtemps et il est tourné vers des applications d'études environnementales, deux très bonnes raisons de saluer cette réalisation exceptionnelle au moment où il s'apprête à cèder sa couronne.
[^] # Re: On s'en serait pas douté
Posté par patrick_g (site web personnel) . Évalué à 5.
Ben non car c'est le propre de tous les supercalculateurs classiques d'avoir une archi vectorielle propriétaire (Les Cray et autres...depuis les 70's)
Par contre avoir un dual-core dont un des coeurs ne s'occupe que des communications je trouve ça génial....et si tu regarde la surface au sol ou la chaleur dissipée tu va voir que le IBM explose littéralement le NEC (1/20 ieme de la conso et 1/100 ieme de la surface)
Je pense d'ailleurs que ce dual-core spécial doit avoir plus qu'un air de ressemblance avec la puce "the cell" qui est prévu dans la prochaine Playstation 3.
[^] # Re: On s'en serait pas douté
Posté par Paerro Trime . Évalué à 3.
L'Earth Simulator est un peu seul dans le haut du top 500 a utiliser une solution aussi customisée par rapport aux autres qui utilisent des processeurs beaucoup plus courants.
Le Earth Simulator a représenté aussi un gros saut en son temps et il serait injuste de le présenter comme un simple travail scolaire dans la continuité de ce qui a été fait durant les 20 années précédentes.
Cette nouvelle réalisation d'IBM présente un saut incontestable, avec des choix d'architecture largement tourné vers une optimisation de la densité, cependant on compare pas la même chose : l'Earth Simulator est un projet beaucoup plus ancien : il avait pris du retard et est en production depuis un bon moment, c'est plus le même contexte de technologie de fabrication.
Je te parie que le type de processeur de BlueGene ressemblera bien davantage au proc de la XBox2 qu'à celui de la PS3.
[^] # Re: On s'en serait pas douté
Posté par patrick_g (site web personnel) . Évalué à 2.
Pari tenu.
celui de la xbox2 sera un PPC970 ou un PPC980 => cad un CPU 64 bits assez classique.
[^] # Re: Je vote IBM
Posté par zeSixty4Douille . Évalué à 6.
Pour moi, un cluster c'est plus d'une machine, alors qu'un super ordinateur, ca n'est qu'une machine.
Dans le cas d'un cluster, le nombre de Tflop est a relativiser avec le temps de communication relatif a un acces memoire, alors que dans le cas d'un super calculateur, cette operation sera geree via des controleurs specialises. D'ailleurs la frequence CPU de l'Earth Simulator est tres faible (moins de 500 MHz).
Comparer le Hearth Simulator au Gene/L, c'est un peu comparer les puces Transmetta avec celles d'Intel.
[^] # Re: Je vote IBM
Posté par vieuxshell (site web personnel) . Évalué à 3.
Reste un gros facteur limitant: l'algo qui tourne sur la machine, tu auras beau deployer des centaines de GFlops (360 ca dépote une allé de Yuka) si tu tire pas partie des spécificité de la machine (au niveau de l'architecture, y s'agit pas d'aller coder à la roots en ASM hein) ca sert à rien.
[^] # Re: Je vote IBM
Posté par Nicolas Chapin . Évalué à 8.
Un cluster est un ensemble de systèmes indépendants se partageant un calcul donc à la limite tu peux faire un cluster dans un IBM z990 qui est une seule machine mais peut faire tourner plusieurs instances d'OS.
Que cela soit un seul système ou 15 000 qui font le boulot n'a peu d'importance tu as quand même un super calculateur dans la mesure où tu n'es pas près de l'avoir sur ton bureau ;)
Ensuite Il y a des protocoles pour les IO spécialisés dans le haut-débit genre Infiniband.
De plus la fréquence n'a strictement rien à voir avec la puissance d'un processeur, les alpha à 500 MHz ont longtemps tenu la dragée haute aux Pentium 2 à 3 fois plus rapide en fréquence. C'est essentiellement une question d'architecture interne du processeur. Et cela va encore se compliquer avec les processeurs multi-coeur.
Par contre ce qui est "mal" c'est de comparer BlueGene qui a une architecture super scalaire avec earth simlator qui a une architecture vectorielle car ils ne fonctionnent pas de la même manière. N'importe qui peut faire un cluster mais par contre ce n'est pas donné à tout le monde de faire un système vectoriel d'où une nette différence de prix et la rareté du système.
Quand à ta comparaison entre Intel et Transmetta elle est hors de propos, les 2 fondeurs n'ont pas les mêmes objectifs. Pour l'un il s'agit de fourguer à Mme Michu le processeur le plus rapide pour son boutoneux de rejeton et dans l'autre de faire des processeurs avec le meilleur rapport consomation/puissance.
[^] # Re: Je vote IBM
Posté par zeSixty4Douille . Évalué à 5.
C'est pour cela que je parlais de frequence (en schematisant l'architecture HW) :
-> dans le cas d'un super ordinateur la latence de la memoire est grande, due au fait qu'elle est partagee entre tous les CPUs, donc la frequence des CPU est limitee (pour pas bloquer sur un acces memoire pendant 371 cycles) et c'est le nombre d'operations en parallele qui sera privilegie (avec un compilateur balaise, et encore plus balaise si il est capable de prevoir le temps de latence en scheddulant correctement les instructions).
-> dans un cluster, il y a des petits groupes de CPU. Les CPUs de ces groupes partagent la meme memoire, et un bus doit relier ces groupes entre eux, donc la frequence sera moins directement limite par l'acces memoire (avec un compilateur moins balaise, mais une gestion des acces sans doute chiante).
Maintenant, il n'y a pas qu'un bus memoire, il y a des caches, des acces privilegies sur certains bancs de memoire par certains CPU et d'autres mecanismes qui font qu'un super ordinateur est proche d'un cluster au final. D'autant plus, que plus il y a de CPU, plus la difference s'amoindri.
[^] # Re: Je vote IBM
Posté par Loïc d'Anterroches (site web personnel) . Évalué à 7.
Si tu lis la description technique "rapide" ils donnent vraiment aucuns détails tu as :
En gros cela veut seulement dire que le système fonctionne comme une grappe d'un cluster et que la mémoire n'est pas partagée, ce qui est le cas sur un SMP chez SUN. Le résultat est que pour certains problèmes, qui ont besoin d'avoir accès à toutes les données en même temps pour tous les processeurs, les performances vont être mauvaises.
Il y a deux "architectures" dans un système multiprocesseurs, mémoire partagée ou non. Pour le type de problèmes sur lequels je travaille, une structure comme celle de IBM me donnera une sortie aussi efficace que 1 processeur.
Le nombre de TeraFlops ne veut rien dire, ce qu'il faut c'est une infrastructure qui "colle" avec le problème à résoudre.
[^] # Re: Je vote IBM
Posté par zeSixty4Douille . Évalué à 4.
Avec une application "mono-thread", j'ai observe des gains de 30% sur un SunFire v890, par rapport a une SunBlade 2500 qui n'a qu'un CPU d'actif ,simplement parce qu'il n'y avait pas de dtlb misses sur le SunFire (c'est le meme type de CPU, au cache de niveau 2 pres. Mais quand il y a beaucoups de tlb misses, le cache de niveau 2 est "rince", donc il ne sert quasiement a rien). On peut retrouver en partie les perfo en changeant la taille des pages, mais ce n'est possible qu'a partir de Solaris 9 (pour une config par application) et il faut que la memoire ne soit pas trop fragmentee.
Les dual-core, HP en fait, Sun en fait, Amd va en faire, il y a plein d'implementation differentes. Le cache de niveau 1 est-il exclusif a chaque CPU ? le cache prefetch, y a t-il plusieurs MMU, y a t-il des operations communes au 2 CPU ?
L'un des objectifs d'IBM, c'est de vouloir mettre 1Giga de cache "on-die". Mais ce n'est pas pour tt de suite.
[^] # Re: Je vote IBM
Posté par @ . Évalué à 4.
Le résultat de 42.7 Tflops a été réalisé sur 16 noeuds. (8192 proc.).
A ce niveau la dissipation de chaleur est secondaire, si on a les moyens d'acheter un supercalculateur de ce type, on installe une climatisation conséquente.
[^] # Re: Je vote IBM
Posté par Nicolas Chapin . Évalué à 3.
C'est d'ailleurs l'une des raisons du succès les solutions à base de powerPC (IBM ou Apple) pour les clusters, ils consomment quasiment 2 fois moins que les solutions à base d'Intel. Et quand tu vois l'état du réseau éléctrique et les coûts aux USA, ce n'est pas du luxe.
[^] # Re: Je vote IBM
Posté par mdlh . Évalué à 2.
# question
Posté par skeespin (site web personnel) . Évalué à 1.
[^] # Re: question
Posté par farib . Évalué à 4.
[^] # Re: question
Posté par Nicolas Boulay (site web personnel) . Évalué à 1.
"La première sécurité est la liberté"
[^] # Re: question
Posté par Mr F . Évalué à 6.
# humour noir
Posté par Axioplase ıɥs∀ (site web personnel) . Évalué à 2.
« Silicon Graphics vient d'annoncer, suite à 15 semaines de travail intensif avec Intel et la NASA, la mise en service effective du super-ordinateur Columbia, composé de 10240 processeurs Itanium® 2, et tournant sous Linux.
Espérons au moins que ce Columbia là ne va pas se crasher.
[^] # Re: humour noir
Posté par Sylvain Sauvage . Évalué à 2.
[^] # Re: humour noir
Posté par pasBill pasGates . Évalué à 2.
[^] # Re: humour noir
Posté par Pierre Jarillon (site web personnel) . Évalué à 2.
La compétence n'est pas attachée à la fonction comme de nombreux dirigeants le croient trop souvent.
[^] # Re: humour noir
Posté par Jak . Évalué à 1.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.