Bien entendu la grande nouvelle de ce classement est le franchissement, pour la première fois, de la barre du pétaFLOPS par le superordinateur Roadrunner (qui coûte la bagatelle de 133 millions de dollars tout compris).
Après le gigaflops atteint en 1986 par le Cray 2, après le téraflops atteint en 1997 par Asci Red, voici un nouveau seuil symbolique qui est atteint. Le classement précédent est donc bouleversé puisque le détenteur du titre, le superordinateur BlueGene/L d'IBM, est détrôné. Les ingénieurs d'IBM, avec le nouveau concept qui est à la base de Roadrunner et qui a été décrit dans une dépêche précédente, ont réussi à innover une fois de plus et à dépasser pour la première fois le cap du pétaflops sur le code de calcul LINPACK.
IBM propose donc désormais deux architectures très différentes pour ses superordinateurs : L'une, BlueGene, est basée sur un très grand nombre de petits processeurs économes issus de l'embarqué et l'autre, Roadrunner, est une architecture hybride à base d'Opteron et de processeurs Cell.
La puissance du numéro un du top500 est passée de 478 à 1026 téraflops...soit plus de 114% d'augmentation en six mois !
En seconde place, on trouve un modèle BlueGene/L qui culmine à 478 téraflops au test LINPACK et en troisième place un BlueGene/P de 450 téraflops. L'entreprise IBM truste donc les trois première places du Top500 et il faut aller jusqu'à la quatrième position pour trouver la machine Ranger de Sun, qui est un très classique cluster d'Opterons, avec une puissance de 326 téraflops.
La première machine non étasunienne est le supercalculateur allemand JUGENE (encore un BlueGene/P) en sixième position alors qu'il était numéro deux il y a six mois. Passer de 167 à 180 téraflops n'a donc pas suffit pour maintenir sa position. La France passe d'une peu glorieuse dix-neuvième place à la neuvième place de ce nouveau classement avec la machine 112 téraflops de l'IDRIS. Sans vouloir faire de peine à Bull on peut constater que le passage à une architecture BlueGene/P a été bénéfique pour le classement du pays.
À noter une sorte d'anomalie en position dix du classement. Alors que les neuf premiers sont des supercalculateurs exploités par des laboratoires de recherche, on trouve en dixième place une machine SGI Altix de 106 téraflops qui est la propriété de la firme pétrolière française Total. On voit que la flambée des cours du pétrole et l'inéluctable pic de production à venir provoque une activité frénétique de prospection de la part de ces richissimes entreprises pétrolières. Les superordinateurs peuvent analyser les échos sismiques lors des activités de recherche et ils sont donc devenus pour ces firmes des outils indispensables.
En ce qui concerne la puissance cumulée des 500 machines du classement, elle passe de 6,97 à 11,7 pétaflops en six mois (67,8% d'augmentation).
Dans le domaine des systèmes d'exploitation Linux reste au même niveau (427 machines au lieu de 423 il y a six mois). Cela représente plus de 85% du top 500 et l'OS libre continue donc de régner presque sans partage sur le Top500.
Windows passe de 6 machines à 5 (1% donc) et les Unix propriétaires continuent leur descente en enfer avec un passage de 30 machines à 25.
En ce qui concerne les statistiques continentales, l'Europe continue de progresser et passe de 30% à 36,8% des machines en six mois. Le continent américain continue doucement sa descente vers une part plus "normale" des machines puisqu'il passe de 57.4% à 52%.
Si on regarde maintenant le classement par pays on constate que les USA voient leur domination se réduire peu à peu (passage de 283 à 257 machines). Même s'ils continuent d'abriter plus de la moitié des 500 machine les plus puissantes du monde on peut parier sans trop prendre de risque que ce ne sera plus le cas dès le prochain classement de novembre 2008.
Le deuxième pays est toujours le Royaume-uni qui abrite 53 machines (10,6%) puis l'Allemagne avec 46 machines (9,2%). La France passe de la quatrième place à la troisième en doublant le Japon (34 machines contre 22). Ce qui est surtout remarquable, c'est le passage de 17 machines à 34 pour la France en à peine six mois. Le rattrapage est donc brutal et la prise de conscience du retard de la France lors des derniers classements a provoqué un sursaut salvateur chez les responsables scientifiques et politiques.
Enfin, une nouveauté de ce 31ème classement Top500 : Pour la première fois une mesure de la consommation des machines est indiquée. En moyenne les dix machines les plus puissantes consomment 1,32 mégawatts (ce qui donne une efficacité de 248 mégaflops par Watt) et, sur le classement global des 500 machines, on a une moyenne de 257 kilowatts par machine (ce qui donne une efficacité de 122 Mégaflops par Watt). Il est intéressant de constater que les gros supercalculateurs en tête du classement ont une excellente efficacité énergétique (plus du double de la moyenne du classement).
Plusieurs résumés analytiques de toutes les nouveautés de ce top500 sont disponibles et un graphique résumant la progression de la puissance est visible sur cette page. On distingue très bien la progression en marche d'escalier du numéro un (une même machine reste souvent en tête pendant plusieurs éditions) et les progressions très prévisibles de la puissance cumulée et de la puissance du dernier de la liste. En dépit de l'échelle logarithmique on voit que les machines se placent proprement sur la ligne et ce depuis plus de 15 ans !
Aller plus loin
- Le classement du top500 (181 clics)
- Le graphique des performances (35 clics)
- Statistiques selon le système d'exploitation (23 clics)
- Statistiques selon le continent (16 clics)
- Statistiques selon le pays (18 clics)
# Marrant les dates...
Posté par Snarky . Évalué à 10.
Teraflops > 1997
Pétaflops > 2008
Marrant les périodes de 11 ans... Il faut attendre le exaflops pour 2019 ?
[^] # Re: Marrant les dates...
Posté par Ontologia (site web personnel) . Évalué à 2.
Bien qu'à mon avis des machines utilisant des GPU vont petit à petit s'installer. Le fait qu'on utilise le Cell en est symptomatique.
« Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker
[^] # Re: Marrant les dates...
Posté par mathic . Évalué à 7.
On entendait déjà cette remarque il y a dix ans... mais où sera la limite ?
[^] # Re: Marrant les dates...
Posté par BAud (site web personnel) . Évalué à 10.
Dans Ton CPU ? :D
[^] # Re: Marrant les dates...
Posté par reno . Évalué à 2.
Pour ce qui est de la gravure, ce qui me fait le plus peur ce n'est pas la technique mais l'état d'AMD: ça fait des années qu'ils sont en déficit et leur offre actuelle est en deçà de celle d'Intel, donc Intel risque de relâcher la pression..
[^] # Re: Marrant les dates...
Posté par ragoutoutou . Évalué à 5.
[^] # Re: Marrant les dates...
Posté par rpnpif . Évalué à 2.
Cette remarque concerne plutôt les particuliers ou les PME. Les supercalculateurs ne sont pas sur le même marché, même si les grandes entreprises ne sont pas insensibles à l'aspect énergie (mais on peut déplorer qu'elles le soient encore trop).
[^] # Re: Marrant les dates...
Posté par Cédric Chevalier (site web personnel) . Évalué à 2.
[^] # Né de la dernière pluie
Posté par Kerro . Évalué à 8.
On commence à avoir des problèmes niveau gravure des processeurs.
... ça ne fait que 35 ans qu'on entends ce refrain ... :-)
[^] # Re: Marrant les dates...
Posté par Jarvis . Évalué à 4.
[^] # Re: Marrant les dates...
Posté par Dreammm . Évalué à 4.
Et pour 11, c'est le retard pour que les gens sortent le nouveau modèle :-)
[^] # Re: Marrant les dates...
Posté par Pierre Jarillon (site web personnel) . Évalué à 4.
Alors, j'en déduis que la constante de Moore est 1.8738 et non 2 comme on l'avait longtemps cru !
[^] # Re: Marrant les dates...
Posté par Pol' uX (site web personnel) . Évalué à 5.
Bon, j'avoue ... la loi de Moore à toujours été réinterprété à la faveur de celui qui tient le clavier ;-) En revanche, il me semble que l'interval de temps était de 18 mois, ce qui donne finalement une constante très proche de 1, si je sais encore calculé à cette heure ;-)
Adhérer à l'April, ça vous tente ?
[^] # Re: Marrant les dates...
Posté par Thomas Douillard . Évalué à 1.
À priori il n'y a jamais eu d'intervalle de 18 mois dans la loi de Moore, contrairement à ce que tout le monde croit.
[^] # Re: Marrant les dates...
Posté par Sylvain Sauvage . Évalué à 2.
Citation du lien que tu donnes :
« Constatant que la complexité des semiconducteurs proposés en entrée de gamme doublait tous les dix-huit mois à coût constant depuis 1959 »
[^] # Re: Marrant les dates...
Posté par Thomas Douillard . Évalué à 2.
J'irai pas chercher plus loin ;)
[^] # Re: Marrant les dates...
Posté par Thomas Douillard . Évalué à 1.
Dans l'article de 1965 qui est cité comme référence pour l'extrait que tu cites, il est dit :
The complexity for minimum component costs has in-
creased at a rate of roughly a factor of two per year
Donc effectivement, pas de 18 mois, je sais pas d'ou vient ce chiffre, je l'avais pas remarqué la première fois que j'ai lu l'article de wp.
[^] # Re: Marrant les dates...
Posté par Thomas Douillard . Évalué à 3.
http://download.intel.com/research/silicon/moorespaper.pdf
[^] # Re: Marrant les dates...
Posté par FantastIX . Évalué à 3.
Par ailleurs, ne doit-on pas retirer l'accent aigu de Peta, puisqu'il s'agit d'un préfixe grec? Oui, je sais, je suis sans doute toujours à l'ancienne orthographe; c'est comme avec le franc belge ou les anciens francs français ;-)
[^] # Re: Marrant les dates...
Posté par FantastIX . Évalué à 1.
[^] # Re: Marrant les dates...
Posté par BAud (site web personnel) . Évalué à 4.
Si on commence par là, autant écrire πέντε aussi non ? (mais plus grand monde ne risque de suivre...).
# recherche académique et recherche privée
Posté par goom . Évalué à 8.
Je trouve la tournure de cette phrase (et la suite) pas forcément adroite et en plus fausse.
Fausse, parce que le supercalculateur numéro 8 du classement est attribué à une industrie http://www.top500.org/site/2838
Maladroite parce que la tournure laisse supposer que Total ne ferait pas de recherche ce qui n'est évidemment pas vrai. De plus il est écrit que les 9 premiers supercalculateurs sont EXPLOITES et que le dixième est LA PROPRIETE de Total. Bref une comparaison qu'on peut trouver un peu tendancieuse.
Il ne faut pas oublier que la structure de la recherche n'est pas la même en France et aux USA. La coopération entre la recherche académique et privée est plus importante là bas.
Je crois qu'il faut se réjouir d'avoir une entreprise qui possède un supercalculateur.
[^] # Re: recherche académique et recherche privée
Posté par paul . Évalué à -3.
[^] # Re: recherche académique et recherche privée
Posté par patrick_g (site web personnel) . Évalué à 3.
La phrase sur Total est le reflet de celle-ci se trouvant dans le document analytique du site du Top 500 :
The last new system in the TOP10 – at No. 10 – is also a SGI Altix ICE 8200 system. It is the biggest system installed at an industrial customer, Total Exploration Production.
>>> la tournure laisse supposer que Total ne ferait pas de recherche ce qui n'est évidemment pas vrai.
Tu a raison mais je faisais la différence entre la recherche académique ou se déroulant dans des laboratoires de défense nationaux (à la DOE) et la recherche industrielle appliquée (à la Total).
>>> Je crois qu'il faut se réjouir d'avoir une entreprise qui possède un supercalculateur.
Bien entendu. Je n'ai jamais dit le contraire. Mais il faut être conscient que l'exploitation de ces machines se fait en vue d'un intérêt purement privée alors que les autres supercalculateurs sont consacrés à la recherche publique ou aux simulations militaires.
[^] # Re: recherche académique et recherche privée
Posté par Kerro . Évalué à 10.
[^] # Re: recherche académique et recherche privée
Posté par bertrand . Évalué à 9.
si tu entends que la France possède,je crains que tu ne fasses fausse route.
L'état à peut être quelques actions, mais au final Total appartient à ses actionnaires.
Les multinationales n'ont pas de nationalité. Elles ont des intérêts.
[^] # Re: recherche académique et recherche privée
Posté par B. franck . Évalué à 1.
# FLOPS ?
Posté par apterium . Évalué à 2.
Y a-t-il un simple coefficient pour passer de l'un à l'autre, peut-on supposer que c'est sensiblement la même chose, ou bien peut-on directement utiliser les indications de fréquences ?
est-ce totalement inintéressant ? (je pensais aux maths pures (théorie des groupes, algèbre polynômiale) et à l'informatique fondamentale).
[^] # Re: FLOPS ?
Posté par snt . Évalué à 2.
Si qqn à un ordre de grandeur, ça m'aiderait à representer le gap
[^] # Re: FLOPS ?
Posté par apterium . Évalué à 7.
En gros :
330 bits ça se fait sur un PC de bureau en une dizaine d'heures.
463 ça a été fait en 2000 MIPS-year (c'est-à-dire 2000 ans de calcul à raison d'un million d'instruction par seconde, mais un peu comme les FLOPS ça dépend et des architectures et de la nature du code, c'est une estimation en vitesse de pointe. Doit-on considérer qu'un processeur à quelques GHz actuel fait 1000 MIPS ou pas, telle est la question).
512 en plus ou moins 8000 MIPS-year
le dernier record de type RSA fait 576 bits.
Pour des nombres moins difficiles que des nombres RSA, le dernier record est la factorisation de 2^1039 -1 (soit 1038 bits) par Aoki, Franke, Kleinjung, Lenstra et Osvik en (ordre de grandeur, différentes phases remises à l'échelle par les auteurs qui ont utilisé divers PC et clusters) :
95 années de Pentium-D à 3 GHz (plus ou moins équivalent à 100 années de Athlon64/opteron 2.2GHz)
plus 69 heures sur 113 Pentium-D
plus 59 jours sur 110 Pentium-D (ou de façon équivalente 162 jours sur 32 Core2Duo) (architecture : cluster de 110 Pentium-D et 36 Core2Duo, Ethernet Gbit)
voir http://www.loria.fr/~zimmerma/records/21039- pour les détails.
En gros, ça fait plus ou moins 110 ans de Pentium-D.
Pour un nombre sans structure (pour lequel des algorithmes spécifique, type pollard rho ne marchent pas), l'algorithme de factorisation le meilleur connu fonctionne avec une complexité heuristique sous-exponentielle (en gros une certaine puissance de la racine cubique du nombre à factoriser, multiplié par le nombre de chiffres binaires à la puissance 2/3). http://en.wikipedia.org/wiki/General_number_field_sieve
[^] # Re: FLOPS ?
Posté par Ontologia (site web personnel) . Évalué à 1.
On en mettant quelques centaines, ça peut être équivalent à plusieurs dizaine de milieu d'Intel ou AMD.
C'est couteux en cycle une division.
« Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker
[^] # Re: FLOPS ?
Posté par khivapia . Évalué à 8.
Maintenant, si on ajoute deux bits à la taille de la clef : k -> k + 2, avec 2^(k/2) divisions par seconde il faut maintenant 2 secondes pour factoriser le nombre. Autrement dit, le temps de calcul a été multiplié par 2 en simplement ajoutant 2 bits à la clef !
Donc quand on ajoute 100 bits à la clef (1024 bits -> 1124 bits), le temps de calcul est multiplié par 2^100.
Et encore, le calcul suppose qu'on sache faire des divisions sur des entiers de taille moitié de celle de la clef même quand on en augmente la taille.
Conclusion :
Pour le cryptographe :
Il faut avoir une idée d'un temps de calcul minimal pour une division, et adapter la taille de clef en conséquence (en étant farouchement paranoïaque, voir paragraphe suivant). Mais la progression exponentielle assure qu'on pourra garder des clefs de taille raisonnable (mais déjà augmenter leur taille peut-être pénible si il utilise aussi du matériel dédié. Qui a dit cartes à puces ? :-). De plus, il faut espérer que l'adversaire n'utilise pas de technique plus évoluée.
Pour le cryptanalyste :
Ça marchera très bien pour casser des clefs trop petites, par exemple sur des documents anciens dont les clefs étaient trop petite par rapport aux capacités actuelles (bon, il faut aussi que le document en vaille la peine, s'il est trop vieux, il n'est pas forcément intéressant).
Il faut trouver des algorithmes qui marchent plus vite (supprimer la croissance exponentielle du temps de calcul par rapport à la longueur de la clef), et recycler l'idée de l'ASIC là où les nouveaux algorithmes de factorisation prennent le plus de temps si exécutés sur un ordinateur normal.
En pratique, le goulot d'étranglement dans la plupart des algorithmes de factorisation est dans une phase d'algèbre linéaire (trouver des relations entre des vecteurs), non aisément parallélisable.
[^] # Re: FLOPS ?
Posté par khivapia . Évalué à 4.
Mais les lecteurs attentifs auront rectifiés d'eux-même :-)
# Et la NSA ?
Posté par barmic . Évalué à 3.
Ils ne participent pas ?
Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)
[^] # Re: Et la NSA ?
Posté par patrick_g (site web personnel) . Évalué à 5.
Ils sont muets comme des tombes. Mais bon ils ont tellement d'argent que je les soupçonne d'avoir des machines à base de fpga ou d'asic adaptés à leurs problèmes plutôt que d'utiliser des CPU classiques.
[^] # Re: Et la NSA ?
Posté par apterium . Évalué à 2.
Pour la cryptanalyse à base de hardware dédié, il y a eu pas mal de projets de recherche, qui n'ont en majorité pas abouti à une réalisation pratique faute de crédits, nul doutes qu'il n'ont pas été perdus pour tout le monde :-)
voir par exemple http://people.csail.mit.edu/tromer/cryptodev/ pour une liste. Ils sont majoritairement destinés à être utilisés dans les algorithmes de factorisation (problème difficile, à la base de RSA).
# Classement mono-critère
Posté par Cédric Chevalier (site web personnel) . Évalué à 3.
Pour le classement du pays, peut-être, mais LINPACK n'est peut être pas la seule application que l'on souhaite utiliser. Il semble très intéressant d'avoir pas mal d'architectures différentes selon les problèmes à traiter.
On notera que le DOE et les labos affiliés utilisent différentes architectures :
1 - Opteron + Cell (version probablement modifiée du Cell pour calculer en double), les applications devront sûrement être réécrites pour exploiter cette architecture mixte.
2 et 3 Bluegene, necessité de code très hautement scalable.
5, 12 et 15 : Opteron seuls, machines plus passe partout.
(à noter, que le 7 aussi à des relations étroites avec le DOE, mais il est en Intel, normal c'est à côté de l'usine).
Sinon, une autre petite remarque, au sujet de l'omnipresence des Opterons, je pense que le nouveau partenariat Cray-Intel change pas mal de chose pour le futur.
[^] # Re: Classement mono-critère
Posté par patrick_g (site web personnel) . Évalué à 4.
http://www.pcinpact.com/articles/print_d.php?id=128
Il décrit notamment le futur supercalculateur à base de cartes graphiques NVidia.
[^] # Re: Classement mono-critère
Posté par EraZerg . Évalué à 3.
En 2008 la difficulté c'est de faire des flops avec peu de joules. Les joules sont fonction de la finesse de gravure. Nvidia grave en 65nm... Intel en 45 et bientôt en 32....
La course est là. C'est celui qui pourra fondre avec la meilleure finesse gagnera.
Dans ce contexte, Je ne trouve pas judicieux du tout de s'équipper avec toutes ces technos 'accélératrices'.... J'ai bien peur que le commerce l'ai emporté sur la technique.
[^] # Re: Classement mono-critère
Posté par Benjamin Herrenschmidt . Évalué à 3.
Les deux principales differences par rapport a la version presente dans les modeles precedents (QS20 et QS21) et dans la PS3 sont:
- un meilleur support des flottants double precision dans les SPEs (les co-processeurs vectoriels du Cell, les versions precedentent manipulaient les double tout tout tout doucement...)
- support de la RAM "standard" DDR2 au lieu de la RAM XDR speciale de chez Rambus des premiers Cell. (Ce qui signifie des DIMMs remplacables, utile sur un cluster de cette taille qui en as environ 200000, et dont une pete par jour environ. Sur les QS20, QS21 et PS3, les chips de RAM XDR sont soudes).
# Reportage
Posté par Florent Zara (site web personnel, Mastodon) . Évalué à 3.
L'auteur souhaitait initialement en savoir un peu plus et visiter le Tera10 de l'IDRIS. Cependant, celui-ci n'est pas vraiment accessible au commun des mortels, des journalistes et des geeks. Toutefois, l'auteur du reportable a pu rendre visite au petit frère dans le monde civil, situé au CCRT (CEA). Explications accessibles, visite guidée, entretien, pas grand chose ne manque à cet excellent reportage de 16 pages :)
Juste merci :)
[^] # Re: Reportage
Posté par tuiu pol . Évalué à 2.
http://fr.wikipedia.org/wiki/TERA-10 et http://www.journaldunet.com/solutions/0601/diaporama/cea/1.s(...)
# De la première place a la dernière
Posté par Mimoza . Évalué à 2.
# Qualité
Posté par Jeanuel (site web personnel) . Évalué à 4.
Bravo, patrick_g, continue de faire exploser le niveau des news de linuxfr et merci.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.