Un top 500 sous le signe du pétaflops

Posté par (page perso) . Modéré par Nÿco.
Tags :
1
18
juin
2008
Technologie
Le 31ème top 500 des supercalculateurs mondiaux est sorti aujourd'hui à l'occasion de l'International Supercomputing Conference qui a lieu à Dresde en Allemagne.

Bien entendu la grande nouvelle de ce classement est le franchissement, pour la première fois, de la barre du pétaFLOPS par le superordinateur Roadrunner (qui coûte la bagatelle de 133 millions de dollars tout compris).
Après le gigaflops atteint en 1986 par le Cray 2, après le téraflops atteint en 1997 par Asci Red, voici un nouveau seuil symbolique qui est atteint. Le classement précédent est donc bouleversé puisque le détenteur du titre, le superordinateur BlueGene/L d'IBM, est détrôné. Les ingénieurs d'IBM, avec le nouveau concept qui est à la base de Roadrunner et qui a été décrit dans une dépêche précédente, ont réussi à innover une fois de plus et à dépasser pour la première fois le cap du pétaflops sur le code de calcul LINPACK.
IBM propose donc désormais deux architectures très différentes pour ses superordinateurs : L'une, BlueGene, est basée sur un très grand nombre de petits processeurs économes issus de l'embarqué et l'autre, Roadrunner, est une architecture hybride à base d'Opteron et de processeurs Cell.
La puissance du numéro un du top500 est passée de 478 à 1026 téraflops...soit plus de 114% d'augmentation en six mois !

En seconde place, on trouve un modèle BlueGene/L qui culmine à 478 téraflops au test LINPACK et en troisième place un BlueGene/P de 450 téraflops. L'entreprise IBM truste donc les trois première places du Top500 et il faut aller jusqu'à la quatrième position pour trouver la machine Ranger de Sun, qui est un très classique cluster d'Opterons, avec une puissance de 326 téraflops.
La première machine non étasunienne est le supercalculateur allemand JUGENE (encore un BlueGene/P) en sixième position alors qu'il était numéro deux il y a six mois. Passer de 167 à 180 téraflops n'a donc pas suffit pour maintenir sa position. La France passe d'une peu glorieuse dix-neuvième place à la neuvième place de ce nouveau classement avec la machine 112 téraflops de l'IDRIS. Sans vouloir faire de peine à Bull on peut constater que le passage à une architecture BlueGene/P a été bénéfique pour le classement du pays.
À noter une sorte d'anomalie en position dix du classement. Alors que les neuf premiers sont des supercalculateurs exploités par des laboratoires de recherche, on trouve en dixième place une machine SGI Altix de 106 téraflops qui est la propriété de la firme pétrolière française Total. On voit que la flambée des cours du pétrole et l'inéluctable pic de production à venir provoque une activité frénétique de prospection de la part de ces richissimes entreprises pétrolières. Les superordinateurs peuvent analyser les échos sismiques lors des activités de recherche et ils sont donc devenus pour ces firmes des outils indispensables.
En ce qui concerne la puissance cumulée des 500 machines du classement, elle passe de 6,97 à 11,7 pétaflops en six mois (67,8% d'augmentation).

Dans le domaine des systèmes d'exploitation Linux reste au même niveau (427 machines au lieu de 423 il y a six mois). Cela représente plus de 85% du top 500 et l'OS libre continue donc de régner presque sans partage sur le Top500.
Windows passe de 6 machines à 5 (1% donc) et les Unix propriétaires continuent leur descente en enfer avec un passage de 30 machines à 25.

En ce qui concerne les statistiques continentales, l'Europe continue de progresser et passe de 30% à 36,8% des machines en six mois. Le continent américain continue doucement sa descente vers une part plus "normale" des machines puisqu'il passe de 57.4% à 52%.
Si on regarde maintenant le classement par pays on constate que les USA voient leur domination se réduire peu à peu (passage de 283 à 257 machines). Même s'ils continuent d'abriter plus de la moitié des 500 machine les plus puissantes du monde on peut parier sans trop prendre de risque que ce ne sera plus le cas dès le prochain classement de novembre 2008.
Le deuxième pays est toujours le Royaume-uni qui abrite 53 machines (10,6%) puis l'Allemagne avec 46 machines (9,2%). La France passe de la quatrième place à la troisième en doublant le Japon (34 machines contre 22). Ce qui est surtout remarquable, c'est le passage de 17 machines à 34 pour la France en à peine six mois. Le rattrapage est donc brutal et la prise de conscience du retard de la France lors des derniers classements a provoqué un sursaut salvateur chez les responsables scientifiques et politiques.

Enfin, une nouveauté de ce 31ème classement Top500 : Pour la première fois une mesure de la consommation des machines est indiquée. En moyenne les dix machines les plus puissantes consomment 1,32 mégawatts (ce qui donne une efficacité de 248 mégaflops par Watt) et, sur le classement global des 500 machines, on a une moyenne de 257 kilowatts par machine (ce qui donne une efficacité de 122 Mégaflops par Watt). Il est intéressant de constater que les gros supercalculateurs en tête du classement ont une excellente efficacité énergétique (plus du double de la moyenne du classement).

Plusieurs résumés analytiques de toutes les nouveautés de ce top500 sont disponibles et un graphique résumant la progression de la puissance est visible sur cette page. On distingue très bien la progression en marche d'escalier du numéro un (une même machine reste souvent en tête pendant plusieurs éditions) et les progressions très prévisibles de la puissance cumulée et de la puissance du dernier de la liste. En dépit de l'échelle logarithmique on voit que les machines se placent proprement sur la ligne et ce depuis plus de 15 ans !
  • # Marrant les dates...

    Posté par (page perso) . Évalué à 10.

    Gigaflops > 1986
    Teraflops > 1997
    Pétaflops > 2008
    Marrant les périodes de 11 ans... Il faut attendre le exaflops pour 2019 ?
    • [^] # Re: Marrant les dates...

      Posté par (page perso) . Évalué à 2.

      A voir. On commence à avoir des problèmes niveau gravure des processeurs.
      Bien qu'à mon avis des machines utilisant des GPU vont petit à petit s'installer. Le fait qu'on utilise le Cell en est symptomatique.

      « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

      • [^] # Re: Marrant les dates...

        Posté par . Évalué à 7.

        On commence à avoir des problèmes niveau gravure des processeurs

        On entendait déjà cette remarque il y a dix ans... mais où sera la limite ?
        • [^] # Re: Marrant les dates...

          Posté par (page perso) . Évalué à 10.

          mais où sera la limite ?

          Dans Ton CPU ? :D
        • [^] # Re: Marrant les dates...

          Posté par . Évalué à 2.

          Uhm, il y a quand même une grande différence entre maintenant et il y a 10 ans c'est que la course a la fréquence est morte a cause de la puissance consommée.

          Pour ce qui est de la gravure, ce qui me fait le plus peur ce n'est pas la technique mais l'état d'AMD: ça fait des années qu'ils sont en déficit et leur offre actuelle est en deçà de celle d'Intel, donc Intel risque de relâcher la pression..
          • [^] # Re: Marrant les dates...

            Posté par . Évalué à 5.

            Perso, je préfèrerais voir Intel se relâcher un peu dans les prochains mois et AMD les prendre par surprise et voir la concurrence se remettre en route un peu durablement que de voir Intel continuer à enfoncer le clou et se retrouver seul en piste dans deux ans pour démarrer une nouvelle ère de stagnation.
          • [^] # Re: Marrant les dates...

            Posté par . Évalué à 2.

            Uhm, il y a quand même une grande différence entre maintenant et il y a 10 ans c'est que la course a la fréquence est morte a cause de la puissance consommée.

            Cette remarque concerne plutôt les particuliers ou les PME. Les supercalculateurs ne sont pas sur le même marché, même si les grandes entreprises ne sont pas insensibles à l'aspect énergie (mais on peut déplorer qu'elles le soient encore trop).
            • [^] # Re: Marrant les dates...

              Posté par (page perso) . Évalué à 2.

              Et tu le refroidis comment ton calculateur ? L'aspect énergie est maintenant la clé de la conception d'un calculateur, mais pas forcément pour une raison de coût (bien qu'avec la hausse de l'électricité aux USA, ce critère a des chances de devenir de plus en plus un bon argument marketing).
      • [^] # Né de la dernière pluie

        Posté par (page perso) . Évalué à 8.

        On commence à avoir des problèmes niveau gravure des processeurs.
        ... ça ne fait que 35 ans qu'on entends ce refrain ... :-)
    • [^] # Re: Marrant les dates...

      Posté par . Évalué à 4.

      Ça n'aurait pas un rapport avec la loi de Moore par hasard?
      • [^] # Re: Marrant les dates...

        Posté par . Évalué à 4.

        Genre 2^10=1024

        Et pour 11, c'est le retard pour que les gens sortent le nouveau modèle :-)
        • [^] # Re: Marrant les dates...

          Posté par (page perso) . Évalué à 4.

          On ne double pas tout à fait : 1.8738 ^ 11 = 1000
          Alors, j'en déduis que la constante de Moore est 1.8738 et non 2 comme on l'avait longtemps cru !
          • [^] # Re: Marrant les dates...

            Posté par (page perso) . Évalué à 5.

            Arf, de toute façon, Moore parlait du nombre de transistors sur le cpu, pas de la puissance de calcul ; et si les deux étaient proportionnels, ce serait trop facile !! ( cf : pb de dissipation, architecture pipe, multicore sous-exploité ...)

            Bon, j'avoue ... la loi de Moore à toujours été réinterprété à la faveur de celui qui tient le clavier ;-) En revanche, il me semble que l'interval de temps était de 18 mois, ce qui donne finalement une constante très proche de 1, si je sais encore calculé à cette heure ;-)

            Adhérer à l'April, ça vous tente ?

            • [^] # Re: Marrant les dates...

              Posté par . Évalué à 1.

              Loi_de_moore

              À priori il n'y a jamais eu d'intervalle de 18 mois dans la loi de Moore, contrairement à ce que tout le monde croit.
              • [^] # Re: Marrant les dates...

                Posté par . Évalué à 2.

                T’es trop fort, toi.
                Citation du lien que tu donnes :
                « Constatant que la complexité des semiconducteurs proposés en entrée de gamme doublait tous les dix-huit mois à coût constant depuis 1959 »
                • [^] # Re: Marrant les dates...

                  Posté par . Évalué à 2.

                  Autre citation : Leur seul point commun est donc ce nombre de dix-huit mois, qu'on ne trouve pourtant dans aucun des deux énoncés de Moore.

                  J'irai pas chercher plus loin ;)
    • [^] # Re: Marrant les dates...

      Posté par . Évalué à 3.

      Les supercalculateurs font l'objet d'un long et excellent reportage dans les premières pages de Linux Magazine (GLMF). L'article y parle de l'emprise (du côté clair, bien sûr) de GNU/Linux sur les supercalculateurs mais surtout du CEA (Commissariat a l'Energie Atomique). C'est absolument passionant.

      Par ailleurs, ne doit-on pas retirer l'accent aigu de Peta, puisqu'il s'agit d'un préfixe grec? Oui, je sais, je suis sans doute toujours à l'ancienne orthographe; c'est comme avec le franc belge ou les anciens francs français ;-)
  • # recherche académique et recherche privée

    Posté par (page perso) . Évalué à 8.

    Alors que les neuf premiers sont des supercalculateurs exploités par des laboratoires de recherche, on trouve en dixième place une machine SGI Altix de 106 téraflops qui est la propriété de la firme pétrolière française Total.
    Je trouve la tournure de cette phrase (et la suite) pas forcément adroite et en plus fausse.

    Fausse, parce que le supercalculateur numéro 8 du classement est attribué à une industrie http://www.top500.org/site/2838

    Maladroite parce que la tournure laisse supposer que Total ne ferait pas de recherche ce qui n'est évidemment pas vrai. De plus il est écrit que les 9 premiers supercalculateurs sont EXPLOITES et que le dixième est LA PROPRIETE de Total. Bref une comparaison qu'on peut trouver un peu tendancieuse.

    Il ne faut pas oublier que la structure de la recherche n'est pas la même en France et aux USA. La coopération entre la recherche académique et privée est plus importante là bas.

    Je crois qu'il faut se réjouir d'avoir une entreprise qui possède un supercalculateur.
    • [^] # Re: recherche académique et recherche privée

      Posté par . Évalué à -3.

      oh oui, quelle réjouissance !
    • [^] # Re: recherche académique et recherche privée

      Posté par (page perso) . Évalué à 3.

      >>> Je trouve la tournure de cette phrase (et la suite) pas forcément adroite et en plus fausse.

      La phrase sur Total est le reflet de celle-ci se trouvant dans le document analytique du site du Top 500 :

      The last new system in the TOP10 – at No. 10 – is also a SGI Altix ICE 8200 system. It is the biggest system installed at an industrial customer, Total Exploration Production.

      >>> la tournure laisse supposer que Total ne ferait pas de recherche ce qui n'est évidemment pas vrai.

      Tu a raison mais je faisais la différence entre la recherche académique ou se déroulant dans des laboratoires de défense nationaux (à la DOE) et la recherche industrielle appliquée (à la Total).

      >>> Je crois qu'il faut se réjouir d'avoir une entreprise qui possède un supercalculateur.

      Bien entendu. Je n'ai jamais dit le contraire. Mais il faut être conscient que l'exploitation de ces machines se fait en vue d'un intérêt purement privée alors que les autres supercalculateurs sont consacrés à la recherche publique ou aux simulations militaires.
    • [^] # Re: recherche académique et recherche privée

      Posté par (page perso) . Évalué à 9.

      Il faudrait que tu expliques le concept "d'avoir une entreprise".
      si tu entends que la France possède,je crains que tu ne fasses fausse route.
      L'état à peut être quelques actions, mais au final Total appartient à ses actionnaires.
      Les multinationales n'ont pas de nationalité. Elles ont des intérêts.
  • # FLOPS ?

    Posté par . Évalué à 2.

    Et quid des performances de ces petites bébêtes en calcul entier ?
    Y a-t-il un simple coefficient pour passer de l'un à l'autre, peut-on supposer que c'est sensiblement la même chose, ou bien peut-on directement utiliser les indications de fréquences ?

    est-ce totalement inintéressant ? (je pensais aux maths pures (théorie des groupes, algèbre polynômiale) et à l'informatique fondamentale).
    • [^] # Re: FLOPS ?

      Posté par . Évalué à 2.

      Pour avoir un ordre d'idée : combien il faut pour casser une clé RSA 56 bits sur un pc de bureau ordinaire ? Sur ce genre de truc ? Une clé 512 ? Une clé 2048 ?
      Si qqn à un ordre de grandeur, ça m'aiderait à representer le gap
      • [^] # Re: FLOPS ?

        Posté par . Évalué à 7.

        voir par exemple http://fr.wikipedia.org/wiki/Nombre_RSA pour les records "homologués" actuels, quelques temps de calcul sont sur la page anglaise http://en.wikipedia.org/wiki/RSA_number
        En gros :
        330 bits ça se fait sur un PC de bureau en une dizaine d'heures.
        463 ça a été fait en 2000 MIPS-year (c'est-à-dire 2000 ans de calcul à raison d'un million d'instruction par seconde, mais un peu comme les FLOPS ça dépend et des architectures et de la nature du code, c'est une estimation en vitesse de pointe. Doit-on considérer qu'un processeur à quelques GHz actuel fait 1000 MIPS ou pas, telle est la question).
        512 en plus ou moins 8000 MIPS-year
        le dernier record de type RSA fait 576 bits.



        Pour des nombres moins difficiles que des nombres RSA, le dernier record est la factorisation de 2^1039 -1 (soit 1038 bits) par Aoki, Franke, Kleinjung, Lenstra et Osvik en (ordre de grandeur, différentes phases remises à l'échelle par les auteurs qui ont utilisé divers PC et clusters) :
        95 années de Pentium-D à 3 GHz (plus ou moins équivalent à 100 années de Athlon64/opteron 2.2GHz)
        plus 69 heures sur 113 Pentium-D
        plus 59 jours sur 110 Pentium-D (ou de façon équivalente 162 jours sur 32 Core2Duo) (architecture : cluster de 110 Pentium-D et 36 Core2Duo, Ethernet Gbit)
        voir http://www.loria.fr/~zimmerma/records/21039- pour les détails.
        En gros, ça fait plus ou moins 110 ans de Pentium-D.


        Pour un nombre sans structure (pour lequel des algorithmes spécifique, type pollard rho ne marchent pas), l'algorithme de factorisation le meilleur connu fonctionne avec une complexité heuristique sous-exponentielle (en gros une certaine puissance de la racine cubique du nombre à factoriser, multiplié par le nombre de chiffres binaires à la puissance 2/3). http://en.wikipedia.org/wiki/General_number_field_sieve
      • [^] # Re: FLOPS ?

        Posté par (page perso) . Évalué à 1.

        J'imagine que la NSA s'est fait faire des processeurs sur mesure, genre un ASIC avec 500 millions de transistors, avec plein de diviseurs pouvant bosser en parallèle dessus.

        On en mettant quelques centaines, ça peut être équivalent à plusieurs dizaine de milieu d'Intel ou AMD.

        C'est couteux en cycle une division.

        « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

        • [^] # Re: FLOPS ?

          Posté par . Évalué à 8.

          imaginons que la clef fasse k bits, pour factoriser le nombre en force brute il faut 2^(k/2) divisions. Il faut donc un pouvoir faire 2^(k/2) divisions de grands entiers par secondes par exemple, pour être capable de factoriser un nombre de k bits en une seconde.

          Maintenant, si on ajoute deux bits à la taille de la clef : k -> k + 2, avec 2^(k/2) divisions par seconde il faut maintenant 2 secondes pour factoriser le nombre. Autrement dit, le temps de calcul a été multiplié par 2 en simplement ajoutant 2 bits à la clef !

          Donc quand on ajoute 100 bits à la clef (1024 bits -> 1124 bits), le temps de calcul est multiplié par 2^100.

          Et encore, le calcul suppose qu'on sache faire des divisions sur des entiers de taille moitié de celle de la clef même quand on en augmente la taille.

          Conclusion :
          Pour le cryptographe :
          Il faut avoir une idée d'un temps de calcul minimal pour une division, et adapter la taille de clef en conséquence (en étant farouchement paranoïaque, voir paragraphe suivant). Mais la progression exponentielle assure qu'on pourra garder des clefs de taille raisonnable (mais déjà augmenter leur taille peut-être pénible si il utilise aussi du matériel dédié. Qui a dit cartes à puces ? :-). De plus, il faut espérer que l'adversaire n'utilise pas de technique plus évoluée.
          Pour le cryptanalyste :
          Ça marchera très bien pour casser des clefs trop petites, par exemple sur des documents anciens dont les clefs étaient trop petite par rapport aux capacités actuelles (bon, il faut aussi que le document en vaille la peine, s'il est trop vieux, il n'est pas forcément intéressant).
          Il faut trouver des algorithmes qui marchent plus vite (supprimer la croissance exponentielle du temps de calcul par rapport à la longueur de la clef), et recycler l'idée de l'ASIC là où les nouveaux algorithmes de factorisation prennent le plus de temps si exécutés sur un ordinateur normal.

          En pratique, le goulot d'étranglement dans la plupart des algorithmes de factorisation est dans une phase d'algèbre linéaire (trouver des relations entre des vecteurs), non aisément parallélisable.
          • [^] # Re: FLOPS ?

            Posté par . Évalué à 4.

            d'ailleurs petite erreur, comme précisé, c'est bien ajouter 200 bits à la clef qui donne un temps de calcul multiplié par 2^100. Ajouter 100 bits le multiplie par 2^50.

            Mais les lecteurs attentifs auront rectifiés d'eux-même :-)
  • # Et la NSA ?

    Posté par . Évalué à 3.

    J'ai souvent entendu dire que la NSA possède la plus grande concentration de super calculateurs du monde (à Fort Meade). Mais je n'ai jamais vu mention de l'un des leur dans le top 500 ?

    Ils ne participent pas ?

    Les logiciels sous licence GPL forcent leurs utilisateurs à respecter la GPL (et oui, l'eau, ça mouille).

    • [^] # Re: Et la NSA ?

      Posté par (page perso) . Évalué à 5.

      >>> Ils ne participent pas ?

      Ils sont muets comme des tombes. Mais bon ils ont tellement d'argent que je les soupçonne d'avoir des machines à base de fpga ou d'asic adaptés à leurs problèmes plutôt que d'utiliser des CPU classiques.
      • [^] # Re: Et la NSA ?

        Posté par . Évalué à 2.

        On comprend que leur capacité de calcul soit une donnée ultra-sensible pour eux : elle permet d'avoir une meilleure estimation de leur facilité à décrypter des messages. Ceci donne une meilleure idée des tailles de clefs à choisir pour s'assurer de la confidentialité des messages.

        Pour la cryptanalyse à base de hardware dédié, il y a eu pas mal de projets de recherche, qui n'ont en majorité pas abouti à une réalisation pratique faute de crédits, nul doutes qu'il n'ont pas été perdus pour tout le monde :-)

        voir par exemple http://people.csail.mit.edu/tromer/cryptodev/ pour une liste. Ils sont majoritairement destinés à être utilisés dans les algorithmes de factorisation (problème difficile, à la base de RSA).
  • # Classement mono-critère

    Posté par (page perso) . Évalué à 3.

    Sans vouloir faire de peine à Bull on peut constater que le passage à une architecture BlueGene/P a été bénéfique pour le classement du pays.

    Pour le classement du pays, peut-être, mais LINPACK n'est peut être pas la seule application que l'on souhaite utiliser. Il semble très intéressant d'avoir pas mal d'architectures différentes selon les problèmes à traiter.
    On notera que le DOE et les labos affiliés utilisent différentes architectures :
    1 - Opteron + Cell (version probablement modifiée du Cell pour calculer en double), les applications devront sûrement être réécrites pour exploiter cette architecture mixte.
    2 et 3 Bluegene, necessité de code très hautement scalable.
    5, 12 et 15 : Opteron seuls, machines plus passe partout.
    (à noter, que le 7 aussi à des relations étroites avec le DOE, mais il est en Intel, normal c'est à côté de l'usine).

    Sinon, une autre petite remarque, au sujet de l'omnipresence des Opterons, je pense que le nouveau partenariat Cray-Intel change pas mal de chose pour le futur.
    • [^] # Re: Classement mono-critère

      Posté par (page perso) . Évalué à 4.

      En ce qui concerne la diversité des architectures une excellente interview du responsable du GENCI (Grand Equipement National de Calcul Intensif) :
      http://www.pcinpact.com/articles/print_d.php?id=128

      Il décrit notamment le futur supercalculateur à base de cartes graphiques NVidia.
      • [^] # Re: Classement mono-critère

        Posté par . Évalué à 3.

        les accélérateurs c'est bien gentil, mais faut pas oublier que la magie noire ça n'existe pas.

        En 2008 la difficulté c'est de faire des flops avec peu de joules. Les joules sont fonction de la finesse de gravure. Nvidia grave en 65nm... Intel en 45 et bientôt en 32....

        La course est là. C'est celui qui pourra fondre avec la meilleure finesse gagnera.

        Dans ce contexte, Je ne trouve pas judicieux du tout de s'équipper avec toutes ces technos 'accélératrices'.... J'ai bien peur que le commerce l'ai emporté sur la technique.
    • [^] # Re: Classement mono-critère

      Posté par . Évalué à 3.

      Je confirme, les Cell blades "QS22" utilisees pour RoadRunner utilisent une version legerement modifiee du processeur "Cell B.E.".

      Les deux principales differences par rapport a la version presente dans les modeles precedents (QS20 et QS21) et dans la PS3 sont:

      - un meilleur support des flottants double precision dans les SPEs (les co-processeurs vectoriels du Cell, les versions precedentent manipulaient les double tout tout tout doucement...)

      - support de la RAM "standard" DDR2 au lieu de la RAM XDR speciale de chez Rambus des premiers Cell. (Ce qui signifie des DIMMs remplacables, utile sur un cluster de cette taille qui en as environ 200000, et dont une pete par jour environ. Sur les QS20, QS21 et PS3, les chips de RAM XDR sont soudes).
  • # Reportage

    Posté par (page perso) . Évalué à 3.

    Pour ceux que le sujet intéresse et qui souhaitent comprendre un peu mieux le fonctionnement aussi bien que l'utilisation qui est faite au quotidienne de ces super-calculateurs, je ne peux que leur recommander la lecture du reportage (que je viens juste de terminer) sur le sujet dans le dernier Linux Mag hors-série consacré aux serveurs dédiés : http://www.gnulinuxmag.com/index.php?2008/06/12/84-gnu-linux(...)

    L'auteur souhaitait initialement en savoir un peu plus et visiter le Tera10 de l'IDRIS. Cependant, celui-ci n'est pas vraiment accessible au commun des mortels, des journalistes et des geeks. Toutefois, l'auteur du reportable a pu rendre visite au petit frère dans le monde civil, situé au CCRT (CEA). Explications accessibles, visite guidée, entretien, pas grand chose ne manque à cet excellent reportage de 16 pages :)

    Juste merci :)
  • # De la première place a la dernière

    Posté par . Évalué à 2.

    Sur le graphique d'évolution il est intérréssant de voir que entre la première machine et la dernière du classement mois de 10 années d'évolution les sépares ... la puissance de la première machine sera equivalente à la dernière moins de 10 ans après. Donc pour rester dans la course il faut bien prévoir les évolution futur du calculateur ou prevoir la construction d'un nouveau TRES régulièrement.
  • # Qualité

    Posté par (page perso) . Évalué à 4.

    Je constate que personne n'a encore félicité patrick_g pour la qualité comme toujours exemplaire de sa news.

    Bravo, patrick_g, continue de faire exploser le niveau des news de linuxfr et merci.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.