Le Top 500 de novembre 2009

Posté par (page perso) . Modéré par baud123.
Tags :
34
16
nov.
2009
Technologie
Le trente-quatrième Top 500 des supercalculateurs mondiaux est sorti aujourd'hui à l'occasion de la conférence Supercomputing 2009 qui a lieu à Portland dans l'Oregon. On rappellera que le Top 500 se base sur une soumission volontaire (de nombreuses machines puissantes mais classifiées ne participent pas à la course) et sur un benchmark spécifique (le code Linpack qui concerne la résolution de systèmes d'équations linéaires).

La nouveauté de ce classement est l'arrivée en première place de la machine Jaguar construite par Cray et exploitée par le laboratoire fédéral d'Oak Ridge. Le Roadrunner, première machine au monde à briser la barrière du pétaflops, est détrônée après un règne qui s'est étendu sur trois éditions successives.

Le nombre moyen de cœurs de calcul est maintenant de 9174 alors qu'il n'était que de 8210 il y a six mois et 6240 il y a un an. En terme de puissance agrégée le total se monte maintenant à 27,6 pétaflops (contre 22,6 il y a six mois et 16,9 pétaflops il y a à peine un an). Jaguar est une machine Cray XT-5 qui tourne sous SUSE Linux pour les nœuds de service et sous un noyau Linux minimal (réduit à sa plus simple expression par les ingénieurs de Cray) pour les nœuds de calcul. Ce supercalculateur a fait un bond impressionnant puisqu'il est passé, en performances réelles, de 1,059 pétaflops à 1,759 depuis le classement précédent (2,331 pétaflops en vitesse de pointe théorique). C'est essentiellement le remplacement de ses anciens processeurs AMD quad-cores par des AMD Istambul hexa-cores qui explique cette progression. La machine est un beau bébé qui totalise 224162 cores cadencés à 2,6 GHz et profite de 300 téraoctets de mémoire vive et de 10 pétaoctets d'espace disque. Évidemment il faut alimenter tout ça et vous ne vous en tirerez pas à moins de 7 MW !

À noter un petit fait amusant puisque l'arrivée de Jaguar à la première place du Top 500 est une nouveauté pour la firme Cray. On pourrait penser que cette entreprise emblématique des supercalculateurs avait déjà occupé cette position dans le passé mais en fait cela n'avait jamais été le cas. Le Top 500 existe depuis juin 1993 et si à cette époque Cray détenait une position de leader en nombre de machines (41%), elle n'occupait déjà plus le haut du classement en terme de puissance pure. Maintenant Cray ne représente plus que 3,8% des machines... mais en place deux dans les trois premières places !

Du coté de Roadrunner, qui glisse en seconde position, le score sur le benchmark Linpack utilisé par le classement Top 500 a curieusement régressé en six mois. En juin dernier Roadrunner avait obtenu un score de 1,105 pétaflops alors que le nouveau classement ne lui accorde plus que 1,04 pétaflops. C'est le résultat d'un repartitionnement et surtout d'une optimisation de la machine pour des codes de calculs moins proches de Linpack.

La médaille de bronze revient au supercalculateur Kraken de l'Université du Tennessee avec un score de 831 téraflops. Comme évoqué plus haut c'est encore une machine Cray XT-5. En quatrième position, on trouve la première machine ne se situant pas aux États-Unis d'Amérique. Le supercalculateur Jugene du centre de recherche Jülich en Allemagne n'a raté le podium que de très peu car il atteint 825 téraflops avec son architecture Blue Gene/P d'IBM.

Enfin, grande nouveauté, la cinquième place est occupée par une machine chinoise, le Tianhe-1 du National Super Computer Center à Tianjin. Comme c'est le cas dans beaucoup de pays, ce cluster a été conçu en partie en liaison avec la défense puisque c'est la National University of Defense Technology qui a pris en charge sa construction et son optimisation.
C'est une machine très intéressante puisqu'elle est basée sur le nouveau paradigme qui consiste à associer des cartes graphiques puissantes aux habituels microprocesseurs scalaires. Dans ce cas précis, on a 2560 nœuds de calcul qui contiennent chacun deux processeurs Intel Xeon quadri-cores avec 32 Go de mémoire et une carte ATI Radeon HD 4870×2 (avec deux GPU sur la carte donc). Cet article décrit bien l'architecture générale de Tianhe-1 et on apprend que trois des cœurs de chaque Xeon se consacrent aux calculs alors que le dernier cœur contrôle le travail de la carte graphique (dont la fréquence à été ramenée de 750 MHz à 575 MHz pour des raisons de stabilité... après tout elle a été conçue en priorité pour des joueurs qui n'ont pas les mêmes exigences de fiabilité).
Le supercalculateur chinois atteint 563 téraflops, mais on peut noter que le différentiel entre ce score et la performance théorique de 1206 téraflops est très important. L'aventure du GPGPU ne fait que commencer et les codes de calcul ne sont sans doute pas parfaitement optimisés.

En ce qui concerne les statistiques nationales, les États-unis possèdent 277 des 500 machines du classement. La France reste à 26 machines dans la liste tandis que l'Allemagne est à 27. Le Royaume Uni est toujours loin devant avec 45 machines. La machine française la plus puissante est toujours le Jade (une machine SGI Altix de 128 téraflops qui utilise des Intel Xeon avec un système d'exploitation SUSE Linux Enterprise). Le supercalculateur Jade tombe de la vingtième à la vingt-huitième place.

En terme de fabricants de processeurs, c'est toujours la firme Intel qui domine très largement avec 402 machines dans sa besace (399 il y a six mois). Les architectures de processeurs continuent leur évolution naturelle vers une domination toujours plus écrasante des machines à base de processeurs classiques x86-64 (444 machines en tout contre 436 il y a six mois). Les Itanium n'existent toujours pas (seulement 6 machines) et les Power régressent également (de 55 à 52 machines). Quand le Larrabee d'Intel et le Fermi de NVidia seront disponibles ils sera intéressant de voir s'ils arrivent à changer cette tendance à la monoculture des processeurs classiques (ceux qu'on retrouve dans les serveurs et les machines du grand-public). C'est cette hégémonie que n'a pas réussi à briser le Cell qui ne représente que 6 machines dans le dernier classement.

En ce qui concerne les statistiques par système d'exploitation, la monstrueuse domination des systèmes basés sur le noyau Linux ne se dément pas même si elle ne progresse plus que très lentement. On passe de 88,6% des ordinateurs de la liste à 89,2% (soit de 443 machines à 446). Les machines sous Windows HPC, comme dans le dernier classement, ont un compteur qui reste bloqué à 5 (soit, pour ceux qui sont forts en calcul mental, 1% tout rond).
  • # hégémonie d'Intel et AMD

    Posté par (page perso) . Évalué à 6.

    Merci pour cette dépêche très détaillée et judicieusement commentée.

    Ca fait peur de voir l'énorme place prise par les machines x86_64, le Cell n'a pas décollé depuis le coup de pub fait par le Roadrunner, et les machines POWER disparaissent lentement.

    Je crois bien que l'uniformisation totale est en marche, malheureusement ...
    • [^] # Re: hégémonie d'Intel et AMD

      Posté par . Évalué à 7.

      Je pense que c'est en marche, mais comme toujours dans l'informatique, ça changera .....
      • [^] # Re: hégémonie d'Intel et AMD

        Posté par (page perso) . Évalué à 5.

        Faut aussi se poser la question du pourquoi ?

        J'ai souvent défendu dans ces pages l'idée que c'était peut être un problème de difficulté de programmation : Cell c'est du NUMA à fond et c'est particulièrement compliqué à bien maîtrisé.
        Tarlack, que je connais pour sa compétence, m'avait répondu que non en fait, pas plus que de coder pour du SIMD à la Seuseuseu http://linuxfr.org/comments/1063790.html#1063790

        De plus, il doit bien y avoir quelques compétences qui trainent autour du Cell avec la PS3, mais ça n'a pas pris non plus.

        En fait, ça serait-il pas tout simplement une question de prix ? 200 000 processeurs Intel/AMD coutent moins cher, on a une certitude d'avoir un support, et les ingénieurs de dev coutent surment moins cher car moins rare.

        'fin c'est juste une hypothèse...

        « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

        • [^] # Re: hégémonie d'Intel et AMD

          Posté par . Évalué à 8.

          Cell NUMA ? tu confonds les problèmes là...

          Cell c'est surtout non-cache cohérent, on s'en fout que ca soit NUMA. L'aspect NCC est ce qui rend le Cell compliqué à programmer vu qu'il faut déplacer les données manuellement entre la RAM et le SPU (y a des problèmes similaires entre RAM et GPU d'ailleurs).

          Le "problème" avec les machines NUMA, c'est juste que c'est dur à exploiter *à fond* (il faut faire attention à placer les taches a coté des données qu'elles utilisent). Mais si on ne fait pas l'effort, ca marchera quand même (mais moins vite).

          Il y a plein de machines du Top500 qui sont NUMA, rien de spécifique au Cell. Notamment toutes celles à base d'Opteron (et donc Jaguar) et les nouvelles à base des Xeon Nehalem (et donc à terme l'extrême majorité du Top500).
    • [^] # Re: hégémonie d'Intel et AMD

      Posté par (page perso) . Évalué à 3.

      Il y a pas une place pour les ARM dans ces bêtes? En fait, cette uniformisation est simplement tirée par les prix. Si des noeuds ARM deviennent pas chers (rapport Watt/Calcul/Achat), on y viendra.

      ⚓ À g'Auch TOUTE! http://agauch.online.fr

      • [^] # Re: hégémonie d'Intel et AMD

        Posté par . Évalué à 4.

        C'est possible à condition qu'une boite sorte un CPU avec plein de corp ARM dedans et des gros IOs (bus mémoire et réseau).

        On peut imaginer facilement 16 coeurs ARM avec des gros busses mémoires et quelques liens réseau à 10Gb.

        L'investissement serait tout de même très élevé. La différence de puissance de calcul est aussi forte entre un core arm et un seul core x86 (genre un ordre de grandeur).

        Il reste à avoir un gros rapport mips/watt.

        "La première sécurité est la liberté"

        • [^] # Re: hégémonie d'Intel et AMD

          Posté par (page perso) . Évalué à 6.

          C'est un peu la stratégie de l'architecture Blue Gene d'IBM.
          On prend un processeur embarqué, des PowerPC 450 cadencés à 850 MHz, et on en entasse un maximum pour atteindre la puissance voulue.
          Comme chaque coeur a un très bon ratio entre dépense d'énergie et capacité de calcul on obtient des machines extrêmement efficaces.

          http://en.wikipedia.org/wiki/PowerPC_400#PowerPC_450
          http://fr.wikipedia.org/wiki/Blue_Gene

          Regarde aussi le projet Sequoia qui va exploser tout ce qui existe que ce soit en terme de perfs brutes ou en terme de performances par watt : http://en.wikipedia.org/wiki/IBM_Sequoia
          • [^] # Re: hégémonie d'Intel et AMD

            Posté par (page perso) . Évalué à 7.

            Regarde aussi le projet Sequoia

            Ils ont de l'humour chez IBM "IBM has also built a smaller prototype (...) entered the Top500 list at 9:th place in June 2009."

            Les enfants, c'était juste la version petite, c'était le jouet! :)
            • [^] # Re: hégémonie d'Intel et AMD

              Posté par (page perso) . Évalué à 7.

              Et en plus Dawn (le proto donc) est basé sur la "vieille" architecture BlueGene/P et pas sur la nouvelle BlueGene/Q qu'utilisera Sequoia.
              Moi ce qui m'impressionne c'est vraiment la puissance de calcul par watt.
              Selon cet article http://www.hpcwire.com/features/Lawrence-Livermore-Prepares-(...) :

              Jaguar c'est environ 188 MFLOPS/watt.
              Un BlueGene/P c'est 440 MFLOPS/watt
              Roadrunner avec son architecture si particulière c'est 587 MFLOPS/watt
              Sequoia est prévu pour atteindre 3000 MFLOPS/watt !!!!!!
              • [^] # Re: hégémonie d'Intel et AMD

                Posté par . Évalué à 4.

                Il y aussi Cray qui peut sortir sa nouvelle architecture. Ils ont décider de mettre leur archi vectorielle dans un seul cpu.

                A l'époque, 16 cpu vectoriel avait la puissance de plus de 1000 alpha.

                Cray veut produire un cpu vectoriel qui tient dans un seul chip et en mettre des milliers comme IBM.

                Pour info, un vecteur d'un processeurs vectoriel prend 2048 réel 64 bits d'un coup !

                "La première sécurité est la liberté"

      • [^] # Re: hégémonie d'Intel et AMD

        Posté par . Évalué à 1.

        >Il y a pas une place pour les ARM dans ces bêtes?

        Non je ne pense pas: l'architecture ARM est 32bit, je pense que pour ces bébés c'est *un peu* juste 4GB de RAM..
  • # une fôte

    Posté par (page perso) . Évalué à 5.

    > AMD Istambul exa-cores
    AMD Istambul hexa-cores

    ⚓ À g'Auch TOUTE! http://agauch.online.fr

    • [^] # Re: une fôte

      Posté par . Évalué à 7.

      Ou alors il a vraiment 10^18 cores...
      • [^] # Re: une fôte

        Posté par . Évalué à -1.

        Je n'arrive même pas à me le représenter.

        J'ai l'air con avec mon dual core et mes 8Go de ram maintenant ;-)
    • [^] # Re: une fôte

      Posté par . Évalué à -1.

      Et c'est même « AMD Istanbul hexa-cores », non ?
      • [^] # Re: une fôte

        Posté par . Évalué à 1.

        En français je ne sais pas (à part s/core/coeurs/) mais en américain AMD ne dit pas "hexacore" (dixit cpuid):

        model name : Six-Core AMD Opteron(tm) Processor 8431
        • [^] # Re: une fôte

          Posté par . Évalué à 2.

          Tu t'es trompé de mot je crois (regarde le Ista(m|n)bul)
  • # XtreemOS

    Posté par . Évalué à 3.

    A l'occasion du Supercomputing 2009 :
    XtreemOS était présent au salon.

    Et fera l'objet d'un étude comparative lors de la tournée française de, conférence annuelle de SGI : "HPC et Cloud", dans la thématique "Des systèmes de fichiers aux NAS de 3ème génération" (panorama détaillé des fs parallèles) par Mr Chenot, SGI france. Avec le "cas client" de Météo France.
  • # Statistique

    Posté par (page perso) . Évalué à 2.

    est-ce qu'il y a des stats qui précise le nombre de cpu nécessaire..

    exemple

    no1 prend 35000 cpu x864...

    no 2 prend 20000 cpu sparc...

    le ratio pourrait donc être en faveur du no2...

    www.solutions-norenda.com

    • [^] # Re: Statistique

      Posté par . Évalué à 2.

      Je ne suis pas certain de ce que tu veux dire, mais Linpack est un programme réclamant très peu de communications, donc l'important, c'est la puissance brute de calcul, et pas le nombre de coeurs en lui même. Si tu as un super-ordinateur qui est capable de faire 1 PFLOPS avec un seul processeur, il vaut donc autant que 1000 coeurs à 1 TFLOP.
  • # Et la consommation ?

    Posté par (page perso) . Évalué à 3.

    Il est dommage que le classement ne parle pas plus d'efficacité/consommation électrique.

    Le premier du classement (Cray Jaguar) consomme 3 fois plus que le deuxième (IBM Roadrunner) !
    • [^] # Re: Et la consommation ?

      Posté par (page perso) . Évalué à 5.

      Pour ça, il y a le Green500 (http://green500.org/) qui recense les machines les plus efficaces
      • [^] # Re: Et la consommation ?

        Posté par (page perso) . Évalué à 4.

        C'est rigolo, on ne voit plus intel dans cette liste.

        Envoyé depuis mon lapin.

        • [^] # Re: Et la consommation ?

          Posté par (page perso) . Évalué à 2.

          Il faut aussi regardé le taux d'utilisation des machines. Les clusters Xeon sont très rapidement efficasse pour énormément de programme différent.

          Avoir une machine puissante qui ne sers à rien, c'est pas non plus écologique ;-)
      • [^] # Re: Et la consommation ?

        Posté par (page perso) . Évalué à 2.

        http://green500.org/

        Le piège des parenthèses...
      • [^] # Re: Et la consommation ?

        Posté par . Évalué à 5.

        L'approche est biaisée !

        Un super calculateur qui est un goinfre en énergie mais dont toute l'énergie provient de source renouvelable (à quand les super-calculateurs sous l'équateur) et qui serait super écologique à fabriqué serait exclu de cette liste.
        Inversement
        Un super calculateur qui à pollué 3 rivières à le construire mais qui consomme peanuts sera sur la liste, même si son énergie viens d'une usine au charbon.

        L'approche processeur qui consomme peu est valide pour les machines perso mais je ne vois pas de raisons (autres que politique) à ce que les supercalculateur soient positionnés dans une région venteuse ou ensoleillée (ou thermale...), quel que soit l'endroit d'ou on les utilises.
        Certes beaucoup de super calculateur sont construits par amalgames de processeurs mais ça n'enlève rien au poids de la fabrication qui n'est pas pris en compte ici.

        ennergy efficient != green
        • [^] # Re: Et la consommation ?

          Posté par (page perso) . Évalué à 1.


          L'approche est biaisée !

          Un super calculateur qui est un goinfre en énergie mais dont toute l'énergie provient de source renouvelable (à quand les super-calculateurs sous l'équateur) et qui serait super écologique à fabriqué serait exclu de cette liste.
          Inversement
          Un super calculateur qui à pollué 3 rivières à le construire mais qui consomme peanuts sera sur la liste, même si son énergie viens d'une usine au charbon.

          L'approche processeur qui consomme peu est valide pour les machines perso mais je ne vois pas de raisons (autres que politique) à ce que les supercalculateur soient positionnés dans une région venteuse ou ensoleillée (ou thermale...), quel que soit l'endroit d'ou on les utilises.
          Certes beaucoup de super calculateur sont construits par amalgames de processeurs mais ça n'enlève rien au poids de la fabrication qui n'est pas pris en compte ici.

          ennergy efficient != green


          Le problème, c'est que l'impact d'un calculateur est difficilement mesurable. Si on suit ton raisonnement, il faudrait aussi prendre en compte les gains qu'apporte le calculateur : si il est utilisé pour améliorer l'efficacité de la combustion d'un moteur, est-ce qu'il faudrait prendre en compte la réduction de consommation des moteurs dans le classement ?

          L'approche de green500, même si elle n'est pas parfaite, a déjà le mérite d'exister. Et vu la consommation des super-calculateurs du top500, je trouve que c'est déjà une bonne initiative d'essayer de montrer quelles architectures sont plus energy efficient.
        • [^] # Re: Et la consommation ?

          Posté par (page perso) . Évalué à 5.

          Hein?

          Un super calculateur qui est un goinfre en énergie mais dont toute l'énergie provient de source renouvelable (à quand les super-calculateurs sous l'équateur) et qui serait super écologique à fabriqué serait exclu de cette liste.

          Et c'est très bien ainsi, car on peut alors reprendre alors l'entrée (l'électricité) écolo et la mettre sur le super calculateur pas goinfre en énergie. Ce super calculateur que tu cites reste une pourriture écologique, quelque soit la source d'alimentation, et c'est très bien qu'il ne soit pas sur la liste.

          Un super calculateur qui à pollué 3 rivières à le construire mais qui consomme peanuts sera sur la liste

          Cette partie, OK : il faudrait prendre en compte la pollution de fabrication dans la mesure.

          même si son énergie viens d'une usine au charbon.

          Ce super calculateur sera toujours mieux que le goinfre en énergie alimenté par des usines au charbon.

          ***

          On regarde ce que consomme le calculateur la, pour le faire baisser.
          Après, on regarde comment est produit l'électricité, c'est une autre histoire...

          Il y a un truc de bien avec l'électricité, c'est qu'on peut séparer d'un côté la mesure de qui consomme quoi, et de l'autre qui produit quoi.
          Il n'y a aucune raison de mélanger le consommateur d'électricité et le producteur d'électricité comme tu le fais. Sur la partie construction, elle est indissociable de la machine donc oui il faudrait prendre en compte (mais c'est pas facile à calculer), mais ne pas prendre en compte comment est fabriqué l'énergie dans le calcul, ça se change ça, ce n'est pas spécifique au calculateur.
  • # Mort de l'Itanium en calcul

    Posté par (page perso) . Évalué à 3.

    > Les Itanium n'existent toujours pas

    Dommage car avec l'Itanium, il y avait les très belles machines Altix 4700 de SGI. Un seul OS pour 1024 coeurs, une seule mémoire sur toute la machine, c'est quand même autre chose que les clusters Xeon.

    Mais Intel n'a pas fait évolué son microprocesseur depuis... allons, au moins 3 ans !

    Heureusement, l'architecture NUMA revient avec le x86, on va revoir des belles machines ;-) Enfin, si cela a encore du sens car les gros codes ont bien basculés sur MPI et tournent bien avec l'InfiniBand.

    Il y a des nouvelles des machines vectorielles de chez NEC ?
  • # Jade

    Posté par (page perso) . Évalué à 5.

    A noter que le CINES va devoir lancer un appel d'offre pour doubler Jade. En effet, on voudrait mettre une tranche 2 et doubler la machine SGI mais non, il faut repartir de zéro. Si SGI gagne, Jade doublera et remontera au classement sinon, il y aura deux machines au CINES (mais pas les ingénieurs pour les gérer !). Bref, c'est idiot...

    Surtout lorsqu'on sais que la machine IBM de l'IDRIS a été acheté sans appel d'offre (et peut être même sans cahier des charges ?) ! Cela reste pour moi un mystère cet achat. Je ne comprends toujours pas comment cela a été possible...
    • [^] # Re: Jade

      Posté par . Évalué à 2.

      Il me semble qu'il n'y aura pas d'appel d'offre. La machine devrait être doublée, reste plus qu'à calculer son prochain classement au top500 (et voir où cela place la France).
      • [^] # Re: Jade

        Posté par (page perso) . Évalué à 2.

        La dernière fois que j'ai eu une personne de SGI au tél, on en a parlé et elle m'a dis qu'ils étaient obligé de répondre à un appel d'offre et n'était donc pas du tout sur de gagner. Après cela reste de la conversation téléphonique amicale...
        • [^] # Re: Jade

          Posté par . Évalué à 2.

          Heureusement, sinon SGI pourrait facturer ce qu'ils veulent.

          "La première sécurité est la liberté"

          • [^] # Re: Jade

            Posté par (page perso) . Évalué à 3.

            Quand tu fais bien ton premier appel d'offre, tu peux dès le début prévoir des tranches supplémentaires optionnelles et donner des bornes max à ces tranches. Cela évite de se retrouver totalement coincés par la suite...
  • # Pourquoi l'Europe ne se présente-t-elle pas stats comme 1 ensemble?

    Posté par . Évalué à 3.

    Les Etats-Unis: 277/500 machines (55,4%)
    L'EU des 27: 137/500 machines (27,4%)
    (Austria 8, Belgium 1, Bulgaria 1, Finland 2, France 26, Germany 27, Ireland 1, Italy 6, Netherlands 3, Poland 3, Slovenia 1, Spain 6, Sweden 7, United Kingdom 45)

    Ca relativise quand même les choses non?
    Et on pourrait encore voir l'Europe avec: Norway 2, Russia 8, Switzerland 5
    Soit 152/500 machines (30,4%)

    Il faudrait quand même commencer à penser Europe que petit, pays par petit - Je suis belge, c'est dire.
    • [^] # Re: Pourquoi l'Europe ne se présente-t-elle pas stats comme 1 ensemble?

      Posté par (page perso) . Évalué à 2.

      La Suisse est déjà dans l'UE donc la compter est logique (La Suisse a ratifié tout un tas de traité avec l'UE dont Schengen et l'Euro est accepté à ma connaissance partout, son rattachement officiel est donc surtout une affaire plus psychologique que pratique).

      Pour la Russie, sous sa géographie actuelle, ne sera jamais dans l'UE ou alors, cela ne sera plus l'UE !

      Sinon, c'est exactement ce que je disais à mon collègue, l'UE est loin devant avec les USA ;-)
      • [^] # Re: Pourquoi l'Europe ne se présente-t-elle pas stats comme 1 ensemble?

        Posté par . Évalué à 1.

        d'après tes comptes, le nombre de machines des US reste plus important que celui de l'Europe (avec les pays "râleurs" comme la Suisse et quelques autres...).
        Donc, non les US reste le pays le plus équipé en hpc. Ce qui peut paraître normal, il ne faut pas oublier que le hpc cela vient de là bas (IBM, SUN, SGI, CRAY, HP j'en passe et des meilleures).
        A part le constructeur national (Bull), en dehors de quelques constructeurs de machines vectorielles (technologie qui n'a plus grand avenir), l'essentiel des constructeurs se trouve au US (d'où facilités, marchés réservés ...).
    • [^] # Re: Pourquoi l'Europe ne se présente-t-elle pas stats comme 1 ensemble?

      Posté par (page perso) . Évalué à 1.

      Pourquoi l'Europe ne se présente-t-elle pas stats comme 1 ensemble?

      Tout bêtement parce que les dirigeants ne veulent pas perdre leurs petits pouvoirs, et la population européenne veut vivre ensemble, mais chacun avec ses règles (oui, drôle de définition de vivre ensemble...). Tu as vu comment le traité de Lisbonne, qui ne modifiait pas grand chose (relativement) côté souveraineté nationale, a eu du mal à passer, avec des oppositions de partout (anti contre pro-fédérale, anti contre pro-économie de marché etc...), il n'est pas encore question pour la population d'accepter de donner plus à l'UE afin qu'elle puisse faire comme les USA : avoir une seule voix dans les instances internationales.

      Il faudrait quand même commencer à penser Europe que petit, pays par petit - Je suis belge, c'est dire.

      De la part d'un habitant d'un petit pays qui veut se diviser encore plus, cette remarque fait sourire. Les belges ont autant d'humour que les grand-bretons (cf T. Blair président de l'UE)
  • # Conjecture de Moore ?

    Posté par (page perso) . Évalué à 3.

    > Le nombre moyen de cœurs de calcul est maintenant de 9174 alors qu'il n'était que de 8210 il y a six mois et 6240 il y a un an. En terme de puissance agrégée le total se monte maintenant à 27,6 pétaflops (contre 22,6 il y a six mois et 16,9 pétaflops il y a à peine un an).

    Sauf erreur de calcul, cela fait un facteur d'augmentation du nombre de coeurs de 2,20 sur 18 mois, et de 2,45 pour la puissance, soit plus que la conjecture de Moore qui prévoie un facteur 2 (sensée subir un ralentissement depuis 2004 cf http://fr.wikipedia.org/wiki/Loi_de_Moore ).

    Hypothèses :
    - interpoler sur 2 points c'est limite
    - la conjecture est fausse (Moore ne connaissait pas le multicoeur, le multithreading, etc.)
    - beaucoup de supercalculateurs ont été déclarés et n'apparaissaient pas dans les stats précédentes bien qu'existants déjà.
    - erreur de calcul de ma part
    - complot d'extraterrestres
    ...
    • [^] # Re: Conjecture de Moore ?

      Posté par . Évalué à 1.

      Le loi de moore, c'est le nombre de transistors par unité de surface, pas la puissance ni le nombre de coeurs.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.