Le Top 500 de novembre 2013

Posté par  (site web personnel) . Édité par Davy Defaud et palm123. Modéré par claudex. Licence CC By‑SA.
Étiquettes :
40
18
nov.
2013
Technologie

Le quarante‐deuxième Top 500 des supercalculateurs mondiaux est sorti aujourd’hui à l’occasion de la conférence Supercomputing SC13 de Denver (Colorado).

Rappelons que le Top 500 se base sur une soumission volontaire (de nombreuses machines puissantes mais classifiées ne participent pas à la course) et sur un comparateur de performances spécifique extrêmement parallélisable (le code LINPACK, qui concerne la résolution de systèmes d’équations linéaires).

L’analyse dans la suite de la dépêche.

Stabilité ou stagnation ?

Cette liste de novembre 2013 est placée sous le signe de la stabilité en tête du classement, puisque les cinq premiers ne changent pas et que leurs scores respectifs restent identiques.
La machine chinoise Tianhe-2 reste en tête avec un score de 33,86 pétaFLOPS. Cette puissance de calcul est obtenue à l’aide de 16 000 nœuds de calcul. Chacun de ces nœuds est constitué de deux processeurs Intel Xeon à douze cœurs cadencés à 2,2 GHz, ainsi que de trois cartes accélératrices Intel Xeon Phi ayant chacune 57 cœurs de calcul à 1,2 GHz.
En seconde position, on retrouve le supercalculateur Titan du laboratoire d’Oak Ridge. Le score obtenu est de 17,59 pétaFLOPS, avec une excellente efficacité énergétique (consommation de 8,21 MW, ce qui équivaut à 2,1 GFLOPS/W).
Enfin, la médaille de bronze reste la propriété du laboratoire Lawrence Livermore, avec le calculateur Sequoia (un modèle IBM BlueGene/Q). Son score ne bouge pas avec 17,17 pétaFLOPS et 1 572 864 cœurs de calcul PowerPC cadencés à 1,6 GHz.

Viennent ensuite le K Computer japonais et ses processeurs Fujitsu SPARC64 VIIIfx (10,5 pétaFLOPS), suivi par le calculateur Mira, encore un BlueGene/Q, à 8,5 pétaFLOPS.

Il est à noter que le monde du calcul haute performance semble prendre du retard par rapport à la feuille de route qui avait été fixée il y a quelques années. Alors qu’il était question de franchir la barrière symbolique de l’exaFLOPS en 2018, c’est maintenant l’année 2020 qui est évoquée.
La clé sera l’efficacité énergétique des machines qui va devoir progresser de façon importante (voir ce dossier de HPC magazine).

Les autres machines

Il faut attendre la sixième place pour trouver une nouveauté, le calculateur suisse Piz Daint installé au CSCS (Centro Svizzero di Calcolo Scientifico) de Lugano.
Il s’agit d’un Cray XC30 ayant obtenu 6,27 pétaFLOPS lors de son test LINPACK. Cette machine possède une architecture hybride, puisque les 5 272 Intel Xeon E5-2670 à 8 cœurs sont renforcés par 73 808 cartes NVIDIA K20x.
La machine Piz Daint fixe un nouveau record d’efficacité énergétique, puisqu’elle ne consomme que 2,33 MW au total, soit 2,7 GFLOPS/W. Elle devient également la plus puissante machine d’Europe.
Le vieux continent ne s’en tire pas trop mal, puisqu’il place encore deux machines dans le top 10 : les calculateurs allemands JUQEEN et SuperMUC sont respectivement huitième et dixième, avec 4,29 et 2,9 pétaFLOPS.

Statistiques sur la liste

Le ticket d’entrée pour accéder à cette liste Top 500 de novembre 2013 est de 117,8 TFLOPS. Il était de seulement 96,6 TFLOPS il y a six mois.
Si l’on s’intéresse à la puissance cumulée des 500 machines, on arrive à un total de 250 pétaFLOPS. Là encore, l’évolution est notable, puisque le score cumulé était de 230 pétaFLOPS en juin dernier, et de 162 pétaFLOPS il y a un an.
On trouve maintenant trente‐et‐un supercalculateurs à plus d’un pétaFLOPS dans la liste, alors qu’ils n’étaient que vingt‐six il y à six mois.

L’évolution par pays

Les trois machines européennes dans le top 10 masquent en partie un déclin du vieux continent, qui passe de 112 machines il y a six mois, à seulement 102 dans le nouveau classement. Ce sont les États‐Unis qui renforcent leur position en passant de 264 machines (52,8 %) à 277 (55,4 %).
Il semble que l’Asie (et en particulier la Chine) ait atteint un plateau aux alentours de 120 calculateurs. On ne retrouve plus la croissance effrénée qui avait caractérisé ces dernières années.
La première machine française est toujours le calculateur Pangea, propriété de la firme Total, avec un score de 2 098 TFLOPS. Il passe de la onzième à la quatorzième place dans ce nouveau classement.
Au sein de l’Union européenne, la France (22 machines) se classe entre la Grande‐Bretagne (23 machines) et l’Allemagne (20 machines).

Les systèmes d’exploitation : un one OS show !

Pour finir, penchons nous maintenant sur la répartition par système d’exploitation, afin de voir si la domination écrasante de GNU/Linux se maintient dans ce nouveau classement.
Et la réponse est… oui ! Elle s’accentue même, puisque les calculateurs du Top 500 fonctionnant sous GNU/Linux sont maintenant au nombre de 482 (soit 96,4 % du classement), alors qu’ils n’étaient que 476 (soit 95,2 %) il y a six mois.
Il semble évident que le monde des supercalculateurs est devenu depuis plusieurs années la chasse gardée exclusive de GNU/Linux, et que les autres systèmes d’exploitation n’ont qu’une importance réduite et résiduelle dans ce domaine.

Aller plus loin

  • # Une Université française est entrée à la 151ème place

    Posté par  . Évalué à 10.

    Le centre de calcul ROMEO de l'Université de Reims Champagne-Ardenne est entré à la 151ème place.

    Au niveau français, c'est le 9ème supercalculateur après TOTAL, le CEA (3 supercalculateurs classés), l'IDRIS, EDF (2 supercalculateurs classés) et Météo France. Parmi les centres académiques, seuls le CEA et l'IDRIS (deux des trois centres nationaux) le devancent.
    Au niveau européen, ROMEO est le 41ème supercalculateur.

    Ça fait plaisir de voir une université française avec de beaux calculateurs pour la recherche. Ce centre est utilisé par plusieurs projets dans des thématiques différentes (informatique, physique, chimie).

  • # JUQEEN et superMUC?

    Posté par  . Évalué à 2.

    Il sont forts les allemands pour nommer leurs machines…

  • # 3 ou 2 machines européennes dans le top 10 ?

    Posté par  . Évalué à 2.

    La dépêche se contredit, mais bon, c'est anecdotique.

    • [^] # Re: 3 ou 2 machines européennes dans le top 10 ?

      Posté par  (site web personnel) . Évalué à 7.

      Il n'y a pas de contradiction. Je me suis peut-être mal exprimé dans la news mais il y a bien 3 machines européennes dans le top 10. Je fais un paragraphe sur le calculateur suisse Piz Daint et à la fin j'ajoute que l'Europe place encore deux machines dans le top 10. J'aurais peut-être du écrire "encore deux autres" machines.

      • [^] # Re: 3 ou 2 machines européennes dans le top 10 ?

        Posté par  . Évalué à -3.

        La Suisse ne fait pas partie de l'Europe

        • [^] # Re: 3 ou 2 machines européennes dans le top 10 ?

          Posté par  . Évalué à 5.

          Tu confonds Europe et Union Européenne.

          « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

        • [^] # Re: 3 ou 2 machines européennes dans le top 10 ?

          Posté par  (site web personnel) . Évalué à 6.

          Elle ne fait pas partie politiquement de l'Union Européenne mais elle fait partie géographiquement du continent européen.
          C'est ça qui est pris en compte.

          • [^] # Re: 3 ou 2 machines européennes dans le top 10 ?

            Posté par  . Évalué à 1.

            Merci Patrick, c'est beaucoup plus clair.

            Mon commentaire était censé être subtil, mais j'ai oublié les balises "<subtil> </subtil>".
            Donc la Suisse se place 6ème avec une solution financée par la Suisse et opérée par des suisses pour étudier des problèmes suisses.

            Sinon plus bas, on trouvait :

            "Au sein de l’Union européenne, la France (22 machines) se classe entre la Grande‐Bretagne (23 machines) et l’Allemagne (20 machines)."

            Question subsidiaire:
            - Combien de machines "suisses" dans le top 500 ?

            • [^] # Re: 3 ou 2 machines européennes dans le top 10 ?

              Posté par  (site web personnel) . Évalué à 3.

              Il y a un site en Suisse qui m'intrigue : c'est meteoblue.
              Les prévisions sont bonnes et les diagrammes excellents. On peut aussi bien demander les prévisions pour Arcachon, Kiruna, Uturoa ou Ushaia.

              Pour obtenir des prévisions et un site aussi complet pour la terre entière, je pense que les moyens informatiques mis à la disposition des météorologues sortent de l'ordinaire.

              Mais pourquoi est-ce que Météo France ne leur arrive pas la cheville ? Ils ont aussi un gros ordinateur. Est-ce un manque de moyens, de compétences ? Ou trop de hiérarchie comme cela arrive inéluctablement au bout d'une trentaine d'années dans toutes les (grosses) entreprises ?

              • [^] # Re: 3 ou 2 machines européennes dans le top 10 ?

                Posté par  (site web personnel) . Évalué à 5.

                Mais pourquoi est-ce que Météo France ne leur arrive pas la cheville ? Ils ont aussi un gros ordinateur. Est-ce un manque de moyens, de compétences ? Ou trop de hiérarchie comme cela arrive inéluctablement au bout d'une trentaine d'années dans toutes les (grosses) entreprises ?

                Météo France est très réputée pour ses mesures, elle est loin d’être aussi ridicule qu'on pourrait le croire.
                Elle vend beaucoup ses services, par exemple de nombreuses équipes de Formule 1 font appel à ses services pour des prévisions de pluies chiffrées à 15-30 minutes près ! Et si ce domaine fait confiance à Météo France, je suis sûr que d'autres secteurs à l'étranger comme en France en profitent également.

          • [^] # Re: 3 ou 2 machines européennes dans le top 10 ?

            Posté par  . Évalué à 5.

            Mais de toutes les façons, personne ne sait ce que fait la Suisse, tout le monde se fout de savoir ou ils en sont technologiquement, ça n'interresse personne de savoir que son vrai nom est "Confédération Helvétique" et quand à savoir ou ça se trouve :

            http://www.riehle.org/humorous-takes/fun-photos/ch-according-to-cnn.html

  • # Commentaire d'Arnd Bergmann sur cette liste

    Posté par  (site web personnel) . Évalué à 10.

    Un commentaire intéressant d'Arnd Bergmann (co-mainteneur de la branche ARM du noyau Linux) est disponible ici.

    • [^] # À propos d'opterons

      Posté par  (site web personnel) . Évalué à 2.

      Intéressant de voir comment évolue les gammes de processeurs. Toutefois ce billet ignore complètement les GPU. Or j'imagine qu'ils tiennent une part très importante dans les performances des machines en question. Sinon, comment expliquer qu'on trouve encore des opterons dans ce classement ?

      En effet, dans la plupart des tests publiés sur internet ces derniers sont effroyablement largués en terme de performance par rapport à leurs concurrents grands publics. À moins que les mesures que l'on trouve ne soient pas du tout adaptées au contexte du HPC ? Est-ce que quelqu'un aurait des informations sur ce sujet et des benchmarks significatif dans ce contexte à partager ?

      « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

      • [^] # Re: À propos d'opterons

        Posté par  (site web personnel) . Évalué à 8. Dernière modification le 19 novembre 2013 à 09:41.

        AMHA il y a deux facteurs. Tout d'abord effectivement les Opterons ont de meilleures performances HPC que ce que laissent supposer les benchs grand public. Pour tout ce qui est virgule flottante ils ne sont pas trop mal.
        Ensuite il y a le fait que les Opterons avaient souvent plus de coeurs de calcul que les Xeons de la même gamme. C'est aussi un point qui est favorable au calcul haute performance puisque les codes sont souvent parallélisés au maximum.

        Mais depuis au moins deux ans les Xeon ont le lead sur tous les paramètres donc la part d'AMD va décroitre encore plus.

        • [^] # Re: À propos d'opterons

          Posté par  . Évalué à 8.

          Ouh la, non.

          1) Les opterons ont plus de coeurs, mais les unités flottantes sont partagées par paire de coeurs (un seul peut faire de l'AVX à la fois), donc au final les processeurs à 16 coeurs d'AMD ne peuvent faire que 8 AVX à la fois. Alors que les Xeon E5 viennent de passer à 12 coeurs, ils font 12 AVX en même temps.

          2) Même si les codes sont parallélisés au maximum, la parallélisation a toujours un surcout. Les utilisateurs prefereront très souvent moins de coeurs si ces coeurs sont beaucoup plus rapides, car les codes les exploiteront souvent plus facilement.

          3) Les benchs HPC des opterons sont à peu près aussi mauvais que les benchs grands publics, à cause des flottants, mais aussi à cause de la memoire (les caches sont petits et lents). A moins d'avoir un code très parallèles et peu vectorisable, ou de vouloir plein de coeurs pour frimer en soirée, y a très peu de personnes qui ont intérêt à acheter du AMD en HPC malheureusement.

          • [^] # Re: À propos d'opterons

            Posté par  . Évalué à 3.

            D'ailleurs, si on compare SuperMUC (numéro 10, 150000 coeurs Xeon E5) et Garnet (numéro 25, 150000 coeurs Opteron, ou les numéros 26 et 28 juste après), on trouve un facteur 2 de différence de perf théorique (Rmax) et un facteur 4 sur Linpack (Rpeak). Tout n'est surement pas lié au processeur, le réseau de Cray joue surement aussi, mais quand même, ca fait une sacrée différence…

          • [^] # Re: À propos d'opterons

            Posté par  (site web personnel) . Évalué à 6.

            Alors que les Xeon E5 viennent de passer à 12 coeurs

            J'écris bien au passé (les Opterons avaient souvent plus de coeurs) et j'indique que la situation a changé depuis au moins deux ans.

            • [^] # Re: À propos d'opterons

              Posté par  . Évalué à 4.

              Les opterons ont toujours plus de coeurs (16 depuis longtemps contre 12 depuis récemment).

              • [^] # Re: À propos d'opterons

                Posté par  (site web personnel) . Évalué à 3.

                En même temps, les opterons qui fonctionnent en module de 2, sont plus une version un peu plus burné, que des simples "thread de cpu", mais cela reste de ce domaine là. On dirait que AMD a pris un cpu multihtreadé à 2, puis à ajouté une ou 2 alu pour dire qu'il s'agissait de 2 cpus.

                "La première sécurité est la liberté"

                • [^] # Re: À propos d'opterons

                  Posté par  . Évalué à 3.

                  les opterons qui fonctionnent en module de 2, sont plus une version un peu plus burné, que des simples "thread de cpu", mais cela reste de ce domaine là.
                  Un peu plus quand même puisque chaque cœur entier dispose de son propre cache L1 de données. Sur des applications parallèles type "calcul entier pur", ça peut gagner un facteur 2 là où l'HyperThreading d'Intel, sur le même genre de calcul, ne gagne pas grand-chose (pas d'unité de calculs doublées).

                  • [^] # Re: À propos d'opterons

                    Posté par  (site web personnel) . Évalué à 1.

                    Disons que le principe du thread de cpu reste le même, on partage un cpu avec un peu plus de ressources. D'ailleurs, je pense que commercialement AMD en aurait plus vendu, si l'image d'un seul core n'était pas aussi faible.

                    "La première sécurité est la liberté"

          • [^] # Re: À propos d'opterons

            Posté par  . Évalué à 3.

            donc au final les processeurs à 16 coeurs d'AMD ne peuvent faire que 8 AVX à la fois.
            Le marketing d'AMD disait qu'un CPU effectuait généralement 3 fois plus d'instructions entières + chargements mémoire que d'instructions flottantes, ce n'est pas valable en HPC scientifique du coup ?

            • [^] # Re: À propos d'opterons

              Posté par  (site web personnel) . Évalué à 3.

              Il n'y a pas de loi universelle en la matière. Pour tous les codes de simulation que j'ai écris, les calculs en nombres flottants dominent outrageusement. Et il me semble que la simulation de nombre de problèmes de physiques soit dans le même cas. Mais il existe aussi des modèles représentés en machines essentiellement par des entiers (dans mon domaine, on pourrait citer l'exemple de la dynamique de dislocations). Dans ces cas là évidemment…

              « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

            • [^] # Re: À propos d'opterons

              Posté par  (site web personnel) . Évalué à 4.

              C'est le problème des moyennes : cela ne veut rien dire. Un OS n'a pas de code flottant, mais un os tout seul ne sert à rien. J'imagine qu'un jeu doit utiliser majoritaire des flottants 32 bits vectorisé, un code scientifique des nombre flottants 64 bits, un IDE ou un compilateur, un serveur web, une base de donné n'utilise que des entiers.

              "La première sécurité est la liberté"

      • [^] # Re: À propos d'opterons

        Posté par  (site web personnel) . Évalué à 4.

        Peut-être une question d'argent ?

        Il n'y a pas beaucoup d'informations à ce sujet :(

        Par exemple, les Opterons ont peut-être été offerts…

        Combien a coûté la construction de chaque machine ? en matériel, en main d'œuvre pour les monter et pour les programmer…

        Il y a pleins d'autres infos sympa qui "manquent" : le volume en m³, la masse (« le poids ») en kg ou tonnes, la chaleur dégagée, la consommation des systèmes de refroidissement, etc.

        • [^] # Re: À propos d'opterons

          Posté par  . Évalué à 2.

          Oui c'est clair que si on avait les prix, ca donnerait un éclairage différent. Il y a eu souvent dans le passé des supercalculateurs dont l'architecture a été completement modifiée suite à un "cadeau" d'un constructeur.

          Après, en pratique, c'est plutot le cout de fonctionnement qui compte pour les centres de calcul, plus que le cout d'achat. Et ça, ça s'estime en regardant la conso énergétique dans la liste (je n'arrive plus à retrouver si celle-là inclut la conso pour le refroidissement ou pas).

        • [^] # Re: À propos d'opterons

          Posté par  . Évalué à 2.

          Il y a le green500 qui donne un rapport plus orienté consommation énergétique que le Top500 qui est plus orienté puissance brute.

          Mais c'est toujours pareil, le Top500 mesure des choses rarements utilisées dans la vie réelle. S'appuyer sur un calcul de matrice pleine pour évaluer la capacité de calcul est très loin des besoins réels des utilisateurs. Ensuite, la consommation électrique (pour l'alimentation et la clim) c'est pareil. Il faut reconnaître que les factures ont tendance à prendre une place prépondérante au fil des années, mais si on compare avec le monde de la F1. Il ne faut pas avoir l’œil sur la gauge de carburant si l'on veut gagner, il faut plutôt chercher à aller le plus vite possible.

          • [^] # Re: À propos d'opterons

            Posté par  . Évalué à 7.

            Mmmh, dans le cadre du HPC, si t'es pas capable de faire tourner les BLAS (Basic Linear Algebra Subroutines) de façon efficace, tu n'iras pas très loin avec ton cluster. Je suis d'accord pour dire que LINPACK n'est pas suffisant pour réellement évaluer la puissance de calcul d'une machine, mais ça fait partie du type de benchmark important. Disons qu'avec LINPACK + Graph500, on commence à avoir quelque chose d'intéressant : d'un côté le calcul intensif pur, avec très peu de communications. De l'autre, un bench qui teste plus les accès au réseau d'interconnexion que le calcul proprement dit, y compris l'efficacité/la latence des opérations atomiques.

      • [^] # Re: À propos d'opterons

        Posté par  (site web personnel) . Évalué à 2.

        Il y a sûrement pas mal de raisons, mais j'en connais une toute bête : le délai de commande et de fabrication.

        En gros, quand la plupart de ces machines ont été commandées, AMD était bien mieux qu'actuellement face à Intel. Par contre, les prochains supercalculateurs sont basés sur des choix faits sur les benchs actuels.

        • [^] # Re: À propos d'opterons

          Posté par  . Évalué à 3.

          C'est plutot faux. Quand on achète des calculateurs, on demande aux vendeurs de faire tourner nos benchs sur les architectures qu'ils vont nous vendre, pas sur celles qui seront disponibles plus tard lors de la livraison (environ 3 mois plus tard en général).
          A part pour des très gros coup où les constructeurs donnent des prototypes (genre les Xeon E5 Ivy Bridge de Tianhe-2) où faire des benchs préalables peut-etre difficile (à confirmer), le délai commande/fabrication ne joue pas.

          Ca fait plusieurs années que AMD n'est pas au mieux face à Intel, depuis la sortie des Nehalems en 2009, en gros. Les machines du Top500 actuel ont été commandées très longtemps après.

  • # 2018 ou 2020 ?

    Posté par  . Évalué à 4.

    Non, il n'y a pas vraiment d'évolution sur la date d'atteinte de l'exaflop. Dès que le petaflop a été passé et qu'on a commencé à estimer le date de l'exaflop, c'était déjà une grosse fourchette 2018-2020 voire 2018-2025.

  • # Et nos ordinateurs personnels ?

    Posté par  . Évalué à 2.

    Ce test Linpack, est-ce possible de le faire tourner sur un PC normal (je veux dire qu'il puisse se faire en un temps raisonnable) et si oui, quelqu'un l'a-t-il fait pour avoir une idée du gouffre qu'il doit y avoir entre nos machines et ces machines monstrueuses ?

    • [^] # Re: Et nos ordinateurs personnels ?

      Posté par  . Évalué à 3.

      C'est un « bête » code fortran, n'importe qui peut le compiler et le faire tourner.

      « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

      • [^] # Re: Et nos ordinateurs personnels ?

        Posté par  (site web personnel) . Évalué à 3.

        Par contre, tu ne risques pas de le faire tourner sur les mêmes données :D
        Cela prend en gros 24h sur un supercalculateur (sur Tera 100, en tout cas). D'ailleurs, c'est un problème : ce n'est pas évident d'avoir 24h de fonctionnement sans qu'un seul processeur (ou machine) ne tombe en rade.

        • [^] # Re: Et nos ordinateurs personnels ?

          Posté par  . Évalué à 3.

          C'est sûr qu'il faut le dimensionner en fonction de la machine, mais c'est valable aussi pour les super-calculateur, ils ne mettent pas la même taille de données maintenant qu'il y a 30 ans.

          « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

        • [^] # Re: Et nos ordinateurs personnels ?

          Posté par  . Évalué à 5.

          Je trouve pas les chiffres exacts en ligne mais Jack Dongarra a présenté cette semaine un slide expliquant que la durée est très variable selon le supercalculateur. Pour le numéro 1 actuel Tianhe-2, c'est 5 heures. Titan (numéro 2) est plutot vers 1 heure si je me souviens bien. Sequoia (n°3) 23h. Et certains prennent plus de 24 heures.

          C'est une grosse cuisine tout ce truc de tuning du Linpack. A la base, la durée n'est pas le facteur critique. On cherche d'abord une bonne taille de problème qui permet de bien remplir pile-poil la mémoire des noeuds et/ou des accélérateurs, comme ça y a plus de calcul et moins de transfert de données à faire, donc plus de flop/s. Mais si ca donne un run qui prend 3 mois, ca peut pas aller. D'une part pour des histoires de pannes (sur un BlueGene c'est pas très dur d'avoir 1 million de coeurs qui marchent pendant 24h, sur d'autres machines ca dépend…), mais aussi parce que les centres de calcul ont pas que ça à faire que gaspiller un mois d'investissement et d'électricité pour un Linpack qui ne sert à rien dans la vraie vie :)

          • [^] # Re: Et nos ordinateurs personnels ?

            Posté par  . Évalué à 3.

            Pour le numéro 1 actuel Tianhe-2, c'est 5 heures. Titan (numéro 2) est plutot vers 1 heure

            Le gagnant tourne 5 fois moins vite que le second ?

            • [^] # Re: Et nos ordinateurs personnels ?

              Posté par  (site web personnel) . Évalué à 3.

              Il a plus de données à traiter, mais proportionnellement il est plus rapide.

              Brice Goglin > tu as oublié de dire qui était Jack Dongarra (le créateur du benchmark en question, et grand spécialiste du sujet)

    • [^] # Re: Et nos ordinateurs personnels ?

      Posté par  . Évalué à 6.

      Ce test Linpack, est-ce possible de le faire tourner sur un PC normal

      Apparemment on peut le faire tourner avec hpcc. La description du paquet debian indique:

      « it includes the High-Performance LINPACK (HPL) benchmark, used by the Top500 ranking »

      (C'est curieux, on voit rarement pasBill pasGates commenter ce genre de dépêche …)

    • [^] # Re: Et nos ordinateurs personnels ?

      Posté par  . Évalué à 2.

      Salut,

      On peut faire ce genre de benchmark, sur pc :
      http://2000nickels.com/blog/2012/11/19/a-cray-for-35-dollars/
      Ou sur le Raspberry Pi :
      http://www.roylongbottom.org.uk/Raspberry Pi Benchmarks.htm
      Ma procédure : http://framboisepi.fr/benchmark-avec-linpack/

  • # Facteur d'augmentation annuelle et temps de doublement

    Posté par  . Évalué à 6.

    on arrive à un total de 250 pétaFLOPS. Là encore, l’évolution est notable, puisque le score cumulé était de 230 pétaFLOPS en juin dernier, et de 162 pétaFLOPS il y a un an.

    Petit calcul du temps de doublement : la courbe de puissance cumulée à :en:TOP500 suit de près une loi de puissance sur toute la durée des données. La puissance a été multipliée par 10⁵ entre 2002 et 2011.75.

    • Le facteur d'augmentation annuelle est de f = ¹⁸˙⁷⁵√10⁵ ≈ 1,84.
    • La durée de doublement D est donnée par D/D₀ = ln 2 / ln f. Avec D₀ = 365,25 d, D ≈ 412,3 d.
    • [^] # Re: Facteur d'augmentation annuelle et temps de doublement

      Posté par  (site web personnel) . Évalué à 3.

      Donc l'exaflop devrait être atteint avant 2020, sachant que le petaflop a été atteint en 2008/2009.

      "La première sécurité est la liberté"

    • [^] # Re: Facteur d'augmentation annuelle et temps de doublement

      Posté par  . Évalué à 3.

      Erratum : lire « entre 1993 et 2011.75 » (ce qui donne bien 18,75 ans).

    • [^] # Re: Facteur d'augmentation annuelle et temps de doublement

      Posté par  . Évalué à 3.

      Ce qui donne donc une augmentation plus rapide que la loi de Moore, et plus rapide que celle des ordinateurs tous publiques, qui ont eux suivis la loi de Moore sur cette période. Est-ce du à la transition CPU - GPU, à la hausse des budgets, ou à d'autres facteurs ?

      • [^] # Re: Facteur d'augmentation annuelle et temps de doublement

        Posté par  (site web personnel) . Évalué à 9.

        Si on connait la puissance de calcul d'un supercalculateur, on ne dit pas la surface occupée.
        Tu peux quadrupler la puissance en quadruplant la surface d'occupation des processeurs, cela ne suit pas pour autant la loi de Moore.

        La loi de Moore c'est le double de transistors sur une surface fixe, si le processeur change de taille cela influe sur la puissance totale indépendamment de la finesse de gravure.

      • [^] # Re: Facteur d'augmentation annuelle et temps de doublement

        Posté par  . Évalué à 5. Dernière modification le 27 novembre 2013 à 12:16.

        D'après Moore's Law, la loi se réfère au nombre des transistors (pas « à surface constante »). En prenant deux valeurs extrêmes pour le calcul : Intel 4004 {janvier 1971, 2300 transistors} et POWER7 {1,2·10⁹, février 2010}, on obtient un facteur annuel de 1,401 et une durée de doublement de 2 ans et 21 jours.

        La durée de doublement de 18 mois souvent citée provient, d'après l'article de Wikipédia, du président d'Intel qui se réfère à la puissance de calcul des microprocesseurs, qui augmente plus vite que le nombre de transistors en raison de l'amélioration parallèle de l'architecture des microprocesseurs.

        La durée de doublement de 1 an 42 jours de la puissance des supercalculateurs, plus courte que celle des microprocesseurs, peut provenir de l'amélioration continue de l'architecture des supercalculateurs (pour la puissance théorique) et de celle des compilateurs (pour les données linpack).

        L'évolution des budgets est visible sur la lutte pour le numéro 1 (saccade d'augmentation chaque foi qu'un pays met la main à la poche) mais pas sur la puissance cumulée, qui est une tendance mondiale (et ça se saurait si les budgets de recherche suivaient une évolution exponentielle, tous en même temps qui plus est).

        • [^] # Re: Facteur d'augmentation annuelle et temps de doublement

          Posté par  (site web personnel) . Évalué à 2.

          Il ne faut pas oublier que l'on parle de doublement à prix constant. Un power7 a un die énorme, même par rapport à un core i7. Je ne pense pas que le 4004 coutait plusieurs milliers d'euro pièce.

          "La première sécurité est la liberté"

          • [^] # Vieux processeurs et vieux bouquins...

            Posté par  (site web personnel) . Évalué à 4.

            Raaah, le 4004, ou même les Z80 ou 8080, des processeurs dont on pouvait humainement suivre et comprendre le fonctionnement en analysant la radiographie.

            Je me souviens d'un livre au format à l'italienne, que j'avais emprunté à la bibliothèque municipale il y a plus de 30 ans, qui décrivait explicitement le fonctionnement d'un de ces 3 processeur. Je n'ai pas les références de ce bouquin, et mon dossier (209CJ, je m'en souviens) doit avoir disparu depuis belle lurette des archives de la bibliothèque municipale de Saint-Denis (face à la basilique)…
            Je suis à la recherche de cette référence pour l'ajouter à ma collection d'incontournables, à côté du "Operating Systems" de Andrew Tanenbaum, du "Computer Graphics: Principles and Practice" de James D. Foley, et du "C programming language" de Kernighan & Ritchie, entre autres.

            Rassurez moi, il y en a ici qui gardent ces antiquités ou bien je suis un être anormal ? :')

          • [^] # Re: Facteur d'augmentation annuelle et temps de doublement

            Posté par  . Évalué à 2. Dernière modification le 29 novembre 2013 à 11:29.

            J'ai pris POWER7 parce qu'il était le mieux aligné avec la courbe moyenne sur la période des données présentes. Avec des données plus récentes et pour un cout minimal de composant : le Core i3-4130, le moins cher de la génération Haswell (122 $), sorti en septembre 2013 (disons au 1er septembre), possède 1,4 milliards de transistors. Petite correction, le 4004 était disponible le 15 novembre 1971 (d'après http://www.4004.com/). Le calcul surévalue légèrement la durée de doublement (ou sous-évalue légèrement l'augmentation annuelle) parce que le 4004 est au-dessus de la courbe moyenne. Quoi qu'il en soit avec ces deux points, le facteur annuel est de 1,375 et le temps de doublement est de 2 ans et 64 jours.

  • # Skynet et la loi de l'amour

    Posté par  . Évalué à -8.

    Je pense que la loi de Moore n'est plus valable depuis 2011 pour les PC à moins de 500 €.

    Je ne suis pas le seul à penser ça (un gars de l'April).

    http://frederic.bezies.free.fr/blog/?p=10597

    J'ai bien regarder les spécification des derniers i3 et i5. Sur PCInpact il y a un spécialiste de cette question.

    Sur Wikipedia, on voit pas bien de différences avec les nouveaux processeurs. Il y a peut-être un peu plus de cache. Mais le nombre de coeur/thread est le même et malgré le nouveau mode "turbo boost" les fréquences sont en baisse! C'est inédit.

    J'ai entendu le responsable R&D de Intel de juin 1998 à février 2003 dire que cette loi expirera en 2018. D'autres donnent d'autres dates.

    Plusieurs disent aussi qu'il ne faut plus compter sur cette loi à cause des problèmes énergétiques mondiaux et aussi du réchauffement climatique.

    Il y a aussi un barbu au long cheveux blancs qui veut remettre les DSP au gout du jour. Il dit qu'il ne faut plus compter en FLOPS ou MIPS mais en FLOPS/Watt/Heure (j'ai perdu le lien).

    L'inventeur du Forth propose une solution hyper-parallèle peu gourmande en énergie:

    http://www.greenarraychips.com/

    Tout ça est inquiétant. Comment va-t-on pouvoir faire Skynet? La DARPA s'occupe de la partie robotique mais faut bien proposer une solution libre à tout ça.

    • [^] # Re: Skynet et la loi de l'amour

      Posté par  (site web personnel) . Évalué à 5.

      A part la 3D et les jeux vidéo, un ordinateur très bas de gamme suffit à la plus part des usages.

      Il suffit de voir les smartphones, qui sont à ce niveau de puissance.

      "La première sécurité est la liberté"

  • # Cloud

    Posté par  (site web personnel) . Évalué à 3.

    Et au milieu de tout ça en 64ème place un cluster de machines virtuelles cloud : http://www.top500.org/system/178321

    Ça donne une idée de la taille de ces systèmes :)

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.