Le Top 500 des supercalculateurs de novembre 2015

Posté par . Édité par Davy Defaud, Nils Ratusznik et Benoît Sibaud. Modéré par Pierre Jarillon. Licence CC by-sa
Tags :
42
19
jan.
2016
Technologie

Le quarante‐sixième Top 500 des supercalculateurs mondiaux est sorti en novembre 2015.

Rappelons que le Top 500 se base sur une soumission volontaire (de nombreuses machines puissantes mais classifiées ne participent pas à la course) et sur un comparateur de performances spécifique extrêmement parallélisable, le code LINPACK, qui concerne la résolution de systèmes d’équations linéaires.

La deuxième partie de la dépêche revient sur ce classement et aborde une partie des commentaires de la page d’annonce.

Tout ça pour ça ?

Lors de la dépêche précédente, l’année 2014 se finissait sur la quatrième victoire consécutive de Tianhe-2. Rien n’a changé de ce côté, le supercalculateur chinois installé en 2013 reste en tête, visiblement sans faire progresser son score de 33,86 pétaFLOPS et ses 16 000 nœuds de calcul (et sa consommation de 17,8 MW pendant le test). Le deuxième du classement est Titan, qui monte à 17,59 pétaFLOPS. Le podium est complété par Sequoia, qui atteint les 17,17 pétaFLOPS.

Seuls trois supercalculateurs parmi les dix premiers ont été installés ou mis à jour en 2015. Six datent de 2011 ou 2012. Les dix premiers n’ont jamais été aussi « vieux ».

La puissance du 500e supercalculateur ou la puissance moyenne des 500 progressent de 55 % par an.

L’évolution par pays

La Chine détient le premier du classement et est en pleine croissance (passage de 37 à 109 entrées dans le classement, devenant second en utilisation et en capacité de calcul).

Les États-Unis régressent (ou partagent), passant de 233 à 199 supercalculateurs, soit la valeur la plus basse depuis le début du Top 500.

L’Europe régresse de 141 à 107 systèmes, passant derrière la Chine. On décompte 32 systèmes en Allemagne, 18 en France et au Royaume‐Uni.

Le Japon compte 37 systèmes (contre 39 précédemment).

L’évolution par fabricant

On recense 89 % de processeurs Intel (en hausse) et 4,2 % d’AMD Opteron (en baisse). Et l’on trouve 63,5 % de NVIDIA pour l’accélération et 27,9 de Intel Xeon Phi. La tendance est d’ailleurs à la hausse pour ce type de technologie : 104 supercalculateurs disposent maintenant de puces d’accélération, contre 90 en juin dernier.

HP détient 155 systèmes (178 précédemment), Cray 69, Sugon 40, IBM 45 (111 préc.) et Lenovo 25 (3 préc.). IBM a pour particularité de proposer des processeurs de type Power, au lieu des habituels x86. Cette part diminue de 38 et 26 systèmes. De plus, l’activité de serveurs x86 ayant été revendue à Lenovo, certains systèmes auparavant totalement IBM sont maintenant annoncés comme IBM/Lenovo (pour 9 d’entre eux) ou Lenovo/IBM (5 d’entre eux).

En termes de performance, le trio de tête est formé de Cray (25 % de la puissance totale ; +1 point), IBM (14,9 % ; -8,1 points) et HP (12,9 % ; -1,3 point). Et côté accélération, 50,6 % de NVIDIA et 42 % d’Intel Xeon Phi.

Le National University of Defense Technology chinois contribue à 9,2 % avec Tianhe-2 et Tianhe-1A (-1,7 point).

Les systèmes d’exploitation

C’est devenu encore plus simple : 98,8% de GNU/Linux et 1,2 % d’Unix.

  • # Green 500

    Posté par (page perso) . Évalué à 10.

    L'avenir de l'informatique HPC passe plus par le GREEN500 que par le TOP500 je pense - http://green500.org

    Le classement de novembre : http://green500.org/news/green500-list-november-2015?q=lists/green201511

    Une seule machine dépasse les 7Gflop/w, elle est japonaise. Grosso merdo, il faut porter petit à petit ses codes dans la philosophie GPU…

    • [^] # Re: Green 500

      Posté par (page perso) . Évalué à 3.

      à propos de GPU, toujours pas d'AMD de ce côté-là? Les Radeon GCN sont pourtant au niveau de la concurrence, est-ce encore le support logiciel qui pêche?

      ⚓ À g'Auch TOUTE! http://agauch.online.fr

      • [^] # Re: Green 500

        Posté par (page perso) . Évalué à 3.

        Je me réponds : dans le green500, il y a du GPU AMD à la troisième place : AMD FirePro S9150.

        ⚓ À g'Auch TOUTE! http://agauch.online.fr

    • [^] # Re: Green 500

      Posté par (page perso) . Évalué à 4.

      C'est effectivement très intéressant de voir quelles sont les machines les plus efficaces, et pas seulement les plus puissantes. Je me disais aussi qu'il pourrait être amusant de comparer les classements d'un même supercalculateur dans les deux listes, pour peu qu'il y figure, jusqu'à ce que je lise la FAQ : le Green 500 est déterminé à partir du Top 500 !

      Voilà qui pourra étoffer d'éventuelles futures dépêches sur le sujet :)

      • [^] # Re: Green 500

        Posté par (page perso) . Évalué à 5.

        Le green500 a toujours été basé sur le top500. Il y a une certaine logique puisque l'objectif est de faire un classement HPC de machine en production. On veut donc ici des vrais machines de prod dédiée HPC.

        Ensuite, il faudrait faire des stats sur les 6 derniers mois d'utilisation… Car on peut avoir une super machine HPC efficiente mais qui ne servirais pas à 100% du temps !

    • [^] # Re: Green 500

      Posté par (page perso) . Évalué à 9.

      Je propose de lancer le FREE500… euh FREE3… des serveurs fonctionnant uniquement avec du logiciel libre, pour le système principal, les microcodes, etc. L'avenir de l'informatique libre passe plus par le FREE3-ou-un-peu-moins.

    • [^] # Re: Green 500

      Posté par (page perso) . Évalué à 5.

      L'avenir de l'informatique HPC passe plus par le GREEN500 que par le TOP500 je pense

      C'est moins "hype", mais perso je serai curieux d'un classement de puissance par $ et par an (genre moyenne du cout d'achat et d’exploitation sur 3 ans).

    • [^] # Re: Green 500

      Posté par . Évalué à 3.

      C'est une métrique intéressante mais de là à dire que l'avenir est à ça c'est être bien optimiste quant aux préoccupation environnementale de la part des puissances économiques.
      Je ne suis pas aussi optimiste.
      Les critères d'évaluation d'une solution sont avant tout économiques. Si valeur du service > TCO + marge, alors l'investisseur est satisfait. Le green n'est considéré que si il fait penchez la balance économique.

      • [^] # Re: Green 500

        Posté par (page perso) . Évalué à 3.

        Le green n'est considéré que si il fait penchez la balance économique.

        Etant dans la recherche publique, on ne raisonne pas forcément comme un privé. Et vu la tendance au green, c'est une vrai volonté des acheteurs pour moi. Il faut voir qu'il y a la clim ET le compteur électrique derrière qui tourne donc ce coté green n'est pas que pour ce faire plaisir.

        • [^] # Re: Green 500

          Posté par . Évalué à 4.

          Ton commentaire et celui de Michel juste après confirme mon avis : c'est bien une motivation économique (TCO = acquisition + coût d'exploitation).
          Personne ne fait du green pour sauver des pingouins, malheureusement.

          • [^] # Re: Green 500

            Posté par (page perso) . Évalué à 2.

            Dans de nombreux cas, il n'y a pas de compteur électrique, c'est le cas chez nous. Il y a un compteur global pour le site derrière lequel il y a plusieurs transformateurs 20kV…

            Donc nous faisons des efforts lors de l'achat dans un esprit collectif de réduction mais en pratique, nous ne payons pas directement l'électricité (globalisé dans la location annuelle au m²).

            • [^] # Re: Green 500

              Posté par . Évalué à 3.

              Si c'est un critère (le critère environnemental) que vous prenez en compte en tant que tel et pas dans une équation économique, c'est très positif. Mais de ce que j'ai pu voir, vous êtes l'exception, dans le privé en tout cas.

              • [^] # Re: Green 500

                Posté par . Évalué à 2.

                Effectivement, dans les universités les dépenses liées aux servitudes sont souvent mutualisées sur l'ensemble d'un site géographique (regroupant par conséquent plusieurs laboratoires).
                Malheureusement, parfois ça ne pousse pas à améliorer son système : "pas grave c'est pas imputé sur le budget du labo"… Oui enfin pas directement…
                J'ai souvenirs de pompes et de groupes de refroidissement qui fonctionnaient régulièrement en eau de ville perdue ! ("hop je réchauffe de la bonne eau potable et je la jette à l'égout"…) Alors qu'un circuit fermé avec réserve et échangeur eau/air sur le toit du bâtiment existait. Il suffisait juste d'ouvrir/fermer les vannes adéquates.

                De ce point de vue, je pense que les questions économique et écologique sont indissociables.

      • [^] # Re: Green 500

        Posté par . Évalué à 4.

        L'alimentation électrique de ces bêtes là et le coût du refroidissement fait que la consommation de ressource est aussi un enjeu économique.

        Les logiciels sous licence GPL forcent leurs utilisateurs à respecter la GPL (et oui, l'eau, ça mouille).

  • # Inquiétude

    Posté par . Évalué à 3.

    Je trouve inquiétant la stagnation du classement durant ces dernières années.
    La course à l'augmentation du nombre de processeurs est en gros terminée. Du coup, on a maintenant une sorte de statut-quo.
    C'est inquiétant, car il n'y a pas de nouvelles méthodes pour tenter d'augmenter le nombre de calcul ( tout en gardant une consommation énergétique et une chaleur dissipée de l'ordre de l'acceptable).

    Étudiant en Sciences Informatiques - Fedora 23 - I3wm

    • [^] # Re: Inquiétude

      Posté par . Évalué à -10.

      On appelle ça des limites physique.
      Les procs peuvent difficilement etre grave plus fin, et les solutions 'possibles' ne sont pas industrialisable pour l'instant, et ne le seront pas forcement un jour non plus.

      Un peu comme la marotte des fanas d'energie solaire. Ca fait des decennies qu'on bosse dessus ne serait ce qu'a cause des satellites, mais ils croient encore qu'on va pouvoir augmenter le rendement 'en investissant plus'..

      • [^] # Re: Inquiétude

        Posté par (page perso) . Évalué à 4.

        • [^] # Re: Inquiétude

          Posté par . Évalué à -10. Dernière modification le 20/01/16 à 20:20.

          Je pense que l'investissemnt supplementaire serait gache par les limites de ce qu'on peut recuperer, quand bien meme on en recuperait 100%.
          Bref le solaire c'est du flan hors marche de niche bien specifique.
          Le solaire de masse n'est qu'une arnaque financiere a subvention.

          SAns parler que tu ignores royalement que les ameliorations des cellules photovoltaiques passent par des procedes de plus en plus complexe qui rendent le recyclage encore plus problematique…

          Et apres les ecolos de nous parler d'une energie propre…

          • [^] # Re: Inquiétude

            Posté par . Évalué à 2.

            Parle de choses que tu connais, s'il te plaît.
            Aujourd'hui, l'avenir me semble bien tracé pour le photovoltaïque organique.
            Un rendement pas exceptionnel, mais très bon pour une techno qui a à peine 10 ans.
            Une fabrication de cellules peu coûteuse en énergie et très peu polluante, un recyclage extrêmement facile.
            Des cellules souples, semi-transparentes (genre, volets semi-transparents qui fournissent de l'énergie), et assez résistantes dans le temps (quoique de ce côté là, ya des progrès encore possibles).

            • [^] # Re: Inquiétude

              Posté par . Évalué à -10. Dernière modification le 24/01/16 à 19:26.

              Parle de choses que tu connais, s'il te plaît.

              Et toi arrete de parler au futur…

              Un rendement pas exceptionnel, mais très bon pour une techno qui a à peine 10 ans.

              Une techno ne s'ameliore pas avec l'age. elle s'ameliore si il est 'possible' de l'ameliorer.

              Une fabrication de cellules peu coûteuse en énergie et très peu polluante, un recyclage extrêmement facile.

              Ou quand comment….nulle part.
              Comme la plupart des decouvertes revolutionnaires…

              Et ca fait aussi 20 ans qu'on nous parle de revolution dans les piles.
              Je me marre.
              (non parce que ton electricite produite a midi, je m'en fous un peu, la il est 5 heures et il fait nuit)

          • [^] # Re: Inquiétude

            Posté par . Évalué à 1.

            Tu bosses pour une compagnie pétrolière ou nucléaire ?
            Ou tu parles juste sans savoir ?

          • [^] # Re: Inquiétude

            Posté par (page perso) . Évalué à 2.

            Et bien continue à penser.

            Pendant ce temps d'autres cherchent et innovent… et même financent en se disant que c'est l'avenir (pendant que certains bossent sur la récupération, d'autres bossent sur le stockage…).

            On verra bien dans 10 ou 20 ans où ça en sera. J'espère juste qu'une partie des développements et emplois se trouveront en France (vu un reportage hier soir sur une startup issue de l'École Centrale de Marseille, qui cumule photovoltaïque + thermique dans ses capteurs).

            Note: ça n'empêche pas de regarder le côté économies d'énergie par ailleurs.

            • [^] # Re: Inquiétude

              Posté par . Évalué à -9.

              Pendant ce temps d'autres cherchent et innovent… et même financent en se disant que c'est l'avenir (pendant que certains bossent sur la récupération, d'autres bossent sur le stockage…).

              C'est sur, les subventions d'etat dans ce domaine c'est l'avenir….
              On voit le resultat en Allemagne.

    • [^] # Re: Inquiétude

      Posté par (page perso) . Évalué à 4.

      car il n'y a pas de nouvelles méthodes pour tenter d'augmenter le nombre de calcul

      Ou alors, il n'y a plus d’intérêt financier à aller plus haut.
      Rappel : les machines ne sont pas installées pour le plaisir de rentrer dans le top 500. Il faut donc une utilité à dépenser de l'argent pour la recherche dans "plus".
      Si ça stagne, c'est peut-être que tout simplement on n'a pas besoin de plus de puissance "concentrée" (si c'est pour casser SSL et son SHA-256, avoir une ferme de machines indépendantes suffit, j'imagine que ça doit être aussi pareil pour plein de besoin genre météo etc).

      Reste donc, comme dit le premier commentaire, à s’intéresser à la puissance par W, ça peut être utile pour faire plaisir aux écolos (accessoirement baisser la facture, ou l'inverse).

      • [^] # Re: Inquiétude

        Posté par . Évalué à 2.

        Vu d'ici, les américains ont l'air d'investir pour éviter de perdre le concours de b. avec les chinois.

        Sinon d'un point de point de vue simulation, j'ai l'impression que cela se démocratise. Il existe des "cloud" de calcul, ce qui facilite l'usage de logiciel dédiés (genre ceux de mes employeurs ANSYS).

        "La première sécurité est la liberté"

      • [^] # Re: Inquiétude

        Posté par . Évalué à 2.

        Rappel : les machines ne sont pas installées pour le plaisir de rentrer dans le top 500. Il faut donc une utilité à dépenser de l'argent pour la recherche dans "plus".

        Je connais au moins une machine du top 500 qui a été construite non pas en réponse à un réel besoin, mais uniquement parce que politiquement ça en jette…

    • [^] # Re: Inquiétude

      Posté par . Évalué à 4.

      il n'y a pas de nouvelles méthodes pour tenter d'augmenter le nombre de calcul

      Peut-être aussi que ça ne sert pas à grand chose? Miner des Bitcoins? Casser du chiffrement?

    • [^] # Re: Inquiétude

      Posté par (page perso) . Évalué à 10.

      Y'a plein de facteurs qui rentrent en ligne de compte :
      - ce sont majoritairement des financements publics (pour les machines déclarées du top500), et y'en a plus beaucoup à cette échelle,
      - on atteint des limites physiques : Taille des salles, des clims, des alims électrique,
      - on atteint des limites sur l'interco (ben oui, tous ces CPU/GPU, faut qu'ils accèdent aux données, qu'ils discutent entre eux), sur le stockage et sur la programmation…

      Avec les technos d'aujourd'hui, il devient vraiment difficile de construire une machine à 300 000 cores CPU qui soit efficace (même en trichant avec les accélérateurs) dans un budget abordable (même pour une nation).

      Je parle pas d'un datacenter àla Google/Akamaï/Facebook, je parle d'une machine cohérente, avec un réseau d'interco à grand débit (>40GB/s), à faible latence (<1µs), avec moins de deux hop entre tous les cores CPU.

      En plus, ça devient un bordel à programmer avec les accélérateurs. On n'est plus dans les paradigmes "simples" que sont OpenMP et OpenMPI, on rajoute des couches (Cuda, OpenCL, ou la cuisine Intel). Déjà que la majorité des codes scientifiques courants n'arrivent pas à exploiter efficacement 128 cores… Et qu'il faut tous les reprendre…

      Sans oublier que certains passages à l'échelle, pour les codes qui scalent déjà bien, ne sont pas bloquant sur le nombre de cores de calcul exploitables, mais sur la quantité de mémoire par core de calcul, ou sur l'accessibilité de grands volumes de données par les cores (genre certains modèles de météo, de sismo, de mécaflu…) à des vitesses raisonnables.

      Et puis il y a aussi ce mur avec lequel tous les fabricants nous tannent depuis quelques années : l'EXASCALE !! En nous faisant aussi miroiter des trucs nouveaux trop bieng trop bieng de dans deux ans qui sont jamais dispo maintenant (l'arlésienne du memristor qu'accumule les années de retard, AMD et son architecture Fusion HPC). Donc, une grande partie des utilisateurs/financeurs sont attentistes. On renforce ce qui fonctionne, on apprends à bien exploiter le truc dans le datacenter avant de racheter encore un nouveau jouet au Dr. Machin (insert ici la discipline scientifique de ton choix).

      Ça explique le ralentissement observé ces dernières années…

      • [^] # Re: Inquiétude

        Posté par . Évalué à 4.

        D'ailleurs je me pose la question pour le top500 : est-ce que linpack est réécris pour chaque machine ? Comment est ce qu'on s'assure qu'il n'y a pas un biais logiciel ?

        Les logiciels sous licence GPL forcent leurs utilisateurs à respecter la GPL (et oui, l'eau, ça mouille).

        • [^] # Re: Inquiétude

          Posté par (page perso) . Évalué à 3.

          C'est compilé. Et y'a toujours un biais logiciel, vu que c'est optimisé au build pour l'architecture cible (y compris ram par core et interconnect).

          • [^] # Re: Inquiétude

            Posté par (page perso) . Évalué à 5.

            Lorsque tu tournes sur 50000 coeurs, tu compiles toujours pour l'architecture cible… Il serait complètement idiot de ne pas le faire pour linpack ! La question est plus sur la représentativité du linpack… IBM était par exemple connu pour faire des machines très bonnes au linpack à se demander si ce critère n'était pas pris en compte dès la conception. Il serait pus que temps de remplacer linpack par un panel de programme représentant les grands groupes des programmes réels.

          • [^] # Re: Inquiétude

            Posté par . Évalué à 3.

            Heureusement que c'est compilé, c'est même réécris sinon les architecture CUDA ne pourraient pas y participer. Justement ma question c'est de savoir comment est-ce qu'on garanti la qualité du code pour une plateforme donnée.

            Les logiciels sous licence GPL forcent leurs utilisateurs à respecter la GPL (et oui, l'eau, ça mouille).

            • [^] # Re: Inquiétude

              Posté par (page perso) . Évalué à 2.

              Qu'entends tu par qualité du code ? Le Linpack passe les cas tests, c'est tout ce qu'on lui demande ici. On s'en fou ICI de savoir s'il est joli, versionné…

      • [^] # Re: Inquiétude

        Posté par . Évalué à 1.

        Bonjour Lois,

        Qu'entends-tu pas "la cuisine Intel" ? Il est possible de programmer les Xeon et Xeon Phi de manière efficace avec le Fortran/C/C++, OpenMP 4.0 et MPI. Depuis la version 4 d'OpenMP, les informations pour la vectorisation (alignement par exemple) peuvent toutes être données avec cette norme et les pragma propriétaires Intel ne sont plus utiles.

        Pour ceux qui préférent le work-stealing au work sharing pour le multithreading (mais ce n'est surement pas le modèle à préconiser pour les calculs faits sur les machines du TOP 500), il y a TBB qui est Open Source.

  • # Il n'y a pas que linpack de nos jours: graph500

    Posté par (page perso) . Évalué à 1.

    http://www.graph500.org/

    Et la on voit que les japonais sont les gagnants
    avec le super-calculateur K du campus du RIKEN de Kobe.
    Le RIKEN c'est un peu le CNRS japonais.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.