Le Top 500 de juin 2014

Posté par (page perso) . Édité par Xavier Teyssier et tankey. Modéré par Xavier Claude. Licence CC by-sa
Tags :
48
23
juin
2014
Technologie

Le quarante-troisième Top 500 des supercalculateurs mondiaux est sorti aujourd’hui à l’occasion de la conférence International Supercomputing de Leipzig en Allemagne.

Rappelons que le Top 500 se base sur une soumission volontaire (de nombreuses machines puissantes mais classifiées ne participent pas à la course) et sur un comparateur de performances spécifique extrêmement parallélisable (le code LINPACK, qui concerne la résolution de systèmes d’équations linéaires).

L’analyse dans la suite de la dépêche.

Boring ?

Le développeur Linux bien connu Arnd Bergmann a qualifié ce classement de "Most boring #top500 list ever" et il faut bien reconnaitre qu'on trouve assez peu de surprises dans ce top 500 de juin 2014.
Pour la troisième fois d'affilée, le supercalculateur Tianhe-2 est en tête de liste avec un score (inchangé) de 33,86 pétaFLOPS. Les neuf premiers de la liste sont d'ailleurs exactement les mêmes qu'en novembre dernier et il faut attendre la dixième place pour avoir une petite nouveauté à se mettre sous la dent. Il s'agit d'un Cray XC30 mesuré à 3,14 pétaFLOPS et installé dans un centre de recherche américain non dévoilé.

Comme le souligne Arnd, la diversité technique se réduit encore un peu plus puisque la dernière machine vectorielle (l'Earth Simulator 2) a été éjectée du classement. Tout ce qui subsiste ce sont des clusters de processeurs scalaires (en majorité des x86-64 mais aussi plusieurs POWER).
Même si nous sommes assez loin d'une architecture révolutionnaire et exotique, espérons toutefois que la future montée en puissance dans les datacenters des coeurs de calcul ARM64 entrainera un certain renouvellement au sein du Top 500.

L’évolution par pays

Les USA voient leur total de machines baisser de 265 à 233 dans cette nouvelle liste de juin 2014, tandis que la Chine reprend sa marche en avant et passe de 63 à 76 supercalculateurs.
Ce nombre s'approche du total combiné des trois plus grandes nations européennes (Grande-Bretagne avec 30 machines, France avec 27 machines et Allemagne avec 23) ce qui souligne le dynamisme effréné de la Chine dans cette course mondiale.
La première machine française reste le calculateur Pangea de la firme Total. Son score de 2 098 TFLOPS le classe en seizième position (deux places de moins par rapport à la liste précédente).

Statistiques sur la liste

Le ticket d’entrée pour accéder à cette liste Top 500 de juin 2014 est de 133,7 TFLOPS. Il était de seulement 117,8 TFLOPS il y a six mois.
Si l’on s’intéresse à la puissance cumulée des 500 machines, on arrive à un total de 274 pétaFLOPS. Là encore, l’évolution est notable, puisque le score cumulé était de 250 pétaFLOPS en novembre dernier, et de 223 pétaFLOPS il y a un an.
On trouve maintenant trente‐sept supercalculateurs à plus d’un pétaFLOPS dans la liste, alors qu’ils n’étaient que trente-et-un il y a six mois.
Le nombre moyen de cœur de calcul des machines de cette nouvelle liste Top500 est de 43 301 cœurs par système. Il était de 41 434 il y a six mois et de 38 700 il y a un an.

Enfin le dernier de la liste était encore en position 384 il y a six mois dans le classement de novembre dernier. Cette chute dans le classement est la plus faible enregistrée depuis deux décennies et elle constitue un nouvel indice pour caractériser cette édition comme étant un mauvais cru.

Les systèmes d’exploitation

Encore une micro-progression pour l'OS au manchot puisque les machines tournant sous Linux sont désormais 485 au lieu de 482 il y a six mois. Cela représente 97% du total des machines et même 98,2 % en terme de capacité de calcul.

  • # distribution linux

    Posté par . Évalué à 5.

    Quand on a 97% de part de marché, il serait intéressant de connaître les distributions utilisées :
    http://www.top500.org/statistics/list/

    Malheureusement, il y a beaucoup de linux sans plus de précisions…

    Dommage pour le troll ;)

    • [^] # Re: distribution linux

      Posté par . Évalué à 2.

      Je pense qu'il s'agit de distribution "sur mesure, mais c'est vrai qu'il doit y avoir une base de paquets .deb .rpm ou autres.

      Cette liste est vraiment ennuyeuse si aucun trolls velus ne s'y cache…

      "Gentoo" is an ancient african word, meaning "Read the F*ckin' Manual". "Gentoo" also means "I am what I am because you all are freaky n3rdz"

    • [^] # Re: distribution linux

      Posté par . Évalué à 6.

      Si on exclut quelques trucs bizarres (BlueGene et Cray notamment), une très grande majorité tourne en distro RPM, notamment du CentOS, RHEL et SUSE.

      • [^] # Re: distribution linux

        Posté par (page perso) . Évalué à 3.

        Tu te doutes bien que le format de paquet est totalement secondaire pour le choix d'une distribution pour de telles machines.

        • [^] # Re: distribution linux

          Posté par (page perso) . Évalué à 10.

          Bien évidemment, c'est l'environnement de bureau disponible par défaut qui a été leur critère de choix numéro 1.

        • [^] # Re: distribution linux

          Posté par (page perso) . Évalué à 6.

          Tu te doutes bien que le format de paquet est totalement secondaire pour le choix d'une distribution pour de telles machines.

          Ah bon ?

          La plupart des centres de calcul privilégient les distributions supportées par les constructeurs pour leur matériel donc généralement ça se limite à du RHEL/Suse… Pour ceux qui veulent éviter de payer des licences, les issues de secours sont Centos et Scientific Linux.

          Mais le format des paquets et le choix de la distrib est bien souvent simplement dicté par les contrats de support du constructeur, les critères techniques (performances, possibilité de tuning et d'intégration, etc) ne sont généralement pas pris en compte…

          Quelques irréductibles (avec des compétences en interne) utilisent Debian (ou autre) mais c'est parfois un peu rock n' roll :)

    • [^] # Re: distribution linux

      Posté par . Évalué à 5.

      À ma connaissance, certains clusters de calcul en france utilisent scientific Linux

  • # Top500aaS

    Posté par . Évalué à 7.

    On voit de plus en plus d'offre pour des supercalculateurs que l'on peut louer à la demande. Est-ce qu'il y en a qui se rapproche du Top500 ?

    • [^] # Re: Top500aaS

      Posté par . Évalué à 2.

      Oui, bien sûr : tu peux louer du temps de calcul sur JUQUEEN, notamment.

  • # Décevant oui!

    Posté par . Évalué à 6.

    Est ce que les grandes entrées tonitruantes dans ce classement sont finies?
    Même la vitesse d'augmentation des puissances a ralentie.
    Il faut dire que les consommations électricité atteintes deviennent titanesque.

    Faut-il regarder du cote du green500 pour retrouver un peu de bataille?

  • # Prévisions ?

    Posté par (page perso) . Évalué à 7.

    Cette dépêche aurait été plus attirante avec quelques tracés de courbes sur les dernières années, et d'essayer de prévoir le prochain Top 500.

    • FLOPS / temps ;
    • FLOPS / Watt ;
    • Watt / temps ;
    • ?

    Merci quand même !

    • [^] # Re: Prévisions ?

      Posté par . Évalué à 10.

      J'ai vu un présentation de Wu Feng (un des créateurs du Green500) la semaine dernière, ce qu'il fallait en retenir :
      - le top500 ne va pas beaucoup évoluer dans les semestres à venir. Le coup énergétique pour faire tourner ces machines est devenus trop élevé.
      - En regardant l'efficacité énergétique des machines du Green500, on remarque que les meilleures machines sont toutes hétérogènes (CPU+accélérateurs (GPU ou MIC)). Actuellement, le top10 du Green500 c'est du Nvidia.
      - Les 2 points précédents font que la prochaine grosse machine serra sûrement un cluster de GPU. D'autant plus que les GPU sont de plus en plus indépendants du CPU.
      - Du coté ARM, le projet Monc-Blant se fait attendre.
      - Du coté CPU, la seule façon d'augmenter l'efficacité énergétique de manière conséquente est de diminuer la vitesse de l'horloge (et d'augmenter le nombre de cores pour garder les mêmes performances). Des processeurs cadencés en dessous des 800MHz ne le surprendrai pas.

      • [^] # Re: Prévisions ?

        Posté par (page perso) . Évalué à 7.

        le top500 ne va pas beaucoup évoluer dans les semestres à venir. Le coup énergétique pour faire tourner ces machines est devenus trop élevé.

        A vrai dire, ce n'est pas très étonnant. Ce sont en général des clusters inter-connectés en InfiniBand (même IBM s'y est mis) donc cela a un coût. Or qui utilise réellement 100_000 coeurs pour un calcul ? Dans mon laboratoire, nous avons lancé un code qui scale bien jusqu'à 15_000 coeurs (CPU, pas GPU) mais combien de code sont efficaces à ce niveau là ET nécessite une interconnexion rapide ? Attention, on parle ici de HPC, pas de grille…

        • [^] # Re: Prévisions ?

          Posté par . Évalué à 2.

          Multiplier de grosses matrices est l'exemple qui me vient en tête.

          Sur les logs de Curie on peut voir passer des codes utilisant 60k cores.

      • [^] # Re: Prévisions ?

        Posté par . Évalué à 2.

        "Des processeurs cadencés en dessous des 800MHz ne le surprendrai pas."

        Intel avait fait une démo avec une techno autour de 0.6V de fonctionnement fait avec un pentium. Il tournait autour de 800 Mhz, avec une consommation très basse. Mais il était 4x plus gros.

        "La première sécurité est la liberté"

  • # Ticket d’entrée

    Posté par . Évalué à 1.

    Avec un pareil ticket d'entrée, il n'est pas étonnant que le Top 500 ne change plus.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.