Journal Top500 : La rétrospective des 15 ans.

Posté par  (site web personnel) .
Étiquettes :
0
1
mar.
2008
Cela fait 15 ans maintenant que le Top500 existe. C'est en juin 1993 qu'est apparu le premier classement des 500 ordinateurs les plus puissants du monde et, tous les six mois, cette liste est scrupuleusement mise à jour.
Nous avons donc maintenant 30 classements derrière nous et le boss du Top500, le professeur Meuer, a décidé que c'était l'occasion d'écrire un article récapitulatif pour célébrer cet anniversaire.

Autant vous le dire tout de suite cet article est une pure jouissance pour le geek qui sommeille en nous. C'est rempli de tableaux, de statistiques, de comparatifs de toutes sortes...et en plus il y a des prédictions technologiques à la fin du texte ! Rhaaa...le pied !
Je me le suis imprimé en couleur et j'ai passé les 2 dernières heures à tout scruter avec ravissement. Prenez par exemple la figure 14 qui concerne les systèmes d'exploitation. On voit parfaitement que l'apparition de Linux sur ce marché des superordinateurs date de 1999 et qu'il y a eu une accélération dramatique de l'adoption de Linux en 2003 au détriment des Unix propriétaires.
Incroyable de voir aussi sur la figure 17 que jusqu'en 1996 il y avait des ordinateurs qui faisait partie de la liste et qui n'avaient...qu'un seul processeur de calcul ! Un autre monde...

La figure 6 est également très intéressante puisqu'elle compare les constructeurs de superordinateurs de la première liste Top500 à ceux de la trentième. C'est bluffant de voir comment les deux grosses boites traditionnelles que sont IBM et HP ont réussi à reprendre le dessus sur la horde de petits constructeurs qui étaient dans la liste en 1993. Les Meiko, Thinking Machines, nCube et autres MasPar n'existent plus désormais.

Ce qui est proprement stupéfiant à propos du Top500 c'est que cela permet de faire des prédictions extrêmement précises. En juin 1997 le professeur Meuer a décidé de prendre un risque. A cette époque il n'y avait qu'un seul ordinateur dans le monde qui atteignait le Teraflops, le superordinateur ASCI Red au laboratoire Sandia au Nouveau-Mexique. Il a étudié soigneusement la droite du tracé des performances sur une échelle logarithmique qui se trouve à la figure 10 et il a fait la prédiction suivante: En juin 2005 tous les ordinateurs de la liste Top500 auront une puissance supérieure à 1 Teraflops. Les figures 11a, 11b et 11c montrent l'évolution du parc au cours de cette période et on voit qu'exactement en juin 2005, comme cela avait été prédit 8 ans plus tôt, le dernier ordinateur de la liste atteint la puissance d'1 Teraflops. Impressionnant !

Il y a plein d'autres données croustillantes dans l'article. Par exemple la figure 21 montre très bien la progression par plateaux successifs des performances des numéros 1 de la liste. Typiquement quand une très grosse machine s'empare de la couronne, elle la garde pour plusieurs éditions du Top500.
Et savez vous qu'un laptop contemporain de haut de gamme (7 Gigaflops) aurait fait partie de la liste des 500 superordinateurs les plus puissants du monde en 1997 ?

La figure 22 permet de voir ce qui va se passer dans les années à venir en utilisant la même technique de "prolongement de la droite".
Ainsi votre laptop aura une puissance de 1 Teraflops en 2014 (c'est à dire à peine 18 ans après l'apparition d'ASCI Red, le premier ordinateur Teraflops du monde). Il faut entre 6 et 8 ans pour que le numéro 1 de la liste dégringole à la 500ième place et il faut entre 8 et 10 ans pour que la puissance du 500ième devienne celle d'un vulgaire laptop.
Le professeur Meuer a donc énoncé, en toute confiance, une nouvelle prédiction: Alors que dans la dernière liste de novembre 2007 aucun ordinateur n'atteint le Pétaflops, en 2015 il n'y aura plus dans le Top500 que des superordinateurs dépassant ce seuil mythique.
J'ai hâte d'y être !
  • # Top500 : La rétrospective des 15 ans

    Posté par  . Évalué à 10.

    Super journal, très agréable à lire. J'en frétille encore =)
  • # Mode vieux chauve

    Posté par  . Évalué à 8.

    > (...) il y a eu une accélération dramatique de l'adoption de Linux (...)

    Mais c'est un Événement ou situation grave et tragique, présentant souvent un caractère violent, mortel ! C'était tellement mieux les Unix propriétaires.

    C'était la minute du chauveDÉ-GAR-NI.

    Sinon, très bien le résumé.
    • [^] # Re: Mode vieux chauve

      Posté par  . Évalué à 4.

      il y a eu une accélération dramatique de l'adoption de Linux
      traduction littérale de l'anglais "dramatic" = spectaculaire.
      Petit à petit, s'insinue tel un virus impitoyable dans le Français.
      • [^] # Re: Mode vieux chauve

        Posté par  . Évalué à 4.

        Petit à petit, s'insinue tel un virus impitoyable dans le Français.
        Ce virus s’insinue dans tous ceux qui parlent le français, pas que dans les Français…
      • [^] # Re: Mode vieux chauve

        Posté par  . Évalué à 3.

        C'est bien ce que je voulais faire remarquer. Ça me pique un peu les yeux, ce genre d'angliscisme.
      • [^] # Re: Mode vieux chauve

        Posté par  . Évalué à 6.

        Il est étonnant de parler d'un anglicisme ici...
        En effet, le terme dramatique dans le sens "peinture vive et animée de l'action, des évènements" est présente dès la 6ème édition du dictionnaire de l'Académie Française [http://colet.uchicago.edu/cgi-bin/dico1look.pl?strippedhw=dr(...)].
        Et ça date quand même de 1835.

        Alors, bon, comme anglicisme qui petit à petit s'insinue tel un virus impitoyable dans le Français, tu m'excuseras, mais on a vu mieux (Ou pire, c'est selon le point de vue).
        • [^] # Re: Mode vieux chauve

          Posté par  (site web personnel) . Évalué à 2.

          J'ajouterais que si vous regardez l'étymologie de dramatique vous ne devriez pas avoir les yeux qui piquent. Drama (grec et latin)=action jouée sur scène. Donc à moins d'être vous même acteurs du top500 "dramatique" décrit parfaitement les événements de cette scène. Au figuré il paraît naturel d'employer dramatique dans le sens de "spectaculaire" !
          J'en conclus que ce troll est a classer parmis les dommages collatéraux de la guerre contre la barbarie. Comme les victimes ne sont pas humaines et qu'il ne s'agit pas d'une guerre contre les barbares comme actuellement en France, je propose que nous en rions de bon cœur. La chasse est ouverte.
          ----> []

          « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

          • [^] # Re: Mode vieux chauve

            Posté par  . Évalué à 4.

            L’étymologie, c’est bien, mais il ne faut pas en rester au sens de l’étymon ou au sens premier du mot.
            En l’occurrence, « drame » a pris le sens de « tragédie » depuis un bon moment. Sans doute parce que les farces et autres comédies ont toujours été mal considérées (populaires, vulgaires, pas glop) et que les « seules vraies pièces sérieuses » sont des tragédies.
  • # Et le bilan écologique ?

    Posté par  (site web personnel) . Évalué à 3.

    Le type a fait une étude sur les polluants nécessaires pour faire ces machines ?
    et sur la capacité à recycler tout ou partie en fin de vie des coucous ?
    sur la quantité de prétrôle nécessaire pour tous les plastiques et autres polymeres présent dans un ordinateur ?

    Parce que c'est bien beau de nous promettre des PetaFLOPS pour 2015 ... encore faut il que cela soit écologiquement rentable ...
    • [^] # Re: Et le bilan écologique ?

      Posté par  . Évalué à 4.

      À la fin du rapport (que je n'ai que survolé), il y a une partie au sujet de l'initiative Green500, qui donne les machines qui ont le meilleur rapport puissance [de calcul/consommée], mais en effet, ils n'ont pas l'air d'envisager autre chose dans le coût énergétique.
    • [^] # Re: Et le bilan écologique ?

      Posté par  (site web personnel) . Évalué à 10.

      Sur l'écologie il faut souligner que toutes les modélisations environnementales et climatiques se font sur ces superordinateurs. C'est un peu dur de remettre en cause leur bilan alors qu'ils sont absolument cruciaux pour la compréhension du réchauffement climatique.
      Sans eux et les prévisions qu'ils génèrent pour les scientifiques il est probable que pas un politique n'aurait bougé le petit doigt pour prendre des mesures contre le réchauffement.

      Maintenant c'est vrai que le cycle de vie des superordinateurs est tellement rapide qu'il faut se préoccuper de leur recyclage.
      • [^] # Re: Et le bilan écologique ?

        Posté par  . Évalué à 2.

        Surtout que bien que cela fasse "peur", ce n'est pas la grosseur d'un calculateur qui est importante mais bien son rendement.

        Et côté rendement, il me semble que les noyaux unix font des efforts pour être plus "vert".

        L'autre question importante reste :
        "Quel est le taux d'occupation de ces gros calculateurs ?"

        S'ils sont utilisé à 10%, c'est vrai, c'est du gros gachi, sinon je crois pas qu'un gros calculateur à la place de milliers de petits soit pire...

        PS : tout ça en partant du principe qu'on construit un calculateur parce qu'on a des calculs à faire et non pas, on fait des calculs car on a construit un gros calculateur.
        • [^] # Re: Et le bilan écologique ?

          Posté par  . Évalué à 3.

          > S'ils sont utilisé à 10%, c'est vrai

          non ça, sans le savoir réellement, j'en doute fort fort.. rien qu'en sachant qu'il suffit d'augmenter la "finesse"/"résolution"/.. dans les simulations pour devoir utiliser plus de puissance..
          • [^] # bilan écologique : extrémement positif

            Posté par  (site web personnel) . Évalué à 4.

            En fait ces super calculateurs sont extrêmement écologique du point de vue des taux d'occupations. Tous ceux que j'ai utililisé jusqu'ici ont des taux d'occupations qui avoisinent les 80%. 80% car il faut tenir compte des difficultés de démarrage (configuration initiale, habitudes des utilisateurs ...), des noeuds réservés pour la gestion des espace disques et des connexions, et finalement des éventuelles maintenance. À côté ce sont vraiment les machines de bureau qui sont (ont étées ?) des sources de pollution effroyables. Quand on considère qu'un PC de bureau sous W$ occupe moins de 5% de sa capacité à travailler et que sur ces 5% en moyenne plus de 80% sont utilisés pour envoyer du SPAM ou lutter contre des trous de sécurité (firewall et anti-virus en espace utilisateur, i.e. après les failles de sécurité).

            Pour en revenir au sujet, un super calculateur est généralement utilisé par des centaines (voir des dizaines de milliers d'utilisateurs). Ils sont équipés de système de gestions de queues (batch) qui permettent que presque tous les processeurs soient utilisés au max.
            Du coup si on ajoute que le super calculateur fonctionne 24h/24 contrairement au bête PC, on a :
            - un rendement énérgétique bien meilleur (calculs contre idle)
            - une utilité du travail bien supérieur (calculs contre vers/spams/...)
            - une taux d'utilisations très supérieur sur la durée de vie qui "rentabilise" la pollution chimique (24h/24 pendant 5 à 10 ans contre 2h/24 pendant 3-6 ans).

            « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

            • [^] # Re: bilan écologique : extrémement positif

              Posté par  . Évalué à 2.

              Cela dit il faut aussi prendre en compte que la nature à horreur du vide.

              Avoir les queues pleines ne signifie pas que l'on fait quelque chose d'utile. Il y a de la puissance on s'en sert. Plus c'est facile à utiliser et plus on charge le bouzin :-)
      • [^] # Re: Et le bilan écologique ?

        Posté par  (site web personnel) . Évalué à -7.

        Sur l'écologie il faut souligner que toutes les modélisations environnementales et climatiques se font sur ces superordinateurs. C'est un peu dur de remettre en cause leur bilan alors qu'ils sont absolument cruciaux pour la compréhension du réchauffement climatique.
        Sans eux et les prévisions qu'ils génèrent pour les scientifiques il est probable que pas un politique n'aurait bougé le petit doigt pour prendre des mesures contre le réchauffement.

        Maintenant c'est vrai que le cycle de vie des superordinateurs est tellement rapide qu'il faut se préoccuper de leur recyclage.


        je ne veux pas troller mais :
        - je croyais que le réchauffement climatique et le fait que les ressources étaient limités étaient issu du bon sens et non de simulation Pet-a-flop-esque
        - je croyais que les prévisions météo de météo France était presques fiable pour des périodes de moins de 3 jours , et fiables pour 24h
        - il me semble que sur les 500 superConserves, toutes ne font pas des calculs météo ou climatique
        - à coté de cela, fabriquer du matériel top moumoute dans la course au plus grosse B...oite de conserve électronique, ca doit nécessité du prototypage, des tests, de l'électricité, du papier, de l'encre, puis la fabrication des prototype puis du produit fini, ca doit en consommer des ressources énergétiques, de la matière première, ... et ca doit en produire du dechet ...

        Donc, en fait, sans répondre, tu me confirme que tout le monde s'en fout que c'est comme d'habitude aux autres de faire des efforts et de montrer l'exemple ;)
    • [^] # Re: Et le bilan écologique ?

      Posté par  (site web personnel, Mastodon) . Évalué à 3.

      Pas besoin de gros calculateurs, nos ordis pourraient suffire :
      http://www.nojhan.net/geekscottes/index.php?strip=84
  • # Les petites boites

    Posté par  . Évalué à 3.

    C'est bluffant de voir comment les deux grosses boites traditionnelles que sont IBM et HP ont réussi à reprendre le dessus sur la horde de petits constructeurs qui étaient dans la liste en 1993. Les Meiko, Thinking Machines, nCube et autres MasPar n'existent plus désormais.

    Mais ont-elles été rachetées ou bien ont-elles disparues ?
    • [^] # Re: Les petites boites

      Posté par  (site web personnel) . Évalué à 3.

      Thinking Machines a été racheté par Sun et Meiko par Quadrics.
      En tout cas c'est marrant de voir que la floraison de compagnie qui a suivie l'arrivée des premiers ordinateurs parallèles s'est réduite ensuite comme peau de chagrin. Je n'ai pas l'impression qu'une seule de ces boites se soit imposé.
      C'est dire la difficulté de rentrer sur un marché dominé par des géants.
      • [^] # Re: Les petites boites

        Posté par  . Évalué à 6.

        Est-ce que les dirigeants de ces sociétés avaient pour objectif de les développer pour en faire des géantes ? Ou bien, préfèrent-ils monter des start-ups (ou glander après avoir vendu une société pour une fortune) ?
  • # Mais comment qu'on calcule la puissance de tout cela ?

    Posté par  (site web personnel) . Évalué à 1.

    Je me demandais : comment on calcul combien de flop a un ordinateur ? J'imagine que c'est un algorithme qui effectué des calcul et qu'il y a un rapport de calcul effectué à la seconde ? Et on peut avoir ça chez soit pour arrêter de tenter de frimer avec les bogomips ?
  • # et la panète?

    Posté par  . Évalué à 3.

    C'est pas très geek d'imprimer tout ça et en couleur en plus!
  • # Hum

    Posté par  . Évalué à 10.

    Et savez vous qu'un laptop contemporain de haut de gamme (7 Gigaflops) aurait fait partie de la liste des 500 superordinateurs les plus puissants du monde en 1997 ?

    Non, mais je sais que mon Oric Atmos aurait été premier de la liste en 1812…

    ⟶[]
  • # La figure 14

    Posté par  (site web personnel) . Évalué à -3.

    Oh oui, c'est du bon la figure 14 !

    Encore encore, c'est trop bon. Hmmm oui encore !
  • # Cray

    Posté par  (site web personnel) . Évalué à 10.

    Ce qui est particulièrement intéressant c'est de voir la part de marché de Cray Research diminuer en 1993 et aujourd'hui (41 % contre 2,8 % en 2007).

    Derrière tout cela, il y a un évènement technologique : la victoire du microprocesseur.

    Pendant longtemp, la force des cray était d'assembler massivement des circuit intégrés contenant quelques portes, mais très rapides. Le Cray 1 était de cette race là, avec des IC de type ECL avec 2 portes NAND qui contenait quelques portes (moins de 10), alors qu'à l'époque on commençait à avoir des microprocesseurs complet... qui tournait 100 fois moins vite.
    Il faut savoir que le premier ordinateur à utiliser des circuits intégré, était l'ordinateur de bord des missions apollo qui était lui aussi constitué de puces contenant 4 portes NAND.
    Le Cray1 était un gigantesque empilage de circuits intégré (248832) qui formait une espèce de Pentium II, très orienté calcul vectoriel.

    Le microprocesseur n'était pas vraiment considéré comme quelques chose de sérieux par les vieux de la vieille et Saymour Cray, qui n'a accepté d'utiliser des circuit intégré à la place des transistors qu'en 1976 avec le Cray 1 (il a conçu pas mal de CDC avant). Auparavant il faisait tout en transistor....

    Jean-Louis Gassée racontait qu'un peu avant sa mort, Seymour Cray lui avait dit "ça va, j'ai compris, je vais arrêter de faire des machines avec des circuits intégré, je vais me mettre aux microprocesseurs"

    Autant concevoir des super ordinateur avant 1990 m'aurait fait triper, autant maintenant, ça consiste principalement à empiler des intel core quad, des cell ou autres choses, et s'arracher la tête à gérer la communication entre les noeuds de sorte à optimiser le flux au maximum. C'est surement intéressant pour certains.

    Je me demande, s'il ne serait pas possible de faire tourner une machine à 50 Ghz, en utilisant non plus des processeurs du marché, mais des puces dessinées pour l'occasion, avec des technologies capable de supporter de telles fréquences, sachant qu'évidemment, on mettrait beaucoup moins de transistors dessus

    « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

    • [^] # Re: Cray

      Posté par  . Évalué à 4.

      > Je me demande, s'il ne serait pas possible de faire tourner une machine à 50 Ghz, en utilisant non plus des processeurs du marché, mais des puces dessinées pour l'occasion, avec des technologies capable de supporter de telles fréquences, sachant qu'évidemment, on mettrait beaucoup moins de transistors dessus.

      Je pense en effet que ce serait possible (IBM a déjà publié des articles parlant d'arriver sur des circuits travaillant à 100 GHz d'ici à 2010, mais juste des trucs simples, comme sur un vieux Cray[1]). Cependant, à mon avis, le problème est le coût de réalisation d'une telle machine, extrêmement spécialisée pour un marché de niche : les coûts de développement et de production en matière de semi-conducteurs sont de plus en plus élevés, donc le retour sur investissement de moins en moins intéressant.
      Il serait intéressant de savoir si le coût au MFlop a suivi une progression linéaire, logarithmique, etc, mais l'auteur de l'article mentionne à la fin qu'ils ne les connaissent pas. Dommage.


      [1] mal formulé, mais il y a longtemps que je n'ai plus fait d'électronique. Les 100 GHz correspondent à une histoire de temps de commutation sur un transistor, je crois, mais, c'est une horloge diffcile à propager sur un circuit imposant.
    • [^] # Re: Cray

      Posté par  (site web personnel) . Évalué à 3.

      Je suis un peu d'accord avec toi, les machines du top 500 ne font pas spécialement rêver pour la plupart. Celle que j'aime bien :

      - les SGI Altix 4700 qui permettent d'avoir une machine a noyau unique ayant plus de 1024 coeurs !

      - les NEC SX9 a processeurs vectoriel qui sont les dignes descendantes des Cray d'autrefois.

      Ces deux machines ne sont pas dans la même gamme tarifaire et ne se font pas concurrences directement.

      Les cluster Infini-band à base Xeon, ca marche mais c'est pas pareil...
      • [^] # Re: Cray

        Posté par  (site web personnel) . Évalué à 2.

        Bah le Blue Gene/P il est pas mal non plus => http://en.wikipedia.org/wiki/Bluegene#Blue_Gene.2FP
        Dans sa configuration maximum il monte jusqu'à 884736 processeurs. Presqu'un million de processeurs !
        • [^] # Re: Cray

          Posté par  (site web personnel) . Évalué à 3.

          Oui mais il n'y a pas qu'un OS sur le Blue Gene... Et puis, je n'aime pas AIX (même si les noeuds du Bleu Gene tourne sous Linux)... Et puis, IBM est très très fort au Linpack mais pas forcément sur les applications de la vraie vie. Bref, j'attends mieux personnellement d'IBM et je ne suis pas sur que ce soit les machines les plus écologiques.
          • [^] # Re: Cray

            Posté par  (Mastodon) . Évalué à 2.

            Si, c'est écologique, les premières machines du Green500 sont toutes des IBM et même des Blue Gene.
          • [^] # Re: Cray

            Posté par  . Évalué à 5.

            En pratique, les Blue Gene sont des machines NUMA donc en mémoire distribuée ( http://en.wikipedia.org/wiki/Non-Uniform_Memory_Access ). Ce genre de machine est bien connu des chercheurs et numériciens, car c'est avec ça qu'ils ont dû composer pendant des décénies (les systèmes à mémoire partagée sont relativement récents).

            Un supercalculateur est un ordinateur spécialisé au même titre qu'une console de jeu selon moi, et doit donc être programmé correctement; je ne vois pas ce qui est choquant là-dedans. Les « applications de la vraie vie », ce sont des simulations météorologiques, tout un tas de simulations qui concernent le nucléaire (Department Of Energy, Commissariat à l'Énergie Atomique), la sismologie, et de façon générale tout ce qui concerne la modélisation de phénomènes physiques de grande envergure.

            Bref, effectivement, Linpack est rigolo comme outil de mesure de performance brute (il n'y a presque pas de communication entre les coeurs de calcul, donc effectivement, les machines d'IBM ont l'avantage du coup), mais il existe tout un tas d'autres applications (ScaLapack par exemple) qui permettent de résoudre un ensemble non négligeable de problèmes liés à des systèmes d'équations linéaires (dont se servent les numériciens tous les jours).

            Bottom line : quelle que soit la machine de calcul, elle sert vraiment, et est vraiment utilisée. Le gros problème provient surtout de l'allocation des noeuds de calculs. Certains calculs ne nécessitent que la moitié d'un noeud, d'autres plusieurs noeuds à la fois, etc. Faire un ordonnanceur de batches qui soit efficace pour boucher les trous sans faire perdre trop de performance globalement est une tâche ardue.
        • [^] # Re: Cray

          Posté par  (site web personnel) . Évalué à 4.

          Il y a peu de programmes qui reste efficasse au dela des 1000 processus en MPI (je ne te parle pas d'OpenMP qui s'écroule bien avant). Alors, 884736 processeurs, c'est à mon avis pour dire qu'ils ont la plus grosse. J'aimerais voir un programme qui tourne avec 100% de la machine !

          IBM a décidé d'avoir toutes les premières places du TOP 500 mais je suis de plus en plus persuadé que ce classement n'est pas le plus intéressant de tous, même s'il a son utilité. D'ailleurs, il a reculé ces derniers temps même s'il maintient sa vraie fausse première place (c'est en effet un centre de recherche IBM / DoD la première place).
          • [^] # Re: Cray

            Posté par  (site web personnel) . Évalué à 3.

            Oui voilà tiens merci, c'est ce que j'avais intuitivement dans la tête en initiant ce fil (enfin je pense) :
            Je t'ai souvent lu expliquer que même avec les meilleurs libs, on ne peut pas exploiter plus de quelques milliers de processus.

            En 1995, j'imagine qu'il était largement faisable d'exploiter toute la puissance de la première au top 100, aujourd'hui çe devient plus des fermes de calculs, incapable de gérer des programmes difficilement parallelisable qui atteignent une complexité trop grande.
            C'est pour ça que le top 100, qui m'excitait quand j'étais gosse, ne m'inspire maintenant qu'un très vague intérêt.

            Je crois qu'il va falloir qu'on attende les ordinateurs quantiques pour revoir des choses intéressantes.

            Et là, la recherche sur la preuve de programme montrera toute son utilité.

            « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

            • [^] # Re: Cray

              Posté par  . Évalué à 2.

              les architectures matérielles utilisées sont quand même, amha, intéressantes.

              C'est bizarre, personne n'a parlé de barcelon avec son cluster de ps3, je trouve ca bien marrant moi ;)
            • [^] # Re: Cray

              Posté par  (Mastodon) . Évalué à 6.

              Hola, il ne faut pas croire qu'on ne sait pas exploiter des milliers de processeurs efficacements. On ne sait pas le faire avec OpenMP/MPI qui sont de vieux modèles de programmation parallèle, mais on sait le faire avec des autres modèles de programmation. Et pas besoin d'aller chercher des labos américains, on le fait très bien dans nos petits labos français.

              La preuve [1] : une vraie application qui tourne sur 3654 processeurs chargé au maximum pendant plusieurs dizaines de minutes.

              [1] http://www-id.imag.fr/Laboratoire/Membres/Gautier_Thierry/Pe(...)
              • [^] # Re: Cray

                Posté par  . Évalué à 3.

                L'année prochaine on devrait pouvoir faire le 5000 ! À noter que ce ne sont pas des super calculateurs mais des ensemble de clusters. Il y a aussi la couche réseau à gérer.

                Le problème est de faire scaler des applications parallèles fortement communicantes avec point de synchro. L'idée de nos jours c'est de réduire au maximum les communications et le partage de données (cf map/reduce, les architectures space based ou REST). Mais ce n'est pas applicable dans tout les cas.

                Au fait, des applications sur 3000+ cores on le fait en java et ça tourne plutôt bien :-)
                • [^] # Re: Cray

                  Posté par  . Évalué à 5.

                  > Au fait, des applications sur 3000+ cores on le fait en java et ça tourne plutôt bien :-)

                  Il faut bien ça !

                  hop, pula ===> []
              • [^] # Re: Cray

                Posté par  (site web personnel) . Évalué à 5.

                >On ne sait pas le faire avec OpenMP/MPI qui sont de vieux modèles de programmation parallèle, mais on sait le faire avec des autres modèles de programmation.

                Tu me vois ravi d'apprendre ça. Il va aussi falloir que je prévienne mes collègues (d'un gros labo américain, d'ailleurs cité dans le journal) ainsi que les contructeurs de matériel que MPI c'est dépassé et inefficace.

                Je suis d'accord pour dire que pour certaines applications, MPI/C n'est peut-être pas idéal, mais la plupart des applications de la vraie vie que je connais l"utilise plutôt bien. Ensuite, le calcul sur la grille part d'une bonne idée, mais vouloir adapter ce modèle à tous les problèmes est à mon avis une erreur. J'aimerai bien voir comment coder un solveur numérique efficace sur la grille par exemple. Donc oui, les grilles de clusters c'est bien quand on peut acheter que ça, mais une vraie machine avec des réseaux rapides, c'est quand même mieux pour le cas général.

                Autre chose, depuis quand on mesure les performances d'un code par rapport à sa charge CPU ? Parce que si tu veux, je peux moi aussi coder une machine virtuelle qui bouffe du cpu :) *

                *: cette remarque n'altère en rien la qualité du travail que tu cites, je veux juste préciser que ta métrique est étrange. On pourrait aussi comparé les chaleurs dégagées par l'éxécution des programmes ou encore leurs incidences sur la facture électrique, ça me paraitrait aussi fiable et représentatif.
                • [^] # Re: Cray

                  Posté par  (Mastodon) . Évalué à 2.

                  Ma remarque sur la charge était pour répondre à Sytoka Modon qui disait : "J'aimerais voir un programme qui tourne avec 100% de la machine !". Je lui en ai montré un.

                  Et quoi que tu en dises, oui, MPI est un vieux modèle. Il est très utilisé certes, ça ne veut pas dire qu'il résout tous les problèmes, loin de là. MPI, en dehors d'un cluster, point de salut. Or, les clusters, saibien mais l'avenir, c'est les grilles : il n'y a quà voir le CERN qui prépare une grille gigantesque pour faire les calculs sur les résultats du futur accélérateur de particules géant.

                  Et une grille, ça ne s'achète pas, c'est "juste" une agglomération de clusters. Et si tu ne sais pas programmer sur ce genre d'architecture, et bien ça ne sert à rien de les agglomérer. Les clusters, ça n'est pas extensible à l'infini donc ça ne répond pas à toutes les problématiques.
                  • [^] # Re: Cray

                    Posté par  (site web personnel) . Évalué à 2.

                    Je pense que les grilles de l'avenir seront d'avantage des grilles de gros clusters (cela semble être le choix du DOE) où chaque cluster tournera son propre code sur une partie de physique et où la grille ne servira qu'à coupler les codes.

                    Cependant, il reste important que ces clusters soient gros car pour l'instant la plupart des problèmes ne se modélisent déjà pas très facilement sur les clusters avec des réseaux rapides, alors sur la grille ... Et sur un cluster, je pense que MPI et MPI/threads ont encore de beaux jours devant eux, de même que OpenMP que certains compilateurs semblent capables de transformer en MPI pour sortir du noeud. Après, si tu connais d'autres modèles de programmation qui au final permettent le même niveau de performance, je suis intéressé.

                    Sinon pour le CERN je ne sais pas s'ils font de très grosses simulations ou un très grand nombre de "petites" auquel cas une grille de petits clusters est parfaitement adaptée. (après, il reste la question du budget : on ne choisit pas toujours ce que l'on voudrait).
                    • [^] # Re: Cray

                      Posté par  . Évalué à 3.

                      La majorité des applications qui tournent sur EGEE sont non communicantes. Des millier de job batch indépendants.

                      Vous pouvez vous battre autant que vous voulez vous avez tout les deux raisons. Pour le calcul numérique pur MPI va très vite. C'est un peu l'ASM du calcul parallèle. C'est merdique à utiliser, c'est vieux, c'est moche mais ca bastonne si c'est utilisé a bon escient. Pour toutes les applis ou on peut un minimum découper les données les grilles sont un bien meilleur investissement.

                      En ce qui concerne le calcul brute mono core, la techno on s'en fou, on a des benchs java ou on est devant du fortran...

                      Il y a des besoins pour les deux approches, le public n'est pas le même.
                      Bref chacun voit le monde selon dans quoi il travaille...
                      • [^] # Re: Cray

                        Posté par  (site web personnel) . Évalué à 1.

                        Je suis tout à fait d'accord avec toi ; mais il reste qu'à l'heure actuelle le haut du top 500 reste occupé par des machines construites pour des simulations scientifiques et je voulais juste signifier que dans ce domaine, les vieux modèles de programmation sont loin d'être obsolètes (le fortran si par contre;)) et que l'on sait les utiliser dans codes exploitant correctement plusieurs milliers de processeurs.

                        Par contre, je me permets de douter de la qualité de programmation de tes benchs fortran.
                        • [^] # Re: Cray

                          Posté par  . Évalué à 2.

                          NAS benchmark de la NASA: http://www.nas.nasa.gov/Resources/Software/npb.html

                          On a voulu voir ce que ca donnait quand on allait jouer sur le terrain des autres. Implémentation des kernels NAS sur notre middleware faite par des stagiaires, c'est clairement en notre défaveur côté optimisation. Y'a un papier qui passe à IPDPS en mai avec les résultats. Grosso modo on est devant pour IS et pour FT on obtient les même perfs.
          • [^] # Re: Cray

            Posté par  (site web personnel) . Évalué à 3.

            >>> Alors, 884736 processeurs, c'est à mon avis pour dire qu'ils ont la plus grosse. J'aimerais voir un programme qui tourne avec 100% de la machine !

            Alors pourquoi le CNRS vient-il d'acheter une machine Blue Gene/P le mois dernier ?
            Le communiqué de presse : http://www2.cnrs.fr/sites/communique/fichier/dp_calculateur.(...)
            1à armoires Blue Gene/P (pour 139 Tflops) + 8 armoires Power6 (pour 68 Tflops). Pas mal le bestiau !

            Je pense qu'après une période d'attente les grands centres de calcul commencent à se procurer des superordinateurs basés sur l'architecture Blue Gene. Certes tous les codes de calculs ne sont pas adaptés à ce parallélisme extrême mais quand le problème est bien adapté alors ça doit booster.
            • [^] # Re: Cray

              Posté par  (site web personnel) . Évalué à 6.

              > Alors pourquoi le CNRS vient-il d'acheter une machine Blue Gene/P le
              > mois dernier ?

              Bonne question. Il n'y a pas eu d'appel d'offre à ma connaissance et nous avons appris cette annonce dans "le monde" ! Je ne comprends pas pourquoi les autres constructeurs ne font pas appel en justice de cette décision.

              Par ailleurs, la machine ne sera pas donné à 100% pour un programme. C'est une ferme de calcul utilisable par toute la communauté scientifique. A mon avis, si tu arrives à tirer déjà que 10% des ressources de la future machine, c'est bien.

              Bref, je ne sais pas exactement comment est la machine mais cela doit être un cluster de cluster. Je doute que MPI soit efficasse sur la globalité.

              Sur le papier, c'est beau. Pleins de chercheur de pleins d'équipe vont pouvoir faire des calculs parallèle en parrallèle... Bref, cela répond à un besoin de calcul répartis. Mais en puissance pure sur un code ?

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.