Sortie du Top 500 de juin 2013

Posté par (page perso) . Édité par Davy Defaud, Xavier Claude et Nÿco. Modéré par patrick_g. Licence CC by-sa
51
17
juin
2013
Technologie

Le quarante‐et‐unième Top 500 des super‐calculateurs mondiaux est sorti aujourd’hui à l’occasion de l’International Supercomputing Conference qui a lieu à Hambourg en Allemagne.

Rappelons que le Top 500 se base sur une soumission volontaire (de nombreuses machines puissantes mais classifiées ne participent pas à la course) et sur un comparateur de performances spécifique extrêmement parallélisable (le code Linpack qui concerne la résolution de systèmes d’équations linéaires).

L’analyse dans la suite de la dépêche.

Sommaire

Voie Lactée 2

Tianhe-2

Le numéro un de ce nouveau Top 500 de juin 2013 est la machine Tianhe-2, qui souffle ainsi la première place au Titan de Cray qui était le champion en titre.
Il est à noter que les administrateurs de Titan au laboratoire national d’Oak Ridge aux États‐Unis ont décidé de ne pas faire tourner à nouveau le test Linpack depuis leur dernière passe de novembre 2012. Dans la liste Top 500, la machine reste donc bloquée à 17,59 pétaFLOPS, alors qu’elle aurait sans doute pu grapiller un ou deux pétaFLOPS de plus du fait des optimisations. Il a été estimé que l’arrivée de Tianhe rendait ce nouveau test Linpack inutile :

To be honest, we decided at this point not to waste any more time. We know that the Chinese machine is going to blow us out of the water.

Cette décision a sans doute été judicieuse, car le supercalculateur Tianhe-2 a effectivement pulvérisé toute la concurrence lors de cette édition du Top 500. Le score Linpack obtenu est de 33,86 pétaFLOPS mesurés, pour un maximum théorique de 54,90 pétaFLOPS. Bien entendu, la consommation atteint, elle aussi, des sommets avec 24 MW au total.

Le supercalculateur a été décrit en détails dans un rapport écrit par le Dr Jack Dongarra du laboratoire national américain d’Oak Ridge, qui est l’un des fondateurs du classement Top 500. C’est à la suite d’une conférence en Chine, pour participer au Forum international HPC, que ses collègues chinois lui ont organisé une visite guidée de la machine.

Tianhe-2 (ce qui signifie « Voie Lactée 2 ») est une machine hybride installée au Centre national de supercalculateurs de Guangzhou — National Supercomputing Center in Tianjin. Quand sa construction sera terminée, à la fin de l’année, elle contiendra 16 000 nœuds de calcul. Chacun de ces nœuds est constitué de deux processeurs Intel Xeon à douze cœurs cadencés à 2,2 GHz, ainsi que de trois cartes accélératrices Intel Xeon Phi ayant chacune 57 cœurs de calcul à 1,2 GHz.
Si l’on fait le calcul de la puissance théorique en double précision, cela donne ceci :

  • Xeon classiques : 2 × 12 cœurs × 8 FLOPS/cycle × 2,2 GHz = 422,4 GFLOPS ;
  • cartes Phi : 3 × 57 cœurs × 16 FLOPS/cycle × 1,1 GHz = 3 009 GFLOPS.

La puissance théorique combinée d’un seul nœud de calcul est donc de 422,4 + 3 009 = 3 431 GFLOPS. Il suffit ensuite d’assembler 16 000 nœuds de ce genre pour avoir Tianhe-2, c’est à dire un monstre d’une puissance crête théorique de 54,9 PFLOPS.
La mémoire est de 88 Gio par nœud, pour un total de 1 404 Tio sur la machine complète. Il faut également ajouter les 12,4 Pio du système de stockage. La consommation totale des nœuds (processeurs, mémoire, interconnexions) est de 17,8 MW, mais, si l’on ajoute le refroidissement, on arrive à 24 MW.

Une autre caractéristique assez remarquable de Tianhe-2 est le fait qu’en plus des nœuds de calcul basés sur des processeurs Intel, il existe aussi un frontal constitué de 256 processeurs FT-1500. Ces processeurs sont une production locale à 16 cœurs utilisant l’architecture SPARC et cadencés à 1,8 GHz. Bien entendu, ces 4 096 cœurs de calcul sont bien loin de pouvoir égaler les processeurs occidentaux de la machine principale, mais ils sont la preuve que la Chine travaille à son indépendance technologique.

Une seconde preuve est le fait que les interconnexions de Thianhe-2 ne doivent rien à Intel. Il s’agit d’une création de la National University of Defense Technology (NUDT) qui porte le nom de « TH Express-2 ». Les puces optoélectroniques sont gravées en 90 nm et ont un débit de 2,56 Tbps.

Au niveau des logiciels, on retrouve du très classique avec un noyau Linux (une variante locale nommée Kylin Linux), une gestion des ressources basée sur SLURM et des piles logicielles OpenMP et MPI 3.0.

Les autres machines

La seconde position du classement revient donc à la machine Titan, avec ses 17,59 pétaFLOPS. On peut noter que l’efficacité du supercalculateur est très bonne puisqu’il ne consomme que 8,21 MW, ce qui conduit à un ratio de 2 143 MFLOPS/W. En comparaison, le Tianhe-2 obtient un ratio de 1 901 MFLOPS/W (si on ne considère que les 17,8 MW de la consommation des nœuds).

En troisième position se trouve la machine Sequoia, un supercalculateur IBM BlueGene/Q de 17,17 pétaFLOPS. Ce score est un peu plus élevé que les 16,32 pétaFLOPS du précédent classement, alors que matériellement la machine est identique (toujours 1 572 864 cœurs de calcul cadencés à 1,6 GHz). C’est donc le résultat d’une optimisation logicielle.

La première machine européenne est le supercalculateur JUQUEEN du centre de recherche allemand de Jülich. Son score Linpack est de 5 pétaFLOPS, et il arrive en septième position dans ce Top 500.

Statistiques sur la liste

Le ticket d’entrée pour accéder à cette liste Top 500 de juin 2013 est de 96,6 TFLOPS. Il était de seulement 76,5 TFLOPS il y a six mois.
Si l’on s’intéresse à la puissance cumulée des 500 machines, on arrive à un total de 223 PFLOPS. Là encore l’évolution est notable, puisque le score cumulé était de 162 PFLOPS en novembre dernier et de 123 PFLOPS il y a un an. C’est donc presque un doublement des performances en 12 mois !

La domination d’Intel se fait de plus en plus forte, puisque 80 % des machines sont équipées par des processeurs de ce constructeur (403 supercalculateurs exactement). Le score d’Intel était de 76 % il y a six mois. On note toutefois qu’IBM reste la firme ayant le pourcentage le plus élevé de puissance installée (33 %). Cela s’explique par le fait que les machines BlueGene d’IBM, bien que beaucoup moins nombreuses que les calculateurs Intel, sont souvent aux premières places du classement.

L’évolution par pays

En termes de répartition géographique, les États‐Unis conservent leur prééminence (252 machines sur 500) et l’Europe remonte un petit peu (112 machines, alors qu’il n’y en avait que 105 la dernière fois). Cette petite remontée de l’Europe ne lui permet pas de ravir la seconde place à l’Asie qui, avec 119 machines dans le Top 500, stabilise sa progression.
Au sein de l’UE, c’est le Royaume‐Uni qui est en tête avec 29 machines, mais la France (23 machines) et l’Allemagne (19 machines) ne sont pas très loin.

Petite curiosité, le premier supercalculateur français est une machine privée utilisée par la firme pétrolière Total. Le calculateur Pangea obtient un score Linpack de 2 098 TFLOPS et se situe en onzième position du classement. Comme l’indique le très politiquement correct communiqué de presse, cette machine sera mise à disposition du :

services d’Imagerie et d’Interprétation sismique du Centre de recherche pétrolière de Total. Il sera utilisé comme un outil d’aide à la décision pour l’exploration de zones géologiques complexes et pour accroître l’efficacité de la production d’hydrocarbures dans le respect de la sécurité et de l’environnement.

Les systèmes d’exploitation

Enfin, comme il est de tradition, penchons nous maintenant sur la répartition par système d’exploitation. Cette nouvelle liste de juin 2013 nous indique que les machines fonctionnant sous Linux sont maintenant au nombre de 476 (soit 95,2 % du classement), alors qu’elles étaient 469 (93,8 %) il y a six mois et 462 (92,4 %) il y a un an.
Comme les 24 machines qui ne sont pas sous Linux sont plutôt en bas de la liste, le score en termes de puissance cumulée est encore plus flatteur pour le système d’exploitation au manchot. Sur les 223 PFLOPS générés par les 500 machines de la liste, il y en a 217,9 (soit 97,4 %) qui viennent de supercalculateurs basés sur Linux. Difficile de faire mieux !

  • # Idem

    Posté par (page perso) . Évalué à 10.

    Pareil chez moi : processeur Intel, système Linux… tout pareil, je vous dis !

    • [^] # Re: Idem

      Posté par (page perso) . Évalué à 6.

      Peut-être que dans 30 ans le smartphone de base sera plus puissant que le numéro 1 actuel de ce top 500…

      « I approve of any development that makes it more difficult for governments and criminals to monopolize the use of force. » Eric Raymond

      • [^] # Re: Idem

        Posté par (page perso) . Évalué à 5.

        Peut-être que dans 30 ans le smartphone les smartglasses/smartwatches de base seront plus puissants que le numéro 1 actuel de ce top 500…

        • [^] # Re: Idem

          Posté par (page perso) . Évalué à 4.

          les smartglasses/smartwatches les implants bioniques

          « I approve of any development that makes it more difficult for governments and criminals to monopolize the use of force. » Eric Raymond

          • [^] # Re: Idem

            Posté par (page perso) . Évalué à 2.

            Les puces qu'on va te mettre dans le cul?

            Écrit en Bépo selon l’orthographe de 1990

        • [^] # Re: Idem

          Posté par (page perso) . Évalué à 6.

          Peut-être que dans 30 ans l'ordiphone les ordilunettes/ordimontres de base seront plus puissantes que le numéro 1 actuel de ce top 500…

          Double combo grammar nazi!

          Écrit en Bépo selon l’orthographe de 1990

  • # Dans la série "Tianhe-2 est un monstre"

    Posté par (page perso) . Évalué à 10.

    Une comparaison sous forme graphique des scores des 10 premières machines (image tirée de cet article).
    On se rend mieux compte de l'écart comme ça je trouve.

    comparaison graphique

    • [^] # Re: Dans la série "Tianhe-2 est un monstre"

      Posté par . Évalué à 8.

      En tout cas, les carte phy d'intel ont montré leur efficacité, le ratio puissance max et réel est supérieur à 50%, ce n'est pas le cas des gpu en général.

      "La première sécurité est la liberté"

      • [^] # Re: Dans la série "Tianhe-2 est un monstre"

        Posté par . Évalué à 4.

        Comme toujours, tout depend de ce que tu compares. J'arrive sans probleme a atteindre 99% de la puissance theorique sur un gpu, il suffit d'un programme qui fait relativement peu de requete memoire et qui fait des calculs tres long sans branchement ou boucle avec suffissament de thread pour saturer l'occupation de toutes les unites de calculs.

        Alors on pourra dire que c'est pas le cas de tout les programmes mais c'est justement tout l'interet des gpus, etre tres bon sur une sous classe de probleme particulier. Note que tu peux reecrire beaucoup d'algorithm pour les rendre GPU friendly, il y a des plusieurs ouvrages qui traitent de ces aspects.

        Un vieille example avec du code qui montre comment on peut effectivement approcher le peak computation power sur les gpus :
        http://emmes.livejournal.com/4211.html

        Donc non les carte phi sont loin de faire aussi bien que les gpus sur certaines classes de problemes.

        Si tu as des articles de gens qui se pleignent je suis interessais pour apprendre de leur erreurs.

        • [^] # Re: Dans la série "Tianhe-2 est un monstre"

          Posté par . Évalué à 2.

          "Donc non les carte phi sont loin de faire aussi bien que les gpus sur certaines classes de problemes."

          Si le problème en question est de faire de la 3D ?

          Ce que l'on demande est de faire de l'écoulement de fluide, en général au test linpack, les gpu étaient sous les 50% de puissance réel.

          "La première sécurité est la liberté"

          • [^] # Re: Dans la série "Tianhe-2 est un monstre"

            Posté par . Évalué à 4. Dernière modification le 21/06/13 à 01:40.

            Il n'y pas que la 3d, certains algo de simulation physique une fois adapte au gpu tourne bien plus vite que sur cpu.

            http://www.nvidia.com/object/computational_fluid_dynamics.html

            La litterature scientifique commence aussi a s'etoffer sur le sujet, google scholar donne plusieurs articles.

            Pour linpack il manque une reecriture des algo pour gpu. Oui faire tourner un code qui marche bien sur cpu est souvent desastreux sur gpu.

          • [^] # Re: Dans la série "Tianhe-2 est un monstre"

            Posté par . Évalué à 5.

            Tiens en cherchant un poil

            http://hpl-calculator.sourceforge.net/Howto-HPL-GPU.pdf

            GPU efficiency 62% / 73% donc bien superieur a 50%, mais oui inferieur au 99% d'efficiency d'un cpu pour ce type de problemes. Mais pour d'autre probleme comme navier-strokes les gpu avec un bon algo atteigne une efficiency > 90% quand on sait que le peak gflops d'un gpu est largement superieur a celui d'un cpu alors on comprend tout l'interet qu'ils ont.

            Et de plus ici on parle d'efficiency, donc si tu as un gpu qui atteind 50% mais qui a une puissance de calcul theorique deux fois superieur a un cpu alors tu vas aussi vite que le cpu, tu gaspilles juste des resources.

  • # La question a 1 giga yuan...

    Posté par (page perso) . Évalué à 2.

    A quoi ça sert autant de puissance?

    • [^] # Re: La question a 1 giga yuan...

      Posté par . Évalué à 10.

      Prévisions météo, calculs boursiers… simulations pour universités…

      • [^] # Re: La question a 1 giga yuan...

        Posté par (page perso) . Évalué à 2.

        Je me demande si le prestige n'y est pas aussi pour beaucoup.

        Dans la plupart des cas en diminuant d'un chouia la précision d'un modèle, on peut se contenter d'une machine beaucoup plus raisonnable. Après dans certains cas très précis le chouia en question peut en valoir la chandelle.

        • [^] # Re: La question a 1 giga yuan...

          Posté par (page perso) . Évalué à 5.

          Mouai. Pourquoi vouloir réduire la précision d'un modèle si on peut augmenter la puissance et le gérer ?
          Surtout si on commence à réduire la précision, où s'arrêter ?

        • [^] # Re: La question a 1 giga yuan...

          Posté par (page perso) . Évalué à 2.

          d'un chouia la précision d'un modèle

          Justement, c'est ce "chouia" qui est recherché, tiens!
          Un chouia de manque de précision et hop, tes nuages se déplacent de quelques km pas prévus, raté.

          • [^] # Re: La question a 1 giga yuan...

            Posté par (page perso) . Évalué à 4.

            Non, tu perds quelques heures de précision sur 4 jours, dans le cas de la météo. Le coût augmente exponentiellement avec l'éloignement dans le temps de la prévision.

          • [^] # Re: La question a 1 giga yuan...

            Posté par . Évalué à 2.

            http://www.youtube.com/watch?v=ymjSNaqZLps pour ceux qui veulent de la précision :)

            "La première sécurité est la liberté"

            • [^] # Re: La question a 1 giga yuan...

              Posté par . Évalué à 3.

              Bizarrement, pour la video, ils n'ont pas fait l'interview avec les mecs qui bossent vraiment sur le cluster. M'enfin c'est vrai que John le gros geek barbu surnommé "The Linux Gimp" et son collegue pas aimable qui dit environ 3 mots par mois, ca aurait peut-etre pas été super vendeur…

              • [^] # Re: La question a 1 giga yuan...

                Posté par . Évalué à 3.

                Alors que le mec qui sors des généralités sur internet, c'est super :)

                • [^] # Re: La question a 1 giga yuan...

                  Posté par . Évalué à 2.

                  Au détail pres que ce que j'ai dit ne sont pas des généralités. Quand je bossais chez Red Bull, j'ai failli passer coté HPC, et les 2 personnes qui y bossent sont vraiment comme ca, surnom inclus. Ca n'empeche pas le John en question d'etre tres bon et sympa. Apres, le public visé est plus CfD que HPC.

                  • [^] # Re: La question a 1 giga yuan...

                    Posté par . Évalué à 3.

                    Hum, pour deux personnes correspondant à un stereotype, tu fais quand même une belle généralité.

                    Mais bon, c'est pas bien méchant :)

        • [^] # Re: La question a 1 giga yuan...

          Posté par (page perso) . Évalué à 10.

          C'est pas le prestige d'avoir la plus grosse machine, c'est le prestige de faire la prochaine grosse avancée en science. Comme qui dirait je ne sais plus qui :

          "Physicists have a talent for producing equations that they are quite unable to solve"

          Et c'est malheureusement vrai, pour beaucoup de problème on ne connait que la méthode "brute force"…

          Quelques exemples d'applications possibles :
          - Dynamiques des fluides : Grand systèmes (Courant à l'échelle planétaire, étude d'un avion "entier" en haute résolution) études des turbulences (applications : météos, aéronautique…)
          - Méchanique quantique : pouvoir dépasser les 100 atomes par simulations pour se rapprocher de systèmes plus intéressants (et là les applications sont innombrables, parce que ça concerne tous les matériaux). Dans ces systèmes, la complexité augmente de l'ordre de 103-105 avec le nombre d'atomes, pour un travail en 3 dimensions, c'est très vie ingérable.
          - pis plein d'autre surement … chercher "exascale computing" (par exemple : http://science.energy.gov/~/media/ascr/ascac/pdf/reports/Exascale_subcommittee_report.pdf) pour voir pourquoi c'est important (et pourquoi ça pose tant de problème aujourd'hui)

          • [^] # Re: La question a 1 giga yuan...

            Posté par . Évalué à 2.

            C'est pas le prestige d'avoir la plus grosse machine, c'est le prestige de faire la prochaine grosse avancée en science.

            Les machines du Top500 (celles destinées au HPC qui font du PFlops) ont deux utilités bien distinctes qu'il ne faut pas confondre : la science et la technologie.

            Du côté technologique, la puissance de ces outils de calcul permet des gains de temps (très utiles pour l'industrie) et de précision (à plus long terme pour la prévision météorologique par exemple). Ces outils trouvent leur légitimité par le fait que le temps c'est de l'argent.

            Du côté scientifique on nous rebat régulièrement les oreilles avec toujours les mêmes sujets restreints : climatologie, géophysique, neurosciences, … De plus les domaines d'application des machines les plus puissantes sont très limités : soit des machines moins performantes (de l'ordre du TFlops) ont déjà permis d'obtenir des résultats, soit la puissance nécessaire reste trop faible (il faudrait des machines de l'ordre de l'HFlops). Bref c'est d'un intérêt limité. Au passage, si la recherche scientifique était l'objectif réellement visé, on serait en droit d'attendre que le financement de ces outils de calcul haute performance soit assuré par une collaboration mondiale et non pas nationales (France, USA, Chine, Japon) ou communautaire (Europe).

            Au final, j'y vois surtout un intérêt pour l'industrie. D'une part ça permet à des grands groupes informatiques de développer, tester et vendre leur matériels. Et à d'autres de tirer profits (exploitation à desseins commerciaux), de ces outils sous-exploités scientifiquement et souvent financés par de l'argent public. L'intérêt du HPC me semble indéniablement et quasi exclusivement économique ; la science n'étant qu'un argument de vente.

            • [^] # Re: La question a 1 giga yuan...

              Posté par (page perso) . Évalué à 4.

              Au passage, si la recherche scientifique était l'objectif réellement visé, on serait en droit d'attendre que le financement de ces outils de calcul haute performance soit assuré par une collaboration mondiale et non pas nationales (France, USA, Chine, Japon) ou communautaire (Europe).

              Parce que d'habitude, c'est le cas pour la recherche scientifique ? On arrive à peine à avoir du financement communautaire pour certains sujet.

              « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

              • [^] # Re: La question a 1 giga yuan...

                Posté par . Évalué à 3.

                Parce que d'habitude, c'est le cas pour la recherche scientifique ?

                On parle ici de machines coûteuses à construire et exploiter (plusieurs millions d'euros), pour lesquelles la collaboration internationale trouverait tout son intérêt (comme pour les projets : génome, ITER, LHC, …) si le but était bien scientifique.

                On voit qu'en réalité il y a surtout une volonté des états à conserver la main (par le financement exclusif) afin de protéger des intérêts économiques "locaux". Les enjeux économiques constituent la priorité.

                • [^] # Re: La question a 1 giga yuan...

                  Posté par (page perso) . Évalué à 4.

                  (comme pour les projets : génome, ITER, LHC, …)

                  Qui sont bien plus l'exception que la norme et qui ont des budgets ponctuels et comlètement hors norme. Le LHC, c'est un investissement pour longtemps, un supercalculateur, ça a une durée de vie de quelques années (Roadrunner a tenu de 2009 à 2013).

                  « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

                  • [^] # Re: La question a 1 giga yuan...

                    Posté par . Évalué à 0.

                    Le LHC, c'est un investissement pour longtemps, un supercalculateur, ça a une durée de vie de quelques années

                    Puisque la recherche scientifique demande du temps, la justification du HPC "pour la science" n'en est que plus hypocrite. D'autant plus qu'avec une volonté politique volontariste, il serait possible de créer un centre mondial pérenne de HPC à but scientifique (basé sur un financement et un renouvellement régulier du matériel).

                    • [^] # Re: La question a 1 giga yuan...

                      Posté par (page perso) . Évalué à 5.

                      D'autant plus qu'avec une volonté politique volontariste, il serait possible de créer un centre mondial pérenne de HPC à but scientifique

                      Et là, tu retrouve un des gros problème à chaque fois qu'on fait un truc du genre : Où on le fait et pourquoi on le fait chez le voisin et pas chez moi, ça ferrait plus d'emploi/de revenus

                      Et l'autre problème, c'est que tu dis que ça n'aide pas la « science » mais tu parle de quoi ? Le LHC ou ITER, ce sont des domaines super précis. Les supercalculateur dans la mécanique des fluides, ici quelqu'un expliquait qu'il faisait de la simulation de déclenchement d'avalanche sur ce genre de machine. Ce n'est pas de la science ? Et si non, c'est quoi la science ?

                      « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

                      • [^] # Re: La question a 1 giga yuan...

                        Posté par . Évalué à 1.

                        Et là, tu retrouve un des gros problème […]

                        C'est bien parce que la volonté politique n'y est pas et donc que la science ne constitue pas la priorité du HPC tel qu'il est pratiqué par les états.

                        Et l'autre problème […] ici quelqu'un expliquait qu'il faisait de la simulation de déclenchement d'avalanche sur ce genre de machine. Ce n'est pas de la science ?

                        La recherche scientifique a pour objectif de fournir une explication à un phénômène. Dans le cas de ces simulations d'avalanche (dont je n'ai pas retrouvé le lien) on peut dire que les phénomènes sont connus et intégrés dans la programmation de la simulation. Il n'y a rien de fondamentalement nouveau. Mis à part le résultat de la simulation et l'importance relative à accorder à chaque phénomène pris en compte (qui permettent d'améliorer la modélisation), il n'y a pas de réelle découverte scientifique en vue.

                        Les cas où le HPC permet une avancée scientifique majeure (découverte ou mise en évidence d'un phénomène inconnu, explication nouvelle, …) sont plutôt rares.

                        PS : je ne parle pas des avancées techniques visées par l'industrie (augmentation des performances, réduction des coûts, …).

                      • [^] # Re: La question a 1 giga yuan...

                        Posté par . Évalué à -3.

                        il faisait de la simulation de déclenchement d'avalanche sur ce genre de machine

                        Ca n'a rien de révolutionnaire. Ca fait au moins 15 ans qu'on fait de la simulation de déclenchement d'avalanche avec des logiciels comme FLAC 3D sur PC. En fait la plupart des labos se satisfont d'un ordi à moins de 100 TFlop/s . Le top 500 c'est pour les cas particuliers.

                        • [^] # Re: La question a 1 giga yuan...

                          Posté par . Évalué à 2.

                          Et combien ont les compétences ou l'argent pour administrer une telle machine ? Parce que des cluster des 200 PC ont été monté et sont très peu utilisés.

                          Je serais curieux de savoir, si des "petits super ordinateur", trouverait plus d'applications (gros PC bisocket avec 4 ou 5 GPU) ou une seul armoire rempli de serveur lame relié par un gros switch.

                          "La première sécurité est la liberté"

                          • [^] # Re: La question a 1 giga yuan...

                            Posté par (page perso) . Évalué à 3. Dernière modification le 24/06/13 à 17:18.

                            Je serais curieux de savoir, si des "petits super ordinateur", trouverait plus d'applications (gros PC bisocket avec 4 ou 5 GPU) ou une seul armoire rempli de serveur lame relié par un gros switch.

                            Supermicro fait de chouettes cartes mères, par exemple celle-ci :
                            http://www.supermicro.com/Aplus/motherboard/Opteron6000/SR56x0/H8QG7-LN4F.cfm
                            H8QG7-LN4F

                            Qu'on retrouve dans ce genre de bête :
                            http://www.supermicro.com/products/chassis/4U/748/SC748TQ-R1400.cfm

                            SC748TQ-R1400B

                            • 4 sockets (jusqu'à 64 cœurs)
                            • 4 ports PCI Express (dont deux x16)
                            • jusqu'à 1To de ram

                            Aussi, SGI avait sorti l'Octane III : un super ordinateur de bureau
                            http://www.sgi.com/products/remarketed/workstations/octaneIII.html
                            SGI Octane 3

                            Avec deux config possible :

                            • 10 nœuds pour un total de 120 cœurs (deux proco 6 cœurs par nœud) et 1920Go de ram (192Go de ram par nœud)

                            • 2 nœuds pour un total de 24 cœurs (idem) et 384Go de ram (idem) et 4 Tesla (2 par nœud)

                            Donc les configs existent… après je ne sais pas si c'est très utilisé…

                            ce commentaire est sous licence cc by 4 et précédentes

                            • [^] # Re: La question a 1 giga yuan...

                              Posté par . Évalué à 1.

                              Il faudrait voir les prix. Si la boite de 12 PC, coute (beaucoup) plus chère que 12 Pc, j'imagine que cela ne se vendra pas trop.

                              "La première sécurité est la liberté"

                            • [^] # Re: La question a 1 giga yuan...

                              Posté par . Évalué à 1.

                              D’ailleurs vu les prix d'une config quad-socket, je pense qu'il pourrait être intéressant d'avoir un boitier qui embarque 4 cartes mère 1 socket ou plus, relié en interne par un switch ethernet. C'est plus gros, mais beaucoup moins chère. Il "suffirait" qu'une seul carte mère puisse avoir des cartes PCI-express.

                              "La première sécurité est la liberté"

                              • [^] # Re: La question a 1 giga yuan...

                                Posté par . Évalué à 3.

                                Un quad-socket coûte notablement plus qu'un bi-socket tout simplement parce que tu y gagnes en latence et sur le fait que tu partages de la mémoire. C'est un plus indéniable sur un truc genre Ethernet (même 10Gbps). En HPC une faible latence (oublions la mémoire partagée 2s) est quelque chose d'extrêmement précieux.

                                • [^] # Re: La question a 1 giga yuan...

                                  Posté par . Évalué à 1.

                                  Dans l'absolu, c'est évident. Mais c'est complètement faux si tu rajoutes l'équation économique. Si tu veux le max puissance de puissance réel pour 5k€, je ne suis pas sûr qu'une solution quad-socket (et donc avec des Xeon, plus chère), soit plus rapide que 4 carte mère avec des Core i7 rapide. En plus pour diminuer la latence, cela ne doit pas être complexe de mettre 4 liens ethernet par carte pour relier chaque carte mère une à une.

                                  "La première sécurité est la liberté"

                                  • [^] # Re: La question a 1 giga yuan...

                                    Posté par . Évalué à 3.

                                    Mon labo a acheté un nœud de calcul AMD (Bulldozer), 4 sockets, 12 cœurs par chip (techniquement 2×6 cœurs, m'enfin…), 128GB DDR3. Je crois que ça nous a coûté dans les 6000$ en tout. Certes, le cluster a été acheté par la fac, et ensuite les nœuds sont mutualisés : un nœud acheté par une entité pourra être utilisé par d'autres s'il est idle, ce qui je trouve est normal. Par contre, si je pousse du boulot sur notre file d'attente perso, alors j'ai priorité. Et aussi, tout ce qui est stockage a été mutualisé (avec du Lustre, etc.). Donc mon labo n'a pas eu à supporter le coût d'achat initial de l'infrastructure. Par contre, comme c'est un modèle extensible, on pourrait racheter un nœud si on le désirait. Je trouve que c'est un bon compromis : on fait payer l'infra à un groupe d'entités (en pratique, il s'agit ici de la fac pour laquelle je bosse), et on paie individuellement pour certaines ressources, à un prix correc'.

                                    À l'opposé et pour aller dans ton sens, nous avons aussi acheté un nœud de calcul quad-socket pour SandyBridge (24 cœurs/48 threads en tout), avec aussi 128GB, et un peu de stockage. Celui-ci nous a coûté aux alentours de 10 000$, et en plus il faut que nous l'administrions nous-même.

                                    Enfin, tout dépend œuf corse des applications à faire tourner. Pour certaines, la latence, tout autant que le débit, sont importants (je pense notamment aux applis qui font dans l'algèbre linéaire creuse, ou bien certains parcours de graphes, etc.). Pour d'autres, Ethernet suffit largement.

                                    Cependant dans le cadre du HPC, je peux te garantir que si tu peux te passer de l'overhead de MPI et passer par de la mémoire partagée, le gain en vitesse, bien que « juste » constant, peut être significatif (×2, ×4, etc.). Je n'irais pas jusqu'à dire un ordre de grandeur, mais parfois presque. Ce n'est pas pour rien que pour les gros clusters (genre celui de ma fac), on passe par de l'infiniband : la latence est un tueur de perfs.

                                    • [^] # Re: La question a 1 giga yuan...

                                      Posté par . Évalué à 2.

                                      Vous avez combien d'admin pour les 2 noeud de calcul ? Cela ne serait pas mieux mutualisé, si les noeuds était à l'Idris ? J'ai l'impression que les fac font leur tambouille juste pour éviter de la gestion administrative. Je me trompe ?

                                      Ensuite, un PC multi socket reste un PC, c'est donc facile à gérer. J'imagine que cela compte aussi.

                                      -"Cependant dans le cadre du HPC, je peux te garantir que si tu peux te passer de l'overhead de MPI et passer par de la mémoire partagée, le gain en vitesse, bien que « juste » constant, peut être significatif "_

                                      J'en suis persuadé, mais vous ne réutilisez jamais de code commun ou générique écrit uniquement en MPI ?

                                      "La première sécurité est la liberté"

                                      • [^] # Re: La question a 1 giga yuan...

                                        Posté par . Évalué à 2.

                                        Vous avez combien d'admin pour les 2 noeud de calcul ? Cela ne serait pas mieux mutualisé, si les noeuds était à l'Idris ?

                                        Dans le cas des nœuds AMD, le cluster complet a une équipe de sysadmins. Ça fait partie des coûts mutualisés d'infrastructure.

                                        Dans le cas du nœud Intel, seul notre labo y a accès et donc nous nous chargeons de faire l'admin. Je suis dans un labo de « computer engineering », donc nous faisons plutôt la programmation de couches basses, et ça nécessite de pouvoir activer/désactiver certaines fonctionnalités du matériel, ce qui évidemment est impossible si on n'a pas un contrôle total du nœud de calcul (ce qui est le cas avec la machine AMD).

                                        J'ai l'impression que les fac font leur tambouille juste pour éviter de la gestion administrative. Je me trompe ?

                                        Je ne pourrais pas te dire. Je bosse dans une fac US. Dans notre cas je ne pense vraiment pas. Le cluster est réellement utilisé autant par les chimistes que les mécaniciens ou les informaticiens.

                                        Après, je me souviens avoir discuté avec un admin (bossant à Troyes je crois bien), qui se désolait du fait que chaque fac ou centre de recherche voulait son cluster (qui du coup va être occupé à 25%), alors qu'il serait tellement plus économique qu'elles mutualisent les ressources et achètent un seul cluster partagé, avec une équipe d'admins uniques…

                                        [à propos de l'overhead MPI dont les équipes HPC veulent se débarrasser] J'en suis persuadé, mais vous ne réutilisez jamais de code commun ou générique écrit uniquement en MPI ?

                                        Si bien sûr, mais un bon runtime MPI va utiliser des segments de mémoire partagée pour éviter la duplication inutile de files de messages, lorsqu'on est en intra-nœud. Ensuite je me répète, mais si les centres de calcul utilisent de l'InfiniBand (ou du Quadrics pour les plus fortunés), c'est aussi parce que pour un débit pas forcément beaucoup important que du Ethernet 10Gbps, on a une latence inférieure de plusieurs ordres de grandeur… Et aussi que la fiabilité de ce genre de réseau comparé à Ethernet est bien meilleure.

                                        • [^] # Re: La question a 1 giga yuan...

                                          Posté par . Évalué à 2.

                                          "Après, je me souviens avoir discuté avec un admin (bossant à Troyes je crois bien), qui se désolait du fait que chaque fac ou centre de recherche voulait son cluster (qui du coup va être occupé à 25%), alors qu'il serait tellement plus économique qu'elles mutualisent les ressources et achètent un seul cluster partagé, avec une équipe d'admins uniques…"

                                          En même temps, une "université" US n'est pas du tout la même chose qu'une "Université" Française. A moment, ils voulaient créer l'université de Paris, en fusionnant tous les numéros pour augmenter leur masse critique. Ainsi chaque université pourrait avoir son cluster mais réellement utilisé. Ou alors, il faut rendre obligatoire la disponibilité du cluster pour d'autre université pour les creux.

                                          "La première sécurité est la liberté"

                                          • [^] # Re: La question a 1 giga yuan...

                                            Posté par . Évalué à 2.

                                            En même temps, une "université" US n'est pas du tout la même chose qu'une "Université" Française.

                                            Nous sommes d'accord. En plus, je crois bien que ma fac veut vendre du temps de calcul aux boites alentours… ;-)

                                            A moment, ils voulaient créer l'université de Paris, en fusionnant tous les numéros pour augmenter leur masse critique. Ainsi chaque université pourrait avoir son cluster mais réellement utilisé. Ou alors, il faut rendre obligatoire la disponibilité du cluster pour d'autre université pour les creux.

                                            Houla, je ne pensais même pas jusque là. L'admin dont je parlais ne parlais QUE de sa région géographique. Il avait en tête deux universités (dont l'UTT) et un centre de recherche, qui pour des raisons plutôt « territoriales » voulaient chacun LEUR centre.

                                            • [^] # Re: La question a 1 giga yuan...

                                              Posté par . Évalué à 2.

                                              Et le pire est qu'un cluster pas trop chère devient obsolète en 3 ans. Finalement un PC de compétition à l'air très rentable.

                                              "La première sécurité est la liberté"

                                              • [^] # Re: La question a 1 giga yuan...

                                                Posté par . Évalué à 2.

                                                Seulement si la quantité de travail à lui fournir ne varie pas. Ce qui généralement n'est pas le cas pour les centres de calcul (modèles plus précis nécessitant plus de puissance de calcul, ou bien tout simplement même modèle, mais avec une machine plus puissante, on traite des problèmes plus gros).

                                                Ensuite, dans de « vrais » centres HPC, un cluster dure quand même au moins cinq ans. Étant donné le nombre de personnes qui l'utilisent, ça reste correct.

                          • [^] # Re: La question a 1 giga yuan...

                            Posté par . Évalué à 1.

                            Et combien ont les compétences ou l'argent pour administrer une telle machine ?

                            Les compétences c'est rarement le problème dans la recherche.

                            L'argent par contre c'est autre chose. Parce que si un labo n'a pas les moyens de financer ce genre de mise en oeuvre, il n'aura pas non plus de quoi se payer des heures de calcul sur HPC. En plus il faut rajouter le temps d'attente, car on accède pas au HPC sans passer devant les commissions chargées d'attribuer les ressources…

                            • [^] # Re: La question a 1 giga yuan...

                              Posté par . Évalué à 1.

                              Il fut un temps ou des labos avait l'argent pour se payer des clusters de PC mais l'utilisait très peu faute d'administrateur système. Si ce gachis est terminé, c'est tant mieux.

                              "La première sécurité est la liberté"

                              • [^] # Re: La question a 1 giga yuan...

                                Posté par . Évalué à 2.

                                Si ce gachis est terminé, c'est tant mieux.

                                C'est plutôt difficile de quantifier le gâchis. Il y a cluster et cluster. Le gâchis est modéré quant on exploite le temps d'inactivité des micros reliés en réseau dans une université, ou quand on monte un serveur de calcul avec des cartes graphiques du commerce.

                                Par contre remplacer ces systèmes par un gros ordinateur de plusieurs PFlops sous-utilisé avec des comités scientifiques/techniques/administratifs qui en limite l'accès, ça peut vite finir en gâchis. Enfin "gâchis" c'est un point de vue … certains le balaieront en arguant du fait que la préparation d'un champion d'échec sur Blue Gene/P constitue une avancée scientifique de premier plan :)

                                • [^] # Re: La question a 1 giga yuan...

                                  Posté par . Évalué à 1.

                                  Il y a 2 façon de voir le HPC : un service d'état qui gère "plein" de machine, cluster de PC et autre, spécialisé dans l'administration de ses machines, avec un comité d'expert pour évaluer l’intérêt d'un projet, mais surtout un but de faire tourner les machines 100% du temps (ça c'est le gâchis potentiel).

                                  L'autre façon, c'est un labo qui a eu une subvention européenne, achète 250 Dell core i7, relié par ethernet, et dont 2 thésards gère l'administration et en même temps essaye d'écrire leur code.

                                  Devine laquelle des 2 solutions offrent moins de gâchis potentiel ?

                                  Si il est tellement difficile de passer l'étape du comité scientifique et que les machines ne tournent pas 100% du temps, ils pourraient créer des créneaux de temps court, "premier arrivé premier servi" pour combler les troues.

                                  "La première sécurité est la liberté"

                                  • [^] # Re: La question a 1 giga yuan...

                                    Posté par . Évalué à 0.

                                    Les 250 Dell core i7 ça peut se revendre, se réutiliser immédiatement pour de nouvelles simulations, ou se transmettre à un autre labo.

                                    Devine laquelle des 2 solutions offrent moins de gâchis potentiel ?

                                    Les deux solutions ne s'excluent pas, elles n'ont ni les mêmes avantages ni les mêmes inconvénients. Tout dépend de ce qu'on met dans le gâchis : coût financier, retard pris, réactivité dans les changements d'axe de recherche, acquisition de nouvelles compétences de l'équipe de recherche …

                      • [^] # Re: La question a 1 giga yuan...

                        Posté par . Évalué à -3.

                        Ce n'est pas de la science ?

                        Faire tourner le bousin en modifiant les paramètres pour valider un modèle, j'appelle ça du débugage ou de l'optimisation :)

                        • [^] # Re: La question a 1 giga yuan...

                          Posté par . Évalué à 2.

                          Le principe-même de faire bouger un paramètre à la fois pour observer les conséquences sur le résultat final c'est très très clairement une méthodologie scientifique.

                          • [^] # Re: La question a 1 giga yuan...

                            Posté par . Évalué à 0.

                            Ma remarque était avant tout humoristique.

                            Sur le fond, pour parler de science il faut qu'une méthodologie rigoureuse et honnête soit appliquée de bout en bout, et pas seulement à quelques moments. Sinon on risque de tomber dans la supercherie (cf. la mémoire de l'eau) ou dans la manipulation de résultats (cf. la fraude des petits pois de Mendel).

                            • [^] # Re: La question a 1 giga yuan...

                              Posté par . Évalué à 2.

                              Bon, désolé alors. ;-)

                              Si tu es rigoureux, genre tu ne modifies tes paramètres que si tu as une certitude (quasi)-absolue que modifier plus d'un ne va pas avoir d'impact sur les autres params, et si tu es capable de réiterer l'expérience et d'obtenir les mêmes résultats (et par « tu » ici je veux surtout dire « la communauté scientifique »), alors la démarche est scientifique.

                              En informatique on pourrait croire que ce genre de choses est facile à faire, mais malheureusement, il existe tout un tas de papiers qui montrent des méthodes qui certes semblent convenir, mais malheureusement ne fournissent pas le code (parfois parce que ledit code est propriétaire/placé chez un client, parfois par réelle malhonnêteté, etc.). Et donc reproduire les résultats, ou bien se comparer à ceux desdits papiers est parfois difficile. Parfois simplement la méthode est bonne, mais sans les détails d'implémentation (et donc il faut aller au-delà de l'algorithme proposé dans le papier) sont cachés, et ceux-ci sont primordiaux.

      • [^] # Re: La question a 1 giga yuan...

        Posté par (page perso) . Évalué à 6.

        Et simulation d'armes nucléaires, jamais? Ou ça rentre dans "pour universités" ;)

      • [^] # Re: La question a 1 giga yuan...

        Posté par . Évalué à 3.

        Simulation d'à-peu-près tout et n'importe quoi qui a de la mécanique, des déformations, un écoulement de fluide, des transferts de chaleur, du magnétisme…

        cf http://www.youtube.com/watch?v=Gf9baxY-9MU (c'est du marketing, mais c'est toujours plus facile à comprendre, c'est la boite qui a racheté celle où je bosse)

        "La première sécurité est la liberté"

      • [^] # Re: La question a 1 giga yuan...

        Posté par . Évalué à -3.

        Cryptologie militaire, détection d'éléments ennemis sur images satellites… mais aussi cassage de codes de militants des droits de l'homme…

      • [^] # Re: La question a 1 giga yuan...

        Posté par . Évalué à 3.

        J'ajouterai indépendance technologique, surtout en ce qui concerne l'armement…

    • [^] # Re: La question a 1 giga yuan...

      Posté par (page perso) . Évalué à 6.

      Ils devraient s'inscrire sur SETI@Home, pour trouver des extra-terrestres !

    • [^] # Re: La question a 1 giga yuan...

      Posté par . Évalué à -1.

      --- " A quoi ça sert autant de puissance? " (…)

      Je pense que vous à titre personnel vous avez la réponse, non ?
      1) Les simulations notamment dans le domaine du nucléaire nécessite une puissance de calcul importante
      La Chine veut se doter du nucléaire de génération IV (Sels fondus si je ne me trompe pas, genre Oaks Ridge)
      2) les simulations en biotechnologie, c'est tout aussi utile.
      3) Connaître le comportement des protéines… et qui sait créer un meilleur ordinateur à base de protéines?
      4) Les prévisions en tout genre: météo, bourse, pandémie, etc.
      5) les simulations des comportements humains (le contrôle des foules, des moyens de communication, etc. )
      6) Les recherches sur le cerveau humain
      7) Les études sur les meta-matériaux (simulation, etc.)
      8) l'informatique et les mathématiques (amélioration, test sur les failles potentielles d'un système, etc.)
      9) Moteur de recherche (sémantique)
      10) espionnage

      Et j'en passe: il faut beaucoup de calcul et de puissance pour tout ça.

      Et en prime, cela permet aussi de montrer que finalement la Chine n'est pas un pays d'arriérés.
      Après tout, ils étaient en avance il y a quelques siècles, ce n'est, je suppose, qu'un juste retour des choses ?

    • [^] # Re: La question a 1 giga yuan...

      Posté par . Évalué à 7.

      À résoudre des équations dont la solution analytique n'est pas connue (équation aux dérivées partielles, équations différentielles: par exemple Navier-Stokes qui modélise le comportement d'un écoulement fluide) sans attendre plusieurs jours voire plusieurs semaines (surtout si c'est pour constater qu'il y a une erreur dans le modèle). Bref,les physiciens au sens large se retrouvent dans la situation des gens qui faisaient de l'informatique au temps des cartes perforées, attendant le lendemain pour connaître le résultat de la compilation.

    • [^] # Re: La question a 1 giga yuan...

      Posté par . Évalué à 2.

      Tu peux la partager… Il est rare que ce genre de machine soit utilisée en totalité pour un seul job. En général, beaucoup de monde y soumet des jobs de quelques heures. L'intérêt est d'avoir une seule infrastructure à gérer.

  • # Typo

    Posté par . Évalué à 3.

    La première machine européenne est le supercalculateur JUQUEEN du centre de recherche allemand de Juelich. Son score Linpack est de TFlop/s et il arrive en septième position dans ce Top 500.

    C'est pas 5 PFlop/s plutôt?

  • # Jülich

    Posté par (page perso) . Évalué à 4.

    Il y a une petite coquille dans la dépêche. Ce n'est pas Juelich mais Jülich en allemand (Juliers en français).

    • [^] # Re: Jülich

      Posté par (page perso) . Évalué à 5.

      J'ai utilisé l'orthographe mentionnée dans la liste du Top 500 (ici).
      On peut d'ailleurs noter que le nom de domaine du labo (http://www.fz-juelich.de) reprend la même orthographe. C'est sans doute une translittération de l'allemand.

      • [^] # Re: Jülich

        Posté par (page perso) . Évalué à 10.

        C'est sans doute une translittération de l'allemand.

        En allemand, le ¨ est la contraction du "e" comme le ^ est la contraction de s en français (hôpital, hospitalier).
        L'orthographe avec "e" est pour les gens n'ayant pas de clavier international et/ou pour survivre avec des américains ayant refusé les accents dans les noms de domaine (c'est seulement un pis-aller), même Wikipedia anglais met Jülich, tu devrais donc le changer pour ne pas répéter le manque de clavier international des nos amis américains (et de toute façons, une traduction est censée mettre le nom traduit, tu écrirais Munich en français plutôt que München, tiens d'ailleurs le site est http://www.muenchen.de/ mais personne n'écrirai de cette manière dans la vraie vie)

        Dur dur le métier de traducteur :).

  • # Question ?

    Posté par (page perso) . Évalué à 3.

    existe t il des super-calculateurs avec windows Server dessus ?
    Me lancer pas des pierres svp, c'est juste par curiosité.

    • [^] # Re: Question ?

      Posté par (page perso) . Évalué à 8. Dernière modification le 17/06/13 à 14:50.

      Ben… Il suffit d'aller sur le site. et récupérer les données. Ta curiosité s'est arrêtée bien vite.
      En 30s:
      Rank Operating System
      186 Windows HPC 2008
      240 Windows Azure
      288 Windows HPC 2008

    • [^] # Re: Question ?

      Posté par (page perso) . Évalué à 9.

      Si on regarde le sublist generator en prenant la catégorie "Operating system family", il y aurait 3 machines tournant sous "Windows HPC 2008".
      Difficile de savoir si ces systèmes sont financés en partie ou en totalité par Microsoft pour servir de vitrine à son OS.

      • [^] # Re: Question ?

        Posté par . Évalué à 5.

        La vraie question c'est avec l'évolution du marché, des besoins, et des techniques de marketing, MS considère-t-elle encore l'investissement dans HPC comme rentable?

        Peut-être qu'une des raisons pour lesquelles il est bas dans le classement, outre les qualités de Linux, c'est aussi parce que MS ne met que peu de ressources dessus?

        • [^] # Re: Question ?

          Posté par (page perso) . Évalué à 1.

          Au delà de la volonté de Microsoft, son OS n'est pas POSIX au sens UNX, pas de shell, pass de ssh, pas de rsync pas de chmod, pas de make… et pouvoir gérer plusieurs versions de tout cela.

          Bref, c'est le merdier de porter un code sur cet OS si tu veux faire du MPI à mon avis (j'avoue n'avoir jamais essayé le MPI sous Windows)

          • [^] # Re: Question ?

            Posté par (page perso) . Évalué à 5.

            son OS n'est pas POSIX au sens UNX

            Il y a plusieurs sens à POSIX ?

            « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

            • [^] # Re: Question ?

              Posté par (page perso) . Évalué à 2.

              Je prends des pincettes car je ne connais pas le status exact de SFU et de Cygwin mais pour moi, cela ne remplace pas un bon système UNIX ;-)

          • [^] # Re: Question ?

            Posté par . Évalué à 2.

            Tu as raison que c'est la merde, mais ca se fait et tout peut s'intaller (même si c'est faire compliquer quand on peut faire simple).

            Pour le MPI & co, c'était supporté nativement par leur job scheduler comme dans tout les autres c'est la fonctionnalité de base. Tellement de base que tout le monde la hack pour déployer n'importe quoi en reposant dessus par ce que c'est le plus petit dénominateur commun.

            Regarde cette magnifique API du scheduler. Autrement pour MPI "CCS MPI" dans ton moteur de recherche te dira tout. C'était basé sur MPICH2.

        • [^] # Re: Question ?

          Posté par . Évalué à 3.

          Peut-être qu'une des raisons pour lesquelles il est bas dans le classement, outre les qualités de Linux, c'est aussi parce que MS ne met que peu de ressources dessus?

          Fin des années 2000 MS était très agressif pour chopper des parts de marché avec la sortie WCCS puis de HPC Server. Ils étaient près à faire des partenariats avec tout le monde, à la limite de te payer si tu installais leur machin. On ne parle évidement pas de machines du top500 là. Il y avait même des gros clusters qui étaient en dual-boot simplement pour passer le linpack sous Windows. Info donnée à l'époque d'un presales Windows HPC.

          Je pense qu'ils ont un peu laissé tomber depuis, mais vers 2005..2008 ils ont clairement tenté de rentrer en mettant le pied dans la porte avec les moyens qui allait avec.

    • [^] # Re: Question ?

      Posté par (page perso) . Évalué à 8.

      Ils ont essayé, ils n'ont pas réussi à rester ;-)

    • [^] # Re: Question ?

      Posté par (page perso) . Évalué à 6.

      D'après http://blogs.computerworlduk.com/open-enterprise/2013/06/how-can-any-company-ever-trust-microsoft-again/index.htm
      "how any IT manager can seriously recommend using Microsoft products again now that we know they are almost certainly vectors of attacks by US spy agencies".

      ou « comment un gestionnaire d'infrastructure informatique peut-il sérieusement recommander à nouveau l'usage de produits Microsoft maintenant que nous savons qu'ils sont de façon quasi certaine les vecteurs d'attaque par les agences d'espionnage des États-unis ».

      Je pense que si les produits Microsoft ont leur place, c'est dans les centres de calcul classifiés des États-Unis.

  • # Et un graphique d'évolution des OS

    Posté par (page perso) . Évalué à 10.

    Et voilà ce que donne le graphique d'évolution des OS depuis le début des archives du TOP 500 (1993 environ) :
    Cliquez pour voir le graphique en grande dimension.

    TOP500

  • # Intel frappe fort

    Posté par (page perso) . Évalué à 10.

    Numéro 1 avec le Xeon PHI moins d'un an après sa sortie. Il est clair qu'Intel cherche à placer sa plateforme face à Nvidia. C'est un jolie coup de pub !

  • # Bande de copieurs!

    Posté par . Évalué à 0.

    C'est le hostname de ma machine principale!

  • # Un supercalculateur chinois

    Posté par . Évalué à 0.

    Cela montre déjà que le supercalculateur venant du pays de Deng Xiaoping n'est pas nécessairement une chinoiserie.
    C'est bien la preuve que la Chine avance à grand pas vers des produits de qualité, ce que certains ne veulent toujours pas admettre.
    Après tout, on pourra toujours dire qu'ils font partie du cercle très fermé des pays qui ont pu envoyer quelqu'un dans l'espace…
    Comme quoi, chercher la Lune n'est pas forcément idiot. :-)
    (enfin je crois)

    • [^] # Re: Un supercalculateur chinois

      Posté par (page perso) . Évalué à 4.

      C'est bien la preuve que la Chine avance à grand pas vers des produits de qualité, ce que certains ne veulent toujours pas admettre.

      Je pense que les produits chinois ont toujours été de qualité, pour le prix que cela coûtait.
      On ne peut pas exiger des produits très peu chers et avec peu de normes qu'ils puissent être résistants à l'épreuve du temps et de l'utilisation. Pour le prix payé pour leur produit depuis le début, le rendement était pas si mal (pour un tel prix une entreprise française ne ferait pas particulièrement mieux…).

      Question de marché tout ça.
      Mais c'est vrai que aujourd'hui ils montent en gamme et commencent à réaliser la transition technologique grâce à l'implémentation des entreprises étrangères.

      • [^] # Re: Un supercalculateur chinois

        Posté par . Évalué à -5.

        --- " Je pense que les produits chinois ont toujours été de qualité, pour le prix que cela coûtait. " (…)

        Effectivement, un bon rapport qualité-prix.

        --- " pour un tel prix une entreprise française ne ferait pas particulièrement mieux " (…)

        Mais sur le plan de la productivité, la France n'est pas mauvais quand même… :-) ( hem, pas taper svp )

        --- " Mais c'est vrai que aujourd'hui ils montent en gamme et commencent à réaliser la transition technologique grâce à l'implémentation des entreprises étrangères. " (…)

        Très probablement, ceci dit, ils se vantent d'avoir de bonnes écoles/universités qui sortent de bons ingénieurs. Il faut dire qu'ils mettent le paquet de ce côté là de la formation, et ils ont raison.
        Je parle bien des universités chinoises, puisque l'université de Shanghai ou de Hong Kong, c'est un peu particulier à cause de leur ancien statut même si c'est en Chine… et chinois.

        Je me souviens aussi qu'ils avaient mis en oeuvre une idée d'un protocole internet, quelqu'un a un meilleur lien sur le sujet (même en anglais) ?
        " One of the most important aspects of its next-generation backbone is a security feature known as Source Address Validation Architecture (SAVA) " (…)
        China's next-generation internet is a world-beater - tech - 10 March 2013 - New Scientist

        • [^] # Re: Un supercalculateur chinois

          Posté par (page perso) . Évalué à 3.

          Sans faire chauvin ou du dénigrement, je ne suis absolument pas convaincu que la Chine produit de meilleurs ingénieurs qu'en Occident. C'est sans doute équivalent dans de nombreuses universités (ne pas oublier que leurs classements de Shanghai n'est pas objectif pour un sous).

          La force de frappe de la Chine dans ce secteur, c'est la quantité. Avec 1 milliard et demi d'habitants (ou presque) et une jeunesse bien plus abondante qu'en Occident, ils peuvent produire une quantité d'ingénieurs incroyable ce qui permet de réaliser de nombreux projets d'envergures de front sans nécessairement être meilleur.

          Typiquement la France a un déficit en ingénieurs, je ne connais pas la situation de la Chine mais elle doit en produire bien plus en quantité (mais peut être pas en proportion).
          Cependant il est évident qu'il faudra s'habituer à l'augmentation des publications et innovations chinoises d'ici 10-20 ans.

          • [^] # Re: Un supercalculateur chinois

            Posté par . Évalué à 10.

            "Typiquement la France a un déficit en ingénieurs"

            Preuve ? Le seul déficit que je vois est que les boites veulent toute recruter un ingénieur de 2 ans d'expérience dans une techno qui vient de sortir, pour faire exactement la même chose pour eux, et éviter de donner toute formation. Étonnamment, elles ne trouvent pas.

            "La première sécurité est la liberté"

            • [^] # Re: Un supercalculateur chinois

              Posté par (page perso) . Évalué à 1.

              Le nombre d'études gouvernementaux et affiliés qui en parlent depuis quelques années est assez grand. Tu n'auras aucun mal à tomber dessus.

              La demande est forte, tellement que nombre de postes (surtout en informatique) ne trouvent pas de candidats et qu'il faut parfois taper dans les bac +2 ou bac +3 pour combler. je ne dis pas que les boîte sont parfaites dans leur système de recrutement mais le besoin est là et est énorme (la France a quand même les secteurs de l'aéronautique, des systèmes embarqués, de l'automobile et du nucléaire qui demandent énormément de valeur ajoutée et qui ont énormément de besoins en personnes hautement qualifiées).

              • [^] # Re: Un supercalculateur chinois

                Posté par (page perso) . Évalué à 10.

                je ne dis pas que les boîte sont parfaites dans leur système de recrutement mais le besoin est là et est énorme

                Si le besoin est énorme, les salaires des ingés grimperait, et il est faible (le management ça paye en France, mais l'ingé…)

                tellement que nombre de postes (surtout en informatique) ne trouvent pas de candidats

                Précision : le nombre de postes offrant un salaire faible (par rapport au marché international) ne trouve pas candidats. Et c'est normal, les ingés sont partis aux USA qui payent.
                Perso, je gagne (plutôt) bien ma vie, plus que quand j'étais payé par une boite française, car mes clients sont américains (ils n'hésitent pas à payer pur des ingés)

                bref, quand on n'adapte pas l'offre à la demande (et dans le cas de l'informatique en France, c'est l'offre qui pèche), ce n'est pas un problème de manque de candidats, plutôt un problème d'offre mal dimensionnée.

                Un jour, la France valorisera le ingénieurs plutôt que les managers. Ou pas (tant pis pour elle)

                qu'il faut parfois taper dans les bac +2 ou bac +3 pour combler

                Sans vouloir leur jeter la pierre, du coup ça donne des choses parfois rigolotes. Préférer descendre le niveau que payer, c'est rentable à court terme, mais à long terme?

                • [^] # Re: Un supercalculateur chinois

                  Posté par . Évalué à -10. Dernière modification le 18/06/13 à 12:03.

                  --- " Si le besoin est énorme, les salaires des ingés grimperait, et il est faible (le management ça paye en France, mais l'ingé…) " (…)

                  Pas nécessairement. La boîte peut délocaliser tout ou partie des ingénieurs à recruter…

                  --- " le nombre de postes offrant un salaire faible (par rapport au marché international) ne trouve pas candidats. Et c'est normal, les ingés sont partis aux USA qui payent " (…)

                  Ils partent aux USA parce que c'est une expérience internationale pas parce que cela paye bien.
                  Si c'est le salaire, alors ils iraient en Australie ou en Asie uniquement.

                  --- " bref, quand on n'adapte pas l'offre à la demande (et dans le cas de l'informatique en France, c'est l'offre qui pèche), ce n'est pas un problème de manque de candidats, plutôt un problème d'offre mal dimensionnée " (…)

                  Ce n'est pas l'offre qui s'adapte parce que c'est le client qui décide de ce qu'il veut…
                  Le client veut une technologie et le type d'ingénieurs qui correspond à la demande de ce client est recherché.

                  --- " Un jour, la France valorisera le ingénieurs plutôt que les managers. Ou pas (tant pis pour elle) " (…)

                  C'est le manager qui profile le contrat donc ce n'est pas étonnant s'il est mieux payé même si je trouve que ce n'est pas toujours normal…

                  --- " Préférer descendre le niveau que payer, c'est rentable à court terme, mais à long terme? " (…)

                  Si ils ne peuvent pas payer, ils font comment ? Une entreprise américaine vise le marché anglosaxon, dans la majorité des cas, une entreprise française est centrée sur un marché assez restreint: le marché français essentiellement.

                  • [^] # Re: Un supercalculateur chinois

                    Posté par (page perso) . Évalué à 9.

                    C'est le manager qui profile le contrat donc ce n'est pas étonnant s'il est mieux payé

                    Ben voila : préjugé bien français (ou européen?)
                    Je connais plusieurs ingés mieux payé par leur manager, simplement parce que ce sont eux qui sont difficilement remplaçable, pas leur manager.

                    Ce préjugé que le manager doit être mieux payé est bien le problème : on valorise le relationnel à l'expertise, ben : bam.

                    Si ils ne peuvent pas payer, ils font comment ?

                    C'est qu'ils n'ont pas vraiment besoin alors. Ce n'est pas un problème de manque de candidat, mais un problème de manque de besoin.

                    une entreprise française est centrée sur un marché assez restreint: le marché français essentiellement.

                    Le problème est dans l'entreprise française, incapable d'être dans le monde d'aujourd'hui. Je ne pleurerai pas sur le sort d'une entreprise qui vise que le marché français de nos jours. Désolé, certains n'ont plus ce blocage de frontière. Internet!!!

                  • [^] # Re: Un supercalculateur chinois

                    Posté par . Évalué à 9.

                    "Le client veut une technologie et le type d'ingénieurs qui correspond à la demande de ce client est recherché."

                    Une nouvelle techno qui nécessite d'embaucher plein de nouveau ingénieur nécessitent forcément des formations, qu'aucune boite ne veut payer.

                    Dans les années ~90, on parlait beaucoup des 3 mois de formation à l'entrée des boites de consultant les plus prestigieuse. EDF et la SCNF avait aussi des formations de quelques mois pour leur poste.

                    Aujourd'hui, un ingénieur qui a 3 jour de formation par an est considéré chanceux.

                    "La première sécurité est la liberté"

                    • [^] # Re: Un supercalculateur chinois

                      Posté par (page perso) . Évalué à 0.

                      C'est vrai, après un autre problème sur certaines technos pointues c'est la formation de base. En France notre système d'écoles d'ingénieurs sort des généralistes, mais on est mauvais sur la spécialisation. Certaines disciplines mettent des années pour arriver jusqu'à nous. (Je ne parle pas de la fac que je connais mal, possible que ce soit un peu mieux.)

                      Le HPC, c'est un bon exemple. J'ai vu que tu bossais chez Ansys, je serais curieux de savoir quelle est ta formation. Personnellement j'ai dû partir en Angleterre pour pouvoir m'y former. On travaillait entre autres sur un calculateur qui venait de sortir du top 500, je ne pense pas qu'on ait ce genre de joujou accessible aux élèves d'aucune école d'ingénieurs en France (ni les cours qui vont avec). Ici on va faire un peu de MPI sur un cluster Beowulf au mieux, et personne n'entend parler de logiciels comme Fluent en école…

                      • [^] # Re: Un supercalculateur chinois

                        Posté par . Évalué à 3.

                        Pour arriver chez Ansys, j'ai simplement été embauché par une boite qui a été racheté par Ansys. Et je faisait de l'EDA à la base, mais cette partie à fait faillite en 2009. Je suis passé du VHDL, à la conception d'outils de développement.

                        "La première sécurité est la liberté"

                  • [^] # Re: Un supercalculateur chinois

                    Posté par . Évalué à 10.

                    "Si ils ne peuvent pas payer, ils font comment ? "

                    Ils évitent de payer leur commerciaux doubles ?

                    "La première sécurité est la liberté"

                • [^] # Re: Un supercalculateur chinois

                  Posté par . Évalué à 7.

                  Il parait qu'au US, il paye bien plus les "maker" que les "seller". Tu as un point de vue la dessus ?

                  Parce qu'en France, le type qui vend le soft que tu développes est bien mieux payé que toi.

                  "La première sécurité est la liberté"

                  • [^] # Re: Un supercalculateur chinois

                    Posté par (page perso) . Évalué à 9.

                    Il parait qu'au US, il paye bien plus les "maker" que les "seller". Tu as un point de vue la dessus ?

                    Mon expérience perso, les discussions IRL et ce que j'ai lu des français travaillant aux US et squattant le coin tend à confirmer la chose.
                    Un "seller" est aussi important pour les affaires, mais le "maker" est très important et est payé en conséquence.

              • [^] # Re: Un supercalculateur chinois

                Posté par . Évalué à 4.

                Les seul fois ou j'ai vu qu'il ne trouvait personne, c'est parce qu'ils payaient parfois très peu. Genre un expert en formation pour un budget de 50k$, quand ils sont payé le double au US, ou pour rechercher un ingénieur français de test à 22k€.

                "La première sécurité est la liberté"

              • [^] # Re: Un supercalculateur chinois

                Posté par (page perso) . Évalué à 6.

                La demande est forte, tellement que nombre de postes (surtout en informatique) ne trouvent pas de candidats et qu'il faut parfois taper dans les bac +2 ou bac +3 pour combler

                Hum… pas vraiment certains.
                D'une il y a une sacré manipulation des chiffres pour tenter de faire croire à une pénurie (et si c'était vraiment le cas les boites monterait les chiffres, là en informatique c'est quand même pas extravagant du tout).
                De deux, il faut bien voir que la France recherche surtout des ingénieurs (en informatique) faiblement expérimenté (70% des offres concernent des personnes ayant moins de 5 ans d'XP) donc forcément ceux qui ont plus changent/partent. Donc oui après ça peut être plus galère.
                Etrangement je vois autant de personnes d'expérience dans l'info (5, 10 ans d'XP) qui galèrent pour trouver un job intéressant que de boites qui disent galérer pour trouver qqn d'expérience. C'est plutôt signe qu'il y a un problème d'adéquation entre les deux (et par exemple ne pas vouloir payer un dev d'XP et l'un des problèmes assurément)

                Quant au fait de tapper dans les bac +2/3 ben je trouve ça plutôt bien. On a pris de plus en plus ces dernières années de bac +5 pour faire du boulot de bac +2 donc faut bien que ça se rééquilibre.

                Après pour les autres secteurs que l'info je ne suis pas assez au courant pour en dire quoi que ce soit.

      • [^] # Re: Un supercalculateur chinois

        Posté par (page perso) . Évalué à 1.

        l'implémentation

        Tu veux dire «implantation»? Implémentation est un anglicisme utilisé à tort dans le milieu du développement logiciel.

        Écrit en Bépo selon l’orthographe de 1990

    • [^] # Re: Un supercalculateur chinois

      Posté par . Évalué à 10.

      Bon, je ne peux pas m'empêcher de répondre, j'ai bossé en Chine, dans un environnement très "local".

      Avant leur révolution économique, la Chine utilisait des entreprises d'Etat, sur le modèle soviétique. Quoi qu'il arrive dans la boite, l'Etat éponge. Je ne sais pas si ça en est la cause unique, mais il y règne une très très forte culture du je-m'en-foutisme à un degré qu'on peut difficilement imaginer (je déconne pas, la liste des anecdotes est longue et affligeante). Cette mentalité s'est propagée à quasiment toute la société. Je ne connais aucun autre endroit au monde où le mot "presque" est un statut acceptable d'une qualification de produit.

      Avec l'ouverture, les entreprises se sont privatisées, l'activité industrielle a explosé.
      Qui donc mettre aux commandes de ces entreprises chinoises fraîchement créées? Simple, les seuls capables de faire tourner ça étaient les manageurs des boites d'Etat, seules à exister avant.

      Alors après, c'est très variable. Vous trouvez des manageurs qui ont bien compris la transition, et cherchent l'efficacité, la performance, etc. Et ils s'en sortent très bien.

      Et vous en avez d'autres qui se croient encore dans le modèle de l'entreprise d'Etat:

      • Toute initiative est mauvaise à prendre. On n'est pas récompensé si ça marche, on est blâmé si ça ne marche pas. Ça suppose aussi d'écraser tout ingénieur qui aurait une "bonne idée".
      • Les problèmes sont plus simples à cacher qu'à régler, même si c'est le client qui paie les pots cassés.
      • Les problèmes sont plus simples à nier qu'à régler. Si un client renvoie un produit, c'est de la faute de toute le monde sauf le mec qui le reçoit. (en fait, "c'est de la faute du client" est, suivant le niveau hiérarchique du mec chez le client qui appelle, une hypothèse de travail valable: prouve-nous donc que c'est pas chez toi le problème, après on discutera)
      • On s'en fout si tous les clients se barrent, l'argent tombera du ciel pour faire tourner la boite, et on vendra la camelote à l'entreprise d'un pote du patron qui se débrouillera pour cacher la merde de son côté.

      A cette magnifique approche du travail, ajoutons le mantra des entreprises chinoise modernes: battre tous les records du monde en temps, et on comprendra que la qualité, c'est un truc "chiant qu'on verra plus tard".

      Si on met en plus une petite couche de corruption (les services achats ont souvent une réputation sulfureuse à ce sujet…) on a de bonnes bases pour obtenir une "chinoiserie", comme tu dis.

      Enfin, il faut savoir que la Chine est le nouveau pays du "rêve américain": parti de rien, il devient millionnaire en quelques années.
      Mais comment a-t-il fait?
      Il a pris des risques considérables pour investir dans une usine la moins chère possible et exploite ses anciens camarades. Comment peut-il être moins cher avec du matériel obsolète? Il économise tout la sécurité et la qualité du produit. L'important, c'est que les produits soient livrés chez le client, même si aucun ne passe les specs. Avec du bol, le client ne le verra pas, parce que ses propres contrôle qualité sont… hum…
      L'étique est aussi un truc "chiant qui ne rend pas riche", et l'entrepreneur moyen ne doit pas savoir comment ça se dit en Chinois de toute façon.

      C'est pour ça qu'on voit beaucoup de produits de merde, beaucoup de scandales qui semblent tellement énormes que ça en devient surréaliste (ex: une route suspendue qui tombe parce que "les 4 camions dessus étaient surchargés et tous sur la même voie", donc normal: ça tombe, fin de l'enquête, merci ; du lait maternel en poudre littéralement empoisonné, parce qu'avec le poison ça trompe les tests sur le taux de vitamines)

      Est-ce que ça va mieux?
      Bien sûr que ça va mieux, mais il va falloir attendre encore pas mal d'années avant que la génération entreprise d'état dégage et que les mauvaises habitudes arrêtent de se transmettre de génération de manageurs en générations de manageurs.
      Mais à titre d'exemple, j'ai sans le savoir acheté un casque bluetooth contrefait et je m'en suis servi un an avant de me rendre compte que c'était une contre-façon rudement bien faite!

      Pour ce qui est de leurs exploits dans le domaine spatial, de ce que j'en sais, il faut surtout féliciter des ingénieurs russes payés une fortune pour faire le boulot sans la ramener.
      Mais je suppose que les apprentis rattrapent leurs instructeurs rapidement.

      • [^] # Re: Un supercalculateur chinois

        Posté par . Évalué à 2.

        "Pour ce qui est de leurs exploits dans le domaine spatial, de ce que j'en sais, il faut surtout féliciter des ingénieurs russes payés une fortune pour faire le boulot sans la ramener."

        Et les sous-traitant occidentaux ?

        "La première sécurité est la liberté"

      • [^] # Re: Un supercalculateur chinois

        Posté par (page perso) . Évalué à 2.

        je ne peux pas m'empêcher de répondre

        On sent que tu avais besoin que ça sorte ;-)

      • [^] # Re: Un supercalculateur chinois

        Posté par . Évalué à 2.

        C'est rigolo, tu remplaces « Chine » par « France » et « entreprise » par « Bull », ton message reste vrai =D

  • # Pendant ce temps ...

    Posté par . Évalué à 5.

    • [^] # Re: Pendant ce temps ...

      Posté par (page perso) . Évalué à 3.

      Mouais, c'est plus pour le fun et la formation perso, parce que dans la vraie vie tu prends un Xeon et hop tu as plus de puissance que tous les Raspberry sans la complexité de la gestion d'un super-calculateur…

      • [^] # Re: Pendant ce temps ...

        Posté par . Évalué à 6.

        Sauf si le but est de tester des algo de routage ou d’interconnexion.

        "La première sécurité est la liberté"

        • [^] # Re: Pendant ce temps ...

          Posté par (page perso) . Évalué à 2.

          oui, effectivement, pour prototyper c'est super.
          Je réagissait surtout sur les "pendant ce temps la 3 gus dans un garage", parce que bon, oui c'est sympa, mais ça sert de prototype à pas cher, c'est tout.

  • # Domination d'Intel vs Power et les autres

    Posté par . Évalué à 5.

    Combien de temps l'architecture Power va survivre ?

    La domination d'Intel est-elle inéluctable ?

    Je travaille tous les jours sur Power mais force est de constater que les gens préfèrent acheter des grilles pains pas cher en masse, plutôt que des machines fiables et puissantes.

    • [^] # Re: Domination d'Intel vs Power et les autres

      Posté par (page perso) . Évalué à 0.

      C'est sans doute du fait que l'architecture Power n'est pas si fiable et puissante que ça et/ou qu'Intel est devenu fiable, puissant et… moins cher.
      Quand à la partie grille-pain, Intel a fait d’énormes progrès en la matière.

      Apple s'est barré de Power car IBM était incapable de fournir un CPU puissant.
      Sony se barre de Power pour la PS4
      Microsoft se barre de Power pour la Xbox One
      ARM est sur tous les smartphones ou presque (allez, un peu de nVidia)

      A mon avis, cette architecture est morte du fait de l'incapacité à produire une puce vraiment plus puissante et sans compter du fait de l'incapacité future de produire en masse et donc à un prix correct, du coup avec les nouvelles puces concurrentes il ne lui reste plus rien du tout pour lui (pas de puissance, pas de fiabilité, pas de prix, pas de gain thermique…).

      La bataille va être entre x86 (puissance) et ARM (conso).

      • [^] # Commentaire supprimé

        Posté par . Évalué à -2.

        Ce commentaire a été supprimé par l'équipe de modération.

        • [^] # Re: Domination d'Intel vs Power et les autres

          Posté par (page perso) . Évalué à 2.

          C'est vrai que toutes les entreprises citées sont tellement idiotes qu'elles prennent le truc le moins bien après avoir joué avec Power… ou pas.

          C'est "étonnant" que tu n'ais pas répondu la même chose aux affirmations de Dabowl_75.

          • [^] # Commentaire supprimé

            Posté par . Évalué à -1. Dernière modification le 18/06/13 à 14:53.

            Ce commentaire a été supprimé par l'équipe de modération.

            • [^] # Re: Domination d'Intel vs Power et les autres

              Posté par (page perso) . Évalué à -6. Dernière modification le 18/06/13 à 14:55.

              "Bizarrement" tu ne réagis pas sur l'assertion "plutôt que des machines fiables et puissantes" (par exemple) en demandant des sources…
              bizarre, bizarre…

              Sinon, je te laisse fouiller, quoique je te démontre ça ne te contentera pas de toutes manières. En attendant les autres, autant dans le main stream que dans le Top500 à font dans les perfs brutes, ont fait leur choix.

      • [^] # Re: Domination d'Intel vs Power et les autres

        Posté par (page perso) . Évalué à 10.

        A mon avis, cette architecture est morte du fait de l'incapacité à produire une puce vraiment plus puissante

        Heuuu…non. C'est simplement qu'IBM n'arrive pas à lutter contre Intel du fait des économies d'échelle que procure la production de puces x86. Donc IBM ne cherche pas à lutter sur ce marché et se consacre aux processeurs très chers et très puissants.
        Regarde par exemple le POWER7+ qui est sorti en 2012 : 8 coeurs, 4 threads par coeur, 80 Mo de cache L3, cadencé à 4,4 GHz, des technos RAS à foison.
        Tu ne trouves pas encore ça sur le marché x86.

        Maintenant c'est vrai que je ne donne pas cher de la peau de cette archi à long terme car les x86 cannibalisent tout.

        • [^] # Re: Domination d'Intel vs Power et les autres

          Posté par (page perso) . Évalué à -3. Dernière modification le 18/06/13 à 14:55.

          le POWER7+ qui est sorti en 2012 : 8 coeurs, 4 threads par coeur, 80 Mo de cache L3, cadencé à 4,4 GHz, des technos RAS à foison.
          Tu ne trouves pas encore ça sur le marché x86.

          Après, faut voir l'intérêt : est-ce un avantage d'avoir tout sur la même puce où est-ce qu'une carte-mêre 4xE7-8870 (qui donnerait 80 threads, 120 Mo de cache) ne fait pas mieux?

          Je ne vois pas l’intérêt de regarder "par puce fabriquée", je regarde plutôt les pacages possibles : Un puce 2x plus chère que 4x du Intel ben ça remplit aucun besoin (coût, perfs…) et c'est normal que personne n'en veuille.
          Et on voit dans le Top500 qu'on est capable de paralléliser, donc pas besoin de monter en fréquence tant que ça. Le Top500 montre que même en perfs, ben Power ne répond plus au besoin.

          La question est donc de savoir si ça répond à une besoin qui ne peut être rempli par de x86. Et la, aïe.

          • [^] # Re: Domination d'Intel vs Power et les autres

            Posté par (page perso) . Évalué à 10.

            C'est certain que l'intérêt est faible au niveau du rapport qualité-prix. Si certaines entreprises continuent d'acheter c'est parce qu'elles ont de l'AIX et qu'elles veulent du POWER pour faire tourner leurs applis proprios.
            Maintenant mon post répondait à ton affirmation comme quoi "cette architecture est morte du fait de l'incapacité à produire une puce vraiment plus puissante".
            Et cette affirmation est factuellement fausse.

            • [^] # Re: Domination d'Intel vs Power et les autres

              Posté par (page perso) . Évalué à 1.

              Et cette affirmation est factuellement fausse.

              Je te le concède!
              Je propose de corriger par : cette architecture est morte du fait de l'incapacité à produire une solution vraiment plus puissante (sous entendu : meilleur prix pour une puissance cible donnée).

            • [^] # Re: Domination d'Intel vs Power et les autres

              Posté par . Évalué à 4.

              y a un problème d'applis, et aussi une problématique d'infra.

              Le taux d'utilisation et de consolidation des infra power sont nettement supérieurs.

              On virtualise, on consolide, on partage les core entre vm, on ajoute et retire la ram à chaud…
              bref j'en passe et des ronds de chapeau.

              La concurrence est féroce avec vmware, mais le hardware x86 ne suit pas.

          • [^] # Re: Domination d'Intel vs Power et les autres

            Posté par . Évalué à 7.

            lorsqu'on combine : power7 + powervm + aix/linux
            là ça change tout par rapport au x86. Mais j'aouve que cela ne couvre qu'un nombre limité de besoins, out le grand public.

            pour parler du top500, je n'y connais pas grand chose en grille de calcul / hpc, mais j'ai l'intime conviction que limiter l'analyse au cpu est absurde.

            Quid de l'interconnexion inter-node ?
            Quid de l'accès à la mémoire ?
            Quid de l'intelligence dans le software ?
            etc…

          • [^] # Re: Domination d'Intel vs Power et les autres

            Posté par . Évalué à 3.

            on voit dans le Top500 qu'on est capable de paralléliser
            Certains jobs seulement (d'ailleurs le test Linpack n'est pas représentatif de toute la typologie des tâches possibles, loin de là). Pour beaucoup, les interconnexions (latence et débit) sont primordiales et rien ne remplace le fait d'avoir une puce avec beaucoup de cœurs et de cache plutôt qu'une architecture multisockets.

        • [^] # Re: Domination d'Intel vs Power et les autres

          Posté par (page perso) . Évalué à 3.

          Les CPU performants mais qui n'ont jamais réussit à atteindre des tarifs grand public sont tous morts petits à petits. Alpha, Sparc… C'est pas étonnant que le Power résiste mieux avec IBM derrière qui a des sacrés équipes de recherche. Enfin, même sur les calculateurs, c'est du boulot de porter son code. Actuellement, pas mal de gros code ont fait le travail de bien fonctionner sur amd64 avec interconnexion infiniband. On verra quand cela changera mais je ne serais pas étonner qu'il faille un déclic plus important que le Power (peut être les GPU mais Intel est déjà là avec le Xeon PHI) !

          Quand à IBM, la dernière machine de l'IDRIS est de cette marque mais avec une interconnexion InfiniBand (mal dimensionné) et non plus leur solution… Pas facile de résister à l'effet d'échelle !

      • [^] # Re: Domination d'Intel vs Power et les autres

        Posté par . Évalué à 10.

        Je pense que tu es très mal renseigné.

        1) Tout d'abord laisse moi te rappeler que le PowerPC, au départ, est une alliance entre : IBM / Motorola / Apple
        Pas uniquement IBM.

        http://fr.wikipedia.org/wiki/PowerPC

        2) Si Apple s'est barré, c'est bien à cause d'un problème de road map et de rapport conso / puissance

        Pas étonnant puisque IBM s'est concentré sur le marché serveur.

        D'autant qu'il n'était pas possible de sortir un power mac g5 laptop, à cause des problèmes de chaleur et d'autonomie.

        http://news.cnet.com/Apples-Intel-switch-Jobs-keynote-transcript---page-3/2100-1047_3-5748045-3.html?tag=mncol

        I think a lot of you would like a G5 in your PowerBook and we haven't been able to deliver that to you yet.

        3) L'assertion "IBM était incapable de fournir un CPU puissant"

        Je puis t'affirmer que rien n'est plus faux.
        Je présume que tu n'as jamais entendu parler des Power6 ou Power7.

        Juste à titre de comparaison vite fait :

        -- Intel est à la ramasse sur le multithreading ( 2thread / core vs 4 thread / core)
        -- Power7+ : mémoire cache L3 80Mo (ce qui réduit les coûteux aller/retour à la mémoire centrale)
        -- Power7+ : 3.7 - 4.2 Ghz
        -- Dual Chip Module : Deux puces sur une socket (ce qui réduit le licensing oracle et consorts)
        -- Des algo de sécu embarqués dans le CPU
        (par exemple pour faire de la compression mémoire quasi sans overhead)

        etc…Je te laisse creuser la question

        4) Fiabilité des machines Power

        Dans le monde serveur, je puis également t'affirmer que les machines à base de Power sont parmis les plus fiables. J'ai un assez grand nombre d'exemple de gros standalone x86 où la mobo crâme assez régulièrement, la faute n'incombe pas à Intel il est vrai.

        Il ne faut pas oublier que le downtime d'un serveur devient coûteux pour une entreprise :

        http://www.itjungle.com/tfh/tfh081312-story03.html

        5) Efforts sur les prix

        Un des gros arguments est de dire que le Power est plus cher que le x86.

        Cela a été vrai, jusqu'à dernièrement :

        http://www.channelregister.co.uk/2013/05/14/ibm_power_linux_china_center/

        Bref, je ne sais pas si, malgré ses qualités, le Power va perdurer.
        Mais il ne faut pas perdre de vue, ce qui se fait en dehors de son petit monde de bisounours.

        • [^] # Re: Domination d'Intel vs Power et les autres

          Posté par . Évalué à 1.

          1) Tout d'abord laisse moi te rappeler que le PowerPC, au départ, est une alliance entre : IBM / Motorola / Apple. Pas uniquement IBM.

          Le POWER, au départ, c'est une architecture uniquement IBM tout seul. Ensuite vient PowerPC, avec Apple et Motorola.
          (cf la page wikipedia que tu as donnée).

          • [^] # Re: Domination d'Intel vs Power et les autres

            Posté par . Évalué à 3.

            Si tu veux pinailler :

            architecture POWER == IBM
            architecture POWERPC == IBM + motorola + apple

            Or j'ai parlé de PowerPC….

            • [^] # Re: Domination d'Intel vs Power et les autres

              Posté par . Évalué à 0.

              Ah, tu trouve que je pinaille déja, alors que je n'ai pas commencé…
              Bon, j'y vais : POWERPC (tout en majuscule) et ça n'existe pas, c'est POWER ou PowerPC.

              Dans ton message initial tu as dit:

              Combien de temps l'architecture Power va survivre ?

              Sans plus d'information de contexte, donc on ne sait pas si tu parles de POWER ou de PowerPC, parce que Power ca n'existe pas non plus.

              Apres Zenitram a enchainé:

              Apple s'est barré de Power

              Et la c'est clair qu'il s'agit de PowerPC puisqu'il cite Apple.

              Mais bon, je comprends que ça t'agace que je relève des imprécisions dans un message qui commence par "Je pense que tu es très mal renseigné."

              • [^] # Re: Domination d'Intel vs Power et les autres

                Posté par (page perso) . Évalué à 3.

                Oui, mais bon la, c'est un peu fort quand même, il m'a contredit certes mais son commentaire était loin d'être hargneux envers moi, cette phrase n'est pas ce que j'ai connu de pire (suffit de regarder pas loin pour trouver pire). Même moi (c'est dire ;-) ) trouve un peu fort ta réaction la.

                Je propose qu'on siffle la fin de la partie sur le jeu POWER/PowerPC et tout le monde se serre la main (virtuellement, à défaut d'aller boire un coup tous ensemble).

              • [^] # Re: Domination d'Intel vs Power et les autres

                Posté par . Évalué à 10.

                Et partout dans le monde des drosophiles par milliers se tordirent de douleur, découvrant avec horreur le trou béant qu'un commentaire avait laissé à leurs fondements.

        • [^] # Re: Domination d'Intel vs Power et les autres

          Posté par . Évalué à 4.

          4) Fiabilité des machines Power

          Dans le monde serveur, je puis également t'affirmer que les machines à base de Power sont parmis les plus fiables. J'ai un assez grand nombre d'exemple de gros standalone x86 où la mobo crâme assez régulièrement, la faute n'incombe pas à Intel il est vrai.

          Il ne faut pas oublier que le downtime d'un serveur devient coûteux pour une entreprise

          À l'heure de la virtualisation à outrance, on s'en fout un peu de la fiabilité. Ça ne sert pas à grand chose d'avoir toutes ces fonctionnalités de redondance vu le prix que tu payes en plus. On gère la redondance à plus haut niveau aujourd'hui, ça coûte tellement moins cher et c'est tellement moins fermé…

          5) Efforts sur les prix

          Un des gros arguments est de dire que le Power est plus cher que le x86.

          Cela a été vrai, jusqu'à dernièrement :

          http://www.channelregister.co.uk/2013/05/14/ibm_power_linux_china_center/

          Nan mais toute la différence de prix se fait sur les licences…

          Franchement, IBM veut rester dans sa niche, et POWER va vivoter tant qu'il sera sous perfusion… Mais ils ne pourront pas grand chose face à des constructeurs comme Intel qui vendent par millions. Et c'est très dommage, j'adore l'architecture POWER, mais ils se sont retirés du grand public, alors les développeurs n'ont pu rien pour s'amuser… (même s'ils ne sont pas bons sur le basse conso, le PPC est souvent utilisé dans le réseau, plutôt haut de gamme, et pourrait briller dedans, mais ils ne sont même pas foutus de faire des version réduites et se font voler la vedette par du MIPS pour le grand public… la honte)

          • [^] # Re: Domination d'Intel vs Power et les autres

            Posté par . Évalué à 2.

            À l'heure de la virtualisation à outrance, on s'en fout un peu de la fiabilité. Ça ne sert pas à grand chose d'avoir toutes ces fonctionnalités de redondance vu le prix que tu payes en plus. On gère la redondance à plus haut niveau aujourd'hui, ça coûte tellement moins cher et c'est tellement moins fermé…

            on virtualise aussi sur power…on virtualise même mieux qu'avec vmware (vmware sucks avec les grosses config d'après les retours d'xp que l'on me remonte)
            voir powervm avec le micro-partitionnement, pools partagés de cpu et/ou mémoire, memory dedup ou compression…
            Virtual I/O server : vscsi, npiv, network, thin provisionning, snap shot, suspend/resume, etc…

            rien à envier aux autres même si vmware est un concurrent très sérieux puisqu'il y a le storage vmotion, des outils de refacturation natifs, j'en passe. Et puis surtout l'affinité avec les baies emc (normal c'est la même boutique)…

            quant aux prix : ils baissent, ibm devient peut-être enfin honnête avec ses clients

            Nan mais toute la différence de prix se fait sur les licences…

            absolument, et c'est bien pour ça par exemple que le licensing oracle n'est intéressant que sur exadata…
            Oracle n'est pas donné non plus sur x86….

            ibm a été un peu plus malin avec le DCM (dual chip module), vu que les licences sont à la socket, avoir deux puce sur une socket réduit d'autant la facture.

            Cela étant, je ne doute pas de la capacité des concurrents à revoir leur modèle économique/facturation.

            Ibm envisage de porter kvm sur power, il serait peut-être tant de considérer le power comme une alternative plutôt que comme une niche…

            http://www-03.ibm.com/systems/virtualization/kvm/ibminvestment.html

            • [^] # Re: Domination d'Intel vs Power et les autres

              Posté par . Évalué à 1.

              Nan mais t'es commercial pour IBM ou quoi ? Je te parle d'un truc, et tu pars sur autre chose en balançant le nom de tout plein de technos « géniales »… je n'en doute pas !

              On fait sûrement moins bien avec du x86, ça bidouille plus, et on ne prend pas en compte les coûts « cachés » de ces bidouilles, mais au moins c'est pas cher à la base, et on est plus libre.

              quant aux prix : ils baissent, ibm devient peut-être enfin honnête avec ses clients

              C'est clair, ça donne envie de leur faire confiance ! [:gedebor]

              Tu confirmes juste bien ce qu'on dit : POWER est un marché de niche pour personnes captives d'IBM, et ils n'ont pas l'intention de changer. Tant mieux pour eux, mais le x86 ne fera que progresser pendant ce temps…

              • [^] # Re: Domination d'Intel vs Power et les autres

                Posté par . Évalué à 2.

                Bon, on va recommencer :

                À l'heure de la virtualisation à outrance, on s'en fout un peu de la fiabilité. Ça ne sert pas à grand chose d'avoir toutes ces fonctionnalités de redondance vu le prix que tu payes en plus. On gère la redondance à plus haut niveau aujourd'hui, ça coûte tellement moins cher et c'est tellement moins fermé…

                Je te réponds que sur Power on virtualise et même mieux dans certains cas que sur x86.
                Donc tu cumules fiabilité et virtualisation, contrairement au x86 où la fiabilité hardware est discutable.

                Quant à la redondance de plus haut niveau, cela ne s'applique pas à tous les environnements.

                Sur une appli web avec n httpd, x tomcat, et y database, la panne d'un noeud ne se voit pas.
                Sur une appli type dataware, la panne d'un noeud est directement visible car cela coute trop cher de répliquer x fois les Po de données que tu manipules.

                Sur les châssis de consolidation, la fiabilité est importante quand tu héberges une centaine de partitions…et comme il s'agit d'env hors-prod, il n'y a pas de secours. Donc limiter le downtime en payant un peu plus cher, revient en réalité à faire des économies…

                Bref, tout est une question d'appli donc je suis désolé de te dire que ton affirmation générique : "la fiabilité on s'en fout un peu" n'est que parcellaire

                Cela correspond, certes, à un segment de marché moins important en volume que les multiples grilles-pain / x86 massivement distribués que l'on trouve chez ovh ou ailleurs.

                Tu confirmes juste bien ce qu'on dit : POWER est un marché de niche pour personnes captives d'IBM, et ils n'ont pas l'intention de changer. Tant mieux pour eux, mais le x86 ne fera que progresser pendant ce temps…

                Si justement, ils ont l'intention de changer et de s'ouvrir un peu plus (mais c'est peut-être déjà trop tard) :

                http://www.linux-kvm.org/wiki/images/5/5d/2011-forum-KVM_on_the_IBM_POWER7_Processor.pdf

                PS: je vais peut-être changer mon pseudonyme en : pasIpasBM

                • [^] # Re: Domination d'Intel vs Power et les autres

                  Posté par . Évalué à 2.

                  "Cela correspond, certes, à un segment de marché moins important en volume que les multiples grilles-pain / x86 massivement distribués que l'on trouve chez ovh ou ailleurs."

                  Peux tu nous rappeller combien de Power, Google et Amazon utilise pour gérer leur Po de donné ?

                  "La première sécurité est la liberté"

                  • [^] # Re: Domination d'Intel vs Power et les autres

                    Posté par . Évalué à 3.

                    que je sache, il s'agit pas d'une appli type datawarehouse ni d'applis dite décisionnelle.

                    donc, comme je l'ai dis, le problème réside dans les applis.

                    Typiquement les applis que tu cites sont massivement distribuées et n'ont rien à voir avec l'exemple que j'ai donné.

                    Vous sortez un peu de chez vous dès fois ? Il n'y a pas que le web dans la vie.

                    • [^] # Re: Domination d'Intel vs Power et les autres

                      Posté par . Évalué à 2.

                      De quelle application, tu parles ? Le fait de stoquer et de restituer rapidement des données ? Genre comme youtube ?

                      appli décisionnel  ? Genre google translate ? adword ?

                      "La première sécurité est la liberté"

                • [^] # Re: Domination d'Intel vs Power et les autres

                  Posté par . Évalué à 3.

                  Bref, tout est une question d'appli donc je suis désolé de te dire que ton affirmation générique : "la fiabilité on s'en fout un peu" n'est que parcellaire

                  OK, je comprends mieux, même si on début j'ai cru que tu t'entêtais sur le côté « hardware plus fiable = mieux » :-) Je veux bien croire que c'est utile, mais perso, c'est sur le genre d'applis que je connais peu, et que je vois peu.

                  Cela correspond, certes, à un segment de marché moins important en volume que les multiples grilles-pain / x86 massivement distribués que l'on trouve chez ovh ou ailleurs.

                  Bah, c'est ça le problème : comme tu l'avoues, c'est réservé aux applications non-distribuées. Aujourd'hui, comme on voit avec le succès de Google et d'autres justement, on ne peut plus envisager d'appli non-distribuées si on veut scaler correctement. Et en bonus, ça t'amène la fiabilité sans avoir besoin de payer des machines la peau du cul. Bref, le côté « fiable à tout prix » n'a pas d'avenir, et les grilles-pains distribués, si :-)

          • [^] # Re: Domination d'Intel vs Power et les autres

            Posté par . Évalué à 2.

            http://wiki.openwrt.org/toh/tp-link/tl-wdr4900
            Premier routeur PPC de tplink, c'est assez récent…qui sait ?

            • [^] # Re: Domination d'Intel vs Power et les autres

              Posté par . Évalué à 1.

              Marrant les réponses après la bataille ;-)

              http://wiki.openwrt.org/toh/tp-link/tl-wdr4900
              Premier routeur PPC de tplink, c'est assez récent…qui sait ?

              Intéressant, je ne connaissais pas. Par contre, quand on regarde dans la durée : oui, la v1 est PPC, mais la v2 c'est du MIPS, exactement comme je disais (que le PPC se fait bouffer par du MIPS sur l'entrée de gamme). Parce que c'est moins cher…

              • [^] # Re: Domination d'Intel vs Power et les autres

                Posté par . Évalué à 2. Dernière modification le 02/09/13 à 21:16.

                Relis…la v2 c'est uniquement en Chine, la v1 c'est pour le monde entier ;)

                V1.x: target: mpcC85xx 800Mhz Freescale PPC P1014 CPU 3 internal antennas (2.4Ghz) and 3 external antennas (5Ghz), available world-wide
                V2.x: target: ar71xx 720Mhz Qualcomm/Atheros SoC and 6 external antennas, available in PRC only

                Et les deux sont sorties en même temps donc c'est une version spéciale marché chinois.

      • [^] # Re: Domination d'Intel vs Power et les autres

        Posté par . Évalué à 3.

        Power != PowerPC

        La seul vrai raison est qu'une machine Power coute bien plus chère que l'équivalent en PC, surtout en "puissance moyenne".

        "La première sécurité est la liberté"

      • [^] # Re: Domination d'Intel vs Power et les autres

        Posté par . Évalué à 1. Dernière modification le 01/09/13 à 12:39.

        Pas du tout ça…

        Apple a laissé tomber le ppc parce qu'ils n'arrivaient pas à produire des cpu à gros nombre(Mhz) et que leur marketing en voulait(besoin d'afficher de gros chiffres comme sur pc).

        D'ailleurs Apple est mort quand ils ont switché d'arch.

    • [^] # Re: Domination d'Intel vs Power et les autres

      Posté par (page perso) . Évalué à 4.

      La domination d'Intel est-elle inéluctable ?

      Tant qu'IBM restera le seul vendeur de Power, l'architecture restera marginale et IBM ne pourra pas faire d'économies d'échelles.

      « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

      • [^] # Re: Domination d'Intel vs Power et les autres

        Posté par . Évalué à 4.

        En fait l'archi Power existe toujours dans certains micro-contrôleurs Freescale (qui est la spin-off de Motorola, rappelons-le).
        Mais il semble qu'ils seront à terme remplacés par de l'ARM partout.

        Le Power ne doit-il sa survie qu'aux compétences déjà acquises historiquement chez les clients et à un peu d'inertie?

        • [^] # Re: Domination d'Intel vs Power et les autres

          Posté par (page perso) . Évalué à 3.

          Tu parle de Power ou de PowerPC, il me semble que c'est ce dernier que j'avais encore aperçu dans quelque truc. Mais pas de Power6/7. Par contre, je ne voulais pas dire qu'IBM devait licencié son architecture mais vendre des processeurs à d'autres (Dell, HP…).

          « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

          • [^] # Re: Domination d'Intel vs Power et les autres

            Posté par . Évalué à 2. Dernière modification le 20/06/13 à 17:51.

            Il parle de PowerPC, les PPC 6xx & 7xx.
            Et il me semble qu'IBM avait des accords de type OEM avec BULL dans les années 90.

            Depending on the time of day, the French go either way.

            • [^] # Re: Domination d'Intel vs Power et les autres

              Posté par (page perso) . Évalué à 3.

              Je suis aussi tombé sur un article qui disait que Bull avait un accord pour vendre des serveurs IBM avec des Power. Mais ça ne résoud pas le problème, ça reste des serveurs IBM, ça fait que Power reste dans un marché très restreint.

              « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

              • [^] # Re: Domination d'Intel vs Power et les autres

                Posté par (page perso) . Évalué à 3.

                Une fois, j'ai visité un centre Bull. Ils étaient très fier de LEURS serveurs… Je leur dis que je les reconnais car j'ai les mêmes via marché CNRS, c'étaient des serveurs NEC ! Après avoir insisté un peu, ils m'ont avouer l'avoir développé en commun. Je n'en ai jamais cru un mot !

                Sacré Bull ;-)

                Ceci dis, sur le HPC, grâce au CEA, ils ont développé des vrais compétences.

                • [^] # Re: Domination d'Intel vs Power et les autres

                  Posté par . Évalué à 2.

                  "Après avoir insisté un peu, ils m'ont avouer l'avoir développé en commun. Je n'en ai jamais cru un mot !"

                  Si c'est vrai. Ils ont continuer la gamme des DPS, qui était de très bon "mini" à l'époque. Dans les dernières versions, les cpus étaient fabriqué par NEC.

                  "La première sécurité est la liberté"

                  • [^] # Re: Domination d'Intel vs Power et les autres

                    Posté par (page perso) . Évalué à 2.

                    Là, je parle de machine qui était des serveurs 1U avec processeurs Intel… Ceci dis, il semble qu'il y ait effectivement un partenariat fort entre les eux.

                    • [^] # Re: Domination d'Intel vs Power et les autres

                      Posté par . Évalué à 2.

                      Des itaniums ? Je ne sais pas si c'est encore le cas, mais au début, il avait fait de bonne machine, avec une bonne gestion thermique. Il me semble que leur cluster de calcul tourne encore, sous Itanium.

                      "La première sécurité est la liberté"

                      • [^] # Re: Domination d'Intel vs Power et les autres

                        Posté par (page perso) . Évalué à 2.

                        Non, c'est SGI qui était bon sur Itanium avec ses Altix, BULL était loin derrière. Il faut dire que le NUMA de SGI était en avance. D'ailleurs, c'est pas sans raison que SGI fait ses UV avec du Xeon maintenant. Il n'y a pas grand monde sur le marché des grosses machines SMP à base Intel…

                        Les machines BULL dont je parle était de bête serveur 1U sous Xeon en tôle bien basique… On avait les mêmes au marché CNRS mais identifié NEC. Il n'y avait même pas de place pour un logo. En fait, elles étaient bien plus moche que les DELL 1850 et 1950 de la même époque. Ceci dis, elles ont tourné sous Xen pendant des années sans soucis.

  • # Ils sont père et fils.

    Posté par . Évalué à -4.

  • # Guangzhou ou Tianjin

    Posté par (page perso) . Évalué à 1.

    Tianhe-2 (ce qui signifie « Voie Lactée 2 »)
    est une machine hybride installée au Centre national
    de supercalculateurs de Guangzhou
    — National Supercomputing Center in Tianjin.

    D'après l'article, le machin se trouve à Canton ( Guangzhou); mais je ne trouve pas mention de Tianjin - qui héberge un "Tianhe-I" - dans les articles.

    Au passage, le lien vers le «national SuperComputing center in Tianjin» indique:

    Recommend the use of Micosoft IE and in 1024 * 768 or higher resolution view "

    • [^] # Re: Guangzhou ou Tianjin

      Posté par . Évalué à 1.

      Pour le moment, ni l’un ni l’autre : il est à Changsha.
      À la fin de l’année il va bouger à Guangzhou

      The TH-2 is undergoing assembly and testing at NUDT and will be moved to its permanent home at the National Supercomputer Center in Guangzhou (NSCC-GZ) by the end of the year.

      Source.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.