Journal Record mondial tpc/c sous Linux !

Posté par  .
Étiquettes : aucune
0
26
juin
2004
Je n'ai pas vu cette information passer ici.
C'est une copie d'un commentaire que j'ai fait ici :
http://linuxfr.org/2004/06/25/16655.html(...)

Je lisais la "propagande" Red Hat sur GFS et je suis tombé sur ça :
http://www.redhat.com/whitepapers/rhel/RHEL_Scalable_OS_Storage_Inf(...)
The recently published world record TPC/C benchmark, achieved by a partnership of Oracle, Red Hat, and HP, included a storage system with over 2000 physical disks providing a total of 93TB of data, hosting a 90TB database. So the ultimate scalability of Linux is not in doubt. The photograph below shows the actual benchmark configuration. Details of the benchmark can be found at http://www.tpc.org/(...) .

Voir la photo du monstre en bas de la page.

Le record tpc :
http://www.tpc.org/tpcc/results/tpcc_perf_results.asp?resulttype=al(...)

La bécane (le monstre):
http://www.tpc.org/tpcc/results/tpcc_result_detail.asp?id=103120803(...)
Total System Cost : 6,541,770 US $
Server Information
CPU: Intel Itanium 2 Processor 6M 1.5GHz
# of CPUs: 64
Cluster: Y


Voir aussi :
http://www.tpc.org/results/individual_results/HP/HP%20Integrity%20r(...)
768 Go de mémoire vive !


Ça mériterait presque une news. Mais c'est un peu vieu (08/03) même si le record tient toujours.
  • # Re: Record mondial tpc/c sous Linux !

    Posté par  (site web personnel) . Évalué à -9.

    Les journaux ne rapportent pas assez, tu t'es sentit obligé de poster un commentaire aussi inutile que ton journal?

    http://linuxfr.org/comments/437751,1.html(...)
    • [^] # Re: Record mondial tpc/c sous Linux !

      Posté par  . Évalué à 3.

      J'ai fait un journal car ce n'est pas lié à la news sur GFS. Ce bench, n'utilise pas GFS.
      De plus ce bench n'est pas directement lié à Red Hat. SuSE avec le même matos doit pouvoir en faire autant (d'ailleur les sources RHEL sont dispos donc ça ne prète pas à discussion).

      Si j'ai fais le commentaire dans la news GFS, c'est parce que j'ai trouvé cette info dans la "propagande" GFS de Red Hat.
      C'est ici (lien donné dans la news) :
      http://www.redhat.com/software/rha/gfs/(...)
      En bas de la page "Data Sharing Clusters for Web Serving and Grid Computing".

      Au-lieu de faire une obsession sur Red Hat, voyez les avantages aussi pour votre distribution "chérie". Dites que GNU/Linux est au "top" pour les serveurs haut de gamme en vous appuyant sur ce bench. Et si on vous fait remarquer que c'est Red Hat qui est utilisé, dites que c'est une distribution parmis d'autres et que les autres peuvent le faire aussi puisque les sources sont dispos et quelles partagent au minimum 99,9 % du code. J'ai aucune objection.

      Puis fais un minimum attention. Le titre est "Record mondial tpc/c sous Linux !" et non "Record mondial tpc/c sous Red Hat !".
      Je dis aussi "Je lisais la "propagande" Red Hat".

      Si je cite Red Hat, c'est parce qu'il faut "rendre à Cesar ce qui appartient à Cesar". Prends ta distribution favorite et fait pété un record. Puis fais une news et elle sera légitimement citée.

      Oracle et HP sont aussi cité. Ça t'emmerdes ?
      • [^] # Re: Record mondial tpc/c sous Linux !

        Posté par  . Évalué à -1.

        > En bas de la page "Data Sharing Clusters for Web Serving and Grid Computing".

        Non, c'est une ligne plus bas "Creating a Scalable Open Source Storage Architecture".
      • [^] # Re: Record mondial tpc/c sous Linux !

        Posté par  (site web personnel) . Évalué à 4.

        c'est une distribution parmis d'autres et que les autres peuvent le faire aussi puisque les sources sont dispos et quelles partagent au minimum 99,9 % du code.


        Oui mais le code source du Chimpanzé est aussi dispo (en version draft pour l'instant) et il partage plus de 99% des génes de l'Homme et pourtant il ne sait pas ni parler, ni lire, ni écrire !

        PS: ceci est de l'humour (pas terrible, mais bon)
  • # fiouuuuuuuuuu

    Posté par  . Évalué à 2.

    dire que c'est ce genre de bete que nos enfants vont faire tourner.
    ahlala.... mais quelle sera leur réaction à la vue d'un screenshot de twm?
    • [^] # Re: fiouuuuuuuuuu

      Posté par  . Évalué à 1.

      Ben il faut avoir une "putain" de clim et un gros abonnement EDF.
      Puis avec plus de 2000 disques dures, il faut au minimum prévoir une panne de DD par semaine.

      Ça reste un jouet pour les grands pour un bon moment encore.

      Chez PSA j'ai vu des trucs délirants. Une salle de plus de 100 m2 garnit de DD. Des rangées et des rangées de DD. Du délire. La partie clim/refroidissement coûtait presque aussi cher que l'informatique. Puis à côté, la même chose mais en 10 fois plus petit. Simplement car le matos était plus récent. A l'époque (c'était il y a 6 ans) une base de donnée fesait 150 Tera Octets. Elle doit être bien plus grosse maintenant. Ce n'était pas la seule avec ce type de taille.
      Le système d'archivage tournait 24h/24h (il y a des données qui doivent être archivé pour des raisons comptables). Si le système d'archivage tombait en panne, il restait 24 h avant que les DD soient saturés (Donc arrêt de la production et plusieurs milliers de personnes en chômage technique, plus les sous-traitants etc).
      Dans ces centres de traitement c'est de la science fiction. Double alimentation d'eau et EDF (une ligne qui vient le la central nucléaire bidule et une autre d'un barage) ! Double groupe électrogène ! Il y a même un bac de flotte en cas de coupure d'eau. S'il y a une grave crise, une procédure est mise en place et il y a aussi un élicoptère mise à disposition !
      Si un centre de traitement disparait (tremblement de terre, missile américain qui s'égare, etc) il faut une semaine pour basculer sur une autre centre. Du délire de chez délire. Il faut le voir pour le croire. Inimaginable, je manque de superlatif...
      La production de plusieurs millers de véhicules par jour est en cause.
      Le terme mission critique prend tout son sens.

      Un must à visiter. Si possible...
      • [^] # Re: fiouuuuuuuuuu

        Posté par  . Évalué à 3.

        Ça me rappelle quand j'ai vu enfin un véritable robot de sauvegarde chez un client, un truc cylindrique de plus de 1 mètre de diamètre rempli de centaines de lecteurs DLT avec un bras robotisé au milieu qui venait automatiquement changer/insérer les cartouches DLT dans les lecteurs... Je vous raconte pas la capacité de stockage que cela devait avoir, d'ailleurs, je n'en ai aucune idée, par contre, j'ai surpris une conversation qui disait que cela coûtait plus de 2 millions d'€ un joujou comme celui là.

        Et quand on y pense, bientôt, le moindre disque dur standard sur le marché aura une capacité plus importante que ce truc, impressionnant ! :-)

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.