Datagrid : remplacer les Mainframes ?

Posté par  . Modéré par Fabien Penso.
Étiquettes : aucune
0
18
mar.
2001
Technologie
Datagrid est un projet de calcul et stockage (!) distribué au niveau européen. Il permettra de traiter les pétas-octets de données générés par l'analyse d'un nouveau collisioneur de particules...

C'est donc le premier projet de ce type mis en place en europe, tous les centres de recherche participeront donc au projet pour les calculs pouvant être répartis. Les Mainframes achetés à grand frais ne valent donc plus rien ?
Apparement non car tout ne peut pas être calculé avec une architecture distribuée... allez sur transfert pour en savoir plus..

Aller plus loin

  • # Vive le CERN de Geneve :+)

    Posté par  . Évalué à 1.

    Bon desole pour le titre, c'etait ma fibre patriotique :+)

    A part ca, les mainframe peuvent tout a fait faire partie du reseau distribue, et seront meme a mon avis tres utiles.
    Les gros mangeurs de calculs que sont les Origin et autres Cray supportent tous MPI/PVM/etc.. et sont capables de resoudre certains types de problemes bien plus rapidement qu'un cluster Beowulf car ces monstres disposent de bus hyper-rapides(crossbar switch,hypercube,...) qui massacrent litteralement le bus de communication d'un Beowulf, car tous les clusters Beowulf, meme avec des cartes Myrinet, ont un goulot d'etranglement au niveau du bus PCI qui plafonne a 132Mo/s sur les PC traditionels.

    Typiquement les calculs sur des matrices de taille enorme demandent un grand nombre de communications, et sur ce genre de problemes, un Cray massacre un Beowulf de puissance CPU equivalente.
    • [^] # Re: Vive le CERN de Geneve :+)

      Posté par  . Évalué à -1.

      Ha ha ha !
      Décidément !
      Tu travaillerais pour MS et tu ne serais pas français !
      Mais arrête la provoc ! ;)
      Tiens je me demande si ca va troller car j'ai l'imprerssion que les gens aiment bien te saquer.
      ;-)
      Et hop -1 car c'est hors topic.
    • [^] # Re: Vive le CERN de Geneve :+)

      Posté par  . Évalué à 0.

      entièrement d'accord avec toi, pasBill. Beaucoup de calculs ne peuvent être effectués de manière distribuée, en particulier tout ce qui fait intervenir des systèmes linéaires de très grande taille -> les simulations en mécanique, electromagnetisme, etc... Pour tous ces calculs, une bonne vieille mémoire partagée avec un débit conséquent reste capital.
    • [^] # Re: Vive le CERN de Geneve :+)

      Posté par  . Évalué à 1.

      sauf qu'un cray vaut beaucoup plus cher qu un cluster beowulf
      • [^] # Re: Vive le CERN de Geneve :+)

        Posté par  . Évalué à 1.

        Oui mais cela ne sert à rien de payer moins cher si tu ne peux pas faire le calcul ! huh
        A chaque pb il y a une solution qui lui est adaptée.
        • [^] # Re: Vive le CERN de Geneve :+)

          Posté par  . Évalué à 1.

          Contrairement à ce que tu racontes, il est toujours possible de distribuer un calcul.
          Sur le sujet des mainframes, c'est le rapport coùt/calcul qui entre en compte. Si tu peux faire le calcul dix fois plus vite mais en payant 100 fois plus plus, ce n'est pas interessant financièrement parlant.

          Au passage, dis-te moi si je me trompe mais c'est payé par nos impôts ces mainframes ?
          • [^] # Re: Vive le CERN de Geneve :+)

            Posté par  . Évalué à 1.

            Et alors si c'est payé par nos impots. Si ca fait le travail demandé bien et de la meilleure façon qui soit je m'en fous.
            Moi payer des impots ne me dérange pas si ils servent à quelquechose (Sécu, Edu, Sociale,... ). Si il y a des excès, des détournements, du gaspillage, alors là je dit qu'il faut régler le pb et que nous devons payer à la juste mesure.

            Ensuite, comme l'a dit PasBillou, il y a des pb techniques (bandes passantes mémoires insuffisantes) qui font que des fois il vaut mieux utiliser les mainstreams/supercalculateurs.
          • [^] # Re: Vive le CERN de Geneve :+)

            Posté par  . Évalué à 1.

            Ben ca depend des problemes...

            Typiquement pour la meteorologie, meme si ca coute 100 fois plus cher d'aller dix fois plus vite, ca peut valoir le coup.

            Si il te faut une semaine pour avoir les previsions du lendemain c'est pas genial, meme chose pour d'autres problemes :
            Les simulations aerodynamiques par exemple, calculer les effets aerodynamqiues du nouveau Jumbo Jet chez Boeing doit se faire le plus vite possible, car si il y a des problemes, ben il faut les voir le plus vite possible et pas un mois apres, car attendre 1 mois avant de voir qu'il y a un probleme c'est un mois de perdu, et ca se chiffre en millions pour Boeing.
            • [^] # Re: Vive le CERN de Geneve :+)

              Posté par  . Évalué à 1.

              Oui, mais il me semble que la dernière machine de météo-france (celle qui permet les prévisions pas fiables à 6 jours) est une espèce de cluster : des cartes mères dans une (grosse) boîte et reliées, on en revient là, par un réseau proprio ultra optimisé, plutôt qu'une machine multiprocesseur ou superscalaire.
      • [^] # Re: Vive le CERN de Geneve :+)

        Posté par  . Évalué à 0.

        Certains calculs comme la météo (où les calcul sont fortement interdépendants), ne peuvent pas ce faire de manière distribué. Selon un article de science et vie, des mainframes seront connectés au réseau pour satifaire ce genre d'exigence, alors que les autres demandes seront traitées de manière distrubuée.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.