Journal Mainframe à partir de PC ?

Posté par  .
Étiquettes : aucune
0
25
juil.
2004
Bonsoir,

Depuis quelques jours je me documente sur les technologies de grid computing, cluster, user mode linux, vserver, lvs, openmosix, et je n'ai pas encore trouvé une solution satisfaisante à mon besoin.
En effet, j'ai pour ambition de monter un châssis en plexiglas avec une structure en alu pour assembler plusieurs alims, disques dur et cartes mères.
L'idée serait de créer une ou des « virtual machine » à partir de ces différents élément, à la manière d'un mainframe.
Avez-vous déjà entendu parlé de ce genre de montage à partir de pièce de pc ?
Pour ceux qui se demande pourquoi faire un truc pareil, je répondrais ceci :
Pour le fun et pour montrer qu'on n'a pas besoin d'un IBM zseries ou sun E10000 pour faire ce genre de montage.

A+
  • # mini-cluster

    Posté par  . Évalué à 3.

    je suppose que t'as été voir http://www.mini-itx.com/projects/cluster/(...) ...

    si t'avais pas encore vu, bein te voila au courant...

    ca peut pitet t'inspirer, tant pour la partie logicielle que matérielle ;)
    • [^] # Re: mini-cluster

      Posté par  . Évalué à 3.

      bien que la partie hardware de l'article soit très sympa, la partie software est un peu à la traîne : il utilise seulement mpi... donc à part du calcul distribué écrit en mpi, sa machine fait pas grand chose...

      installer par exemple un openmosix dessus et faire quelques tests en plus aurait été intéressant à voir aussi, je pense...

      ensuite deux remarques :

      - le plexi, ca chauffe vite, et ca garde la chaleur longtemps...

      - y'a une vieille rumeur qui avait l'air très sympa à l'époque : le via c5p qui supporte le smp http://www.extremetech.com/article2/0,3973,1354088,00.asp(...)
  • # une idee comme ca ...

    Posté par  (site web personnel) . Évalué à 2.

    pour faire un gros mainframe linux ...

    un Mosix + UML me semble etre un bon depart

    voir un Mosix + UML + Mosix pour reduire encore le risque de deni de service.

    mais bon, c pas encore au point tout ca. :(
    • [^] # Re: une idee comme ca ...

      Posté par  . Évalué à 1.

      En regardant le site d'openmosix, il semble possible de faire tourner openmosix sous UML.
      Par contre, je ne trouve aucune info concernant le fait de faire tourner des instances UML sous un environnement OpenMosix
  • # le must...

    Posté par  (site web personnel) . Évalué à 1.

    Un truc mieux que nfs (le truc de redhat ?) + Torque pour distribuer les process (et dist-cc pour gcc qui est plus efficace :). Cela devrait le faire.

    Pour gagner en perf, je pense que le mieux c'est de réussir à connecter les cartes mères en point à point. Genre si tu as 4 cartes mères, tu peux mettre 4 cartes réseaux, 3 pour les reliers entre elles (gigabytes de préférence) et 1 pour sortir sur un switch. Il existe des cartes réseaux ayant 3 sorties, il me semble. Selon le type d'application la différence de vitesse peut devenir énorme.

    Le must serait de pouvoir connecter les bus PCI entre eux par des bridges et de faire le lien réseau qu'il faut mais je n'ai rien vu qui ressemble à ça. Il existe aussi des essais de réseaux par liaison SCSI (380 Mo/s...) mais cela reste expérimental.

    "La première sécurité est la liberté"

    • [^] # Re: le must...

      Posté par  . Évalué à 1.

      > Pour gagner en perf, je pense que le mieux c'est de réussir à connecter les cartes mères en point à point.

      Mais ça n'est pas facile à étendre pour passer à plus de 4 machines. Le mieux, c'est de s'inspirer du réseau de KLAT2, le FNN (Flat Neighbourough [<- voisinage en anglais, mais je ne sais pas l'écrire] Network). Voir du côté de http://aggregate.org/KLAT2/(...) pour plus d'infos. L'idée, c'est de s'arranger pour que chaque noeud du système n'ait dans tous les cas qu'un seul switch à traverser pour en joindre un autre. Et ils faisaient ça sur un cluster de plus de 60 machines avec une dizaine de switches 32 ports.
      Il y a eu une nouvelle version de l'architecture réseau, récemment, mais bon, pour commencer, c'est déjà pas mal.
      • [^] # Re: le must...

        Posté par  . Évalué à 1.

        FNN (Flat Neighbourough [<- voisinage en anglais, mais je ne sais pas l'écrire]

        Neighborhood :)
        Comme Childhood, Robin Hood ...
      • [^] # Re: le must...

        Posté par  (site web personnel) . Évalué à 1.

        Est-ce que le réseau de linux est capable de gérer ça ? Je ne suis pas sur.

        "La première sécurité est la liberté"

    • [^] # Zut, j'oubliais ...

      Posté par  . Évalué à 2.

      > Le must serait de pouvoir connecter les bus PCI entre eux par des bridges et de faire le lien réseau qu'il faut mais je n'ai rien vu qui ressemble à ça.

      C'est pas justement à ça que servent les cartes Myrinet ?
      http://www.myri.com/myrinet/product_list.html(...)
      Il me semble bien que si (mais c'est pas donné, et c'est justement l'avantage de l'architecture FNN).
  • # OpenSSI

    Posté par  (site web personnel) . Évalué à 3.

    Voilà qui pourait t'intéresser : http://www.openssi.org/(...)
    • [^] # Re: OpenSSI

      Posté par  . Évalué à 2.

      hum, j'ai rapidement survolé, et je me demande : en termes de fonctionnalités, en quoi c'est différent de openmosix?
  • # mainframe != cluster

    Posté par  . Évalué à 1.

    ca n'a rien a voir.

    Un mainframe n'est pas une machine massivement parallèle. Sa spécialité, c'est plutot les entrées/sorties.
    • [^] # Re: mainframe != cluster

      Posté par  . Évalué à 1.

      Alors comment appelles tu une machine qui permet de créer des machines virtuelles ?
      C'est juste pour que je me couches moin con ce soir.
      • [^] # Re: mainframe != cluster

        Posté par  . Évalué à 2.

        D'après ce que j'ai compris de ton post, tu veux mettre plusieurs cartes mère dans un meme boitier, installer une solution de clustering / virtualisation et y coller l'etiquette mainframe.

        - C'est vrai qu'on peut faire de la consolidation sur mainframe (via z/linux) mais on a bien 1 machines (multi processeur certes) sur laquelle on fait tourner plusieurs partitions (jusqu'à 15 avec PR/SM ou plus avec z/VM).
        - Dans ton cas, tu as n machines sur lequels tu fait tourner m OS, le tout dans la meme boite.

        Une machine qui permet de créer des machines virtuelles, j'apelle ca une "solution de consolidation de serveurs", surement pas un mainframe.

        KDYY4RF

        PS : mainframe rulez
    • [^] # Re: mainframe != cluster

      Posté par  (site web personnel) . Évalué à 1.

      D'ailleurs je ne comprends toujours pas pourquoi personne n'a encore sortie un puce hypertransport 16 bits avec 8 liens gigabyte (pour le FNN) et 64 liens serial ATA (pour le raid 5 qui sature l'hypertransport). La même un Z-series et ses liens interne à 1 Go/s sera battu.

      "La première sécurité est la liberté"

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.