Bonsoir,
Depuis quelques jours je me documente sur les technologies de grid computing, cluster, user mode linux, vserver, lvs, openmosix, et je n'ai pas encore trouvé une solution satisfaisante à mon besoin.
En effet, j'ai pour ambition de monter un châssis en plexiglas avec une structure en alu pour assembler plusieurs alims, disques dur et cartes mères.
L'idée serait de créer une ou des « virtual machine » à partir de ces différents élément, à la manière d'un mainframe.
Avez-vous déjà entendu parlé de ce genre de montage à partir de pièce de pc ?
Pour ceux qui se demande pourquoi faire un truc pareil, je répondrais ceci :
Pour le fun et pour montrer qu'on n'a pas besoin d'un IBM zseries ou sun E10000 pour faire ce genre de montage.
A+
# mini-cluster
Posté par nicodache . Évalué à 3.
si t'avais pas encore vu, bein te voila au courant...
ca peut pitet t'inspirer, tant pour la partie logicielle que matérielle ;)
[^] # Re: mini-cluster
Posté par Alexandre Boeglin . Évalué à 3.
installer par exemple un openmosix dessus et faire quelques tests en plus aurait été intéressant à voir aussi, je pense...
ensuite deux remarques :
- le plexi, ca chauffe vite, et ca garde la chaleur longtemps...
- y'a une vieille rumeur qui avait l'air très sympa à l'époque : le via c5p qui supporte le smp http://www.extremetech.com/article2/0,3973,1354088,00.asp(...)
# une idee comme ca ...
Posté par Mouns (site web personnel) . Évalué à 2.
un Mosix + UML me semble etre un bon depart
voir un Mosix + UML + Mosix pour reduire encore le risque de deni de service.
mais bon, c pas encore au point tout ca. :(
[^] # Re: une idee comme ca ...
Posté par xila . Évalué à 1.
Par contre, je ne trouve aucune info concernant le fait de faire tourner des instances UML sous un environnement OpenMosix
# le must...
Posté par Nicolas Boulay (site web personnel) . Évalué à 1.
Pour gagner en perf, je pense que le mieux c'est de réussir à connecter les cartes mères en point à point. Genre si tu as 4 cartes mères, tu peux mettre 4 cartes réseaux, 3 pour les reliers entre elles (gigabytes de préférence) et 1 pour sortir sur un switch. Il existe des cartes réseaux ayant 3 sorties, il me semble. Selon le type d'application la différence de vitesse peut devenir énorme.
Le must serait de pouvoir connecter les bus PCI entre eux par des bridges et de faire le lien réseau qu'il faut mais je n'ai rien vu qui ressemble à ça. Il existe aussi des essais de réseaux par liaison SCSI (380 Mo/s...) mais cela reste expérimental.
"La première sécurité est la liberté"
[^] # Re: le must...
Posté par Jak . Évalué à 1.
Mais ça n'est pas facile à étendre pour passer à plus de 4 machines. Le mieux, c'est de s'inspirer du réseau de KLAT2, le FNN (Flat Neighbourough [<- voisinage en anglais, mais je ne sais pas l'écrire] Network). Voir du côté de http://aggregate.org/KLAT2/(...) pour plus d'infos. L'idée, c'est de s'arranger pour que chaque noeud du système n'ait dans tous les cas qu'un seul switch à traverser pour en joindre un autre. Et ils faisaient ça sur un cluster de plus de 60 machines avec une dizaine de switches 32 ports.
Il y a eu une nouvelle version de l'architecture réseau, récemment, mais bon, pour commencer, c'est déjà pas mal.
[^] # Re: le must...
Posté par Lucas Bonnet . Évalué à 1.
Neighborhood :)
Comme Childhood, Robin Hood ...
[^] # Re: le must...
Posté par Nicolas Boulay (site web personnel) . Évalué à 1.
"La première sécurité est la liberté"
[^] # Zut, j'oubliais ...
Posté par Jak . Évalué à 2.
C'est pas justement à ça que servent les cartes Myrinet ?
http://www.myri.com/myrinet/product_list.html(...)
Il me semble bien que si (mais c'est pas donné, et c'est justement l'avantage de l'architecture FNN).
# OpenSSI
Posté par Maxime Ritter (site web personnel) . Évalué à 3.
[^] # Re: OpenSSI
Posté par Alexandre Boeglin . Évalué à 2.
# mainframe != cluster
Posté par KDYY4RF . Évalué à 1.
Un mainframe n'est pas une machine massivement parallèle. Sa spécialité, c'est plutot les entrées/sorties.
[^] # Re: mainframe != cluster
Posté par xila . Évalué à 1.
C'est juste pour que je me couches moin con ce soir.
[^] # Re: mainframe != cluster
Posté par KDYY4RF . Évalué à 2.
- C'est vrai qu'on peut faire de la consolidation sur mainframe (via z/linux) mais on a bien 1 machines (multi processeur certes) sur laquelle on fait tourner plusieurs partitions (jusqu'à 15 avec PR/SM ou plus avec z/VM).
- Dans ton cas, tu as n machines sur lequels tu fait tourner m OS, le tout dans la meme boite.
Une machine qui permet de créer des machines virtuelles, j'apelle ca une "solution de consolidation de serveurs", surement pas un mainframe.
KDYY4RF
PS : mainframe rulez
[^] # Re: mainframe != cluster
Posté par xila . Évalué à 1.
Merci pour l'info.
J'ai trouvé çà sur le net:
http://www.ajm.fr/_linux.htm(...)
Ca résume vite fait l'affaire, mais c'est du proprio ibm zseries.
Toooo c'est pas gratos !!!
[^] # Re: mainframe != cluster
Posté par Nicolas Boulay (site web personnel) . Évalué à 1.
"La première sécurité est la liberté"
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.