Il y a quelque temps de cela, le STI présentait un projet, du nom de "Projet Mammouth", pour construire une grappe de calcul numérique de 1024 ordinateurs de type Pentium et s'inspirant du modèle Beowulf. Cette grappe fonctionnera entièrement sous Linux, comme la plupart des ordinateurs de ce type.
Aller plus loin
# le parallélisme et Linux
Posté par tanguy_k (site web personnel) . Évalué à 10.
Tous les constructeurs proposent désormais des clusters de pc plus ou moins boostés avec Linux dessus (comme VA Linux par exemple) alors qu'auparavant c'était plutot des supercalculateurs à plusieurs centaines de milliers voir plusieurs millions de francs qui prennent 30M2 genre le Nec SX5 (64 processeurs vectoriels + 1 To de mem) ou le Cray T3E (jusqu'à 2048 Alpha 21264 à 600MHz + 1/4 To mem)
En effet c'est bien plus économique d'utiliser des composants grand public que des trucs spécifiques produit en petite série.
Mais le problème des grappes par rapport aux supercalculateurs c'est la communication réseau qui est le goulot d'étranglement, en général ils mettent un truc proprio et pas de l'Ethernet 100
C'est un domaine passionnant que je découvre en ce moment en cours, la principale bibliothèque pour paralléliser du code s'appelle MPI (y'a aussi PVM et OpenMP) et est disponible en logiciel libre sous Linux (c'est inclus dans Debian, les autres distrib je sais pas).
http://www.lam-mpi.org/(...)
un cours sur MPI (généralement utilisé en Fortran mais aussi en C) : http://www.idris.fr/data/cours/parallel/mpi/choix_doc.html(...)
si vous avez envie de vous amusez chez vous à paralléliser du code pour le faire tourner sur plusieurs Linux... genre encoder en Divx :)
[^] # Re: le parallélisme et Linux
Posté par Jean-Yves B. . Évalué à 6.
Non. Rien ne bat les systèmes spécialisés sur architectures spécialisées pour l'instant (et peu sont sur base Linux pour l'instant).
En revanche, pour le rapport performance/prix ça semble être un des meilleurs OS (NaN).
Ethernet est tout aussi proprio que Myrinet ou SCSI (par exemple). Et pour l'ethernet c'est plus du gigabit que du 100 maintenant.
Typiquement MPI sert à gérer le passage de messages, de là à dire que c'est une librairie de parallélisation de code ... Coder une appli parallèle avec MPI c'est comme coder en assembleur : c'est très bas-niveau.
Mais c'est très efficace (quand c'est bien fait).
Pour la programmation plus haut-niveau, voir les émulations de système à mémoire partagée sur système distribué ou les systèmes à image unique (c'est du domaine de la recherche pour l'instant).
Il y a des portages d'OpenMP sur grappes aussi.
OpenMP n'est pas une bibliothèque, c'est une extension aux langages C et FORTRAN.
Je ne sais pas si c'est extrêmement parallélisable comme application ça, à vérifier.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.