Journal Fedora@home

Posté par  .
Étiquettes : aucune
0
5
mar.
2008
Fedora veut faire un (ou plusieurs) gros "cluster" (un peu comme SETI@home mais à usage plus général).
Les outils sont déjà dispos (Red Hat a libéré du code suite à RHEL MRG : Condor).


En fait, ce n'est pas encore un projet Fedora, c'est actuellement qu'une proposition.
Le file de la proposition (avec une discussion sur l'impact écologique :-)) :
http://www.redhat.com/archives/fedora-advisory-board/2008-Ma(...)

J'ai du mal à voir l'intérêt concrêt de la chose. Si quelqu'un peut m'éclairer je le remercie d'avance.
  • # Pour fedora, je n'en sais rien…

    Posté par  . Évalué à 6.

    … mais j'y avais pensé pour gentoo

    Faire un gigantesque distcc.

    Il arrive en effet parfois (même si c'est rare) qu'un ordinateur sous Gentoo ne soit pas en train de compiler. Et bien dans ce cas là, autant tirer profit de cette puissance non-utilisé pour accélérer les compilations de autres membres de la communauté.
    • [^] # Re: Pour fedora, je n'en sais rien…

      Posté par  . Évalué à 9.

      Tu executerais du code (possiblement en root) compilé sur la machine de quelqu'un pris au hasard sur Internet ?
      • [^] # Re: Pour fedora, je n'en sais rien…

        Posté par  . Évalué à -1.

        Et ca change quoi par rapport à installer un binaire compilé par je ne sais pas qui, avec je ne sais pas quelles sources ?
        • [^] # Re: Pour fedora, je n'en sais rien…

          Posté par  . Évalué à 2.

          Le binaire est généralement compilé et distribué par des tiers de confiance (les équipes qui gèrent les dépôts de la distribution que tu utilises).
          Il y a généralement tout un système de contrôle et de vérification des paquets, ce qui laisse rarement l'opportunité à un "méchant" d'y insérer quelque chose de malicieux.
          Par contre utiliser distcc et voir son code compilé sur la machine d'un inconnu... je reste sceptique sur la confiance qu'on pourrait lui accorder.
  • # t'éclaircir ?

    Posté par  . Évalué à 3.

    moi non, demande à mickael jackson, il sait faire

    ouais bon ça va... j'ai un HD qui vient de lacher, un raid soft qui va me pourrir ma matinée, tout ça quoi...
  • # Peut être une explication

    Posté par  . Évalué à 1.

    Slt les gas,

    j'ai peut être un semblant de réponse. Bon, c'est un peu tiré par les cheveux mais c'est un scénarios plausible.

    Les distributions Linux commence à gratter des parts de marché au Grosse Distribution Unix propriétaire, sur les super calculateur et autres machine destinés à faire de gros calcul. (Voir pour plus d'éclaircissement sur ce point ici: http://linuxfr.org/2007/11/14/23351.html)

    Même la NASA c'est mis à Fedora (la 4 si je me souviens bien) et à la Red Hat Entreprise. un mec qui a visité leurs locaux a pris quelques photos (voir ici: http://jaboutboul.blogspot.com/2008/02/fedora-on-final-front(...)

    Fournir un gros cluster totalement compatible, pour ce type d'entreprise est un argument décisif. Leurs garantir qu'ils auront accès à un cluster gratuitement, si ils se mettent à leurs distributions est un très bon argument dans la balance. "Vous acheté 20% de la puissance de calcul dont vous avez besoin, et nous nous vous fournirons le reste (les 80%) à travers notre cluster".

    c'est une stratégie bien pansait par Red hat (si c'est l'objectif visée)
    • [^] # Re: Peut être une explication

      Posté par  . Évalué à 4.

      Je connais aucune entreprise prête à laisser son code s'exécuter sur des machines non contrôlées. Rien que mixer les ressources de plusieurs départements ou utiliser les ressources de calcul d'un prestataire posent de gros problèmes.
      • [^] # Re: Peut être une explication

        Posté par  . Évalué à 1.

        Il est clair, que pour données/calcul sensibles, cela n'est pas très intéressant. mais pour des simulation/des calcul scientifiques, cela ne pose pas de réel problème de sécurité.
        • [^] # Re: Peut être une explication

          Posté par  . Évalué à 2.

          Tu veux aller en parler à EADS, Air France ou FT par exemple ?

          Les simulations sont importantes. Alors ajoute a ca une pile de procédures bien lourdes et le service juridique....
          • [^] # Re: Peut être une explication

            Posté par  . Évalué à 0.

            Il n'ya pas que les grosses boites qui ont besoin de faire des simulations. et puis elles n'ont pas que des données sensibles (même si en grande partie c'est le cas pour des entreprise comme EADS). Tu as pris les cas les plus sensibles. et sur ce type d'entreprise je suis d'accord avec toi.

            Néanmoins, pour le calcul des prévisions météo par exemple. ce n'est pas un secret de polichinelle à première abord, c'est un calcul utiles pour une entreprise tel que Air france ou la NASA. donc si le portage totale ou de manière partielle sur d'autres machine externe peut leurs faire gagner en précision/prévision, je ne pense pas qu'elles cracheront dessus.

            Prend l'exemple de la Grid community (http://www.worldcommunitygrid.org/) c'est bien un super ordinateur qui a été formé par un ensemble de PC connecté au Web. La World Community Grid met sa technologie (fournis par IBM principalement) à disposition des seules organisations publiques ou à but non lucratif pour qu'elles l'utilisent dans des recherches humanitaires qui, autrement, risqueraient de ne pas aboutir en raison du coût élevé de l'infrastructure informatique nécessaire en l'absence d'infrastructure publique.

            porter des simulation ou analyser de données non sensible sur une grid/Cluster ouvert(e), est toujours bon à prendre à mon avis.

            l'avenir est dans les calculs/traitement distribués. qu'on le veuille ou pas. y'a qu'à voir du coté des laboratoires de recherches. les réseaux totalement ad hoc pour le calcul et la transmission des données ont la cote. On investit dans ce type de R&D de manière massive, sur tout les plans: sécurité, optimisation des réseaux, fiabilité, robustesse, coût, etc.
            • [^] # Re: Peut être une explication

              Posté par  . Évalué à 1.

              > Il n'ya pas que les grosses boites qui ont besoin de faire des simulations

              Fournir un gros cluster totalement compatible, pour ce type d'entreprise est un argument décisif. Leurs garantir qu'ils auront accès à un cluster gratuitement, si ils se mettent à leurs distributions est un très bon argument dans la balance

              Bref tu te contredis

              > Néanmoins, pour le calcul des prévisions météo par exemple ce n'est pas un secret de polichinelle à première abord

              Comment crois tu qu'ils vivent ? Si il n'y a que GFS pour fournir les sorties des runs, la methodologie et l'implementation il y a une raison.
              Il y a aussi un problème de confiance. Quelle confiance as tu dans des calculs s'exécutant en environnement hostile ? Si tu fais un calcul c'est que ton activité dépend de son résultat.

              > Prend l'exemple de la Grid community
              Tu nous parlais d'entreprises.

              > l'avenir est dans les calculs/traitement distribués. qu'on le veuille ou pas
              C'est mon métier, merci. Pour les gens qui en ont besoin c'est aussi le passé et le présent.
              • [^] # Re: Peut être une explication

                Posté par  . Évalué à 1.

                Ton argumentation tient la route (Zut, j'aime pas admettre mes tors :-)).

                Alors, à quoi pourrait servir se cluster made in Fedora ?
                En faite, l'explication était fourni dans le lien (http://www.redhat.com/archives/fedora-advisory-board/2008-Ma(...)
                "... I'd like to create a Fedora Home project where Fedora hosts a MRG grid scheduler, people can donate CPU time on their computers for computations, and we schedule meaningful or useful work to these people's computers... It would also be a great marketing showcase for Fedora by showing our leadership in grid technology and in the power of our community. ... Red Hat and the University of Wisconsin recently signed a partnership
                that makes available the Condor source code under an OSI-approved open
                source license (mostly ASL). We have packaged Condor, submitted it to
                the F9 development branch, and are maintaining it there. The University
                of Wisconsin's Condor project remains our upstream code base and
                community. So, from a technology perspective, we should be able to
                build Fedora Home using technologies that will all be in Fedora.". En somme, l'université du Wisconsin en partenariat avec RedHat cherche à développer une communauté autour de ces outils.

                Néanmoins je pense que la délégation de calcul dans un environnement hostile, comme tu dis, est quelque chose qui viendra. sûrement pas tout de suite (bcp de problèmes à résoudre encore), mais ...

                j'aimerai bien avoir ton avis sur ce point. :-p
  • # Re:

    Posté par  . Évalué à 3.

    Merci pour les réponses.

    Pour l'intérêt, je crois qu'il y a deux aspects.
    Il y a un intérêt technique/marketing pour Red Hat.

    L'autre intérêt est plus social.
    Imaginons qu'une université a des idées pour faire des tests de non-regression, ou qu'elle veut depuis des données de satellite afiner Fightgear. Imaginons que pour ça elle a besoin de beaucoup de CPU.
    Dans ce cas Fedora propose l'infrastructure technique et "nous" nous offrons du CPU.
    Ceci pourrait aussi être fait pour des projets de recherche qui s'engagent à rendre les résultats librement disponibles. On participe à l'élaboration de contenus libres.

    Il y a évidemment des problèmes de sécurité. Mais si c'est pour du contenu (et non des programmes), c'est moins critique.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.