Journal Le Cloud et la gestion de ses poubelles

Posté par (page perso) . Licence CC by-sa
49
1
sept.
2016

Le cloud est un outil formidable lorsqu’il est correctement exploité. Offrant des ressources quasiment infinies (on peut démarrer une machine virtuelle en trois clics presque) et très peu chères, l’envers du décor n’est pas toujours aussi brillant que nous pouvons le penser.

Depuis que nous sommes rentrés dans les projets Open Compute, Open Power (ça sera annoncé au prochain sommet, mais, bon, rien de bien transcendant en dehors de l’arrivée prochaine de serveurs sur notre plate‐forme de vente en ligne), RISC-V , je suis confronté régulièrement avec les « géants » de la Silicon valley et/ou américains (il faut dire que les Français ne viennent pas, alors que ces fondations restent un lieu de partage particulièrement intéressant, mais j’adorerais pouvoir échanger avec Free, OVH, Critéo et tous les autres, de la même manière que nous pouvons le faire avec Facebook, Microsoft, Rackspace et Google).

Il y a un point qui m’interpelle de plus en plus. Le cloud génère des méga datacenters pour stocker nos données et nous fournir des services. Ces méga datacenters ont une durée de vie limitée et les machines employées encore plus. Alors que deviennent‐elles et n’y aurait‐il pas un moyen de leur donner une seconde vie et, si oui, laquelle ?

Dans OCP on découvre assez rapidement qu’un serveur en DC à une durée de vie moyenne de 3 ans (pas parce qu’il tombe en panne, mais parce que la compta passe par là avec les amortissements, parce que les fournisseurs veulent vivre et vendre leur nouvelles technos, et puis parce que les geeks veulent absolument faire du neuf, etc.)

Alors que faire de ce qui sort des DC ? Tout mettre a la poubelle me semble être surréaliste, lorsque l’on connaît la quantité de ressources qu’il faut pour produire une machine, mais malheureusement beaucoup de ces systèmes finissent au pilori.

En tant qu’informaticien et utilisateur de ces systèmes, nous avons un certain niveau de responsabilité. Je ne milite pas nécessairement pour une économie de décroissance, mais pour essayer d’ouvrir un débat. La première question : est‐ce qu’un processeur qui à trois ans d’age est bon pour la casse ? En regardant les performance intrinsèque d’un Xeon v1 ou v2 comparé à un Xeon v4, la réponse n’est pas évidente, surtout si l’on se focalise uniquement sur le cœur. Alors, OK, il y a peut‐être 50 % de mieux, mais avons nous réellement besoin de cet ajout pour toutes les applications ? Et que pouvons nous faire avec des machines décomissionnées ?

C’est un sujet assez tabou dans l’informatique et la plupart des personnes que je croise m’incitent même à ne pas entrer dans ce business de la machine d’occasion, sous prétexte qu’il n’est pas noble et qu’il va complexifier nos relations avec nos fournisseurs. Mais en 2016, est‐ce réellement ce que nous voulons ? Quoi qu’il se passe, les géants continuerons sur ce rythme, et la quantité de racks (je parle de racks) qui ressortent par an des DC est bien supérieure à 10 000 unités par an. On s’en moque, ce sont des poubelles qu’on ne voit pas dans nos entreprises, mais elles sont bien là.

OCP a pour objectif d’améliorer l’empreinte énergétique et écologique des DC, cela passe aussi par la gestion des poubelles, et il est vrai qu’aujourd’hui c’est un peu la catastrophe.

Nous avons commencé à sensibiliser certains acteurs sur ce sujet, et avons maintenant la possibilité de commercialiser un faible pourcentage de ces systèmes. Nous n’avons pas encore démarré l’activité, car nous souhaiterions nous assurer de leur utilité pour les utilisateurs avant qu’ils ne deviennent potentiellement des déchets dangereux. Alors, voici les quelques pistes que nous envisagions. N’hésitez pas à partager sur ce journal les idées que vous pourriez avoir d’un usage d’un rack avec vingt serveurs bi‐Xeon 2670 et 16 Gio de mémoire chacun, afin de voir si, en tant que communauté, nous pourrions trouver des usages pertinents, tels que :

  • l’amélioration de la qualité d’Internet, en les transformant en machine de mise en cache (DNS, etc.) ;
  • l’amélioration de l’accessibilité à Internet, en les transformant en système CRAN (4G/5G) ;
  • du transcodage vidéo ;
  • un système de stockage collaboratif ;
  • des machines de calculs pour les universités (il faudrait déjà qu’elles puissent les acheter facilement) ;
  • des machines d’hébergement à bas coût ;
  • des serveurs d’infrastructure.

D’autres idées ?

  • # Nous ?

    Posté par . Évalué à 7.

    C'est qui « nous » ?

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

    • [^] # Re: Nous ?

      Posté par (page perso) . Évalué à 10.

      Excuse moi, mais en effet nous n'est pas forcément évident à saisir si tu n'as pas suivis le fil de mes journaux (et il n'y a aucune raison pour le faire). Donc le nous, est la société pour laquelle je travaille et que je dirige qui concoit des ordinateurs en France sous licence Open Hardware. Plus d'infos ici http://www.horizon-computing.com et qui les commercialise.

      On a conscience que nos machines ne sont pas encore totalement ouverte, mais on se bat pour, et c'est pas évident tous les jours.

  • # Ouch!

    Posté par (page perso) . Évalué à 3.

    J'ai dû mal à comprendre. Ces machines sont-elles actuellement vendues dans le marché d'occasion ou pas? Si oui, qu'apportez-vous de plus?

    ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

    • [^] # Re: Ouch!

      Posté par (page perso) . Évalué à 5.

      Une partie des machines est vendu d'occasion, une autre détruite. Aujourd'hui Horizon n'apporte absolument rien sur ce marché, j'essaie juste de voir quel pourrait être les usages associés à ces machines dans les pays occidentaux, car en général ces machines partent dans des pays émergents où elles ne sont pas nécessairement exploitées au mieux.

      Au tarif de revente actuel, et avec les enjeux du numérique, il doit bien y avoir qqs usages pertinents, ou des plateformes prêtent à l'usage qui pourraient être construites sur des logiciels libres, et permettre soit à améliorer des services chez nous, soit fournir quelque chose de pertinent aux pays émergents plutot que des "poubelles" non retestées, non revalidées etc …

      • [^] # Re: Ouch!

        Posté par . Évalué à 7.

        il doit bien y avoir qqs usages pertinents,

        environnement de formation ? Environnement de tests ? Hébergement pour des associations ?

        Mais si tu fais ça, tu casses le business model des entreprises qui se débarrassent de leur matos.

  • # Un service d'intégration continue en mode SaaS

    Posté par . Évalué à 2.

    Avec ça, je m'installe Mesos dessus avec le plugins Jenkins et je fournis un service d’intégration continue.

    • [^] # Re: Un service d'intégration continue en mode SaaS

      Posté par (page perso) . Évalué à 3.

      Pas bête, mais il faut encore trouver de la place dans un DC avec une fibre pas chère (actuellement c'est un peu n'importe quoi le ratio Fibre DC vs Particulier)

      • [^] # Re: Un service d'intégration continue en mode SaaS

        Posté par (page perso) . Évalué à 5.

        La fibre pas cher, je trouve ça sans problème, par contre une distinction entre une fibre en DC et pour un particulier, c'est que le débit est garanti pour le DC. Par contre, la consommation électrique, c'est autre chose. Et c'est aussi une raison pour changer de machine. Si après 3 ans tu diminue ta consommation par deux1, tu vas rembourser ton nouveau serveur en moins de trois ans.


        1. bon, ça semble un poil optimiste, ça dépendra beaucoup si ta machine fait beaucoup d'idle ou pas, c'est sur ce dernier point que les machines ont le plus progressé ces derniers temps. 

        « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

  • # Filières de recyclage ?

    Posté par . Évalué à 7.

    Ça m'étonnerait que les entreprises de DC jettent dans la nature leur vieux racks, et je suppose que cela a justement un coût pour eux de les envoyer à une entreprise de recyclage en plus d'en racheter des nouveaux. Toi qui a l'air de t'être plus renseigné sur le sujet que moi, est-ce que tu connais les filières qui s'occupent de décomposer ces racks pour recycler leurs matériaux ? Est-ce que tu crois que ces filières sont moins intéressantes que de leur donner une seconde vie avec des usages distincts ? Et dans le cas des entreprises, pourquoi est-ce que ces filières de réutilisation n'existent pas si cela semble financièrement avantageux ? Problème idéologique uniquement (tabou) ?

    Sinon, dans la liste des usages proposés, on pourrait aussi imaginer que des associations les récupèrent pour fournir des services de quartier ou pour des communautés spécifiques. Mais ça se passe déjà un peu comme ça non ? J'imagine que les serveurs donnés à Linuxfr n'étaient pas complètement neufs ?

    • [^] # Re: Filières de recyclage ?

      Posté par (page perso) . Évalué à 6.

      Il existe des filières de recyclage et on les connait bien maintenant du coup. C'est d'ailleurs elles qui nous courtisent pour nous pencher sur ce problème. Car actuellement le taux de sortie des racks est supérieur à ce que peut absorber le marché, du coup beaucoup de choses sont démontées et détruites ou très peu valorisées. Et il est très complexe de recycler un PCB.

      • [^] # Re: Filières de recyclage ?

        Posté par . Évalué à 4.

        Donc pour résumer les solutions sont (possiblement en même temps):

        • augmenter la capacité d'absorption du marché des racks d'occasion en trouvant des nouveaux clients (vous ?)
        • diminuer le taux de renouvellement des serveurs en DC
        • diminuer le coût de démontage et réutilisation des matériaux des serveurs existants

        Vous pouvez toujours travailler sur le premier point mais sans essayer de jouer sur les deux autres aussi en même temps le marché continuera nécessairement de saturer d'après ce que tu dis.

        • [^] # Re: Filières de recyclage ?

          Posté par (page perso) . Évalué à 4.

          Exact il faut travailler sur les trois points. Il en manque un qui est de diminuer les besoins en ressources pour fabriquer les machines. Je ne crois pas une seule seconde que ce problème puisse être traiter à l'échelle d'une petite société comme la notre, par contre en débattre ensemble peut être utile.

          La diminution du taux de renouvellement passe probablement par l'éducation des utilisateurs de smartphone, et la prise de conscience de ce qu'il se passe une fois que chaque action est effectuée. Cette conscience "écologique" n'est pas encore très bien assimilée. Il faut aussi améliorer l'efficacité des platformes.

          L'integration des processeurs est quelque part un benefice pour la partie retraitement des déchets des PCB, avec moins de composants sur les cartes, et un controle du nombre de couche, mais il reste encore du travail. Une vrai avancée serait de supprimer les barrettes mémoires par des composants directements soudées sur les pistes de type HBM comme ce qu'il se passe dans les cartes graphiques. Cela améliore les performances, et diminue les I/O sources de complexite, et de plus fort déchets au final.

          Il y a des tonnes de manières pour améliorer tout cela, par chance beaucoup de personnes travaillent sur ce sujet, mais les dégats commencent à apparaitre sur les générations actuelles, alors que faire de nos "vieux" racks. J'aime bien l'approche associative, mais il faudrait qu'un hébergeur spécialisé se créée.

          • [^] # Re: Filières de recyclage ?

            Posté par . Évalué à 1.

            Comme vous l'avez souligné, le taux de renouvellement est aussi influencé par une logique comptable, par l'amortissement.
            Si on passait l'amortissement sur 5 ans, on inciterait les DC à garder leurs racks plus longtemps.
            Et ça inciterait peut-être à investir dans + d'ingénierie logicielle pour optimiser les performances des logiciels qui tournent dans ces DC.

            Je suis un noob, je ne connais rien à la programmation, mais quand je vois les gains de performances permis par des optimisations purement logicielles comme Wayland par rapport à X, et Vulkan par rapport à OpenGL, je me dis qu'il y a aussi surement des "réserves" d'optimisation dans les DC.

            qu'en pensez-vous?

            • [^] # Re: Filières de recyclage ?

              Posté par . Évalué à 2.

              De nos jours, il est bien moins cher d'investir dans un matériel plus performant que d'investir dans des gens qui vont améliorer les performances du logiciel.

              C'était l'inverse dans les années 70 ou même avant.

          • [^] # Re: Filières de recyclage ?

            Posté par . Évalué à 5.

            Une vrai avancée serait de supprimer les barrettes mémoires par des composants directements soudées sur les pistes de type HBM comme ce qu'il se passe dans les cartes graphiques.

            Non, surtout pas : je veux pouvoir choisir mes machines avec la possibilité d'augmenter la RAM sans tou changer. En faisant ça, tu augmenterais la quantité de déchets générés.

            • [^] # Re:Filièresde recyclage ?

              Posté par (page perso) . Évalué à 3.

              Tu rajoutes souvent de la RAM dans tes serveurs pro dans ton DC ?

              • [^] # Re:Filièresde recyclage ?

                Posté par (page perso) . Évalué à 4.

                Lors de l'achat.
                Pour la simple raison qu'acheter une machine toute cuite avec beaucoup de mémoire est bien plus cher que d'ajouter soi-même la mémoire.
                Idem pour les disques-dur.

              • [^] # Re:Filièresde recyclage ?

                Posté par (page perso) . Évalué à 4.

                Oui, alors, pas tous les jours parce que ce serait une sacrée mauvaise planification mais ça arrive de temps en temps.

                « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

              • [^] # Re:Filièresde recyclage ?

                Posté par . Évalué à 2.

                Ce n'estpas tous les jours mais c'est suffisamment souvent pour q'un achat figé de RAM pose problème.

  • # c'est tentant

    Posté par (page perso) . Évalué à 4.

    C'est clair que c'est tentant, mais il y a un problème,
    c'est la consommation électrique.
    Je tourne dans ma cave avec deux serveurs basse consommation, ils hébergent deux instances de proxmox, dessus je fait tourner la domotique, une fonction nas, de la vidéosurveillance, des backups de mon serveur dédié, et des applications métiers pour mon job.
    Quand je les ai dimensionner un des critères c'était la consommation d'électricité car je paye (ici 20c/kWh).
    Donc quand je veux faire des essais, parfois ça rame ;-)

    • [^] # Re: c'est tentant

      Posté par (page perso) . Évalué à 3.

      La consommation d'un serveur est aussi quelque chose de très complexe. Sur ce type de machine 60% de l'énergie consommée par la machine l'est pour sa fabrication. Donc si on en refabrique une ben on comme un soucis. Après c'est comme tout il faut trouver un équilibre.

      • [^] # Re: c'est tentant

        Posté par . Évalué à 5.

        Sur ce type de machine 60% de l'énergie consommée par la machine l'est pour sa fabrication.

        Euh, je ne sais pas exactement de quel type de machine on parle, mais ça me semble douteux. Un serveur de calcul qui consomme dans les 500W pendant 3 ans nécessite-t-il réellement 20 MW.h pour sa fabrication? Au coût de l'électricité en France, ça représenterait dans les 3000€, rien que pour la fabrication.

        D'un autre côté, si ça prend en compte le gazoil pour le transport etc, ça représenterait 2000L de carburant. Ça semble quand même beaucoup…

        • [^] # Re: c'est tentant

          Posté par (page perso) . Évalué à 4.

          Les serveurs sur leur durée de vie consomment heureusement moins de 500W.h. (sauf les clusters de calcul correctement administré). Malheureusement un grand nombre d'entres eux sont utilisés avec un load de 20 à 40% de leurs capacités, et les consommations mesurées sont plutot de l'ordre de 200W.h moyenne sur des grandes périodes, pour des bi-Xeon.

          • [^] # Re: c'est tentant

            Posté par . Évalué à 1.

            Après, tout dépend de la manière dont tes serveurs sont foutus, s'il s'agit de simples lames ou de plus grosses machines, etc. Un load de 20% me semble quand même faible si on parle de machines de calcul universitaires par exemple ; c'est peut-être le genre de choses qu'on a dans les "coquilles vides" (typiquement, les nouvelles plateformes de bio-informatiques montées à grand frais parce que c'est valorisable politiquement), mais sur les machines réellement utilisées (par exemple celles hébergées directement dans les labos et administrées par les gens qui les utilisent pour faire quelque chose d'utile), on est facilement à plus de 50% (bon, c'est beaucoup plus facile quand il s'agit de pur calcul sans besoin de beaucoup de RAM, parce qu'on peut se permettre de mettre les utilisateurs en concurrence sans s'emm* à réserver des machines virtuelles).

            Ceci dit, je ne comprends de toutes manières pas vraiment la nécessité d'exprimer le coût énergétique de la production en proportion du coût énergétique à l'utilisation sans avoir une idée de l'ordre de grandeur de l'utilisation de la machine. De toutes manières, le coût de construction est un coût irrécupérable, et c'est très facile de tomber dans des raisonnements fallacieux quand on commence à intégrer des coûts irrécupérables. Si la question est de bazarder son vieux serveur ou pas, le coût de construction de ce vieux serveur n'a absolument aucun effet.

  • # Retour d'expérience

    Posté par (page perso) . Évalué à 10.

    Je précise : Cluster de calcul scientifique, établissement public.

    Ici, on mène nos machines jusqu'à leur maximum (soit 6~10 ans). Voire, on complète avec de l'occasion (RAM surtout, vive les brokers).

    On recycle (clusters pédagogiques, dons à d'autres labos moins bien dotés) au maximum. Quand on jette (recyclage déchets élec), c'est soit HS, soit trééés vieux.

    Certains de nos utilisateurs ont besoin du dernier processeur ultrapuissant disponible, mais la majorité se contente de machines tournant H24.

    Mes 2 cts.

    • [^] # Re: Retour d'expérience

      Posté par (page perso) . Évalué à 4.

      C'est en effet une bonne idée de conserver les machines le plus longtemps possible et de leur donner plusieurs vies, avec une approche "Calcul" -> "infra" -> "departement" -> Etudiant à titre pedagogique (ca veut pas dire que les étudiants ne peuvent pas se servir des autres systèmes).

      Comment achètes tu chez les brokers ? Par Appels d'Offres ou en gré à gré ? Le truc c'est qu'il faut éviter de démonter les machines car une fois démontée on commence à générer des déchets. C'est sure que la RAM peut servir, les CPUs tombant rarement en panne, et la RAM manque toujours.

      • [^] # Re: Retour d'expérience

        Posté par (page perso) . Évalué à 3.

        Comment achètes tu chez les brokers ? Par Appels d'Offres ou en gré à gré ?

        En gré à gré, dans l'enveloppe plancher des marchés publics (On ne peut pas acheter d'occasion). Donc, soit des pièces (trés généralement de la RAM, des cartes/câbles IB, des switchs IB), soit des machines complètes sur des coups de fusil (rare).

        Le monde HPC est assez petit, quand Machin renouvelle un cluster, il le fait savoir (via réseau pro, attributaire ou broker) et c'est la curée…

        On a ainsi pu racheter 120 noeuds (2x Nehalem 4c @2,9GHz / 24GB / QDR / diskless) pour une bouchée de pain (~200€ / noeud). Par contre, on a du renouveller la moitié de la RAM (HS).

        • [^] # Re: Retour d'expérience

          Posté par (page perso) . Évalué à 3.

          C'est super bizarre que tu ais eu autant de pannes sur tes memoires :( … Qu'as tu fait des dechets si c'est pas indiscret ?

          • [^] # Re: Retour d'expérience

            Posté par (page perso) . Évalué à 2.

            C'est super bizarre que tu ais eu autant de pannes sur tes memoires :(

            Ben, en fait, pas tellement. Ce sont des pizzabox à deux nodes par U, c'est trés contraint en espace, ça chauffe beaucoup. Les turbines ventilateurs 1U, ça n'a jamais été le pied pour le refroidissement (avec 22~24°C en façade, la RAM est autour de 70°C). Et avec les workloads (100% RAM, 100% CPU, H24) qu'on leur balance, on s'y attendait.

            Qu'as tu fait des dechets si c'est pas indiscret ?

            Pour le moment, on stocke. Quand le volume/poids sera suffisant, soit on revend (au poids métal), soit on jette dans la filière de recyclage idoine.

  • # Améliorer Internet

    Posté par (page perso) . Évalué à 2.

    J'aime bien l'idée d'améliorer Internet :)

    Je vois plusieurs services qui pourraient être intéressant et qui pourraient nécessiter pas mal de ressources:

    • serveur de tuiles pour OpenStreetMap
    • noeud de recherche/cache pour les moteurs de recherches P2P (p.ex. Yacy, archive.org)
    • intégration dans des infrastructures nécessitant beaucoup de ressources (j'imagine par exemple Wikipédia, Archive.org, …)
    • services de build automatisés pour les projets d'envergures (Debian, Fedora, …)
    • service de stockage vidéo / multimédias (gobelin, gitlab, torrent, …)

    Après, pour tout ceci, avoir les machines c'est bien, mais la gestion des mises à jour et de chacun des services sera certainement très chronophage.

    Je pense qu'il serait intéressant de discuter avec ce genres de projets pour voir s'ils souhaitent investir leur temps dans le maintient de service sur ces machines.

    Malheureusement, comme dit plus haut, ce sera juste un moyen d'absorber un peu plus ces déchets sans être une solution pour en diminuer la quantité.

    • [^] # Re: Améliorer Internet

      Posté par (page perso) . Évalué à 2.

      À voir aussi avec les CHATONS (coopératives d'hébergement) et la Fédération FDN (coopératives d'accès à Internet).

      Cela pourrait probablement servir dans les infrastructures existantes quelque part, ou pour lancer de nouveaux services comme du VPN / Youtube-like (avec des technos comme Webtorrent).

      Je connais aussi pas mal de monde qui fait de la récup de matériel informatique (dans les ressourceries), donc si y'a du matos sur les bras à donner à des petites associations pour s'autonomiser vis-à-vis des GAFAMs, ça sera pas perdu :-)

  • # Réemploi chez les hébergeurs eux-mêmes ?

    Posté par . Évalué à 5.

    Chez OVH, d’une part ils louent des serveurs de l’ancienne gamme avec un prix plus bas (gamme « Legacy » actuellement), d’autre part, j’ai entendu dire que les SoYouStart et les Kimsufi sont assemblés à partir de composants d’anciens serveurs de leur propre marque. Au passage, si c’est vrai, ça me semble une bonne idée : mieux vaut louer le matériel moins cher que le mettre à la benne, à tous points de vue. Est-ce que quelqu’un sait si c’est vrai et, si oui, quel pourcentage des serveurs OVH se retrouvent recyclés en SYS / KS ? Voire, si d’autres hébergeurs font de même ?

  • # Contrat de support

    Posté par (page perso) . Évalué à 2.

    A un moindre niveau (pas un dc mais une salle info d'une petite structure) je suis confronté presque tout les 4/5ans à la fin de contrat de support de la part des fabricants. Du coups, parce que j'ai des appli critique, je ne peux pas me permettre d'attendre trois jours que je trouve un broker à un prix convenable pour le contrôleur de ma baie netapp qui a cramer et je ne peux pas me permettre d'acheter ces pièces de rechanges en avance car potentiellement je n'en n'aurai jamais besoin et du coups c'est de l'argent perdu pour la société.

    Par exemple actuellement j'ai 2 anciens serveurs esx, une baie netapp, d'autres serveurs et c'est sans parler des pc. Le tout traine dans un coin dans l'attente de trouver une solution soit de revente soit de réutilisation.

    Les fabricants forcent la main en arrêtant le support matériel. A ma connaissance il reste IBM qui maintient du matos 10 ans et encore sur la gamme RISC.

    Born to Kill EndUser !

    • [^] # Re: Contrat de support

      Posté par (page perso) . Évalué à 4.

      Je vais precher pour ma chapelle, mais dans ce cas le hardware libre a un avantage, car tant que les pieces detachees sont dispo il est possible de reparer. C'est assez fou car le monde du blanc (les appareils electro menagers) se sont tous mis a faire ca et on trouve maintenant les plans sur le net des machines (electrolux en tout cas) permettant de reparer ses machines. On en est encore loin dans le materiel informatique.

  • # Généraliser l'architecture Serveur de machines virtuelles + Clients légers ?

    Posté par . Évalué à 2.

    Nombre d'entreprises et de collectivités fonctionnent encore avec des ordinateurs sur-dimensionnés pour leurs besoins bureautiques, tout en centralisant leurs données sur des serveurs de fichiers.

    Ne pourrait-on pas inciter plus de structures à basculer sur une architecture de serveurs de machines virtuelles + des clients légers?

  • # À une autre époque

    Posté par . Évalué à 8.

    Je me souviens il n'y a pas si longtemps, on incitait les clients à passer sur des machines plus récentes (plus fiables et plus puissantes), et on récupérait les anciennes machines pour :
    - des load-balancer (niveau 4 - LVS). C'est assez peu consommateur, et pas grave si ce n'était pas des machines très fiables (on les mettaient en failover pour assurer le service, et comme il y a très peu de données (simplement la conf du LB) on remontait facilement et rapidement une autre machine en cas de pépin.
    - des serveurs de backup. Là aussi c'est peu consommateur en CPU/RAM. Il suffisait juste de rajouter des disques. En cas de défaillance de la machine on récupérait les disques et on remontait une machine équivalente. Le backup ayant lieu une fois par jour, ça n'a pas les mêmes contraintes de disponibilité (au pire des cas, on ratait un backup si la machine défaillait au mauvais horaire, et on avait une journée complète pour rétablir le service).
    - déstockage. Un client voulait une machine pas trop cher, le serveur étant déjà amorti on pouvait lui proposer à bas tarif (il suffit juste que ça couvre la consommation électrique et la place occupée). Comme on récupérait pas mal de machines des autres clients qui upgradent, on avait du spare en cas de pépin.

    Mais ça, c'était avant, à l'époque du tout physique. Aujourd'hui la virtualisation permettant d'avoir des petites machines plus fiables et à coût faible, ça limite l'intérêt de la récup de vieilles machines.

  • # Ce n'est justement pas l'intérêt du cloud ?

    Posté par . Évalué à 3.

    J'avais deux problèmes. D'un côté des "vieux" rack qui commence a s'entasser et à s'oublier dans les baies des datacenters de la boîte. Et de l'autre comment être dans le coup et vendre du "cloud" à nos clients. Et puis il y a un peu plus d'un an j'ai commencé m'intéresser de très prêt à openstack et à ceph. Et la j'ai compris que la solution à mes deux problèmes était là. Finalement le "cloud" ça pouvait avoir un intérêt. J'ai donc récupéré une dixaine de serveurs à gauche à droite, quelques switch giga et j'ai monté une architecture à base de openstack et de ceph. J'ai groupé mes computes par génération, (on utilise que du hp donc c'est assez simple. Proliant G5 => G8) et je peux fournir à nos clients de vm plus ou moins chère en fonction de la génération du serveur. Pareil avec ceph. J'ai mis dans mon cluster ceph tout ce que j'ai bien pu trouver et j'ai groupé par type. SSD, SAS 10K, SAS 15k, SATA. J'ai même un bout de netapp mais je sais pas en faire une config encore.

    Voilà pour moi à quoi doit servir le vieux matos. Tant qu'il tourne il doit tourner, tant que des bouts fonctionnent ils doivent fonctionner. Jusqu'au bout. Et openstack et ceph sont la pour fédérer les ressources.

    Bon, malheureusement le projet n'a pas été plus loin, mais je reste persuadé que c'est la bonne chose à faire.

  • # Au revoir France ?

    Posté par . Évalué à 7.

    Quand j'étais en Côte d'Ivoire, la plupart des voitures était des voitures "au revoir France" comme ils les appellent là-bas. C'est à dire des voitures d'occasions venues par bateau (en fait, à cet époque, la plupart semblaient venues d'Asie vu les marques).

    Je pense que si les gens renouvellent les serveurs tous les 3 ans, c'est en partie pour le gain espace.consommation à service rendu égaux, mais j'imagine aussi que c'est parce qu'il vaut mieux prévenir que guérir et qu'une maintenance c'est du coût de personnel, ce qui dans un monde industrialisé coûte très cher comparativement à une machine neuve.
    Dans des pays plus pauvre, le rapport est inversé, le coût du personnel est bien moindre par rapport à celui de la machine. Du coup un container de "vieux" serveurs pourrait être valorisé.

    Je contrebalance ça par le fait qu'il y a quand même un problème éthique à faire des pays plus pauvre la poubelle de ceux plus riche (tous les hommes sont égaux en dignité?). De plus à terme ça revient à exporter notre pollution (la machine finira sa vie dans ce pays là).

    La vrai solution à ces problèmes (il me semble) est politique. On devrait payer beaucoup plus cher pour se débarrasser d'une carcasse de serveur (prix de l'impact sur l'environnement), ça changerait beaucoup la donne.

    • [^] # Re: Au revoir France ?

      Posté par (page perso) . Évalué à 3.

      Je suis d'accord avec toi et ne suis pas un grand fan de l'envoie de nos poubelles dans les pays emergents, mais plutot dans leur valorisation en Europe. Meme si le cout de la maintenance est un cout humain, il doit bien y avoir qqs usages pertinents.

  • # Type de service et cout/gain

    Posté par . Évalué à 1.

    Dans plusieurs commentaire il y a effectivement la question du coût d'exploitation du serveur lié à sa consommation électrique. Il faut voir également les coûts lié à l'infrastructure qui est autour de ce serveur (câblage, refroidissement, réseau, etc…) qui sont loin d'être négligeable.

    Habituellement les coûts liés à un serveurs sont divisés en trois partie majeures:
    -1/2 pour le prix d'achat du serveur
    -1/4 pour l’électricité
    -1/4 pour l'infrastructure qui l'entoure

    Évidement cette répartition est très variable en fonction de l'environnement dans lequel on exploite le serveur et sa durée d'exploitation. Mais restons sur ce principe là pour la suite.

    Dans le cas de serveur "d'occasion" le coût d'achat peut être ignoré, et les frais liés à l'infrastructure peuvent également être limité (switch d'occasion, rac donné, placé dans un placard à balais…). Reste la consommation électrique incompressible.

    Sur ce point il faut donc se poser la question de comment "payer" l’électricité consommé par le serveur, il faut qu'il soit assez fortement utilisé pour être rentable.

    Il faut donc soit avoir une charge de travail à leur fournir en permanence, soit les utiliser uniquement lorsqu'il y a besoin de ressources supplémentaires. Et ce genre de cas existe!

    si on prend le fonctionnement de service de vidéo à la demande par exemple, le pic d'utilisation se situe le soir autour de 20h. On peut donc les utiliser à ce moment là comme machine de mise en cache ou de CDN dynamique.
    On peut également avoir des pics d'activité dans une utilisation plus "système", la majorité des batchs de sauvegarde, contrôle, déploiement et autres ont lieu dans la nuit. Avoir des serveurs en rab pour les effectuer peut être pertinent.

    Enfin si vous avez des clusters hadoop ou équivalent qui ont des batchs de map-reduce à effectuer dans la nuit. Des nœuds supplémentaire de calcul peuvent être pertinent.

    Reste à voir le coût de la mise en place et du maintiens de ces systèmes. Ils sont de base plus vieux et donc potentiellement moins stable, plus susceptible d'être sujet à des interventions de maintenance, etc.

    Sources pour la répartition des coûts dans un datacenter (j'avais arrondis) trouvé en cherchant rapidement sur le net:
    ISCA2012-Kontorinis_tech-report.pdf
    papers/DC-Costs-CCR-editorial.pdf
    perspectives.mvdirona.com

    Et sinon moi j'en cherche des serveurs d'occasion pour mon homelab :3

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.