Bonjour à tous,
Ce journal est la v2 d'un premier journal que j'ai publié au mois de décembre 2016 (ça date un peu) dans lequel j'introduisais certains travaux que nous menions autour du reconditionnement de serveurs afin de leur donner une seconde vie. J'ai conscience que ce n'est pas un sujet direct linuxfr, mais comme nous nous focalisons sur de l'Open Hardware, conçu avec des logiciels libres qui exécute principalement linux comme O/S, disons que je trouve intéressant de partager avec vous notre expérience.
Notre approche se basait dans un premier temps sur un constat simple, pourquoi n'existe-t-il pas de marché structuré concernant les serveurs recertifiés comme il existe un marché dans le secteur automobile.
Bon six mois plus tard, je me suis rendu compte que le secteur informatique avait un ego démesuré (en même temps après 20 ans à travailler je le savais), et après avoir essuyé moultes fin de non recevoir de propriétaires de datacenters high tech, refusant catégoriquement d’intégrer dans leur dernière salle machine high tech à la mode des équipements "vieux" et "ultra-consommateurs", je me suis dit qu'il était peut-être temps pour moi de reprendre la plume (enfin mon bon vieux clavier qwerty), afin d'essayer d'expliquer que nous n'avions pas cette démarche principalement dans un but commercial mais plutôt dans un but qui techniquement peut apporter des solutions originales, performantes et meilleures pour notre chère planète.
Durant ces 6 derniers mois, nous avons passé beaucoup de temps à faire des tests, comprendre comment le hardware était structuré, et pourquoi ce marché n'existait pas. Nos conclusions sont parfois assez catastrophiques et pas forcément très glorieuses.
La première des questions qu'on s'est posée, est associée à la quantité d’énergie nécessaire pour fabriquer un serveur. Car lorsqu'on achète un super nouveau serveur qui consomme moins, ben il a fallu le fabriquer, et on s'est vite rendu compte, que le sujet est tabou, caché par les constructeurs, mais pas contre pas mal étudié, notamment par le MIT, et l'industrie des semi conducteurs. Je savais qu'il fallait beaucoup beaucoup d’énergie et de ressources pour fabriquer un ordinateur (j'ai travaillé dans les semi conducteurs dans les années 90) mais les conclusions auxquelles nous arrivons nous laissent je dirai sans voix.
Ce qui suit va peut-être vous faire un peu mal à la tête, mais je vais essayé d'étayer au maximum avec des données très intéressantes.
Le premier site source de documents se trouve ici http://www.itrs2.net/itrs-reports.html . L'ITRS (International Technology Roadmap for Semiconductor) est un consortium qui se focalise sur les technologies nécessaires pour fabriquer les semi conducteurs (la base de nos chères serveurs).
Il publie des rapports très intéressants, qui font un peu froid dans le dos si on prend un peu de recul (notamment sur la consommation d'eau, de COV, de cas de cancer dans les usines etc …), mais c'est la vrai vie. (cf la partie ESH)
Alors globalement si vous farfouillez, ça dit que pour fabriquer un Wafer de 300mm, il faut compter environ 1.2kWh/cm2 de Wafer au niveau de l'usine. Auquel il faut ajouter, l’énergie pour fabriquer le wafer, l’énergie pour fabriquer les produits chimiques, le packagining des die issus du wafer, ainsi que le yield de production, avant d'obtenir un chip (un processeur ou juste un composant mémoire hein).
On arrive à environ 1.8867 kWh/cm2 de Wafer (data en provenance de https://www.ece.jhu.edu/~andreou/495/Bibliography/Processing/EnergyCosts/EnergyAndMaterialsUseInMicrochips_EST.pdf en complément pondéré par un facteur 0.63 d'amélioration). Pas grand chose on pourrait se dire, et qu'est-ce que l'on va faire de tout cela ?
Ben c'est assez simple. Dans un serveur, il y a deux CPU (environ 3 cm2), un chipset, et de la mémoire (beaucoup de mémoire, 16 barrettes qui peuvent contenir jusqu’à 72 chips d'une surface qui va varier de 0,2 a 0,45 cm2). Pour fabriquer tout cela il faut compter environ 479 kWh(16 barrettes 36 chips), auquel il faut ajouter le yield de production d'environ 70% pour les CPU (à mon avis un poil optimiste) et 65% pour la RAM (c'est bas mais probablement proche de la réalité, les process RAM sont complexes et la compétition tellement sévère que les fabricants passent leur temps à changer de technos, et l’énergie ne coutant rien), on arrive à environ 572kWh pour fabriquer nos chers petits composants pour notre serveur. (environ 3800 MJ)
A cela il faut ajouter la partie passive, la tolerie, les PCB, les petits composants actifs, le montage du PCB etc et on se retrouve rapidement à** 5 900 MJ par serveur.**
Cette énergie (ou embodied energy) embarquée est totalement invisible à nos chers hébergeurs/acheteurs (elle est intégrée dans le prix), mais elle est bien visible pour notre chère planète et a un impact défavorable pour les serveurs neufs.
Alors maintenant un exemple très concret. Imaginons que l'on souhaite acheter un super mega serveur à base de 2660 v4, et que le workload moyen en 24/24 sera d'environ 36% sur ce serveur (c'est déjà pas mal et vous incite à sortir grafana pour regarder vos CPU load). Ca fait une bonne machine d'integration, de pre-staging, de développement, un serveur web, du Cloud pour PME etc … Équivalent en 2660 v1 (oui ce vieux truc) aura une charge de 70% et en 2660v2 de 50% si le workload peut etre assimilé au benchmark Spec Int (http://www.spec.org), ce qui est souvent le cas, sauf si vous faites du HPC, faut dire qu'Intel n'a pas vraiment été capable d’améliorer les perfs intrinsèques de ses coeurs ces dernières années)
Durant les 12 premiers mois le serveur à base de 2660 v1 va donc consommer environ 6625 MJ (consommation idle + consommation de ces deux CPU a 70% de charge), le v2 5779 MJ, et le serveur neuf en v4 10212 MJ (il a fallu le fabriquer (5 900MJ) et il consomme (4312MJ)).
Les serveurs en 2660 v1 et v2 consomment plus dans la durée, mais au bout de combien de temps le v4 aura justifié ses avancées technologiques ? Et bien par rapport au Xeon v1 il faut attendre 36 mois pour justifier le changement de machine d'un point de vue énergétique pure, et par rapport au Xeon v2 il faut attendre plus de 60 mois, ce qui au final est énorme, et plutôt favorable à étendre la durée de vie de nos machines plutôt que d'en acheter des neuves.
Pour autant il existe des quantités astronomiques de serveurs qui sont détruits tous les ans à partir de Xeon v1 et v2, soit par des propriétaires qui ne mesurent pas l'impact de leur geste, poussés par des constructeurs qui ont des stratégies de services qui incitent la troisième année a changer de machine par des contrats de supports qui deviennent scandaleux, soit par changement de génération qui "fait" bien dans une salle machine.
Les vieilles machines ne peuvent pas répondre à tous les besoins, c'est sur que si le workload est élevé sur un processeur Xeon v4, la machine d'occasion aura des difficultés à justifier sa présence, mais nous avons tous des machines qui ne sont pas surchargées et qui pourraient très bien être encore exploitée, et nous pourrions tous offrir une seconde vie à une machine destinée à la casse que personnes ne sait recycler.
Alors, je vais pousser peut-être un cri d'alarme, mais je crois sincèrement que nous devrions tous être fiers de montrer à nos clients et partenaires un bout de machines recertifiées dans notre parc, preuve d'une gestion raisonnée de nos besoins en infrastructure.
L'autre sujet du moment qui m’énerve est issu du fait que l'on construise encore des datacenters avec climatisation, alors que les technologies existent pour faire fonctionner l'ensemble de nos infrastructures en mode free cooling.
L'Open Hardware, est probablement le chemin à suivre pour résoudre ces problèmes d'un autre temps, liés a des approches économiques irraisonnées. J'ai conscience de prêcher pour ma paroisse mais vous n’êtes pas obligés d'acheter ces machines chez nous, je serai déjà très fie que collectivement, nous prenions conscience de ces problèmes, et incitions les géants de notre secteur à revenir sur des bases saines.
Nous lançons a ce titre avec Nexedi une offre Cloud intégrée, basée sur leur savoir faire, qui est mieux décrite ici !
vejmarie
# Juste pour dire
Posté par Blackknight (site web personnel, Mastodon) . Évalué à 10.
Perso, j'utilise encore un vieux Athlon XP2600+ avec 1,5 de RAM sous FreeBSD 9.
Alors certes, ce n'est plus, loin s'en faut, une bête de course mais elle rend encore quelques services à pas cher.
D'autre part, j'administre un "serveur" qui tourne avec un Core2 à 2.5GHz avec 2Go de RAM sous FreeBSD 10 dont le seule but est de fournir une application partagée et un espace de stockage.
Pour la petite note technique, ce serveur fait tourner 3 disques de 500Go en RAIDZ ce qui m'a largement sauvé la vie dernièrement, un des disques ayant rendu l'âme après 3 ans de bons et loyaux services ;)
Enfin, la passerelle permettant à ce serveur, ainsi qu'à la totalité de la MJC, d'accéder à Internet se fait grâce à un bon vieux P4 à 3GHz avec 2Go de RAM et un PfSense tout juste remis à jour.
Et franchement, quand je vois l'utilisation globale des machines, je me dis que j'ai encore largement de la marge :D
[^] # Re: Juste pour dire
Posté par vejmarie (site web personnel) . Évalué à 7.
Ca me semble etre a meilleure des approches. Ce qui serait bien c'est aussi de penser occasion au moment des futurs achats ;)
[^] # Re: Juste pour dire
Posté par Blackknight (site web personnel, Mastodon) . Évalué à 3.
C'était déjà du recyclage ☺
# cloud ?
Posté par Nicolas Boulay (site web personnel) . Évalué à 6.
Un des moyens pour éviter des load à 36%, est d'avoir un système de répartition de VM sans surcharger les serveurs et moyen de relancer les VM sur des machines plus puissante en cas de pique de charges (qui est l'excuse pour rester à 36% de charge moyenne).
Vous venez peut être de trouver l'application qui tue pour gérer du transfert de VM entre 2 machines (à chaud ?).
"La première sécurité est la liberté"
# HS
Posté par gUI (Mastodon) . Évalué à 10.
Combien de fois faudra-t-il le répéter ? IL N'Y A PAS DE SUJETS HS SUR LINUX.FR !!!
Tu me le copieras 100x :)
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: HS
Posté par vejmarie (site web personnel) . Évalué à 2.
Ca risque de spammer le thread, promis je le dirai plus !
[^] # Re: HS
Posté par deuzene (site web personnel) . Évalué à 6.
Nan mais ça va pas d'hurler sur mon écran !
« Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes. »
# oui mais (titre sans inspiration)
Posté par nonas . Évalué à 10.
Il ne faut pas oublier non plus que les serveurs v1 et v2 il a fallu les construire aussi.
Je suis entièrement d'accord avec ton constat (qu'on pourrait étendre par exemple au marché de l'occasion automobile : pollution atmosphérique local vs. pollution globale) mais présenter les chiffres comme ça est un poil fallacieux.
Il faudrait trouver (ou mener) des études sur le coût énergétique de produire un serveur maintenant par rapport au coût énergétique de produire un serveur il y a quelques années. Les conclusions pourraient peut-être faire basculer le rapport puissance/coût énergétique en fonction de la génération.
Ce que je ne sais pas non plus c'est comment sont recyclés ces anciens matériels. Quel pourcentage des différents composants/matériaux est effectivement récupérable ? et à quel prix ? et à quel coût énergétique ?
Malheureusement, tant que l'énergie coûtera si peu cher j'ai peur que les choses ne changent pas beaucoup.
[^] # Re: oui mais (titre sans inspiration)
Posté par vejmarie (site web personnel) . Évalué à 6.
On a regarde les differentes empruntes energetiques par generation de serveur et depuis l'apparition des Xeon E5, les technologies n'ont pas vraiment evoluees en faveur des nouveaux serveurs, la tendance est meme plutot haussiere meme si les usines de semi conducteurs ont des besoins energetiques qui diminuent le nombre de composant et la surface de silicium est sur une tendance haussiere, ce qui contre carre les gains.
Il est claire qu'il a fallu fabriquer le v1 et le v2, mais si tu exploites un v1 a la place de fabriquer un v4, tu gagnes l'emprunte carbone de la fabrication du v4 quoiqu'il se passe. A un instant t, l'impact energetique de v1 et v2, est absorbe le jour ou celui ci est fabrique, de meme que pour le v4. Quand tu achetes un equipement d'occasion, tu ne supportes que tres faiblement le cout energetique de la production de l'objet.
Le recyclage est une aujourd'hui une catastrophe. Nous avons cree une joint venture avec un partenaire americain pour essayer de traiter ce probleme et mieux comprendre comment ameliorer les technologies, mais globalement il est tres complexe de recycler plus de 40% d'un serveur. Toute la partie silicium est totalement impossible a recycler, et contient des polluants dangereux.
Les choses peuvent changer tout aussi bien que dans le secteur automobile, le jour ou les informaticiens mettront leur ego de cote, et accepterons d'acheter et exploiter des equipements d'occasion, ralentissant indirectement la demande en equipement neuf. Qui parmis nous a deja achete un serveur d'occasion ? Je pense qu'on est a moins de 10%. Qui a deja achete une voiture d'occasion (probablement beaucoup plus que 10%). Si nous inversons ce ratio, il est possible de sauvegarder bien plus d'energie a l'echelle de l'industrie informatique que n'importe quelles autres astuces.
Nous travaillons dans le projet Open Compute d'ailleurs, pour que les prochaines generations de serveurs prevoient des leurs conceptions d'etre "multi-vies"
[^] # Re: oui mais (titre sans inspiration)
Posté par Spyhawk . Évalué à 5.
Puisque j'ai trouvé le journal intéressant parce que j'ai travaillé dans le passé sur ce genre de chose, mais que je suis un peu surpris de ne pas avoir vu les termes spécifiques du domaine: avez-vous regardé les différentes études d'analyse de cycle de vie (ACV) et d'énergie grise faites dans ce domaine, puisque c'est de ça dont il s'agit ici? Les termes SimaPro, EcoInvent, Eco-Indicator 95, etc. ca dit quelque chose?
A noter qu'une empreinte écologique dépend grandement de l'endroit de production, mais aussi de celui de l'utilisation (par ex, en France l'empreinte écologique est moindre grâce au fort taux d'énergie nucléaire).
[^] # Re: oui mais (titre sans inspiration)
Posté par vejmarie (site web personnel) . Évalué à 3.
Oui on passe pas mal de temps a lire ce type d'etudes, mais en anglais sur des etudes qui traitent plus de lifecycle and embodied energy. On travaille principalement en MegaJoules et pas equivalent kgCO2 principalement pour les problemes que tu mentionnes sur l'impact du lieu de production. Aujourd'hui la plupart des composants sont fabriques en Asie sur Taiwan, et Chine, encore un peu aux USA, avec des mixtes energetiques tres variable (Taiwan disposent de centrales nucleaires).
La complexite de ce sujet reside dans le grand nombre de process industriel mis en oeuvre pour realiser l'ensemble des etapes necessaires pour fabriquer un serveur, c'est d'autant plus complexe lorsque l'industrie entiere ne veut pas entendre parler de secondes vies dans les pays occidentaux des produits high tech.
[^] # Recyclage des matières premières
Posté par Patrick Trauquesègues . Évalué à 2. Dernière modification le 27 mai 2017 à 16:45.
Les besoins de recyclage des matières premières peut-il en être la cause ?
Ces matériaux indispensables pour construire de nouveaux produits, mais de façon toujours plus économique.
La filière du recyclage est-elle au point / efficace ?
[^] # Re: Recyclage des matières premières
Posté par vejmarie (site web personnel) . Évalué à 6.
La chaine de recyclage n'est franchement pas au point (on cherche d'ailleurs des bons dans le domaine, avant de nous lancer sur ce sujet, mais tout ce que j'ai visite jusqu'a present ne sait pas trop quoi faire des materiaux composites et des produits chimiques dans les capa et differents composants passifs). La principale cause pour le moment est que l'industrie est structuree pour vendre du neuf, et que si tu consommes une seconde main, tu n'achetes pas du neuf donc probleme …
[^] # Re: oui mais (titre sans inspiration)
Posté par tao popus . Évalué à 0.
Je dirais plutôt le contraire, entre :
* L'utilisation des armes pour prendre l'uranium dans les mines (Niger et autour pour les sources françaises, guerre au Mali et sahel liée, mis en place d'un dictateur au Mali par la France en remplacement d'un président élu, il y a quelques années).
* L'uranium et le plutonium répandus n'important autour de ses mines et la catastrophe écologique pour les populations locales aux ressources déjà faibles dans des régions désertiques.
* L'impossibilité d'utiliser les centrales par forte chaleur ou froid (quand les clims et chauffages consomment le plus, on est obligé d'importer de l'électricité charbon d'Allemagne).
* On ne sait toujours pas démonter les centrales nucléaires.
* On ne sait toujours pas traiter les déchets, on en réduit tout au plus la radioactivité, puis, soit on les enterre en priant pour que le point de stockage ne subisse pas d'avaries, soit on les recycle en matériaux de construction qu'on balance n'importe où, soit on l'utilise pour faire des munitions à uranium appauvri (qu'on répond dans les pays ayant du pétrole dit "ennemis", avec les catastrophe sanitaires que l'on connaît en ex-Yougoslavie et Irak notamment).
* Fukushima mon amour et son MOX 100% made in France, qui continue, 5 ans après à déverser 300.000 litres d'eau radioactive dans l'Océan pacifique pour maintenir le quorum fondu à une température pas trop importante et éviter ainsi qu'il ne tombe dans les nappes phréatiques.
* Si i s'agissait du réchauffement climatique et non de l'impacte écologique terrible, c'est pareil, la vapeur d'eau chaude dégagée par le nucléaire pour le refroidissement de la chaudière, n'a pas un super bilan pour le réchauffement climatique.
* Les ressources en uranium et plutonium ne sont pas illimités sur la planète.
* Les déperditions sur les longues distances de l’électricité sont très importantes, il serait mieux d'avoir des points de production locaux, de petite échelle et réellement non polluants (éolien, solaire, hydraulique, combustion du méthane (on en produit naturellement des tonnes et c'est 25 fois plus nocif que le CO2, etc…).
[^] # Re: oui mais (titre sans inspiration)
Posté par Spyhawk . Évalué à 2.
Certes, j'aurais du utiliser le terme "énergie grise" plutôt qu'"empreinte écologique"puisque c'est avant tout aux émissions Co2-eq auquelles je pensais: le nucléaire est la meilleure option, y compris devant l'hydraulique (émissions de méthane par les zones submergées). En revanche, l'empreinte globale dépends fortement de l'indicateur utilisé.
[^] # Re: oui mais (titre sans inspiration)
Posté par Renault (site web personnel) . Évalué à 5.
Après l'autre avantage aussi de puces qui consomment moins d'énergie (car elles sont plus petites ou mieux optimisées) c'est qu'elles ont besoin de moins de refroidissement actives (climatisation et ventilateurs).
Le refroidissement des machines dans un datacenter c'est quand même un gouffre énergétique. Pour peu que ce soit localisé dans un pays où l'électricité génère beaucoup de CO2, c'est loin d'être sans impact dans le gain de la récupération de matériels nécessitant un plus grand effort de refroidissement.
[^] # Re: oui mais (titre sans inspiration)
Posté par vejmarie (site web personnel) . Évalué à 8.
Ca s'etait vrai il y a quelques annees. Il est possible maintenant de faire des datacenters avec des besoins energetiques proches de 0 pour le refroidissement, et quelque soit le pays. J'en ai visite un au Texas en plein ete qui tournait avec un PUE de 1.08 et 44 degres dehors.
Encore une fois, il faut bien choisir son infrastructure et la dimensionner correctement. Les serveurs Open Compute ont des temperatures d'air en entree de 40 degres celsius. Ca veut dire que l'air entrant peut etre chaud voir tres chaud, et qu'en France on peut installer un DC avec des equipements qui supportent 35 degres d'air ambiant sur l'ensemble du territoire metropolitain.
Pour etre honnete, ca me desespere de voir des operateurs Telecom ou des grands acteurs de la finance fieres de leurs DC avec des PUE moyens de 1.5, mais c'est comme ca. Si nous avions des acteurs politiques serieux et ambitieux nous devrions refuser toute construction de DC avec des PUE superieur a 1.1
Evidemment ces PUE ne peuvent etre atteint sans compromis. Les serveurs sont un peu plus gros, mais les pertes en densite en valent vraiment la chandelle.
Online annonce DC 5 en adiabatique avec plus de 5 ans de retard sur les americains qui ne sont franchement pas reputes comme etant des fleches dans la gestion de l'energie.
En meme temps, uniquement les machines issuent des projets ouverts comme OCP ou Open Power supportent des temperatures de fonctionnements comme celles mentionnees, et comme nos hebergeurs n'ont pas adoptes ces technologies, ceci explique cela, nous devenons les plus gros pollueurs.
[^] # Re: oui mais (titre sans inspiration)
Posté par Nicolas Boulay (site web personnel) . Évalué à 3.
Je croyais OVH en avance, avec des PUE à 1.07 depuis 10 ans ou presque ?
"La première sécurité est la liberté"
[^] # Re: oui mais (titre sans inspiration)
Posté par vejmarie (site web personnel) . Évalué à 3.
10 ans je ne pense pas, 5 a 7 ans au plus. Mais OVH n'est pas le seul acteur en DC en France, on ne peut que les feleciter de s'etre pencher sur ce probleme d'ailleurs. Reste plus qu'a les sensibiliser sur l'interet d'envisager pour certaines offres des machines recertifiees plutot que neuves en fonction des workload de leurs clients.
[^] # Re: oui mais (titre sans inspiration)
Posté par Antoine . Évalué à 5.
Franchement je doute que ce soit une histoire d'« ego ». Les gros opérateurs de datacenters sont des machines à optimiser les coûts. Si tu parviens à leur démontrer que ton offre de serveurs à base de composants recyclés leur coûterait significativement moins cher que des machines neuves sans dégrader l'expérience utilisateur (performance et fiabilité de l'offre), alors ils seront sûrement très contents d'avaler leur ego et d'acheter tes produits.
Je pense simplement qu'ils ont des contraintes dont tu n'as pas idée, en terme de logistique, de maintenance, de facilité d'intervention, etc.
[^] # Re: oui mais (titre sans inspiration)
Posté par vejmarie (site web personnel) . Évalué à 5.
Oui je suis d'accord que chacun a des contraintes, mais je reste dubitatif sur certains arguments qui nous ont ete retournes par rapport aux objectifs que nous devrions avoir en tant qu'industriels.
Un exemple, le format utile du rack qui fait 21 pouces au lieu de 19 pouces, est une contrainte plus forte que les benefices energetiques de 20%. Concernant les operations de maintenance un petit exemple a la vingtieme minute, et quand au cout des serveurs recertifies en bi Xeon ils oscillent entre 450 et 750$ en entree de gamme avec des bi procs 2660 v1 ou 2680 v2, 64 GB de RAM ECC, 1 SSD et une garantie 1 an. Concernant la logistique elle est assuree de bout en bout, et on recupere les vieux equipements (voir on les rachete) une fois exploite.
Alors ok, il faut s'adapter, travailler un peu, le materiel libre doit faire qqs efforts, mais je reste interesse par savoir comment faire mieux.
[^] # Re: oui mais (titre sans inspiration)
Posté par Alex G. . Évalué à 1.
Oui il ne faut pas oublier qu'en face des décideurs il y a le marketing des vendeurs de machines. Donc les décisions ne sont pas forcément rationnelles.
# une autre cible ?
Posté par ZeroHeure . Évalué à 6.
Il y a deux cibles probablement plus réceptives, si tu ne penses plus en terme de gros parc : les TPE/PME et les petites villes (5 000 à 20 000 habitants) :
les petites villes ont pas mal de serveurs hétéroclites, qu'elles font durer. Une ville de 10 000 habitants mélange le matériel serveur et le PC ordinaire qui fait office de serveur.
les TPE/PME et les grosses associations du domaine culturel (qui fonctionnent comme des PME) ont des besoins plus réduits, de un à deux serveurs, mais elles sont sous-équipées et connaissent mal le matériel.
Il y a aussi les hébergements d'application web… une PME peut très bien choisir d'être hébergé sur son propre serveur pour, par exemple, utiliser Odoo. Tes serveurs Windmill sont à des prix ultra-compétitifs.
Il y a d'ailleurs Odoo (www.odoo.com) comme cible possible, vu qu'il font aussi de l'hébergement.
C'est ma petite pierre.
"La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay
[^] # Re: une autre cible ?
Posté par Elfir3 . Évalué à 8.
Odoo utilise l'infra d'OVH et leur but est de fournir un service, pas de l'hébergement. Donc à mon avis ils passeront leur chemin.
[^] # Re: une autre cible ?
Posté par vejmarie (site web personnel) . Évalué à 6.
Exact, la plupart des TPE/PME migrent de plus en plus sur du Cloud, en perdant conscience et la connaissance de l'infrastructure utilisee, ce qui n'est pas illogique lorsque l'on evolue dans un marche competitif, sur lequel il est deja complexe pour elle de delivrer leurs services. L'IT est une plaie pour la plupart d'entres elles.
[^] # Re: une autre cible ?
Posté par ZeroHeure . Évalué à 6.
ça je me demande d'oû sort cette info… une grosse PME d'accord. Mais les autres… à moins que toutes celles qui ont des VPS "parce qu'on ne leur propose rien d'autre" soient comptées avec ? Depuis 15 ans je bosse avec des petites structures (< 20 salariés), qui ne font pas de choix en informatique.
"La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay
[^] # Re: une autre cible ?
Posté par vejmarie (site web personnel) . Évalué à 3.
Oui j'integrai les VPS dans la reflexion, et je sais mixer Cloud, hosting et VPS c'est pas bien !
[^] # Re: une autre cible ?
Posté par Marotte ⛧ . Évalué à 6.
D’un point de vue énergétique c’est complètement logique de faire tourner un datacenter, qui est optimisé (circulation de l’air, récupération d’énergie, …), où le matos peut être accédé à moindre frais (c’est concentré à un endroit), que plein de machines dispersées un peu partout…
Tu dis que ce n’est pas bien de mélanger cloud et hébergement « physique » (incluant l’infrastructure) mais c’est pourtant à mon avis l’avenir : la grande majorité des ressources sera du cloud et ne restera à l’avenir qu’une poignée d’applis/services qui sera hébergés de A à Z, pour différentes raisons…
[^] # Re: une autre cible ?
Posté par vejmarie (site web personnel) . Évalué à 5.
Je ne dis pas que c'est idiot de concentrer les ressources dans des datacenters en faisant le constat que les PME migraient vers ces ressources, mais met plutot l'emphase sur le fait que cela accelere des renouvellements pas forcement necessaires car les acteurs des DC n'achetent pas de materiel d'occasion.
De plus il y a beaucoup de PME qui ne possedent pas forcement de systemes de climatisation, et qui ont leurs serveurs en interne (c'est notre cas), avec une densite au m2 faible ca marche tres bien.
Ce qui est mauvais dans la concentration des DC c'est le retard technologique que l'on a, le niveau de reflexion qu'ont les utilisateurs uniquement oriente CLA, et pas emprunte energetique dans le choix de leurs hebergeurs, et le manque d'innovation general de l'industrie dans les DC.
Un autre exemple simple, chez OVH ou online il y a beaucoup de systemes mono CPU, d'un point de vue surface en cm2 de PCB, ben c'est pas forcement optimal, et engende parfois plus de besoin energetique a la fabrication.
[^] # Re: une autre cible ?
Posté par Marotte ⛧ . Évalué à 3.
Hein ? La majorité c’est du virtualisé. Les machines hôtes (hyperviseurs) ont pas des PCB mono-cpu et 2GB de RAM…
[^] # Re: une autre cible ?
Posté par vejmarie (site web personnel) . Évalué à 4.
Sur la partie Cloud oui, pas forcement sur le reste.
[^] # Re: une autre cible ?
Posté par Marotte ⛧ . Évalué à 4.
Je ne vois pas ce qui te permet de dire qu’il n’y a pas d’innovation dans l’industrie du datacenter…
"CLA" ? … En tout état de cause les hébergeurs ont intérêt à innover pour améliorer le bilan énergétique de leur DC par pure considération d’ordre économique.
[^] # Re: une autre cible ?
Posté par vejmarie (site web personnel) . Évalué à 5.
La plupart des DC ont toujours des systemes de climatisation non necessaires. Il suffit de visiter COLT, Equinix, Telehouse, Telecity, OBS etc … Dont certains DC ont moins de 5 ans alors que la technologie de suppression des clims existe depuis longtemps. OVH a ete un pionnier la dessus ce qui est plutot bien et explique d'ailleurs probablement leur place de leader. Maintenant il y a des technos ouvertes qui permettent de faire encore mieux et c'est juste dommage de les laisser sur le cote, tout comme sur la partie serveurs reconditionnes.
[^] # Re: une autre cible ?
Posté par Zatalyz (site web personnel) . Évalué à 5.
À voir… Je ne sais pas ce qu'il en est d'Odoo en particulier, mais ce n'est pas parce qu'une organisation fournit principalement du service qu'elle ne peut pas être intéressée par la gestion de sa propre infrastructure.
Au sein de Khaganat (ok on est minuscule mais notre but n'est pas l'hébergement non plus), nous avons régulièrement évoqué la possibilité de gérer notre propre matos. Ce qui nous arrête à chaque fois est le prix et entre autre l'achat des serveurs : comparé aux offres des hébergeurs, c'est difficile de faire aussi bien pour un prix similaire, et c'est logique. Avoir sa propre infrastructure c'est des contraintes en plus sur certains points, des avantages sur d'autres points, et cela permet aussi de faire des choix éthiques différents : relocalisation, favoriser le recyclage et l'augmentation de la durée de vie des serveurs… Toutes les entreprises ne raisonnent pas en terme d'éthique, bien sûr, c'est pas franchement nécessaire pour qu'une boîte tourne, mais ça reste un argument dans certains cas.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.