Le verre à moitié plein ne serait-il pas que du coup, les utilisateurs de docker qui s'étaient sentis impactés par la communication précédent, sont ainsi poussés à s'organiser pour être moins dépendant des décisions d'une unique entité ?
Alors je ne peux pas parler pour le reste du monde, mais pour moi, c'était déjà le cas.
J'ai 2 comptes docker.
Le premier, je l'ai ouvert en 2015 pour faire des essais à l'époque, et pour pouvoir avoir en namespace le nom de mon département de l'époque, j'ai fait une équipe (vu que l'idée, c'était que je ne soit pas seul à pouvoir toucher aux images à terme). J'ai fait quelques essais, mais assez vite, sans rien pour consommer les images, ça n'a rien donné.
J'ai découvert en lisant mon mail perso que visiblement, pour garder ce namespace, je doit passer à un abo qui commence à 420 US$ (9 par mois, commence à 5 users).
Car il n'y a rien pour passer le namespace à un utilisateur ou autre. En pratique, je m'en fout, parce que c'était des essais.
Alors je peux comprendre, j'ai fait ça dans le cadre du boulot pour des infras de projets libres, mais dans le cadre d'un boulot quand même, ça serait juste. Maintenant, 420 $ pour 3 dépôts non mis à jour de code libre, c'est assez ridicule.
Le second, c'est sur mon mail du boulot que ç'est arrivé, pour les conteneurs docker de gluster.org. J'ai insisté à l'époque pour qu'on utilise un alias, et à force de départ et de changement, le dit alias est arrivé chez root@ et donc chez bibi.
Encore une fois, c'est dans le cadre du boulot mais pour un projet libre. Pour Docker, c'est non sponsorisable vu que Gluster fait parti d'un produit commercial (et en plus, d'un concurrent). Donc pareil, faudrait sortir 420 US$, ou convaincre Docker de sponsoriser, une chose qui ne va pas arriver pour des raisons évidentes.
J'ai vite vérifié, et les conteneurs de Gluster ont bougés ailleurs il y a 6 mois. Je n'ai pas suivi, mais un bout des conteneurs sont sur le registre de Centos, l'autre celui de Github. Néanmoins, il fallait être sur Docker Hub car c'est la ou quelqu'un risque de chercher, et ça permet d'éviter le squat (surtout que rien n'indique d’où vient un conteneur sur la page).
Donc oui, j'ai largement le choix. Pour le boulot, mon employeur a racheté la boite qui fait quay.io, et j'ai donc un chemin plus rapide pour râler et/ou avoir du sponsoring.
On m'a filé plusieurs comptes AWS avec une carte bleue qui n'est pas la mienne en disant "va, utilise ça". Donc si besoin, je suis à 1 ou 2 commandes ansible pour installer ECR, ou un registre sur s3 en cas d'urgence.
Et Github propose un registre intégré. Donc les projets peuvent aussi se débrouiller en autonomie.
Pour moi même, j'ai largement le choix vu que je fait du logiciel libre. Pour comparer les offres, on va prendre un cas pratique.
J'ai un plugin Woodpecker sous forme d'un conteneur OCI qui fait 500 Mo. C'est une image Fedora avec Zola, Hugo, ainsi que les divers outils pour déployer (donc sftp, lftp, etc). Je pourrais réduire encore plus la taille (genre, avoir Zola et Hugo dans des conteneurs séparés, avoir un client ftp et scp statique, etc), mais j'ai la flemme. Je ne fait jamais le ménage, parce que c'est pas automatique, mais je pourrait. En pratique, je peux m'en tirer avec 5G pour être large.
J'ai grosso modo 1 à 2 téléchargement par semaine, donc 10 Go de trafic à tout casser.
Actuellement, c'est sur le registre de Github, et je ne paye rien. Je sais pas pourquoi, vu que je devrais, mais visiblement, c'est open bar si tu fait tout en publique.
Comme alternative, il y a Gitlab.com, ou je tombe pile poil dans les limites pour un usage gratos, sinon, ça monte à 20 US$.
Je peux installer Garage et brancher ma forge Gitea dessus (je vais pas faire la comparaison niveau tarif parce que j'ai ça sur une machine à mes pieds avec ma connec internet, donc je vais pas mélanger CAPEX et OPEX et usage général).
Si je veux aller ailleurs en dehors des forges, je peux aller voir chez OVH à partir de 24€ par mois (gloups). C'est cher mais en même temps, c'est pour un registre privé. Je pourrais aussi simplement prendre leur offre S3-like et mettre un registre devant et je m'en tirerais pour pas trop cher.
Je peux aller chez Scaleway pour pas cher. Avec 10G de trafic et 50G de stockage, je m'en tire pour 30 centimes de bande passante, et 1.35€ de stockage (que je pourrais réduire à presque rien si je fait le ménage et/ou des conteneurs plus léger).
Je peux aller chez Digital Ocean pour une poignée de dollars, genre 5 US$ si je fait le ménage, 20 si je le fait pas.
Il reste les offres des gros providers.
AWS propose des tarifs généreux, vu qu'on ne paye que le trafic réseau, et c'est 500 Go de trafic gratos.
Azure propose des choses, mais ça grimpe assez vite. 5 US$ de frais de base, 0.45 pour 5G de stockage, 4.5 pour 50G, et les frais réseaux sont proche de 0 pour 10G de trafic.
GCP propose des choses, mais je suis trop con pour comprendre combien ça coûterais en pratique. Ou Google ne sais pas expliquer clairement (vu qu'il y a 4 niveaux de stockage et des frais divers pour le réseau). Sans doute moins généreux que AWS à priori, dans les mêmes gammes que Azure.
Alors bien sur, pour mes trucs persos, je peux continuer à utiliser Docker Hub. Mes conteneurs pour la CI n'ont pas besoin d'autre chose que d'un compte, donc ça passerait.
Mais rester chez Docker, c'est prendre le risque de se retrouver avec d'autres limites arbitraires dans le futur tel que "oups, votre namespace est coincé parce que vous avez utiliser une feature qui n'a aucune raison de devenir payante à part comme proxy de 'vous pouvez payer plus'".
Les changements progressif de Gitlab.com me montre que les startups non rentables financés via les investissements de la Silicon Valley peuvent toujours changer de modèle de prix, et faire le constat logique qu'une personne comme moi, ça ne vaut pas le coup, un probléme qui me parait moins probable avec des entreprises du secteur plus matures, (sauf Google).
Donc ouais, j'ai pensé à me diversifier. Mais mon souci, c'est pas de choisir ou aller.
C'est de réussir à suivre ou les projets bougent sans avoir à vérifier tout les mois, sans avoir à faire des grep/sed sur les différents dépôts git pour changer tel image vers tel registre.
Et j'en veux à l'équipe dirigeante de Docker d'avoir poussé des mauvaises pratiques via leur non support des dépôts alternatifs (directement dans le code client de Moby), le non support des vhosts sur docker hub, etc. D'avoir tout fait pour qu'on en pense qu'il y a que Docker Hub au lieu d'essayer de pousser des bonnes pratiques visant à ce que chaque projet possède son identité. Et d'avoir communiquer n'importe comment cette semaine.
C'est de réussir à suivre ou les projets bougent sans avoir à vérifier tout les mois, sans avoir à faire des grep/sed sur les différents dépôts git pour changer tel image vers tel registre.
Ben en fait c'est le nerf de la guerre. Il faut pas être naïf, si on pull des images publiques c'est un truc qu'on doit pouvoir faire chaque semaine.
Ouais, enfin, quand j'utilise une distribution Linux, je m'attends à ce que les paquets ne changent pas de nom sans laisser d'adresse. Les miroirs Debian ou Fedora vont et vienne, ça ne casse rien. Le rpm de docket est devenu moby-engine, mais ça marche encore.
Demain, Gotosocial bouge hors de Docker Hub, il faudra mettre à jour la doc partout, et suivant la façon dont ça va bouger, ça peut casser les scripts, ou ne rien casser et avoir des vieux trucs sans mises à jour.
Avec un peu de préparation, on peut éviter ça.
Et d'ailleurs, en cherchant à corriger mon souci avec la redirection, j'ai vu que quelqu'un a déjà écrit un article sur la question d'avoir une adresse pour son registre.
J'ai lu la config de Caddy, c'est juste une redirection 307. J'ai tenté ça, ça ne marche pas. Du coup, j'ai tenté avec Docker, ça passe.
Les miroirs Debian ou Fedora vont et vienne, ça ne casse rien.
Ça c'est de la chance. Tu n'a aucune garantie que ce soit le cas et ça a déjà bien était la merde auparavant. Tu n'a des garanties qu'au sain des dépôts de la distributions ça se passe bien, c'est logique c'est leur travail. Pour le reste tu lance les dès à chaque install/upgrade. Mais les distributions le font avec un travail de centralisation, elles ne permettent pas à un projet de fournir directement son propre paquet au travers de ses dépôts, l'éditorialisation des dépôts officiels debian et du dockerhub n'ont rien à voir ce n'est pas la même logique ni la même problématique.
Ça c'est de la chance. Tu n'a aucune garantie que ce soit le
cas et ça a déjà bien était la merde auparavant.
Quand tu dis avant, c'était quand même il y a un bout de temps.
La gestion automatique des miroirs, c'est un truc qu'on avait de fonctionnel y a 15 ans dans Mageia, et je sais que c'est le cas dans la plupart des distros de nos jours, avec une automatisation de la vérification de l'age pour certaines (MirrorManager pour Fedora le fait par exemple).
Je ne parle pas du contenu, juste le fait qu'on a que rarement besoin de spécifier manuellement la source des paquets de nos jours, ou de mettre à jour manuellement quoi que ce soit quand il y a des changements.
Alors que pour les images docker, le nom du fournisseur (ghcr.io, docker.io, etc) est codé en dur quasiment tout le temps, la plupart du temps implicitement, et c'est est un souci quand il y a une volonté de changer de fournisseur.
Je ne connais pas de mécanisme automatique de gestion des miroirs chez debian, mais bon c'est des miroirs. Ils présentent tous le même indexe de paquet qui est géré par ta distribution (elle choisi qui entre ou sort de l'indexe et avec quel nom).
Pour avoir un paquet d'un dépôt alternatif, il n'y a pas de secret. Je suis allé voir pour MLO voir s'il y avait quelque chose que je ne connaissais pas et oui tu dois ajouter ton dépôt puis faire l'installation et tu as un gros panneau pour t'expliquer que c'est dangereux :
Pour docker, tu n'a pas de configuration particulière à faire
simplement adresser l'image avec son nom de dépôt. Ça me paraît
plus simple.
Jusqu'à ce que l'image change d'emplacement, et la, tu es comme un rond de flan, cf ce que j'ai dit.
Avec une redirection par le projet upstream (genre, Alpine), tu as le bonus d'avoir l'assurance d'avoir un conteneur officiel (car c'est un sous domaine , et pas juste la première personne qui squatte le nom alpine dans le dépôt par défaut) et de ne pas dépendre du choix du fournisseur de registre.
Je veux bien mais tu opposais ça aux distributions. Les distributions sont des fournisseurs de registre et tu dépend complètement d'eux.
Entre devoir déployer des images sur je ne sais combien de registre et avoir le changement pour les utilisateurs… Pour avoir le meilleur des 2 mondes c'est un peu plus de travail.
Je veux bien mais tu opposais ça aux distributions. Les
distributions sont des fournisseurs de registre et tu dépend
complètement d'eux.
Alors oui, on dépend d'un intermediaire entre le projet upstream (genre mongodb) et nous, utilisateurs. Je vois ce que tu veux dire de façon un peu plus clair.
Mais je pense qu'on change rarement de distros sur un coup de tête, ou du moins, pas pour des raisons que j'estime être des détails internes, comme "ça coûte moins cher au projet initial d'être ailleurs".
Alors que l'endroit ou sont les conteneurs, bah, ça devrait être un détail.
Et c'est un peu plus de travail, mais c'est pas non plus la mort.
Si un projet pousse sur X registres, c'est parfois aussi pour son propre bénéfice, comme l'explique le README du registre de K8S. Avoir une image officielle chez GCP et chez AWS réduit les coûts pour le projet.
Il faut aussi voir que le surcoût de pousser sur plusieurs registres, pour un projet de taille moyenne, c'est assez mineur, vu que tu as simplement besoin d'une boucle dans ta CI qui fait un docker push.
Certes, le coût n'est pas nul car avec 2 registres, tu as potentiellement 2 fois plus souvent des crises ou 2 fois plus de downtime à gérer.
Mais on est loin des cas plus complexe comme "avoir 2 forges" ou "une liste et un forum", ou les discussions sont fragmentés tout le temps (alors que des migrations de plateforme de discussions, ça arrive souvent).
Il faut aussi voir que le surcoût de pousser sur plusieurs registres, pour un projet de taille moyenne, c'est assez mineur […]
Personne ne s'en est jamais pleins pour les distributions ? Tout ses dépôts vont suivre les mêmes règles que le dockerhub ? Ils vont pas en profiter pour normaliser à leur sauce : interdire l'usage de l'utilisateur root, s'assurer que tout ce qui parle http soit sur le même port, garantir à leurs utilisateurs que les bibliothèques embarquées fasse partie d'une liste définie et soient à jour,… Ce sont des choses qui sont demandées par les utilisateurs.
Mais je pense qu'on change rarement de distros sur un coup de tête, ou du moins, pas pour des raisons que j'estime être des détails internes, comme "ça coûte moins cher au projet initial d'être ailleurs".
Alors que l'endroit ou sont les conteneurs, bah, ça devrait être un détail.
Et tu ne remplace pas docker par podman sur un coup de tête. Si on veut comparer aux distributions c'est plutôt dans ce sens là que ça marche et oui certaines distributions n'ont pas Firefox mais iceweasel et d'autres auront le paquet firefox-esr.
Et j'en veux à l'équipe dirigeante de Docker d'avoir poussé des mauvaises pratiques via leur non support des dépôts alternatifs (directement dans le code client de Moby), le non support des vhosts sur docker hub, etc. D'avoir tout fait pour qu'on en pense qu'il y a que Docker Hub au lieu d'essayer de pousser des bonnes pratiques visant à ce que chaque projet possède son identité. Et d'avoir communiquer n'importe comment cette semaine.
La critique est plus facile 10 ans plus tard quand on a l'information de ce qui s'est passé ensuite. Et si les moby, podman et autres existent c'est aussi parce que docker a su relever un certains nombres de défis, même si aujourd'hui tu ne le vois plus. Et c'est aussi parce que docker a fait un travail pour permettre à des alternatives d'exister dans le même écosystème. Ce qui ne leur rapportent pas beaucoup plus qu'un flot de "regardez l'alternative qui a était initié plusieurs années après vous en s'appuyant sur l’expérience de ce que vous avez fait fait tel truc mieux que vous" (ben heureusement !).
Et je trouve vraiment comment comment les projets libres cherchent à se pourrir les uns les autres. Rare sont les projets pour qui la communauté tolère les erreurs. On est systématiquement dans une méfiance et rapidement de l'invective. Y compris venant de personnes qui peuvent expliquer par ailleurs que pour eux le libre c'est plus qu'une licence logiciel, mais un projet politique.
La critique est plus facile 10 ans plus tard quand on a
l'information de ce qui s'est passé ensuite.
Je pense que centraliser à un endroit, j'ai pas attendu maintenant pour râler. Que Fedora et Centos propose leur propre registre, j'ai toujours trouvé ça bien, et je pense que les autres distros auraient du faire pareil pour
1) s'assurer de la provenance et éviter les confusions (exemple de 2014 pour Debian)
2) avoir des conteneurs avec des standards comme pour les paquets de distros (Fedora a tenté, ça n'a pas pris, en partie parce que l'infra n'était pas la pour consommer)
3) répartir la charge pour ne pas dépendre d'un unique acteur.
Et si les moby, podman et autres existent c'est aussi parce que
docker a su relever un certains nombres de défis, même si
aujourd'hui tu ne le vois plus.
Alors moby existe parce que docker a fait au début la même erreur que beaucoup de projets libres, à savoir faire un produit avec le même nom que le projet communautaire, et devoir séparer les 2 quand on voit que c'est le projet libre qui est connu et que ça concurence le produit.
C'est l'erreur qu'a fait Red hat (plusieurs fois) et qui a donné Fedora. C'est l'erreur qu'a fait Mandriva/Mandrakesoft (et qui a causé beaucoup de tensions), et l'erreur qu'a fait Ubuntu (et qui a aussi causé beaucoup de tension).
Le code de Moby, c'est le code de Docker, renommé pour garder la marque Docker pour le produit commercial, vu que c'est ce qui a de la valeur.
Quand à Podman, le projet existe surtout parce que des devs de Docker n'ont pas voulu des patchs proposés par Red Hat, notamment sur l'intégration de systemd (vu que systemd et docker font grosso modo la même chose, gérer des process). Donc à un moment, l'équipe qui a crée podman s'est dit que plutôt que d'aller contre le courant sans arrêt, ça irait plus vite de repartir de 0 sur une architecture différente.
Et c'est aussi parce que docker a fait un travail pour
permettre à des alternatives d'exister dans le même écosystème.
Y a pas que Docker comme membre fondateur de l'OCI, loin de la. Il suffit de voir l'annonce pour voir le travail fait pour faire parler tout le monde. Je n'ai pas d'info publique sur qui a fait quoi, mais je sais clairement que des gens de mon équipe à l'époque était impliqué, et qu'on a poussé pour ça.
Ce qui ne leur rapportent pas beaucoup plus qu'un flot de
"regardez l'alternative qui a était initié plusieurs années
après vous en s'appuyant sur l’expérience de ce que vous avez
fait fait tel truc mieux que vous" (ben heureusement !).
Ça leur aurait sans doute rapporter plus si le CEO avait accepté l'offre de rachat de Microsoft, au lieu de dire "4 milliards, nan, c'est pas assez".
J'aimerais aussi pointé que même si c'est Docker qui a réussi à populariser les conteneurs, et qu'ils ont exécutés correctement ce bout la (et je veux pas leur retirer ce mérite) et qu'ils ont fait beaucoup, c'est pas non plus eux qui ont inventés le concept.
Il y avait les jails sur FreeBSD (4.x, donc vers début 2000), ce qui a inspiré OpenVZ, dont le patch a finalement été fusionné dans le noyau, ce qui a donné lxc et co, et un bout des bases techniques de Docker (les namespaces).
Google, dans son papier sur Borg de 2015, dit au paragraphe 8 qu'ils opèrent le système depuis 10 ans, donc 2005, en mentionnant qu'il marche avec des conteneurs utilisant les cgroups, c'est donc cohérent avec le patch de 2007.
On note aussi que le même papier parle des différentes alternatives de Twitter, Alibaba, Microsoft ou Facebook, ainsi que tout le prior art en recherche, notamment sur l’exécution de cluster. Vu
Donc oui, Docker a popularisé l'idée en 2013, et c'est cool. Mais c'était sur la base des choses issues de divers recherches depuis 10 ans.
Donc il y a eu aussi tout un travail fait par d'autres avant et après, et si ils sont pas devenu milliardaires mais juste riches, c'est aussi à cause de certains choix que la boite a été seule à faire.
Y compris venant de personnes qui peuvent expliquer par
ailleurs que pour eux le libre c'est plus qu'une licence
logiciel, mais un projet politique.
Le libre est politique par définition, mais la, c'est vraiment plus des questions d'ordre soit technique, soit commercial, avec un niveau politique à mon sens assez bas.
Docker a apporté une brique de base qui améliore et automatise les infras, mais j'ai pas le sentiment que la portée politique soit énorme, ou alors, pas forcément dans un sens positif pour tout le monde, car le technoludisme et le déclassement des connaissance, ce sont des questions politiques. On peut imaginer des effets de second ordre mais Docker, ça reste surtout du domaine de l'entreprise.
Pour moi, des logiciels comme firefox ou rust, des projets comme wikipedia ou sci-hub ont un impact sociétal et politique plus direct que Docker ou podman.
1) s'assurer de la provenance et éviter les confusions (exemple de 2014 pour Debian)
2) avoir des conteneurs avec des standards comme pour les paquets de distros (Fedora a tenté, ça n'a pas pris, en partie parce que l'infra n'était pas la pour consommer)
3) répartir la charge pour ne pas dépendre d'un unique acteur.
Il y a eu des problèmes ? Incroyable ! Ont a jamais eu de problème avec les autres formes de dépôts.
Donc des gens ont essayé sans réusir. Fou
Répartir la charge et ne pas dépendre d'un seul acteur ? Ça veut dire que tu dois publier tes images partout ? Sinon tu dépend d'un unique acteur. Ou que tu dépend des pleins d'acteur ?
Alors moby […] une architecture différente.
Si docker n'avait pas participé à l'OCI. L'écosystème n'aurait pas la même tête aujourd'hui.
Ça leur aurait sans doute rapporter plus si le CEO avait accepté l'offre de rachat de Microsoft, au lieu de dire "4 milliards, nan, c'est pas assez".
T'en ai a t'appuyer sur des rumeurs pour appuyer ta véhémence ?
J'aimerais aussi pointé que même si c'est Docker qui a réussi à populariser les conteneurs, et qu'ils ont exécutés correctement ce bout la (et je veux pas leur retirer ce mérite) et qu'ils ont fait beaucoup, c'est pas non plus eux qui ont inventés le concept.
Je ne dis pas le contraire, mais ça montre peut être que la différence entre faire une techno de conteneurs et en faire une qui marche aussi bien que docker et j'entends "marcher" comme est à l'origine d'un écosystème comme celui d'aujourd'hui. Ça n'enlève rien aux autres qui ont permis eux aussi de donner du grain à moudre à docker. Ce n'est même pas de la R&D, ils ont industrialisé quelque chose qui était déjà possible sans eux.
Y a pas que Docker comme membre fondateur de l'OCI, loin de la. Il suffit de voir l'annonce pour voir le travail fait pour faire parler tout le monde. Je n'ai pas d'info publique sur qui a fait quoi, mais je sais clairement que des gens de mon équipe à l'époque était impliqué, et qu'on a poussé pour ça.
Effectivement beaucoup d'acteurs utilisent docker. Dans les faits dans tout ce qui est cité peu sont arrivé là du fait de leur contribution, mais de leurs usages (et parce qu'ils file de l'argent).
Le libre est politique par définition, mais la, c'est vraiment plus des questions d'ordre soit technique, soit commercial, avec un niveau politique à mon sens assez bas.
Je vais le redire de manière plus limpide. Désolé du coup je ne met plus de forme. Je trouve dégueulasse la manière qu'on les "libristes" de tomber sur chaque projet qui a une décision qui ne leur va pas, qu'on est immédiatement dans la polémique plutôt que la discussion et qu'on le voit même chez ceux qui affirment pousser le libre comme une projet de société pronnant entre autre l'entraide.
Répartir la charge et ne pas dépendre d'un seul acteur ? Ça
veut dire que tu dois publier tes images partout ? Sinon tu
dépend d'un unique acteur. Ou que tu dépend des pleins
d'acteur ?
Non, que tout le monde ne publie pas au même endroit (à savoir le hub docker).
Si docker n'avait pas participé à l'OCI. L'écosystème n'aurait
pas la même tête aujourd'hui.
Non, mais Docker n'aurait pas grandi non plus. Les boites font des alliances et des fondations par par amour de la collaboration, mais pour 2 raisons:
- parce que les clients veulent des standards, donc elles ont le choix entre le faire elles même, ou que ça leur tombe dessus par l'état tôt ou tard (norme ISO, etc).
- parce que si elles veulent faire grandir le marché, il faut un écosystème et donc il est important de ne pas collectivement perdre du temps à réinventer la roue, et à priori leur propres roues qu'elles contrôlent.
Dans le cas de Docker, il y a aussi que tout boite en croissance réalise à un moment qu'elle ne peux pas grandir par elle même aussi vite que prévu, et qu'elle a besoin de partenaires économiques, comme des entreprises qui ont déjà l'infrastructure commercial pour adresser des marchés qu'elle n'a pas, ou dont elle ne veux pas.
Pour une petite boite, c'est avoir des commerciaux qui vont parler aux directeurs IT (ie. une grosse boite). Pour une grande boite, c'est avoir des commerciaux qui vont s'adresser pour toi à des acteurs plus petits, chose qui n'est plus rentable pour toi à cause de ta bureaucratie interne, elle même du à des obligations légales et financières du à ta propre taille.
Une boite en pleine croissance va aussi voir qu'elle n'a pas la capacité à faire de la R&D partout, donc qu'il faut repartir ça en laissant d'autres faire des choses et payer les pots cassés ou gagner un peu du gâteau (sachant que le coût pour la boite de laisser d'autres adresser un besoin qui utilise sa solution est proche de zéro).
C'est pour ce genre de raisons qu'on voit tout le temps qu'on a l'OCI, l'Openstack fondation, le CNCF, la fondation OW2, etc, etc.
Je vais le redire de manière plus limpide. Désolé du coup je ne
met plus de forme. Je trouve dégueulasse la manière qu'on les
"libristes" de tomber sur chaque projet qui a une décision qui
ne leur va pas, qu'on est immédiatement dans la polémique
plutôt que la discussion et qu'on le voit même chez ceux qui
affirment pousser le libre comme une projet de société pronnant
entre autre l'entraide.
Mais le libre prône aussi une certaine vision de la démocratie, qui implique des discussions, et de la méritocratie, qui implique aussi une confrontation des idées.
Le libre en tant qu'idéologie, ça a été théorisé par RMS parce qu'il ne pouvait pas toucher à un driver d'imprimante dans une fac. Certes, on présente ça comme le fait de s'aider sur la correction de bugs, mais le lien entre la culture scientifique et académique me parait assez direct.
L'aspect entraide existe, je ne le nie pas. Mais il me parait une justification à posteriori pour que les libristes s'auto justifient une partie de leur travail gratuit. Et la GPL, qui reste un texte fondateur, ne parle pas d'entraide, ou de droit à l'entraide. La GPL parle par contre du droit à étudier le code source, et du droit à reprendre le code pour autre chose. Donc on revient à la culture académique via 1) l'étude de code 2) le concept de liberté de parole (i.e. free speech), si on compare le code à une forme de parole académique.
Une licence qui mettrait l'entraide au cœur de ses mécanismes, ça serait tout ce qui tourne autour de l'Ethical Source License. Mais sa réception par la communauté du libre montre quand même que c'est pas exactement une valeur aussi centrale que d'autres valeurs.
Les idéologies peuvent avoir plusieurs causes, peuvent changer et s'adapter, et chacun voit midi à sa porte.
Mais la, pour le cas spécifique d'une boite privée qui fournit gratos de l'infra afin que son business grandisse (car Docker sans images, ça n'aurait pas eu le même succès), je ne pense pas qu'on puisse mettre ça sous la bannière de l'entraide.
Je peux voir comment on peux le voir, vu que ça aide les projets à répondre aux besoins et aux demandes de leur base utilisateur pour 0€. Je peux voir comment, si on pense que l'infra est une corvée, un service gratuit est vu comme entraide. Je peux voir comment le discours autour de "on aime le libre et on veut donner en retour" de beaucoup de SaaS sonne comme de l'entraide.
Mais je pense que ça n'est pas le cœur de l'idée.
Donc ouais, on peut prôner l'entraide, et en même temps, discuter de chose qui sont assez éloignés de la question de l'entraide.
L'absence d'empathie que je vois à travers chaque polémique (où ça part systématiquement en procès d'intention) me semble aussi éloigné que possible de l'imaginaire de co-construction sous-entendu par les libristes (en plus de créer des milieux qui ne sont pas sain pour les gens qui font ou qui tentent de faire du logiciel libre).
# Et sur HN
Posté par Misc (site web personnel) . Évalué à 5.
https://news.ycombinator.com/item?id=35187250
(ou j'ai vu la news)
# À quelque chose malheur est bon
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 4.
Le verre à moitié plein ne serait-il pas que du coup, les utilisateurs de docker qui s'étaient sentis impactés par la communication précédent, sont ainsi poussés à s'organiser pour être moins dépendant des décisions d'une unique entité ?
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: À quelque chose malheur est bon
Posté par Misc (site web personnel) . Évalué à 10.
Alors je ne peux pas parler pour le reste du monde, mais pour moi, c'était déjà le cas.
J'ai 2 comptes docker.
Le premier, je l'ai ouvert en 2015 pour faire des essais à l'époque, et pour pouvoir avoir en namespace le nom de mon département de l'époque, j'ai fait une équipe (vu que l'idée, c'était que je ne soit pas seul à pouvoir toucher aux images à terme). J'ai fait quelques essais, mais assez vite, sans rien pour consommer les images, ça n'a rien donné.
J'ai découvert en lisant mon mail perso que visiblement, pour garder ce namespace, je doit passer à un abo qui commence à 420 US$ (9 par mois, commence à 5 users).
Car il n'y a rien pour passer le namespace à un utilisateur ou autre. En pratique, je m'en fout, parce que c'était des essais.
Alors je peux comprendre, j'ai fait ça dans le cadre du boulot pour des infras de projets libres, mais dans le cadre d'un boulot quand même, ça serait juste. Maintenant, 420 $ pour 3 dépôts non mis à jour de code libre, c'est assez ridicule.
Le second, c'est sur mon mail du boulot que ç'est arrivé, pour les conteneurs docker de gluster.org. J'ai insisté à l'époque pour qu'on utilise un alias, et à force de départ et de changement, le dit alias est arrivé chez root@ et donc chez bibi.
Encore une fois, c'est dans le cadre du boulot mais pour un projet libre. Pour Docker, c'est non sponsorisable vu que Gluster fait parti d'un produit commercial (et en plus, d'un concurrent). Donc pareil, faudrait sortir 420 US$, ou convaincre Docker de sponsoriser, une chose qui ne va pas arriver pour des raisons évidentes.
J'ai vite vérifié, et les conteneurs de Gluster ont bougés ailleurs il y a 6 mois. Je n'ai pas suivi, mais un bout des conteneurs sont sur le registre de Centos, l'autre celui de Github. Néanmoins, il fallait être sur Docker Hub car c'est la ou quelqu'un risque de chercher, et ça permet d'éviter le squat (surtout que rien n'indique d’où vient un conteneur sur la page).
Donc oui, j'ai largement le choix. Pour le boulot, mon employeur a racheté la boite qui fait quay.io, et j'ai donc un chemin plus rapide pour râler et/ou avoir du sponsoring.
On m'a filé plusieurs comptes AWS avec une carte bleue qui n'est pas la mienne en disant "va, utilise ça". Donc si besoin, je suis à 1 ou 2 commandes ansible pour installer ECR, ou un registre sur s3 en cas d'urgence.
Et Github propose un registre intégré. Donc les projets peuvent aussi se débrouiller en autonomie.
Pour moi même, j'ai largement le choix vu que je fait du logiciel libre. Pour comparer les offres, on va prendre un cas pratique.
J'ai un plugin Woodpecker sous forme d'un conteneur OCI qui fait 500 Mo. C'est une image Fedora avec Zola, Hugo, ainsi que les divers outils pour déployer (donc sftp, lftp, etc). Je pourrais réduire encore plus la taille (genre, avoir Zola et Hugo dans des conteneurs séparés, avoir un client ftp et scp statique, etc), mais j'ai la flemme. Je ne fait jamais le ménage, parce que c'est pas automatique, mais je pourrait. En pratique, je peux m'en tirer avec 5G pour être large.
J'ai grosso modo 1 à 2 téléchargement par semaine, donc 10 Go de trafic à tout casser.
Actuellement, c'est sur le registre de Github, et je ne paye rien. Je sais pas pourquoi, vu que je devrais, mais visiblement, c'est open bar si tu fait tout en publique.
Comme alternative, il y a Gitlab.com, ou je tombe pile poil dans les limites pour un usage gratos, sinon, ça monte à 20 US$.
Je peux installer Garage et brancher ma forge Gitea dessus (je vais pas faire la comparaison niveau tarif parce que j'ai ça sur une machine à mes pieds avec ma connec internet, donc je vais pas mélanger CAPEX et OPEX et usage général).
Si je veux aller ailleurs en dehors des forges, je peux aller voir chez OVH à partir de 24€ par mois (gloups). C'est cher mais en même temps, c'est pour un registre privé. Je pourrais aussi simplement prendre leur offre S3-like et mettre un registre devant et je m'en tirerais pour pas trop cher.
Je peux aller chez Scaleway pour pas cher. Avec 10G de trafic et 50G de stockage, je m'en tire pour 30 centimes de bande passante, et 1.35€ de stockage (que je pourrais réduire à presque rien si je fait le ménage et/ou des conteneurs plus léger).
Je peux aller chez Digital Ocean pour une poignée de dollars, genre 5 US$ si je fait le ménage, 20 si je le fait pas.
Il reste les offres des gros providers.
AWS propose des tarifs généreux, vu qu'on ne paye que le trafic réseau, et c'est 500 Go de trafic gratos.
Azure propose des choses, mais ça grimpe assez vite. 5 US$ de frais de base, 0.45 pour 5G de stockage, 4.5 pour 50G, et les frais réseaux sont proche de 0 pour 10G de trafic.
GCP propose des choses, mais je suis trop con pour comprendre combien ça coûterais en pratique. Ou Google ne sais pas expliquer clairement (vu qu'il y a 4 niveaux de stockage et des frais divers pour le réseau). Sans doute moins généreux que AWS à priori, dans les mêmes gammes que Azure.
Alors bien sur, pour mes trucs persos, je peux continuer à utiliser Docker Hub. Mes conteneurs pour la CI n'ont pas besoin d'autre chose que d'un compte, donc ça passerait.
Mais rester chez Docker, c'est prendre le risque de se retrouver avec d'autres limites arbitraires dans le futur tel que "oups, votre namespace est coincé parce que vous avez utiliser une feature qui n'a aucune raison de devenir payante à part comme proxy de 'vous pouvez payer plus'".
Les changements progressif de Gitlab.com me montre que les startups non rentables financés via les investissements de la Silicon Valley peuvent toujours changer de modèle de prix, et faire le constat logique qu'une personne comme moi, ça ne vaut pas le coup, un probléme qui me parait moins probable avec des entreprises du secteur plus matures, (sauf Google).
Donc ouais, j'ai pensé à me diversifier. Mais mon souci, c'est pas de choisir ou aller.
C'est de réussir à suivre ou les projets bougent sans avoir à vérifier tout les mois, sans avoir à faire des grep/sed sur les différents dépôts git pour changer tel image vers tel registre.
Et j'en veux à l'équipe dirigeante de Docker d'avoir poussé des mauvaises pratiques via leur non support des dépôts alternatifs (directement dans le code client de Moby), le non support des vhosts sur docker hub, etc. D'avoir tout fait pour qu'on en pense qu'il y a que Docker Hub au lieu d'essayer de pousser des bonnes pratiques visant à ce que chaque projet possède son identité. Et d'avoir communiquer n'importe comment cette semaine.
[^] # Re: À quelque chose malheur est bon
Posté par Psychofox (Mastodon) . Évalué à 3.
Ben en fait c'est le nerf de la guerre. Il faut pas être naïf, si on pull des images publiques c'est un truc qu'on doit pouvoir faire chaque semaine.
Idem pour les warrant canaries d'ailleurs.
[^] # Re: À quelque chose malheur est bon
Posté par Misc (site web personnel) . Évalué à 7.
Ouais, enfin, quand j'utilise une distribution Linux, je m'attends à ce que les paquets ne changent pas de nom sans laisser d'adresse. Les miroirs Debian ou Fedora vont et vienne, ça ne casse rien. Le rpm de docket est devenu moby-engine, mais ça marche encore.
Demain, Gotosocial bouge hors de Docker Hub, il faudra mettre à jour la doc partout, et suivant la façon dont ça va bouger, ça peut casser les scripts, ou ne rien casser et avoir des vieux trucs sans mises à jour.
Avec un peu de préparation, on peut éviter ça.
Et d'ailleurs, en cherchant à corriger mon souci avec la redirection, j'ai vu que quelqu'un a déjà écrit un article sur la question d'avoir une adresse pour son registre.
J'ai lu la config de Caddy, c'est juste une redirection 307. J'ai tenté ça, ça ne marche pas. Du coup, j'ai tenté avec Docker, ça passe.
Conclusion, c'est un bug dans podman.
(la, je devrais rajouter une didascalie pour dire que le personnage soupire, mais y a pas ça dans markdown, donc merci d'imaginer que je soupire fort)
[^] # Re: À quelque chose malheur est bon
Posté par barmic 🦦 . Évalué à 2.
Ça c'est de la chance. Tu n'a aucune garantie que ce soit le cas et ça a déjà bien était la merde auparavant. Tu n'a des garanties qu'au sain des dépôts de la distributions ça se passe bien, c'est logique c'est leur travail. Pour le reste tu lance les dès à chaque install/upgrade. Mais les distributions le font avec un travail de centralisation, elles ne permettent pas à un projet de fournir directement son propre paquet au travers de ses dépôts, l'éditorialisation des dépôts officiels debian et du dockerhub n'ont rien à voir ce n'est pas la même logique ni la même problématique.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: À quelque chose malheur est bon
Posté par Misc (site web personnel) . Évalué à 4.
Quand tu dis avant, c'était quand même il y a un bout de temps.
La gestion automatique des miroirs, c'est un truc qu'on avait de fonctionnel y a 15 ans dans Mageia, et je sais que c'est le cas dans la plupart des distros de nos jours, avec une automatisation de la vérification de l'age pour certaines (MirrorManager pour Fedora le fait par exemple).
Je ne parle pas du contenu, juste le fait qu'on a que rarement besoin de spécifier manuellement la source des paquets de nos jours, ou de mettre à jour manuellement quoi que ce soit quand il y a des changements.
Alors que pour les images docker, le nom du fournisseur (ghcr.io, docker.io, etc) est codé en dur quasiment tout le temps, la plupart du temps implicitement, et c'est est un souci quand il y a une volonté de changer de fournisseur.
[^] # Re: À quelque chose malheur est bon
Posté par barmic 🦦 . Évalué à 2.
Je ne connais pas de mécanisme automatique de gestion des miroirs chez debian, mais bon c'est des miroirs. Ils présentent tous le même indexe de paquet qui est géré par ta distribution (elle choisi qui entre ou sort de l'indexe et avec quel nom).
Pour avoir un paquet d'un dépôt alternatif, il n'y a pas de secret. Je suis allé voir pour MLO voir s'il y avait quelque chose que je ne connaissais pas et oui tu dois ajouter ton dépôt puis faire l'installation et tu as un gros panneau pour t'expliquer que c'est dangereux :
https://www.mageialinux-online.org/wiki/depots-supplementaires-pour-mageia-mlo-repository
Pour docker, tu n'a pas de configuration particulière à faire simplement adresser l'image avec son nom de dépôt. Ça me paraît plus simple.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: À quelque chose malheur est bon
Posté par Misc (site web personnel) . Évalué à 4.
Jusqu'à ce que l'image change d'emplacement, et la, tu es comme un rond de flan, cf ce que j'ai dit.
Avec une redirection par le projet upstream (genre, Alpine), tu as le bonus d'avoir l'assurance d'avoir un conteneur officiel (car c'est un sous domaine , et pas juste la première personne qui squatte le nom alpine dans le dépôt par défaut) et de ne pas dépendre du choix du fournisseur de registre.
[^] # Re: À quelque chose malheur est bon
Posté par barmic 🦦 . Évalué à 2.
Je veux bien mais tu opposais ça aux distributions. Les distributions sont des fournisseurs de registre et tu dépend complètement d'eux.
Entre devoir déployer des images sur je ne sais combien de registre et avoir le changement pour les utilisateurs… Pour avoir le meilleur des 2 mondes c'est un peu plus de travail.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: À quelque chose malheur est bon
Posté par Misc (site web personnel) . Évalué à 4.
Alors oui, on dépend d'un intermediaire entre le projet upstream (genre mongodb) et nous, utilisateurs. Je vois ce que tu veux dire de façon un peu plus clair.
Mais je pense qu'on change rarement de distros sur un coup de tête, ou du moins, pas pour des raisons que j'estime être des détails internes, comme "ça coûte moins cher au projet initial d'être ailleurs".
Alors que l'endroit ou sont les conteneurs, bah, ça devrait être un détail.
Et c'est un peu plus de travail, mais c'est pas non plus la mort.
Si un projet pousse sur X registres, c'est parfois aussi pour son propre bénéfice, comme l'explique le README du registre de K8S. Avoir une image officielle chez GCP et chez AWS réduit les coûts pour le projet.
Il faut aussi voir que le surcoût de pousser sur plusieurs registres, pour un projet de taille moyenne, c'est assez mineur, vu que tu as simplement besoin d'une boucle dans ta CI qui fait un docker push.
Certes, le coût n'est pas nul car avec 2 registres, tu as potentiellement 2 fois plus souvent des crises ou 2 fois plus de downtime à gérer.
Mais on est loin des cas plus complexe comme "avoir 2 forges" ou "une liste et un forum", ou les discussions sont fragmentés tout le temps (alors que des migrations de plateforme de discussions, ça arrive souvent).
[^] # Re: À quelque chose malheur est bon
Posté par barmic 🦦 . Évalué à 2.
Personne ne s'en est jamais pleins pour les distributions ? Tout ses dépôts vont suivre les mêmes règles que le dockerhub ? Ils vont pas en profiter pour normaliser à leur sauce : interdire l'usage de l'utilisateur root, s'assurer que tout ce qui parle http soit sur le même port, garantir à leurs utilisateurs que les bibliothèques embarquées fasse partie d'une liste définie et soient à jour,… Ce sont des choses qui sont demandées par les utilisateurs.
Et tu ne remplace pas docker par podman sur un coup de tête. Si on veut comparer aux distributions c'est plutôt dans ce sens là que ça marche et oui certaines distributions n'ont pas Firefox mais iceweasel et d'autres auront le paquet firefox-esr.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: À quelque chose malheur est bon
Posté par barmic 🦦 . Évalué à 4.
La critique est plus facile 10 ans plus tard quand on a l'information de ce qui s'est passé ensuite. Et si les moby, podman et autres existent c'est aussi parce que docker a su relever un certains nombres de défis, même si aujourd'hui tu ne le vois plus. Et c'est aussi parce que docker a fait un travail pour permettre à des alternatives d'exister dans le même écosystème. Ce qui ne leur rapportent pas beaucoup plus qu'un flot de "regardez l'alternative qui a était initié plusieurs années après vous en s'appuyant sur l’expérience de ce que vous avez fait fait tel truc mieux que vous" (ben heureusement !).
Et je trouve vraiment comment comment les projets libres cherchent à se pourrir les uns les autres. Rare sont les projets pour qui la communauté tolère les erreurs. On est systématiquement dans une méfiance et rapidement de l'invective. Y compris venant de personnes qui peuvent expliquer par ailleurs que pour eux le libre c'est plus qu'une licence logiciel, mais un projet politique.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: À quelque chose malheur est bon
Posté par Misc (site web personnel) . Évalué à 5.
Je pense que centraliser à un endroit, j'ai pas attendu maintenant pour râler. Que Fedora et Centos propose leur propre registre, j'ai toujours trouvé ça bien, et je pense que les autres distros auraient du faire pareil pour
1) s'assurer de la provenance et éviter les confusions (exemple de 2014 pour Debian)
2) avoir des conteneurs avec des standards comme pour les paquets de distros (Fedora a tenté, ça n'a pas pris, en partie parce que l'infra n'était pas la pour consommer)
3) répartir la charge pour ne pas dépendre d'un unique acteur.
Alors moby existe parce que docker a fait au début la même erreur que beaucoup de projets libres, à savoir faire un produit avec le même nom que le projet communautaire, et devoir séparer les 2 quand on voit que c'est le projet libre qui est connu et que ça concurence le produit.
C'est l'erreur qu'a fait Red hat (plusieurs fois) et qui a donné Fedora. C'est l'erreur qu'a fait Mandriva/Mandrakesoft (et qui a causé beaucoup de tensions), et l'erreur qu'a fait Ubuntu (et qui a aussi causé beaucoup de tension).
Le code de Moby, c'est le code de Docker, renommé pour garder la marque Docker pour le produit commercial, vu que c'est ce qui a de la valeur.
Quand à Podman, le projet existe surtout parce que des devs de Docker n'ont pas voulu des patchs proposés par Red Hat, notamment sur l'intégration de systemd (vu que systemd et docker font grosso modo la même chose, gérer des process). Donc à un moment, l'équipe qui a crée podman s'est dit que plutôt que d'aller contre le courant sans arrêt, ça irait plus vite de repartir de 0 sur une architecture différente.
Y a pas que Docker comme membre fondateur de l'OCI, loin de la. Il suffit de voir l'annonce pour voir le travail fait pour faire parler tout le monde. Je n'ai pas d'info publique sur qui a fait quoi, mais je sais clairement que des gens de mon équipe à l'époque était impliqué, et qu'on a poussé pour ça.
Ça leur aurait sans doute rapporter plus si le CEO avait accepté l'offre de rachat de Microsoft, au lieu de dire "4 milliards, nan, c'est pas assez".
On noteras que depuis 2016, il n'y a pas eu d'offres supérieurs, qu'on a montré la porte à un des fondateurs, et que la boite a été séparé en 2 quelque années après.
J'aimerais aussi pointé que même si c'est Docker qui a réussi à populariser les conteneurs, et qu'ils ont exécutés correctement ce bout la (et je veux pas leur retirer ce mérite) et qu'ils ont fait beaucoup, c'est pas non plus eux qui ont inventés le concept.
Il y avait les jails sur FreeBSD (4.x, donc vers début 2000), ce qui a inspiré OpenVZ, dont le patch a finalement été fusionné dans le noyau, ce qui a donné lxc et co, et un bout des bases techniques de Docker (les namespaces).
L'autre partie, les cgroups, c'est du code venu de Google datant de 2007.
Google, dans son papier sur Borg de 2015, dit au paragraphe 8 qu'ils opèrent le système depuis 10 ans, donc 2005, en mentionnant qu'il marche avec des conteneurs utilisant les cgroups, c'est donc cohérent avec le patch de 2007.
On note aussi que le même papier parle des différentes alternatives de Twitter, Alibaba, Microsoft ou Facebook, ainsi que tout le prior art en recherche, notamment sur l’exécution de cluster. Vu
Donc oui, Docker a popularisé l'idée en 2013, et c'est cool. Mais c'était sur la base des choses issues de divers recherches depuis 10 ans.
Donc il y a eu aussi tout un travail fait par d'autres avant et après, et si ils sont pas devenu milliardaires mais juste riches, c'est aussi à cause de certains choix que la boite a été seule à faire.
Le libre est politique par définition, mais la, c'est vraiment plus des questions d'ordre soit technique, soit commercial, avec un niveau politique à mon sens assez bas.
Docker a apporté une brique de base qui améliore et automatise les infras, mais j'ai pas le sentiment que la portée politique soit énorme, ou alors, pas forcément dans un sens positif pour tout le monde, car le technoludisme et le déclassement des connaissance, ce sont des questions politiques. On peut imaginer des effets de second ordre mais Docker, ça reste surtout du domaine de l'entreprise.
Pour moi, des logiciels comme firefox ou rust, des projets comme wikipedia ou sci-hub ont un impact sociétal et politique plus direct que Docker ou podman.
[^] # Re: À quelque chose malheur est bon
Posté par barmic 🦦 . Évalué à 3.
Si docker n'avait pas participé à l'OCI. L'écosystème n'aurait pas la même tête aujourd'hui.
T'en ai a t'appuyer sur des rumeurs pour appuyer ta véhémence ?
Je ne dis pas le contraire, mais ça montre peut être que la différence entre faire une techno de conteneurs et en faire une qui marche aussi bien que docker et j'entends "marcher" comme est à l'origine d'un écosystème comme celui d'aujourd'hui. Ça n'enlève rien aux autres qui ont permis eux aussi de donner du grain à moudre à docker. Ce n'est même pas de la R&D, ils ont industrialisé quelque chose qui était déjà possible sans eux.
Effectivement beaucoup d'acteurs utilisent docker. Dans les faits dans tout ce qui est cité peu sont arrivé là du fait de leur contribution, mais de leurs usages (et parce qu'ils file de l'argent).
Je vais le redire de manière plus limpide. Désolé du coup je ne met plus de forme. Je trouve dégueulasse la manière qu'on les "libristes" de tomber sur chaque projet qui a une décision qui ne leur va pas, qu'on est immédiatement dans la polémique plutôt que la discussion et qu'on le voit même chez ceux qui affirment pousser le libre comme une projet de société pronnant entre autre l'entraide.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: À quelque chose malheur est bon
Posté par claudex . Évalué à 5.
En quoi c'est la décision d'un projet qui est critiqué à la base ? On parle de décisions commerciales d'une entreprise.
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: À quelque chose malheur est bon
Posté par barmic 🦦 . Évalué à 2.
s/projet/acteur du libre/
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: À quelque chose malheur est bon
Posté par Misc (site web personnel) . Évalué à 5.
Non, que tout le monde ne publie pas au même endroit (à savoir le hub docker).
Non, mais Docker n'aurait pas grandi non plus. Les boites font des alliances et des fondations par par amour de la collaboration, mais pour 2 raisons:
- parce que les clients veulent des standards, donc elles ont le choix entre le faire elles même, ou que ça leur tombe dessus par l'état tôt ou tard (norme ISO, etc).
- parce que si elles veulent faire grandir le marché, il faut un écosystème et donc il est important de ne pas collectivement perdre du temps à réinventer la roue, et à priori leur propres roues qu'elles contrôlent.
Dans le cas de Docker, il y a aussi que tout boite en croissance réalise à un moment qu'elle ne peux pas grandir par elle même aussi vite que prévu, et qu'elle a besoin de partenaires économiques, comme des entreprises qui ont déjà l'infrastructure commercial pour adresser des marchés qu'elle n'a pas, ou dont elle ne veux pas.
Pour une petite boite, c'est avoir des commerciaux qui vont parler aux directeurs IT (ie. une grosse boite). Pour une grande boite, c'est avoir des commerciaux qui vont s'adresser pour toi à des acteurs plus petits, chose qui n'est plus rentable pour toi à cause de ta bureaucratie interne, elle même du à des obligations légales et financières du à ta propre taille.
Une boite en pleine croissance va aussi voir qu'elle n'a pas la capacité à faire de la R&D partout, donc qu'il faut repartir ça en laissant d'autres faire des choses et payer les pots cassés ou gagner un peu du gâteau (sachant que le coût pour la boite de laisser d'autres adresser un besoin qui utilise sa solution est proche de zéro).
C'est pour ce genre de raisons qu'on voit tout le temps qu'on a l'OCI, l'Openstack fondation, le CNCF, la fondation OW2, etc, etc.
Mais le libre prône aussi une certaine vision de la démocratie, qui implique des discussions, et de la méritocratie, qui implique aussi une confrontation des idées.
Le libre en tant qu'idéologie, ça a été théorisé par RMS parce qu'il ne pouvait pas toucher à un driver d'imprimante dans une fac. Certes, on présente ça comme le fait de s'aider sur la correction de bugs, mais le lien entre la culture scientifique et académique me parait assez direct.
L'aspect entraide existe, je ne le nie pas. Mais il me parait une justification à posteriori pour que les libristes s'auto justifient une partie de leur travail gratuit. Et la GPL, qui reste un texte fondateur, ne parle pas d'entraide, ou de droit à l'entraide. La GPL parle par contre du droit à étudier le code source, et du droit à reprendre le code pour autre chose. Donc on revient à la culture académique via 1) l'étude de code 2) le concept de liberté de parole (i.e. free speech), si on compare le code à une forme de parole académique.
Une licence qui mettrait l'entraide au cœur de ses mécanismes, ça serait tout ce qui tourne autour de l'Ethical Source License. Mais sa réception par la communauté du libre montre quand même que c'est pas exactement une valeur aussi centrale que d'autres valeurs.
Les idéologies peuvent avoir plusieurs causes, peuvent changer et s'adapter, et chacun voit midi à sa porte.
Mais la, pour le cas spécifique d'une boite privée qui fournit gratos de l'infra afin que son business grandisse (car Docker sans images, ça n'aurait pas eu le même succès), je ne pense pas qu'on puisse mettre ça sous la bannière de l'entraide.
Je peux voir comment on peux le voir, vu que ça aide les projets à répondre aux besoins et aux demandes de leur base utilisateur pour 0€. Je peux voir comment, si on pense que l'infra est une corvée, un service gratuit est vu comme entraide. Je peux voir comment le discours autour de "on aime le libre et on veut donner en retour" de beaucoup de SaaS sonne comme de l'entraide.
Mais je pense que ça n'est pas le cœur de l'idée.
Donc ouais, on peut prôner l'entraide, et en même temps, discuter de chose qui sont assez éloignés de la question de l'entraide.
[^] # Re: À quelque chose malheur est bon
Posté par barmic 🦦 . Évalué à 4.
L'absence d'empathie que je vois à travers chaque polémique (où ça part systématiquement en procès d'intention) me semble aussi éloigné que possible de l'imaginaire de co-construction sous-entendu par les libristes (en plus de créer des milieux qui ne sont pas sain pour les gens qui font ou qui tentent de faire du logiciel libre).
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.