Ensuite, je trouve un peu hypocrite de râler sur le fait d'utiliser le trademark comme une possession personnelle quand on fait pareil avec une forge vielle d'il y a 5 ans, cf le renommage de hostea en Gna.
Je pense aussi qu'il y a déjà des opérations de propagandes qui utilisent des bots pour le contenu (et pas juste pour de l'astroturfing en recopiant le même message partout comme ici).
Donc le projet a clarifié sur twitter que y a rien de prévu impliquant de la crypto (eg, pas de NFT ni rien), que le terme DAO était à prendre au sens premier (ie, pas avec de la crypto) et que c'est pour le moment exploratoire.
Oui, les plugins, c'est à double tranchant. Ça veut dire que le coeur du logiciel est plus facile à maintenir, mais ça pousse les features ailleurs et la maintenance quelque part (eg, chez les utilisateurs du logiciel, cad les admin d'une instance).
Je peux comprendre la peur, mais je crois pas que ça soit une riche idée pour un logiciel en go.
J'imagine que ça va plutôt s'orienter vers une LTS, ou un binaire avec des options de compilation spécifiques (vu qu'un des soucis avec le go, c'est de tout faire à la compilation).
C'est quoi l'intérêt de snap devant tout ces défauts?
Donc que je récapitule, les défauts, c'est:
- ça crée trop de partitions, et je cite "ça m'a pas plu"
- c'est dur à virer
Je confirme, je pige toujours pas. Je passe pas mon temps à regarder mount donc le fait de faire des partitions ne me parait pas un souci énorme. Je peux voir comment ça peut faire râler un peu, mais bon, c'est pas comme si c'était pas déjà une cause perdu comme le montre ça sur une Fedora 35:
$ mount | wc -l
34
(en plus d'avoir éventuellement des logiciels qui sont plus
lents, mais pas toujours)
Alors de ce que j'ai vu, c'est lié à l'usage d'un fichier squashfs. Canonical a commencé à bosser dessus, et ça semble aller mieux.
Mais vraiment, ça n'a pas l'air de justifier des propos comme ce que j'ai pu lire, surtout si c'est juste au lancement.
C'est marrant, parce que les commentaires sur HN parlent aussi de ce point. Je sais pas si DAO implique un truc basé sur une blockchain, ou si c'est juste un terme générique.
Ensuite, dans le cas de Mozilla, j'ai quand même le sentiment qu'il y a beaucoup de critiques qui sont vachement virulente sans que ça soit justifié. Quand ça arrive, j'ai le sentiment qu'il y a eu des disputes passés et qu'une partie des personnes impliqués n'a juste pas digéré.
Et j'ai le sentiment que c'est pareil pour Canonical (j'ai vu des gens être assez ordurier vis à vis de snap, mais personne explique vraiment le souci, à part "c'est différent, et je pige pas"). J'ai pas le sentiment que c'est le fait d'avoir snap par défaut, ou les qualités de snap, mais plus divers décisions prises par le passé (du style communication de Canonical et de Mark Shuttleworth, la dissolution du community council, ou ce genre de chose).
Je suis du coup pas super convaincu des exemples, même si de toute façon, le financement des gens dans le libre, ça va toujours être tendu vu que personne ne veut vraiment payer le tarif des devs.
Et une entreprise, c'est pratique, ça n'a pas de visage, donc on peut se laisser aller et râler dessus en oubliant qu'il y a des humains derriére. C'est largement socialement moins admis d'aller râler sur un projet de bénévoles, sauf si il est suffisamment gros pour être "déshumaniser" (wikipedia est l'exemple qui me vient à l'esprit, pour tout un tas de raisons)
Sinon pour répondre sur le reste de ton commentaire, il est
dommage que tu ne t'accroches qu'au début de l'exposé pour
construire ton argumentaire et le réfuter en bloc avec un
exemple qui n'a rien à voir.
Au contraire du vidéaste qui prends les titres et les résumés pour qualifier de désinformation :p ?
Alors certes, je pourrais sans doute faire un commentaire encore plus long (voir le publier en 2 volumes), mais je pense que le coté sensationnaliste comme "une des plus grave désinformation", "grave menace", etc fait que je vais me retrouver aphone si je doit revoir la vidéo.
Ce qui est dénoncé dans cette vidéo, ce sont avant tout les
procédés par lesquels certaines firmes arrivent à pousser des
initiatives qui vont dans leurs intérêts en trompant le
processus scientifique, sciemment ou non, et avec des
conséquences qui peuvent être délétères pour l'humanité.
Si par pousser des initiatives, tu veux dire payer des gens pour faire des recherches pour leurs propres besoins, y a rien de nouveau.
La comparaison avec le tabac me parait trompeuse car dans le cas de Google et de l'informatique, c'est des nouveaux algos qui sont mis en place (exemple, des outils comme GPT-3), alors que les recherches de l'industrie du tabac était la pour nier les problèmes.
Depuis toujours, Google se donne une image de groupes de scientifique qui bossent sur des trucs cools. Les projets Moonshot, l'origine de la boite, le coté cool et fun, la proximité avec les universités de la cote Ouest, etc. Ils font une tonne de trucs et de publication, cf https://research.google/pubs/
Et quand tu postules chez eux, on te recommande de lire un certain nombre de papiers pour te mettre à niveau.
Donc bon, l'implication de Google avec le monde scientifique est la depuis l'origine de la boite.
Mais encore une fois, un souci fondamental, c'est qu'on a pris des statistiques, et on a appelé ça "Machine learning", suivi de "IA" (même si on dit "apprentissage statistique" en bon français).
N'importe qui va comprendre que des statistiques, ça peut faire fuiter des données. Si tu fais un sondage dans ton entreprise avec des données comme "votre poste, votre bureau", je pense qu'une majorité va se poser des questions sur la taille des groupes, car on a une idée de ce qui se passe.
Dans le cas de Google, c'est vendu comme magique et super avancée, comme une boite noire ou y a pas besoin de réfléchir, et c'est en effet un souci.
Mais encore une fois, je pense que pour les scientifiques, on est plus dans un exemple de ce xkcd ou celui la que dans une opération d'empoisonnement de la science.
On peut remettre en cause leur marketing, ce qui est fait dans la vidéo en pointant sur les communiqués de presse, mais ça reste toujours une simplification qui va dans le sens de Google. Car en les rendant les seuls responsables, on va aussi aller dans le sens de la stratégie de Google visant à se positionner comme des experts techniques plus avancés que tout le reste du monde.
En digressant, il semble que l'approche distribuée ne serait
intrinsèquement guère plus protectrice.
Dans le cas de l'approche distribué, ce qu'on cherche à éviter, c'est un accès direct aux données par un presta. Je suis un hopital, je veux faire des stats, mais j'ai pas de sous pour avoir un DC dans la cave. Avec les méthodes de Privacy Preserving trucmuche, je peux faire les calculs ailleurs sans que le presta est un accès direct des données. Ensuite, je suis censé garder mes résultats pour moi.
C'est un souci business pour un vendeur de cloud, car la plupart s'en foutent des données et veulent juste le pognon des clients. Donc si pour avoir la moula, faut dire qu'on ne peut pas regarder par qu'on utilise de la crypto magie, ils vont le faire. Le but est d'avoir une garantie à l'opération pour faire affaire.
Maintenant bien sur, si tu mets les données en clair chez le fournisseur et que tu stockes le modèle en clair la bas, ça sert à rien.
Et pour penser à ça, faut penser d'une part aux questions business des entreprises, des fournisseurs, et se poser la question du contexte, des données, voir remettre une partie de ses convictions en question. Tout un travail qu'on ne fait en général pas, car on a pas le temps, ou pas d'incitation.
La vie privée, c'est comme les licences. Tout le monde dit s'en préoccuper, et en pratique, tout le monde (ou presque) s'en fout, parce que l'impact moyen est proche de zéro.
Ensuite, rien n’empêche d'avoir une recherche globale dans un serveur de listes. Hyperkitty et Mailman 3 sont un exemple de ce qui est possible.
Le vrai souci, c'est que Discourse a une boite derriére et de la maintenance et des features, alors que la stack Mailman 3 non.
Mais je pense qu'on survends les bénéfices de Discourse pour faire venir du monde. J'apprécie de pouvoir lacher des commentaires rapidement pour certains projets, mais ç'est pas non plus un trafic de folie. Et je pense que pour des listes avec un trafic élevé, c'est un peu mort (pas de thread, par exemple). Ou simplement quand tu as beaucoup de listes, vu que tu va avoir 1 topic qui va dominer les autres sur la page principale. Avoir 75 catégories, ça va commencer à rendre l'interface inutilisable (v que ça utilise des couleurs, et je suis pas sur que j'arrive à distinguer rapidement 75 couleurs).
Le mode mailling list a aussi pas mal de limitation intrinsèque (par exemple, tu n'as pas de mode "aucune archive" par définition).
Du coup, discourse est bien pour le support, les discussions entre utilisateurs ou pour des groupes de taille assez raisonnables (genre moins de 100/500 personnes actives). Je pense que c'est autre chose pour les discussions complexes, la revue de patch, ou des workflows spécialisés (recevoir tout les commits, par exemple), ou des groupes conséquents (comprendre > 100 à 500 personnes). Sans doute une des raisons pour Rust d'avoir plusieurs instances de discourse (eg https://users.rust-lang.org/ et https://internals.rust-lang.org/ , suivant la traditionnelle dichotomie "dev/users"), en plus d'avoir aussi des discussions sur github (eg, directement sur les patchs, et les bugs, et pas sur discourse pour ça).
Je trouve le raccourci "IA == desinformation" du début, un peu facile et trompeur.
C'est pas tant l'IA le souci que le fait qu'on a donné l'accès pas cher pour communiquer avec le grand public, avec la possibilité pour le public de participer et rendre viral des contenus, avec la machinerie pour optimiser ça. Je ne dit pas que l'époque de l'ORTF était mieux, mais le cœur du problème, c'est aussi ça.
Et d'ailleurs, appeler ça IA, ça fait aussi appel à un imaginaire visant à tromper. Dans le cas des recherches sur le sujet, c'est faire croire que des algos de recommandation sont plus avancés qu'on le croit et qu'ils vont faire des miracles (donc obtenir des fonds pour la recherche ou pour sa boite). Et dans le cas des personnes contre l'IA, c'est aussi faire appel à un imaginaire bien spécifique (Skynet, HAL, Glados) visant à faire peur en personnifiant un système (ce qui quelque part reprends aussi des thèmes comme le procès de Kafka ou les horreurs de Lovecraft, ou des simples humains sont faces à des horreurs cosmiques ou une bureaucratie qui les dépassent).
La propagande n'a pas attendu les réseaux sociaux pour justifier des génocides, mais en permettant une communication plus facile et moins cher, une des promesses techno-libertaires de l'internet dans les années 90, on a aussi permis de faciliter la propagande.
C'est aussi ignoré les raisons sociales d'un génocide, et finalement, pointer les industries de la silicon valley, c'est aussi un moyen de trouver un méchant facile qui va absoudre les autres acteurs, et passer sous silence les raisons historiques et la politique locale. Y a un petit coté impérialisme culturel, dans le sens ou le méchant tout trouvé, c'est forcément l'Autre.
Ensuite, je ne dit pas que Google/FB ne sont pas responsable (surtout pour le manque de modération dans une langue locale pour FB), mais dire "alors, y a un article spécialisé, mais si il est lu par des gens qui connaissent pas le domaine, ils vont mal comprendre", c'est un chouia faible (minute 12, pour reference). Pareil, minute 26, il dit "mais les gens lisent pas les articles, juste le titre", sans remettre en cause ni le fait que 1) les papiers sont parfois abscons 2) les papiers sont souvent payant et cher 3) qu'il y a les mêmes mécanismes pour la presse en ligne que pour les journaux scientifiques (eg, faut un titre accrocheur).
Mais bon, vu le titre de la vidéo (avec quand même une accusation forte visant à susciter l'émotion et la viralité, vu que la vidéo arrive sur Linuxfr), je suppose qu'on est pas tant dans la communication impartial.
Ce qui me rappelle le livre du moment pour le club de lecture du boulot (Data Feminism), qui dit des choses vraies, qui pointe des vraies soucis et qui est intéressant, mais qui me fait assez hurlé de part sa structure.
Par exemple et pour le moment (vu qu'on lit 1 chapitre par semaine, j'ai lu que les 3 premiers), chaque chapitre commence par un exemple qui implique des trucs graves (ch 1: la mortalité des femmes noires à l'accouchement, ch 2: les endroits ou les gosses noires se font écraser à Détroit en 1971, ch 3: le massacre de Sandy Hook), avec le but de susciter une émotion, ce qui rentre pour moi dans la catégorie manipulation émotionnelle. Non pas qu'on ne doivent pas parler de ses exemples, mais quand c'est dans la structure du livre et que c'est pas exactement le cœur du sujet (qui est quand même sur les statistiques), ça me parait curieux (surtout quand le chapitre 3 dit clairement "il faut susciter de l'émotion", mais curieusement sans pointer sur les recherches de Facebook/Meta de 2014, et la réaction à la publication.
Le livre date d'avant la mort de Georges Floyd donc on peut excuser le fait de ne pas avoir garder ça en tête, mais je pense que les critiques des afro-féministes sur la commodification des morts de personnes noirs sont aussi à envisager sur ces débuts de chapitres (en plus de la question de la manipulation émotionnelle en général).
De même, ce qui me fait hurler, c'est à quel point le livre s'approche d'une autocritique du domaine, mais sans vraiment aller au fond des choses. Par exemple, chapitre 2, à aucun moment ça évoque l'idée même de régulation étatique, ou alors seulement dans le sens ou la régulation va créer plus de travail pour le domaine des data sciences (eg, des audits, des publications de données). Comme l'a fait remarqué Alex Stamos (je crois, je retrouve pas le lien), ç'est un peu un conflit d’intérêt.
L'exemple fin du chapitre 3 avec les nations autochtones, ç'est présenté comme une pratique nouvelle et progressiste, alors que c'est simplement le fonctionnement du copyright (mais ça sonne moins bien comme posture).
Point bonus ce bout du chapitre 3 viole sans doute sa propre licence (le livre est en CC-BY), mais je suppose que tout le monde s'en fout )
Donc je pense qu'il est bon de garder un sens critique y compris sur les gens qui poussent à la critique.
(et j'accuse pas El Titi, je me suis aussi fait avoir avec l'histoire de Xcheck/Meta/Facebook et The wire il n'y a pas longtemps, donc ça arrive clairement aux meilleurs)
C'est aussi la preuve que les promesses des cryptomonnaies sont un peu foireuse, car la seule raison qui fait que ça marche, ç'est la centralisation sur quelques plateformes d'échanges, et le fait que les cryptomonnaies n'ont de valeur que si ça passe par les monnaies classiques.
Heu… dans une des boîtes où j’ai bossé, ce sont les
prestataires qui sont les plus motivés. Les internes, à
quelques exceptions prêt sont plus en mode planque qu’autre
chose
J'ai vu ça, oui. Un grand groupe industriel qui a viré ses prestas du jour au lendemain lors du confinement, par exemple :)
Qui est absolument indispensable
Ouais enfin, y a 2 façon d'avoir moins de risques. On teste tout, ou on change rien. Et je pense que la, c'était "on change rien, et on diffuse le risque sur les prestas".
Ensuite, je ne sais pas en effet quel applis étaient déployés. Mais j'imagine qu'entre mettre les ressources pour soutenir les équipes internes (quant, datascientist, etc) qui sont captifs, mais peuvent te crier dessus, et celles pour les clients qui sont plus ou moins captif (car changer de banque, quand tu as un prêt, etc, ça parait assez disruptif), mais qui peuvent pas te râler dessus, le choix est assez vite fait.
En terme technique ou en terme de management ?
En terme de support client, ou du moins, la banque en bas de mon nouveau chez moi (et pas la banque de la ou j'ai grandit).
Crédit Mutuel est bien pourri de ce point de vue (il y a eu 1
suicide à EID et 1 autre au siège à Strasbourg, mes échos sur
Paris sont pas fun non plus, Blast est en train de sortir une
enquête sur la partie presse du groupe).
Parfait, je rajoute à la liste des banques à éviter.
Les banques ont été les premières industries à s'informatiser
Stricto sensu, je pense que l'informatique a été la première industrie à s'informatiser :)
Sans compter des raisons structurelles : difficultés à recruter
de bons informaticiens pour du Cobol, domaine qui a ces
spécificités et qui demande une expertise métier pointue, etc
Ce que j'ai vu en sortant avec quelqu'un qui bossait pour le service info d'une grande banque française, c'est aussi la culture de la sous traitance dans ce domaine, ce qui implique aussi fort peu de motivation pour améliorer les processus. On a du annuler plusieurs soirées parce qu'il fallait mettre en prod quelque chose à minuit, et ça implique 4 à 5 personnes différentes (avec 4 ou 5 en backup).
Donc la, c'était pas une question de cobol (vu que les trucs étaient en java), mais plus du fait que les gens faisant le taf n'avaient pas la motivation pour automatiser (et se retrouver au chomage), et la direction n'avait pas forcément les compétences pour ça (en cause et conséquence de sa structure sous traitante).
Et bien sur, comme tu le dit, une culture d'évitement du risque.
Adrien Blind a pendant un temps fait le tour du circuit des conférences pour parler de Docker et de La Société Générale, et comment il a convaincu la hierarchie de tester quelque chose, mais ça m'a l'air d'être plus une exception qu'autre chose.
Et on m'a dit assez du mal de la Societe Generale pour que j'évite.
Perso ce que je trouve formidable c'est qu'une entreprise peut
se foutre autant des clients sans que ceux-ci pensent à se
barrer (et il y a mieux ailleurs pour sûr, perso ca fait 15 ans
que je modifie le plafond en ligne). Pourquoi se faisaient-ils
chier à faire plus?
Ils ont refait le site web il y a quelque mois. Le fait que ça ne fasse aucun sens d'avoir ce bouton ici pour dire "ça ne marche pas", et le fait que ça surprenne tout le monde, les conseillers clientèles en premier lieu, me laisse croire que ç'est un état temporaire.
Ensuite, est ce qu'ils ont un backlog gigantesque, je ne sais pas, mais peut être. L'informatique dans le monde banquaire, c'est un peu dans le passé de ce que j'ai compris (cf de ce que j'ai vu en sortant avec quelqu'un au service info d'une grande banque dont j'ai oublié le nom).
Et j'ai eu à faire changer ce plafond 2 fois dans ma vie depuis que j'ai ce compte, je pense que je peux le supporter en pratique.
Quand à changer, le risque est surtout de tomber sur le même genre de branquignoles ailleurs, car c'est structurel pour les banques de détails.
Un truc à faire, c'est d'appeler la banque pour dire que ça marche pas (quitte à passer pour un neuneu, c'est d'autant plus drôle). Tant que ça leur coûte rien, ils s'en foutent. Une fois que ça commence à faire des tickets, je suis sur qu’après une certaine somme, ils vont se pencher sur ça.
Et je viens de revérifier, c'est toujours pas disponible sur le site web. C'est quand même formidable que la banque me fasse payer le droit de dépenser mon argent plus vite, une restriction qui a été mise en place par eux mêmes.
Je n'utilise pas de smartphone actuellement, il n'y a pas
d'opération bancaire que je ne puisse pas faire sans l'appli
(Caisse d'Épargne).
Augmenter le plafond de la carte ne passe pas sur le site web (mais il y a un bouton qui te dit d'utiliser l'appli), ou du moins, ne passe pas chez moi, et j'ai pas testé depuis 1 mois.
Visiblement, les gens en agence n'étaient pas au courant.
Ceci dit, je ne me rappelle certainement pas de gcc 2.96 et je
peux donc être à côté de la plaque ici,
Red Hat a mis gcc 2.96 dans RHL à l'époque, et ça a cassé des choses (car c'était vraiment un gcc 3), et les devs du libre de l'époque ont ralés (et par exemple, mplayer avait un warning pendant super longtemps sur le sujet).
mais dans mon propre environnement professionnel, le problème
du libre c'est pas son incertitude juridique, c'est son
incertitude économique : "on va pas laisser les concurrents
piquer notre taf".
Mais toi, c'est une incertitude quand tu écris du code, pas quand tu utilises.
Mais oui, l'incertitude juridique est une histoire du passé, et il est bien que ça le reste, AMHA.
Et il me semble que c'est le même souci qu'ont les développeurs
comme celui de Bookwyrm qui redoutent de se voir spoliés par
les tout-puissants.
J'ai le sentiment qu'il y a beaucoup d'hubris à ce niveau. Se dire que son logiciel est tellement bien qu'un grand nom va l'opérationnaliser et se faire une tonne d'argent, c'est pas ce qu'on voit.
Les gens citent par exemple Elasticsearch, mais il faut bien voir que la companie est profitable, et y a 3000 employés en 2022. C'est pas exactement une PME qui se bat contre des géants du net. C'est plus un futur géant qui veut grandir sous la pression de ses investisseurs. Pareil pour Mongodb, il y a 3500 personnes dans la boite.
C'est pas la peur que des géants du net les foutent au chômage le souci. C'est la peur de ne pas grandir autant que promis aux investisseurs.
C'est exactement ce que Stephen O'Grady explique dans un article récent.
C'est marrant, parce que mon chef m'a parlé il y a 2h de CodeGen, donc on a regardé le corpus.
Donc il y a des modèles entraînés sur les dépôts Github avec plus de 100 étoiles, sur les réponses Stackoverflow et sur les descriptions des brevets aux USA. Et point bonus, les emails de l'affaire Enron.
Note que si j'ai évoqué le nuage, c'est justement parce que
ploom énonce que le prix n'est pas fondamentalement un
problème.
Je pense que tu as bien fait de proposer ça. Ensuite, il a dit qu'il souhaite payer, mais je suppose qu'il y a des limites à ce niveau.
De toute façon son postulat de départ est entièrement foireux.
Il veut du entièrement géré par un tierce partie en ayant tout
contrôle sur l'architecture
Alors je pense qu'il veut que quelqu'un se charge des trucs sous-jacent tout en ayant la liberté la ou ça semble lui important.
Je vois 3 parts à sa requête pour le site:
- l'hébergement de fichier statique en http(s)
- la partie création du site
- l'hébergement gemini
Commençons par le dernier. C'est un peu mort niveau contrat commercial à mon avis. Mais c'est aussi une variation de la première partie.
Pour la partie hébergement statique, c'est largement standard. Il y a des tonnes de choix ou tu peux envoyer par ftp, sftp ou rsync.
La ou le bât blesse, c'est sur le 2ême point, car c'est exactement ce que tu pointes, à savoir un système de build qu'on suppose maison et qui requiert d'avoir python sur le serveur et ssh. Je peux pas trop supposer le pourquoi de toute ça, mais j'ai le sentiment que c'est pour construire sur place le code HTML.
Donc c'est pas tant la recherche du hosting que la recherche d'un système de compilation du site statique, potentiellement non standard (quoi que ça puisse vouloir dire).
Ce que je ne comprends pas, c'est pourquoi les 2 ne sont pas découplés.
Ce que Ploum dit vouloir, c'est ne pas faire l’hébergement de service. Mais du coup, ça requiert juste d'avoir quelque chose d'assez souple pour construire le site, mais pas assez souple pour heberger un service.
En fait, ce qu'il lui faudrait, c'est un shell. Quelqu'un s'occupe de l'uptime du serveur sans lui donner un compte root, avec le site http chez un hébergeur commercial (car c'est la qu'il y a du monde, cf la motivation pour le coté commercial), et une capsule gemini quelque part sans doute non commercial.
Du coup, je pense que regarder du coté du tildeverse est un bout de solution: https://tildeverse.org/
Ensuite, c'est "hello world". C'est important de voir à quel point tu peux optimiser bien sur, mais il faut aussi voir avec des cas plus réalistes, ou tu va devoir de toute façon rajouter des libs et ou l'écart va se réduire.
Et même si je comprends l'argument de gagner autant que possible des ressources, il y a aussi des limites à ça.
Si je cible, par exemple, un ESP32 avec 4M de flash, j'ai pas besoin de pinailler sur les Ko, ni même sur 1 Mo suivant ce que je vais faire.
Je suis sur que si j'ai assez de ressources, je peux trouver des ESP32 avec 2M de flash et sans doute faire des économies à ce niveau. Mais peut être que j'aurais ni le volume, ni le temps pour ça. C'est cool d'avoir un programme qui fait que 512 Ko au lieu d'un qui fait 1.5 Mo, mais si au final, ça me coûte pareil en hardware parce qu'on trouve pas de plateforme sur le marché avec moins de 2 Mo, ça réduit pas mal l'attrait à priori.
Curieusement, je trouve que ça a plus d'importance sur les serveurs et le cloud, vu que les ressources sont plus souvent partagés avec plus de granularité (eg, il y a autre chose que des cases ou on passe de X à 2X), mais à une autre échelle (dans le sens ou on se préoccupe pas des soucis à l'échelle du Mo).
Je suis étonné de voir Google promouvoir le Rust au détriment
du Go. Il faut croire que ces deux langages ne ciblent pas tout
à fait les même marchés.
Bien que tu puisses faire du Go pour de l'embarqué et des MCU, fondamentalement, ça n'est pas le plus adapté. Par exemple, Go utilise un garbage collector (même si il vient sans VM, contrairement à Java), ce qui le rends moins prévisible au niveau de la gestion mémoire (vu que, sauf erreur de ma part, c'est fait via un thread séparé).
Rust est un peu plus bas niveau dans le sens ou la gestion de la mémoire est fait via le language (le borrow checker, les scopes, etc), via des mécanismes plus proches du C, alors que Go semble approcher ça par l'approche plus haut niveau (eg, comme Java, python).
Cela implique en effet différents choix de design.
Mais bon, faut pas croire que les ingés de Google sont forcés de faire de la recherche en utilisant les logiciels écrits par d'autres ingés. C'est une vision assez tribale d'une entreprise qui ne correspond pas à la réalité.
# More drama
Posté par Misc (site web personnel) . En réponse au lien Open source sustainment and the future of Gitea . Évalué à 4.
Pendant ce temps, il y a aussi des discussions sur ForgeFriends, et sur le fediverse.
Ensuite, je trouve un peu hypocrite de râler sur le fait d'utiliser le trademark comme une possession personnelle quand on fait pareil avec une forge vielle d'il y a 5 ans, cf le renommage de hostea en Gna.
[^] # Re: Pilotage automatique
Posté par Misc (site web personnel) . En réponse au lien Le milliardaire Elon Musk a pris le contrôle de Twitter et licencié des dirigeants. Évalué à 6.
Ça existe déjà entre ça et ça.
Je pense aussi qu'il y a déjà des opérations de propagandes qui utilisent des bots pour le contenu (et pas juste pour de l'astroturfing en recopiant le même message partout comme ici).
[^] # Re: ça devient meta
Posté par Misc (site web personnel) . En réponse au lien Le milliardaire Elon Musk a pris le contrôle de Twitter et licencié des dirigeants. Évalué à 10.
Non, meta, c'est une autre boite.
[^] # Re: "decentralized autonomous organization" ?
Posté par Misc (site web personnel) . En réponse au lien Open source sustainment and the future of Gitea . Évalué à 3.
Donc le projet a clarifié sur twitter que y a rien de prévu impliquant de la crypto (eg, pas de NFT ni rien), que le terme DAO était à prendre au sens premier (ie, pas avec de la crypto) et que c'est pour le moment exploratoire.
Cf https://twitter.com/giteaio/status/1585297381926793216 , pointé par un membre du projet sur
https://discourse.gitea.io/t/open-source-sustainment-and-the-future-of-gitea-blog/6136
[^] # Re: Discourse :(
Posté par Misc (site web personnel) . En réponse au journal La communauté GNOME remplace ses mailing lists par Discourse. Évalué à 4.
Oui, les plugins, c'est à double tranchant. Ça veut dire que le coeur du logiciel est plus facile à maintenir, mais ça pousse les features ailleurs et la maintenance quelque part (eg, chez les utilisateurs du logiciel, cad les admin d'une instance).
[^] # Re: "decentralized autonomous organization" ?
Posté par Misc (site web personnel) . En réponse au lien Open source sustainment and the future of Gitea . Évalué à 4.
Je peux comprendre la peur, mais je crois pas que ça soit une riche idée pour un logiciel en go.
J'imagine que ça va plutôt s'orienter vers une LTS, ou un binaire avec des options de compilation spécifiques (vu qu'un des soucis avec le go, c'est de tout faire à la compilation).
Ensuite, il suffit d'aller demander sur https://discourse.gitea.io/t/open-source-sustainment-and-the-future-of-gitea-blog/6136 ou sur matrix.
[^] # Re: "decentralized autonomous organization" ?
Posté par Misc (site web personnel) . En réponse au lien Open source sustainment and the future of Gitea . Évalué à 5.
Donc que je récapitule, les défauts, c'est:
- ça crée trop de partitions, et je cite "ça m'a pas plu"
- c'est dur à virer
Je confirme, je pige toujours pas. Je passe pas mon temps à regarder mount donc le fait de faire des partitions ne me parait pas un souci énorme. Je peux voir comment ça peut faire râler un peu, mais bon, c'est pas comme si c'était pas déjà une cause perdu comme le montre ça sur une Fedora 35:
Alors de ce que j'ai vu, c'est lié à l'usage d'un fichier squashfs. Canonical a commencé à bosser dessus, et ça semble aller mieux.
Mais vraiment, ça n'a pas l'air de justifier des propos comme ce que j'ai pu lire, surtout si c'est juste au lancement.
[^] # Re: "decentralized autonomous organization" ?
Posté par Misc (site web personnel) . En réponse au lien Open source sustainment and the future of Gitea . Évalué à 7.
C'est marrant, parce que les commentaires sur HN parlent aussi de ce point. Je sais pas si DAO implique un truc basé sur une blockchain, ou si c'est juste un terme générique.
Ensuite, dans le cas de Mozilla, j'ai quand même le sentiment qu'il y a beaucoup de critiques qui sont vachement virulente sans que ça soit justifié. Quand ça arrive, j'ai le sentiment qu'il y a eu des disputes passés et qu'une partie des personnes impliqués n'a juste pas digéré.
Et j'ai le sentiment que c'est pareil pour Canonical (j'ai vu des gens être assez ordurier vis à vis de snap, mais personne explique vraiment le souci, à part "c'est différent, et je pige pas"). J'ai pas le sentiment que c'est le fait d'avoir snap par défaut, ou les qualités de snap, mais plus divers décisions prises par le passé (du style communication de Canonical et de Mark Shuttleworth, la dissolution du community council, ou ce genre de chose).
Je suis du coup pas super convaincu des exemples, même si de toute façon, le financement des gens dans le libre, ça va toujours être tendu vu que personne ne veut vraiment payer le tarif des devs.
Et une entreprise, c'est pratique, ça n'a pas de visage, donc on peut se laisser aller et râler dessus en oubliant qu'il y a des humains derriére. C'est largement socialement moins admis d'aller râler sur un projet de bénévoles, sauf si il est suffisamment gros pour être "déshumaniser" (wikipedia est l'exemple qui me vient à l'esprit, pour tout un tas de raisons)
Donc il y a peut être aussi un effet à ce niveau.
[^] # Re: Mouais
Posté par Misc (site web personnel) . En réponse au lien Google a empoisonné la communauté scientifique, qui amplifie maintenant sa désinformation. Évalué à 4.
Au contraire du vidéaste qui prends les titres et les résumés pour qualifier de désinformation :p ?
Alors certes, je pourrais sans doute faire un commentaire encore plus long (voir le publier en 2 volumes), mais je pense que le coté sensationnaliste comme "une des plus grave désinformation", "grave menace", etc fait que je vais me retrouver aphone si je doit revoir la vidéo.
Si par pousser des initiatives, tu veux dire payer des gens pour faire des recherches pour leurs propres besoins, y a rien de nouveau.
La comparaison avec le tabac me parait trompeuse car dans le cas de Google et de l'informatique, c'est des nouveaux algos qui sont mis en place (exemple, des outils comme GPT-3), alors que les recherches de l'industrie du tabac était la pour nier les problèmes.
Depuis toujours, Google se donne une image de groupes de scientifique qui bossent sur des trucs cools. Les projets Moonshot, l'origine de la boite, le coté cool et fun, la proximité avec les universités de la cote Ouest, etc. Ils font une tonne de trucs et de publication, cf https://research.google/pubs/
Et quand tu postules chez eux, on te recommande de lire un certain nombre de papiers pour te mettre à niveau.
Donc bon, l'implication de Google avec le monde scientifique est la depuis l'origine de la boite.
Mais encore une fois, un souci fondamental, c'est qu'on a pris des statistiques, et on a appelé ça "Machine learning", suivi de "IA" (même si on dit "apprentissage statistique" en bon français).
N'importe qui va comprendre que des statistiques, ça peut faire fuiter des données. Si tu fais un sondage dans ton entreprise avec des données comme "votre poste, votre bureau", je pense qu'une majorité va se poser des questions sur la taille des groupes, car on a une idée de ce qui se passe.
Dans le cas de Google, c'est vendu comme magique et super avancée, comme une boite noire ou y a pas besoin de réfléchir, et c'est en effet un souci.
Mais encore une fois, je pense que pour les scientifiques, on est plus dans un exemple de ce xkcd ou celui la que dans une opération d'empoisonnement de la science.
On peut remettre en cause leur marketing, ce qui est fait dans la vidéo en pointant sur les communiqués de presse, mais ça reste toujours une simplification qui va dans le sens de Google. Car en les rendant les seuls responsables, on va aussi aller dans le sens de la stratégie de Google visant à se positionner comme des experts techniques plus avancés que tout le reste du monde.
[^] # Re: Mouais
Posté par Misc (site web personnel) . En réponse au lien Google a empoisonné la communauté scientifique, qui amplifie maintenant sa désinformation. Évalué à 6.
Dans le cas de l'approche distribué, ce qu'on cherche à éviter, c'est un accès direct aux données par un presta. Je suis un hopital, je veux faire des stats, mais j'ai pas de sous pour avoir un DC dans la cave. Avec les méthodes de Privacy Preserving trucmuche, je peux faire les calculs ailleurs sans que le presta est un accès direct des données. Ensuite, je suis censé garder mes résultats pour moi.
C'est un souci business pour un vendeur de cloud, car la plupart s'en foutent des données et veulent juste le pognon des clients. Donc si pour avoir la moula, faut dire qu'on ne peut pas regarder par qu'on utilise de la crypto magie, ils vont le faire. Le but est d'avoir une garantie à l'opération pour faire affaire.
Maintenant bien sur, si tu mets les données en clair chez le fournisseur et que tu stockes le modèle en clair la bas, ça sert à rien.
Et pour penser à ça, faut penser d'une part aux questions business des entreprises, des fournisseurs, et se poser la question du contexte, des données, voir remettre une partie de ses convictions en question. Tout un travail qu'on ne fait en général pas, car on a pas le temps, ou pas d'incitation.
La vie privée, c'est comme les licences. Tout le monde dit s'en préoccuper, et en pratique, tout le monde (ou presque) s'en fout, parce que l'impact moyen est proche de zéro.
[^] # Re: Discourse :(
Posté par Misc (site web personnel) . En réponse au journal La communauté GNOME remplace ses mailing lists par Discourse. Évalué à 9.
Ensuite, rien n’empêche d'avoir une recherche globale dans un serveur de listes. Hyperkitty et Mailman 3 sont un exemple de ce qui est possible.
Le vrai souci, c'est que Discourse a une boite derriére et de la maintenance et des features, alors que la stack Mailman 3 non.
Mais je pense qu'on survends les bénéfices de Discourse pour faire venir du monde. J'apprécie de pouvoir lacher des commentaires rapidement pour certains projets, mais ç'est pas non plus un trafic de folie. Et je pense que pour des listes avec un trafic élevé, c'est un peu mort (pas de thread, par exemple). Ou simplement quand tu as beaucoup de listes, vu que tu va avoir 1 topic qui va dominer les autres sur la page principale. Avoir 75 catégories, ça va commencer à rendre l'interface inutilisable (v que ça utilise des couleurs, et je suis pas sur que j'arrive à distinguer rapidement 75 couleurs).
Le mode mailling list a aussi pas mal de limitation intrinsèque (par exemple, tu n'as pas de mode "aucune archive" par définition).
Du coup, discourse est bien pour le support, les discussions entre utilisateurs ou pour des groupes de taille assez raisonnables (genre moins de 100/500 personnes actives). Je pense que c'est autre chose pour les discussions complexes, la revue de patch, ou des workflows spécialisés (recevoir tout les commits, par exemple), ou des groupes conséquents (comprendre > 100 à 500 personnes). Sans doute une des raisons pour Rust d'avoir plusieurs instances de discourse (eg https://users.rust-lang.org/ et https://internals.rust-lang.org/ , suivant la traditionnelle dichotomie "dev/users"), en plus d'avoir aussi des discussions sur github (eg, directement sur les patchs, et les bugs, et pas sur discourse pour ça).
# Mouais
Posté par Misc (site web personnel) . En réponse au lien Google a empoisonné la communauté scientifique, qui amplifie maintenant sa désinformation. Évalué à 5.
Je trouve le raccourci "IA == desinformation" du début, un peu facile et trompeur.
C'est pas tant l'IA le souci que le fait qu'on a donné l'accès pas cher pour communiquer avec le grand public, avec la possibilité pour le public de participer et rendre viral des contenus, avec la machinerie pour optimiser ça. Je ne dit pas que l'époque de l'ORTF était mieux, mais le cœur du problème, c'est aussi ça.
Et d'ailleurs, appeler ça IA, ça fait aussi appel à un imaginaire visant à tromper. Dans le cas des recherches sur le sujet, c'est faire croire que des algos de recommandation sont plus avancés qu'on le croit et qu'ils vont faire des miracles (donc obtenir des fonds pour la recherche ou pour sa boite). Et dans le cas des personnes contre l'IA, c'est aussi faire appel à un imaginaire bien spécifique (Skynet, HAL, Glados) visant à faire peur en personnifiant un système (ce qui quelque part reprends aussi des thèmes comme le procès de Kafka ou les horreurs de Lovecraft, ou des simples humains sont faces à des horreurs cosmiques ou une bureaucratie qui les dépassent).
La propagande n'a pas attendu les réseaux sociaux pour justifier des génocides, mais en permettant une communication plus facile et moins cher, une des promesses techno-libertaires de l'internet dans les années 90, on a aussi permis de faciliter la propagande.
C'est aussi ignoré les raisons sociales d'un génocide, et finalement, pointer les industries de la silicon valley, c'est aussi un moyen de trouver un méchant facile qui va absoudre les autres acteurs, et passer sous silence les raisons historiques et la politique locale. Y a un petit coté impérialisme culturel, dans le sens ou le méchant tout trouvé, c'est forcément l'Autre.
Ensuite, je ne dit pas que Google/FB ne sont pas responsable (surtout pour le manque de modération dans une langue locale pour FB), mais dire "alors, y a un article spécialisé, mais si il est lu par des gens qui connaissent pas le domaine, ils vont mal comprendre", c'est un chouia faible (minute 12, pour reference). Pareil, minute 26, il dit "mais les gens lisent pas les articles, juste le titre", sans remettre en cause ni le fait que 1) les papiers sont parfois abscons 2) les papiers sont souvent payant et cher 3) qu'il y a les mêmes mécanismes pour la presse en ligne que pour les journaux scientifiques (eg, faut un titre accrocheur).
Mais bon, vu le titre de la vidéo (avec quand même une accusation forte visant à susciter l'émotion et la viralité, vu que la vidéo arrive sur Linuxfr), je suppose qu'on est pas tant dans la communication impartial.
Ce qui me rappelle le livre du moment pour le club de lecture du boulot (Data Feminism), qui dit des choses vraies, qui pointe des vraies soucis et qui est intéressant, mais qui me fait assez hurlé de part sa structure.
Par exemple et pour le moment (vu qu'on lit 1 chapitre par semaine, j'ai lu que les 3 premiers), chaque chapitre commence par un exemple qui implique des trucs graves (ch 1: la mortalité des femmes noires à l'accouchement, ch 2: les endroits ou les gosses noires se font écraser à Détroit en 1971, ch 3: le massacre de Sandy Hook), avec le but de susciter une émotion, ce qui rentre pour moi dans la catégorie manipulation émotionnelle. Non pas qu'on ne doivent pas parler de ses exemples, mais quand c'est dans la structure du livre et que c'est pas exactement le cœur du sujet (qui est quand même sur les statistiques), ça me parait curieux (surtout quand le chapitre 3 dit clairement "il faut susciter de l'émotion", mais curieusement sans pointer sur les recherches de Facebook/Meta de 2014, et la réaction à la publication.
Le livre date d'avant la mort de Georges Floyd donc on peut excuser le fait de ne pas avoir garder ça en tête, mais je pense que les critiques des afro-féministes sur la commodification des morts de personnes noirs sont aussi à envisager sur ces débuts de chapitres (en plus de la question de la manipulation émotionnelle en général).
De même, ce qui me fait hurler, c'est à quel point le livre s'approche d'une autocritique du domaine, mais sans vraiment aller au fond des choses. Par exemple, chapitre 2, à aucun moment ça évoque l'idée même de régulation étatique, ou alors seulement dans le sens ou la régulation va créer plus de travail pour le domaine des data sciences (eg, des audits, des publications de données). Comme l'a fait remarqué Alex Stamos (je crois, je retrouve pas le lien), ç'est un peu un conflit d’intérêt.
L'exemple fin du chapitre 3 avec les nations autochtones, ç'est présenté comme une pratique nouvelle et progressiste, alors que c'est simplement le fonctionnement du copyright (mais ça sonne moins bien comme posture).
Point bonus ce bout du chapitre 3 viole sans doute sa propre licence (le livre est en CC-BY), mais je suppose que tout le monde s'en fout )
Donc je pense qu'il est bon de garder un sens critique y compris sur les gens qui poussent à la critique.
(et j'accuse pas El Titi, je me suis aussi fait avoir avec l'histoire de Xcheck/Meta/Facebook et The wire il n'y a pas longtemps, donc ça arrive clairement aux meilleurs)
[^] # Re: Reprise en main par les autorités
Posté par Misc (site web personnel) . En réponse au lien Censure sur la chaîne ethereum. Évalué à 10.
C'est aussi la preuve que les promesses des cryptomonnaies sont un peu foireuse, car la seule raison qui fait que ça marche, ç'est la centralisation sur quelques plateformes d'échanges, et le fait que les cryptomonnaies n'ont de valeur que si ça passe par les monnaies classiques.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 5.
J'ai vu ça, oui. Un grand groupe industriel qui a viré ses prestas du jour au lendemain lors du confinement, par exemple :)
Ouais enfin, y a 2 façon d'avoir moins de risques. On teste tout, ou on change rien. Et je pense que la, c'était "on change rien, et on diffuse le risque sur les prestas".
Ensuite, je ne sais pas en effet quel applis étaient déployés. Mais j'imagine qu'entre mettre les ressources pour soutenir les équipes internes (quant, datascientist, etc) qui sont captifs, mais peuvent te crier dessus, et celles pour les clients qui sont plus ou moins captif (car changer de banque, quand tu as un prêt, etc, ça parait assez disruptif), mais qui peuvent pas te râler dessus, le choix est assez vite fait.
En terme de support client, ou du moins, la banque en bas de mon nouveau chez moi (et pas la banque de la ou j'ai grandit).
Parfait, je rajoute à la liste des banques à éviter.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 6.
Stricto sensu, je pense que l'informatique a été la première industrie à s'informatiser :)
Ce que j'ai vu en sortant avec quelqu'un qui bossait pour le service info d'une grande banque française, c'est aussi la culture de la sous traitance dans ce domaine, ce qui implique aussi fort peu de motivation pour améliorer les processus. On a du annuler plusieurs soirées parce qu'il fallait mettre en prod quelque chose à minuit, et ça implique 4 à 5 personnes différentes (avec 4 ou 5 en backup).
Donc la, c'était pas une question de cobol (vu que les trucs étaient en java), mais plus du fait que les gens faisant le taf n'avaient pas la motivation pour automatiser (et se retrouver au chomage), et la direction n'avait pas forcément les compétences pour ça (en cause et conséquence de sa structure sous traitante).
Et bien sur, comme tu le dit, une culture d'évitement du risque.
Adrien Blind a pendant un temps fait le tour du circuit des conférences pour parler de Docker et de La Société Générale, et comment il a convaincu la hierarchie de tester quelque chose, mais ça m'a l'air d'être plus une exception qu'autre chose.
Et on m'a dit assez du mal de la Societe Generale pour que j'évite.
[^] # Re: Plus
Posté par Misc (site web personnel) . En réponse au lien Que pensez-vous du nouveau bouton dans Firefox 106 ?. Évalué à 5.
Je synchronise les onglets, mais ça n'a pas l'air de marcher sur le firefox nightly dans flatpak que j'ai.
J'imagine que je pourrais m'en servir pour reprendre les onglets de mon téléphone plus facilement, oui.
Mais l'ancienne façon (via le menu hamburger de droite) était ok aussi pour moi.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 7.
Ils ont refait le site web il y a quelque mois. Le fait que ça ne fasse aucun sens d'avoir ce bouton ici pour dire "ça ne marche pas", et le fait que ça surprenne tout le monde, les conseillers clientèles en premier lieu, me laisse croire que ç'est un état temporaire.
Ensuite, est ce qu'ils ont un backlog gigantesque, je ne sais pas, mais peut être. L'informatique dans le monde banquaire, c'est un peu dans le passé de ce que j'ai compris (cf de ce que j'ai vu en sortant avec quelqu'un au service info d'une grande banque dont j'ai oublié le nom).
Et j'ai eu à faire changer ce plafond 2 fois dans ma vie depuis que j'ai ce compte, je pense que je peux le supporter en pratique.
Quand à changer, le risque est surtout de tomber sur le même genre de branquignoles ailleurs, car c'est structurel pour les banques de détails.
[^] # Re: lineageOS
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 8.
Un truc à faire, c'est d'appeler la banque pour dire que ça marche pas (quitte à passer pour un neuneu, c'est d'autant plus drôle). Tant que ça leur coûte rien, ils s'en foutent. Une fois que ça commence à faire des tickets, je suis sur qu’après une certaine somme, ils vont se pencher sur ça.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 5.
Oui, mais ça coûte 10€.
Et je viens de revérifier, c'est toujours pas disponible sur le site web. C'est quand même formidable que la banque me fasse payer le droit de dépenser mon argent plus vite, une restriction qui a été mise en place par eux mêmes.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 5.
Augmenter le plafond de la carte ne passe pas sur le site web (mais il y a un bouton qui te dit d'utiliser l'appli), ou du moins, ne passe pas chez moi, et j'ai pas testé depuis 1 mois.
Visiblement, les gens en agence n'étaient pas au courant.
[^] # Re: Un souci pour qui ?
Posté par Misc (site web personnel) . En réponse au journal Tout le monde (ou plutôt, trop de gens) semble se foutre des licences en 2022. Évalué à 6.
Red Hat a mis gcc 2.96 dans RHL à l'époque, et ça a cassé des choses (car c'était vraiment un gcc 3), et les devs du libre de l'époque ont ralés (et par exemple, mplayer avait un warning pendant super longtemps sur le sujet).
Mais toi, c'est une incertitude quand tu écris du code, pas quand tu utilises.
Mais oui, l'incertitude juridique est une histoire du passé, et il est bien que ça le reste, AMHA.
J'ai le sentiment qu'il y a beaucoup d'hubris à ce niveau. Se dire que son logiciel est tellement bien qu'un grand nom va l'opérationnaliser et se faire une tonne d'argent, c'est pas ce qu'on voit.
Les gens citent par exemple Elasticsearch, mais il faut bien voir que la companie est profitable, et y a 3000 employés en 2022. C'est pas exactement une PME qui se bat contre des géants du net. C'est plus un futur géant qui veut grandir sous la pression de ses investisseurs. Pareil pour Mongodb, il y a 3500 personnes dans la boite.
C'est pas la peur que des géants du net les foutent au chômage le souci. C'est la peur de ne pas grandir autant que promis aux investisseurs.
C'est exactement ce que Stephen O'Grady explique dans un article récent.
[^] # Re: Précédemment sur Linuxfr
Posté par Misc (site web personnel) . En réponse au lien Matthew Butterick veut poursuivre GitHub Copilot en justice. Évalué à 6.
C'est marrant, parce que mon chef m'a parlé il y a 2h de CodeGen, donc on a regardé le corpus.
Donc il y a des modèles entraînés sur les dépôts Github avec plus de 100 étoiles, sur les réponses Stackoverflow et sur les descriptions des brevets aux USA. Et point bonus, les emails de l'affaire Enron.
[^] # Re: ton PS
Posté par Misc (site web personnel) . En réponse au journal Recherche hébergeur pour gemini/web et mailing-list. Évalué à 4.
Je pense que tu as bien fait de proposer ça. Ensuite, il a dit qu'il souhaite payer, mais je suppose qu'il y a des limites à ce niveau.
Alors je pense qu'il veut que quelqu'un se charge des trucs sous-jacent tout en ayant la liberté la ou ça semble lui important.
Je vois 3 parts à sa requête pour le site:
- l'hébergement de fichier statique en http(s)
- la partie création du site
- l'hébergement gemini
Commençons par le dernier. C'est un peu mort niveau contrat commercial à mon avis. Mais c'est aussi une variation de la première partie.
Pour la partie hébergement statique, c'est largement standard. Il y a des tonnes de choix ou tu peux envoyer par ftp, sftp ou rsync.
La ou le bât blesse, c'est sur le 2ême point, car c'est exactement ce que tu pointes, à savoir un système de build qu'on suppose maison et qui requiert d'avoir python sur le serveur et ssh. Je peux pas trop supposer le pourquoi de toute ça, mais j'ai le sentiment que c'est pour construire sur place le code HTML.
Donc c'est pas tant la recherche du hosting que la recherche d'un système de compilation du site statique, potentiellement non standard (quoi que ça puisse vouloir dire).
Ce que je ne comprends pas, c'est pourquoi les 2 ne sont pas découplés.
Ce que Ploum dit vouloir, c'est ne pas faire l’hébergement de service. Mais du coup, ça requiert juste d'avoir quelque chose d'assez souple pour construire le site, mais pas assez souple pour heberger un service.
En fait, ce qu'il lui faudrait, c'est un shell. Quelqu'un s'occupe de l'uptime du serveur sans lui donner un compte root, avec le site http chez un hébergeur commercial (car c'est la qu'il y a du monde, cf la motivation pour le coté commercial), et une capsule gemini quelque part sans doute non commercial.
Du coup, je pense que regarder du coté du tildeverse est un bout de solution: https://tildeverse.org/
[^] # Re: Go et Rust
Posté par Misc (site web personnel) . En réponse au journal KataOS, un OS sécurisé basé sur SeL4 écrit en Rust ... par Google. Évalué à 3.
Ensuite, c'est "hello world". C'est important de voir à quel point tu peux optimiser bien sur, mais il faut aussi voir avec des cas plus réalistes, ou tu va devoir de toute façon rajouter des libs et ou l'écart va se réduire.
Et même si je comprends l'argument de gagner autant que possible des ressources, il y a aussi des limites à ça.
Si je cible, par exemple, un ESP32 avec 4M de flash, j'ai pas besoin de pinailler sur les Ko, ni même sur 1 Mo suivant ce que je vais faire.
Je suis sur que si j'ai assez de ressources, je peux trouver des ESP32 avec 2M de flash et sans doute faire des économies à ce niveau. Mais peut être que j'aurais ni le volume, ni le temps pour ça. C'est cool d'avoir un programme qui fait que 512 Ko au lieu d'un qui fait 1.5 Mo, mais si au final, ça me coûte pareil en hardware parce qu'on trouve pas de plateforme sur le marché avec moins de 2 Mo, ça réduit pas mal l'attrait à priori.
Curieusement, je trouve que ça a plus d'importance sur les serveurs et le cloud, vu que les ressources sont plus souvent partagés avec plus de granularité (eg, il y a autre chose que des cases ou on passe de X à 2X), mais à une autre échelle (dans le sens ou on se préoccupe pas des soucis à l'échelle du Mo).
# Go et Rust
Posté par Misc (site web personnel) . En réponse au journal KataOS, un OS sécurisé basé sur SeL4 écrit en Rust ... par Google. Évalué à 7.
Bien que tu puisses faire du Go pour de l'embarqué et des MCU, fondamentalement, ça n'est pas le plus adapté. Par exemple, Go utilise un garbage collector (même si il vient sans VM, contrairement à Java), ce qui le rends moins prévisible au niveau de la gestion mémoire (vu que, sauf erreur de ma part, c'est fait via un thread séparé).
Rust est un peu plus bas niveau dans le sens ou la gestion de la mémoire est fait via le language (le borrow checker, les scopes, etc), via des mécanismes plus proches du C, alors que Go semble approcher ça par l'approche plus haut niveau (eg, comme Java, python).
Cela implique en effet différents choix de design.
Mais bon, faut pas croire que les ingés de Google sont forcés de faire de la recherche en utilisant les logiciels écrits par d'autres ingés. C'est une vision assez tribale d'une entreprise qui ne correspond pas à la réalité.