En digressant, il semble que l'approche distribuée ne serait
intrinsèquement guère plus protectrice.
Dans le cas de l'approche distribué, ce qu'on cherche à éviter, c'est un accès direct aux données par un presta. Je suis un hopital, je veux faire des stats, mais j'ai pas de sous pour avoir un DC dans la cave. Avec les méthodes de Privacy Preserving trucmuche, je peux faire les calculs ailleurs sans que le presta est un accès direct des données. Ensuite, je suis censé garder mes résultats pour moi.
C'est un souci business pour un vendeur de cloud, car la plupart s'en foutent des données et veulent juste le pognon des clients. Donc si pour avoir la moula, faut dire qu'on ne peut pas regarder par qu'on utilise de la crypto magie, ils vont le faire. Le but est d'avoir une garantie à l'opération pour faire affaire.
Maintenant bien sur, si tu mets les données en clair chez le fournisseur et que tu stockes le modèle en clair la bas, ça sert à rien.
Et pour penser à ça, faut penser d'une part aux questions business des entreprises, des fournisseurs, et se poser la question du contexte, des données, voir remettre une partie de ses convictions en question. Tout un travail qu'on ne fait en général pas, car on a pas le temps, ou pas d'incitation.
La vie privée, c'est comme les licences. Tout le monde dit s'en préoccuper, et en pratique, tout le monde (ou presque) s'en fout, parce que l'impact moyen est proche de zéro.
Ensuite, rien n’empêche d'avoir une recherche globale dans un serveur de listes. Hyperkitty et Mailman 3 sont un exemple de ce qui est possible.
Le vrai souci, c'est que Discourse a une boite derriére et de la maintenance et des features, alors que la stack Mailman 3 non.
Mais je pense qu'on survends les bénéfices de Discourse pour faire venir du monde. J'apprécie de pouvoir lacher des commentaires rapidement pour certains projets, mais ç'est pas non plus un trafic de folie. Et je pense que pour des listes avec un trafic élevé, c'est un peu mort (pas de thread, par exemple). Ou simplement quand tu as beaucoup de listes, vu que tu va avoir 1 topic qui va dominer les autres sur la page principale. Avoir 75 catégories, ça va commencer à rendre l'interface inutilisable (v que ça utilise des couleurs, et je suis pas sur que j'arrive à distinguer rapidement 75 couleurs).
Le mode mailling list a aussi pas mal de limitation intrinsèque (par exemple, tu n'as pas de mode "aucune archive" par définition).
Du coup, discourse est bien pour le support, les discussions entre utilisateurs ou pour des groupes de taille assez raisonnables (genre moins de 100/500 personnes actives). Je pense que c'est autre chose pour les discussions complexes, la revue de patch, ou des workflows spécialisés (recevoir tout les commits, par exemple), ou des groupes conséquents (comprendre > 100 à 500 personnes). Sans doute une des raisons pour Rust d'avoir plusieurs instances de discourse (eg https://users.rust-lang.org/ et https://internals.rust-lang.org/ , suivant la traditionnelle dichotomie "dev/users"), en plus d'avoir aussi des discussions sur github (eg, directement sur les patchs, et les bugs, et pas sur discourse pour ça).
Je trouve le raccourci "IA == desinformation" du début, un peu facile et trompeur.
C'est pas tant l'IA le souci que le fait qu'on a donné l'accès pas cher pour communiquer avec le grand public, avec la possibilité pour le public de participer et rendre viral des contenus, avec la machinerie pour optimiser ça. Je ne dit pas que l'époque de l'ORTF était mieux, mais le cœur du problème, c'est aussi ça.
Et d'ailleurs, appeler ça IA, ça fait aussi appel à un imaginaire visant à tromper. Dans le cas des recherches sur le sujet, c'est faire croire que des algos de recommandation sont plus avancés qu'on le croit et qu'ils vont faire des miracles (donc obtenir des fonds pour la recherche ou pour sa boite). Et dans le cas des personnes contre l'IA, c'est aussi faire appel à un imaginaire bien spécifique (Skynet, HAL, Glados) visant à faire peur en personnifiant un système (ce qui quelque part reprends aussi des thèmes comme le procès de Kafka ou les horreurs de Lovecraft, ou des simples humains sont faces à des horreurs cosmiques ou une bureaucratie qui les dépassent).
La propagande n'a pas attendu les réseaux sociaux pour justifier des génocides, mais en permettant une communication plus facile et moins cher, une des promesses techno-libertaires de l'internet dans les années 90, on a aussi permis de faciliter la propagande.
C'est aussi ignoré les raisons sociales d'un génocide, et finalement, pointer les industries de la silicon valley, c'est aussi un moyen de trouver un méchant facile qui va absoudre les autres acteurs, et passer sous silence les raisons historiques et la politique locale. Y a un petit coté impérialisme culturel, dans le sens ou le méchant tout trouvé, c'est forcément l'Autre.
Ensuite, je ne dit pas que Google/FB ne sont pas responsable (surtout pour le manque de modération dans une langue locale pour FB), mais dire "alors, y a un article spécialisé, mais si il est lu par des gens qui connaissent pas le domaine, ils vont mal comprendre", c'est un chouia faible (minute 12, pour reference). Pareil, minute 26, il dit "mais les gens lisent pas les articles, juste le titre", sans remettre en cause ni le fait que 1) les papiers sont parfois abscons 2) les papiers sont souvent payant et cher 3) qu'il y a les mêmes mécanismes pour la presse en ligne que pour les journaux scientifiques (eg, faut un titre accrocheur).
Mais bon, vu le titre de la vidéo (avec quand même une accusation forte visant à susciter l'émotion et la viralité, vu que la vidéo arrive sur Linuxfr), je suppose qu'on est pas tant dans la communication impartial.
Ce qui me rappelle le livre du moment pour le club de lecture du boulot (Data Feminism), qui dit des choses vraies, qui pointe des vraies soucis et qui est intéressant, mais qui me fait assez hurlé de part sa structure.
Par exemple et pour le moment (vu qu'on lit 1 chapitre par semaine, j'ai lu que les 3 premiers), chaque chapitre commence par un exemple qui implique des trucs graves (ch 1: la mortalité des femmes noires à l'accouchement, ch 2: les endroits ou les gosses noires se font écraser à Détroit en 1971, ch 3: le massacre de Sandy Hook), avec le but de susciter une émotion, ce qui rentre pour moi dans la catégorie manipulation émotionnelle. Non pas qu'on ne doivent pas parler de ses exemples, mais quand c'est dans la structure du livre et que c'est pas exactement le cœur du sujet (qui est quand même sur les statistiques), ça me parait curieux (surtout quand le chapitre 3 dit clairement "il faut susciter de l'émotion", mais curieusement sans pointer sur les recherches de Facebook/Meta de 2014, et la réaction à la publication.
Le livre date d'avant la mort de Georges Floyd donc on peut excuser le fait de ne pas avoir garder ça en tête, mais je pense que les critiques des afro-féministes sur la commodification des morts de personnes noirs sont aussi à envisager sur ces débuts de chapitres (en plus de la question de la manipulation émotionnelle en général).
De même, ce qui me fait hurler, c'est à quel point le livre s'approche d'une autocritique du domaine, mais sans vraiment aller au fond des choses. Par exemple, chapitre 2, à aucun moment ça évoque l'idée même de régulation étatique, ou alors seulement dans le sens ou la régulation va créer plus de travail pour le domaine des data sciences (eg, des audits, des publications de données). Comme l'a fait remarqué Alex Stamos (je crois, je retrouve pas le lien), ç'est un peu un conflit d’intérêt.
L'exemple fin du chapitre 3 avec les nations autochtones, ç'est présenté comme une pratique nouvelle et progressiste, alors que c'est simplement le fonctionnement du copyright (mais ça sonne moins bien comme posture).
Point bonus ce bout du chapitre 3 viole sans doute sa propre licence (le livre est en CC-BY), mais je suppose que tout le monde s'en fout )
Donc je pense qu'il est bon de garder un sens critique y compris sur les gens qui poussent à la critique.
(et j'accuse pas El Titi, je me suis aussi fait avoir avec l'histoire de Xcheck/Meta/Facebook et The wire il n'y a pas longtemps, donc ça arrive clairement aux meilleurs)
C'est aussi la preuve que les promesses des cryptomonnaies sont un peu foireuse, car la seule raison qui fait que ça marche, ç'est la centralisation sur quelques plateformes d'échanges, et le fait que les cryptomonnaies n'ont de valeur que si ça passe par les monnaies classiques.
Heu… dans une des boîtes où j’ai bossé, ce sont les
prestataires qui sont les plus motivés. Les internes, à
quelques exceptions prêt sont plus en mode planque qu’autre
chose
J'ai vu ça, oui. Un grand groupe industriel qui a viré ses prestas du jour au lendemain lors du confinement, par exemple :)
Qui est absolument indispensable
Ouais enfin, y a 2 façon d'avoir moins de risques. On teste tout, ou on change rien. Et je pense que la, c'était "on change rien, et on diffuse le risque sur les prestas".
Ensuite, je ne sais pas en effet quel applis étaient déployés. Mais j'imagine qu'entre mettre les ressources pour soutenir les équipes internes (quant, datascientist, etc) qui sont captifs, mais peuvent te crier dessus, et celles pour les clients qui sont plus ou moins captif (car changer de banque, quand tu as un prêt, etc, ça parait assez disruptif), mais qui peuvent pas te râler dessus, le choix est assez vite fait.
En terme technique ou en terme de management ?
En terme de support client, ou du moins, la banque en bas de mon nouveau chez moi (et pas la banque de la ou j'ai grandit).
Crédit Mutuel est bien pourri de ce point de vue (il y a eu 1
suicide à EID et 1 autre au siège à Strasbourg, mes échos sur
Paris sont pas fun non plus, Blast est en train de sortir une
enquête sur la partie presse du groupe).
Parfait, je rajoute à la liste des banques à éviter.
Les banques ont été les premières industries à s'informatiser
Stricto sensu, je pense que l'informatique a été la première industrie à s'informatiser :)
Sans compter des raisons structurelles : difficultés à recruter
de bons informaticiens pour du Cobol, domaine qui a ces
spécificités et qui demande une expertise métier pointue, etc
Ce que j'ai vu en sortant avec quelqu'un qui bossait pour le service info d'une grande banque française, c'est aussi la culture de la sous traitance dans ce domaine, ce qui implique aussi fort peu de motivation pour améliorer les processus. On a du annuler plusieurs soirées parce qu'il fallait mettre en prod quelque chose à minuit, et ça implique 4 à 5 personnes différentes (avec 4 ou 5 en backup).
Donc la, c'était pas une question de cobol (vu que les trucs étaient en java), mais plus du fait que les gens faisant le taf n'avaient pas la motivation pour automatiser (et se retrouver au chomage), et la direction n'avait pas forcément les compétences pour ça (en cause et conséquence de sa structure sous traitante).
Et bien sur, comme tu le dit, une culture d'évitement du risque.
Adrien Blind a pendant un temps fait le tour du circuit des conférences pour parler de Docker et de La Société Générale, et comment il a convaincu la hierarchie de tester quelque chose, mais ça m'a l'air d'être plus une exception qu'autre chose.
Et on m'a dit assez du mal de la Societe Generale pour que j'évite.
Perso ce que je trouve formidable c'est qu'une entreprise peut
se foutre autant des clients sans que ceux-ci pensent à se
barrer (et il y a mieux ailleurs pour sûr, perso ca fait 15 ans
que je modifie le plafond en ligne). Pourquoi se faisaient-ils
chier à faire plus?
Ils ont refait le site web il y a quelque mois. Le fait que ça ne fasse aucun sens d'avoir ce bouton ici pour dire "ça ne marche pas", et le fait que ça surprenne tout le monde, les conseillers clientèles en premier lieu, me laisse croire que ç'est un état temporaire.
Ensuite, est ce qu'ils ont un backlog gigantesque, je ne sais pas, mais peut être. L'informatique dans le monde banquaire, c'est un peu dans le passé de ce que j'ai compris (cf de ce que j'ai vu en sortant avec quelqu'un au service info d'une grande banque dont j'ai oublié le nom).
Et j'ai eu à faire changer ce plafond 2 fois dans ma vie depuis que j'ai ce compte, je pense que je peux le supporter en pratique.
Quand à changer, le risque est surtout de tomber sur le même genre de branquignoles ailleurs, car c'est structurel pour les banques de détails.
Un truc à faire, c'est d'appeler la banque pour dire que ça marche pas (quitte à passer pour un neuneu, c'est d'autant plus drôle). Tant que ça leur coûte rien, ils s'en foutent. Une fois que ça commence à faire des tickets, je suis sur qu’après une certaine somme, ils vont se pencher sur ça.
Et je viens de revérifier, c'est toujours pas disponible sur le site web. C'est quand même formidable que la banque me fasse payer le droit de dépenser mon argent plus vite, une restriction qui a été mise en place par eux mêmes.
Je n'utilise pas de smartphone actuellement, il n'y a pas
d'opération bancaire que je ne puisse pas faire sans l'appli
(Caisse d'Épargne).
Augmenter le plafond de la carte ne passe pas sur le site web (mais il y a un bouton qui te dit d'utiliser l'appli), ou du moins, ne passe pas chez moi, et j'ai pas testé depuis 1 mois.
Visiblement, les gens en agence n'étaient pas au courant.
Ceci dit, je ne me rappelle certainement pas de gcc 2.96 et je
peux donc être à côté de la plaque ici,
Red Hat a mis gcc 2.96 dans RHL à l'époque, et ça a cassé des choses (car c'était vraiment un gcc 3), et les devs du libre de l'époque ont ralés (et par exemple, mplayer avait un warning pendant super longtemps sur le sujet).
mais dans mon propre environnement professionnel, le problème
du libre c'est pas son incertitude juridique, c'est son
incertitude économique : "on va pas laisser les concurrents
piquer notre taf".
Mais toi, c'est une incertitude quand tu écris du code, pas quand tu utilises.
Mais oui, l'incertitude juridique est une histoire du passé, et il est bien que ça le reste, AMHA.
Et il me semble que c'est le même souci qu'ont les développeurs
comme celui de Bookwyrm qui redoutent de se voir spoliés par
les tout-puissants.
J'ai le sentiment qu'il y a beaucoup d'hubris à ce niveau. Se dire que son logiciel est tellement bien qu'un grand nom va l'opérationnaliser et se faire une tonne d'argent, c'est pas ce qu'on voit.
Les gens citent par exemple Elasticsearch, mais il faut bien voir que la companie est profitable, et y a 3000 employés en 2022. C'est pas exactement une PME qui se bat contre des géants du net. C'est plus un futur géant qui veut grandir sous la pression de ses investisseurs. Pareil pour Mongodb, il y a 3500 personnes dans la boite.
C'est pas la peur que des géants du net les foutent au chômage le souci. C'est la peur de ne pas grandir autant que promis aux investisseurs.
C'est exactement ce que Stephen O'Grady explique dans un article récent.
C'est marrant, parce que mon chef m'a parlé il y a 2h de CodeGen, donc on a regardé le corpus.
Donc il y a des modèles entraînés sur les dépôts Github avec plus de 100 étoiles, sur les réponses Stackoverflow et sur les descriptions des brevets aux USA. Et point bonus, les emails de l'affaire Enron.
Note que si j'ai évoqué le nuage, c'est justement parce que
ploom énonce que le prix n'est pas fondamentalement un
problème.
Je pense que tu as bien fait de proposer ça. Ensuite, il a dit qu'il souhaite payer, mais je suppose qu'il y a des limites à ce niveau.
De toute façon son postulat de départ est entièrement foireux.
Il veut du entièrement géré par un tierce partie en ayant tout
contrôle sur l'architecture
Alors je pense qu'il veut que quelqu'un se charge des trucs sous-jacent tout en ayant la liberté la ou ça semble lui important.
Je vois 3 parts à sa requête pour le site:
- l'hébergement de fichier statique en http(s)
- la partie création du site
- l'hébergement gemini
Commençons par le dernier. C'est un peu mort niveau contrat commercial à mon avis. Mais c'est aussi une variation de la première partie.
Pour la partie hébergement statique, c'est largement standard. Il y a des tonnes de choix ou tu peux envoyer par ftp, sftp ou rsync.
La ou le bât blesse, c'est sur le 2ême point, car c'est exactement ce que tu pointes, à savoir un système de build qu'on suppose maison et qui requiert d'avoir python sur le serveur et ssh. Je peux pas trop supposer le pourquoi de toute ça, mais j'ai le sentiment que c'est pour construire sur place le code HTML.
Donc c'est pas tant la recherche du hosting que la recherche d'un système de compilation du site statique, potentiellement non standard (quoi que ça puisse vouloir dire).
Ce que je ne comprends pas, c'est pourquoi les 2 ne sont pas découplés.
Ce que Ploum dit vouloir, c'est ne pas faire l’hébergement de service. Mais du coup, ça requiert juste d'avoir quelque chose d'assez souple pour construire le site, mais pas assez souple pour heberger un service.
En fait, ce qu'il lui faudrait, c'est un shell. Quelqu'un s'occupe de l'uptime du serveur sans lui donner un compte root, avec le site http chez un hébergeur commercial (car c'est la qu'il y a du monde, cf la motivation pour le coté commercial), et une capsule gemini quelque part sans doute non commercial.
Du coup, je pense que regarder du coté du tildeverse est un bout de solution: https://tildeverse.org/
Ensuite, c'est "hello world". C'est important de voir à quel point tu peux optimiser bien sur, mais il faut aussi voir avec des cas plus réalistes, ou tu va devoir de toute façon rajouter des libs et ou l'écart va se réduire.
Et même si je comprends l'argument de gagner autant que possible des ressources, il y a aussi des limites à ça.
Si je cible, par exemple, un ESP32 avec 4M de flash, j'ai pas besoin de pinailler sur les Ko, ni même sur 1 Mo suivant ce que je vais faire.
Je suis sur que si j'ai assez de ressources, je peux trouver des ESP32 avec 2M de flash et sans doute faire des économies à ce niveau. Mais peut être que j'aurais ni le volume, ni le temps pour ça. C'est cool d'avoir un programme qui fait que 512 Ko au lieu d'un qui fait 1.5 Mo, mais si au final, ça me coûte pareil en hardware parce qu'on trouve pas de plateforme sur le marché avec moins de 2 Mo, ça réduit pas mal l'attrait à priori.
Curieusement, je trouve que ça a plus d'importance sur les serveurs et le cloud, vu que les ressources sont plus souvent partagés avec plus de granularité (eg, il y a autre chose que des cases ou on passe de X à 2X), mais à une autre échelle (dans le sens ou on se préoccupe pas des soucis à l'échelle du Mo).
Je suis étonné de voir Google promouvoir le Rust au détriment
du Go. Il faut croire que ces deux langages ne ciblent pas tout
à fait les même marchés.
Bien que tu puisses faire du Go pour de l'embarqué et des MCU, fondamentalement, ça n'est pas le plus adapté. Par exemple, Go utilise un garbage collector (même si il vient sans VM, contrairement à Java), ce qui le rends moins prévisible au niveau de la gestion mémoire (vu que, sauf erreur de ma part, c'est fait via un thread séparé).
Rust est un peu plus bas niveau dans le sens ou la gestion de la mémoire est fait via le language (le borrow checker, les scopes, etc), via des mécanismes plus proches du C, alors que Go semble approcher ça par l'approche plus haut niveau (eg, comme Java, python).
Cela implique en effet différents choix de design.
Mais bon, faut pas croire que les ingés de Google sont forcés de faire de la recherche en utilisant les logiciels écrits par d'autres ingés. C'est une vision assez tribale d'une entreprise qui ne correspond pas à la réalité.
La, c'est de la R&D (ça sort de Google Research), donc ç'est aussi normal d'essayer des choses, et parfois de les abandonner.
C'est même le propre du logiciel libre que de faire des choses de façon ouverte.
Si ça venait à être présenté comme un produit, ça serait différent, mais je pense pas qu'on puisse blamer Mozilla ou Google pour des logiciels libres mis à disposition, ou du moins, pas autant que pour l'abandon de Stadia, Wave ou d'autres produits mis en avant en grande pompe.
Netlify a un niveau "gratuit pour le moment", et j'ai des doutes (sans doute non fondé) que ça continue tel quel sur le long terme. Sinon, c'est "19$ par mois".
Je ne voulais pas d'une offre gratuite, mais 19$ par mois m'a paru cher pour un simple site. C'est pareil pour Vercel, ou Cloudflare (et Cloudflare était déjà "niet" avant l'appel à boycott récent, et continue à l'être pour les mêmes raisons qu'avant)
Je comprends bien que la facturation n'est pas gratuite pour des startups comme Netlify ou Vercel, mais du coup, on est obligé de passer par des gros acteurs (ovh, aws) qui ont tellement de client que le cout marginal est proche de 0.
J'avais aussi regardé Digital Ocean, via leur produit Space, mais c'était impossible d'exposer ça directement en https comme AWS S3.
Et on m'a aussi parlé de l'offre de Scaleway basé sur knative, mais c'était pas dispo à l'époque.
Alors en dehors du fait que la, ce que Ploum cherche, c'est du hosting gemini (donc exit s3 et co), il y a aussi le fait que Azure et GCP sont vachement cher pour des sites statiques. J'avais fait le tour pour un projet de site statique.
GCP te demande de prendre un load balancer, c'est pas gratuit(tm), cf leur doc. C'est entre 2.5 et 3 centimes de l'heure, soit entre 15 à 21€ du mois. C'est assez non compétitif, parce que tout le reste coûte presque rien (tout le reste, comprendre le stockage, et le trafic qui va avec).
Azure, ça a l'air plus compliqué que ça devrait, si j'en crois un tuto que j'ai lu. La, c'est pas une question de coût, mais de support de let's encrypt (qui semble manquante). Ça a pu changer, ou j'ai pu mal comprendre, mais je sais que c'est pour ça que
Donc à mon grand regret, il n'y avait que AWS et S3 de compétitif, ou en tout cas, quand j'avais regardé, et c'est pour ça que je mets mes sites statiques… chez OVH.
Parce que ça me coûte 3€ par mois, j'ai pas à me faire chier avec les mises à jours des libs et des APIs pour uploader (eg, je fais du sftp).
Car oui, je pense qu'on parle pas assez du fait que le cloud computing, c'est aussi avoir des APIs qui changent de temps en temps, et qui cassent ton automatisation si tu n'est pas suffisament à jour (ce qui du coup n'est pas trop "fire and forget", alors que sftp vers public_html, ça va, ça change pas trop).
Je pense qu'une part utilise atom, vu que dans mon souvenir, il y a une RFC (et je sais que RSS 2.0 a aussi une spec, mais pas aussi classe qu'une RFC).
On devine assez bien l’objectif réactionnaire en sous-texte, et
le complotisme qui essaie vaguement de ne pas s’afficher trop
explicitement.
Je suis pas totalement d'accord, quand le texte dit, je cite:
Oui, cette affirmation est valable pour les 3 totalitarismes dûment identifiés : le communisme, le nazisme et l'hygiénisme (le covidisme n'en est qu'une variante. J'ai tendance à classer l'écologisme comme une variante de l'hygiénisme. On peut en discuter).
ou commence par: J'ai découvert Mattias Desmet, comme Ariane Bilheran, par ses videos sur le délire paranoïaque covidiste.
j'ai le sentiment que le complotisme s'affiche quand même assez explicitement :)
Et bon, ce bout: Oui, la modernité détruit systématiquement tous les liens des hommes : famille, village, nation, religion, culture
ça sonne un peu comme la politique du gouvernement de Vichy pendant l'occupation, la fameuse révolution nationale. On retrouve quand même des relents de la politique de retour à la terre, et des clins d’œil à "travail, famille, patrie", le tout en 1 phrase.
C'est assez ironique quand on connait aussi la biopolitique du régime en question, parfaitement compatible avec celui de l'occupant.
Il faut bien voir que ejabberd est capable d'être distribué sur plusieurs machines, donc un bridge externe n'aurait pas la capacité de faire ça, sauf en dupliquant tout 2 fois dans 2 process séparés.
Ça ne me parait pas une architecture qui permet d'éviter les bugs (surtout que tu rajoute de la complexité en rajoutant un lien entre le serveur xmpp et le serveur matrix), ça serait comme demander à avoir un lecteur de vidéo par codec au nom d'une philosophie KISS :/
Si je me souviens bien, la pref l'a recontacté peu de temps après pour dire que le dossier est passé à la SDANF et qu'elle aura une réponse dans un délai de 6 mois. Donc on verra dans 5 mois ce que ça donne.
Sans doute aucun rapport avec le courrier envoyé avant…
ça m'étonnerait, aujourd'hui les jeux sur cartouches (je crois
qu'il n'en reste que chez Nintendo?)
Fort possible, j'ai pas les autres consoles :)
La durée de vie de ce type de support est peut-être de 10 ou 20
ans, ensuite il est probable qu'on commence à voir des
corruptions sur les cartouches et les cartes SD surtout si
elles ne sont pas utilisées.
La cartouche est sauf erreur de ma part, en lecture seule.
J'ai eu plusieurs fois des cartes SD qui sont tombés en rade sur mes RPi. La faute est sans doute de mon coté à m'en servir comme des disques durs, mais ça m'inspire du coup pas confiance.
Ensuite, c'est clairement une peur qui n'est pas très rationnel, vu que j'ai pas la même peur pour ma liseuse ou mon tel.
Compter sur soi-même pour avoir un plan de backup,
Mon plan sur 20 ans, c'est comme pour les jeux d'il y a 10 à 20 ans, c'est d'avoir des dumps pirates des cartouches si il n'y a pas une offre légal.
Y a pas mal de gens qui prennent des jeux en dématérialisé. Et parfois, tu as pas le choix, que ça soit parce qu'il y a pas de cartouches (sur console), ou parce que la cartouche n'a pas été imprimé à suffisamment d'exemplaire (Xenoblade Chronicles II me vient à l'esprit).
Perso, je prends des cartouches, mais surtout parce que la cartouche me parait plus durable que la carte SD que je vais devoir acheter pour stocker les jeux de 20 gigas qu'on trouve.
Ensuite, je ne sais pas pour les PCs, mais sur Switch, le sentiment semble être un manque de confiance sur le long terme pour la majorité des studios. Par exemple, et pour rester sur Switch, il y a eu cette discussion hier matin sur Reddit, sur les soucis de jeux online avec Ubisoft. J'ai vu passer plus d'une fois des histoires autour du support online de Super Smash Bros Melee.
Donc je pense que la peur de perdre l'accès est bien présente, surtout quand on mets ça en parallèle avec la nostalgie pour les jeux (comme on peut le voir avec la sortie constante de remake des vieux jeux, de remaster, d'émulateurs, etc).
Sinon, suffit d'aller lire ce qui est dit en cherchant "cloud gaming", vu que c'est le nom que l'industrie donne à la technologie.
La différence est que c'est jeu par jeu au lieu d'être un catalogue à la netflix, mais ça donne une idée des anxiétés autour du sujet.
[^] # Re: Mouais
Posté par Misc (site web personnel) . En réponse au lien Google a empoisonné la communauté scientifique, qui amplifie maintenant sa désinformation. Évalué à 6.
Dans le cas de l'approche distribué, ce qu'on cherche à éviter, c'est un accès direct aux données par un presta. Je suis un hopital, je veux faire des stats, mais j'ai pas de sous pour avoir un DC dans la cave. Avec les méthodes de Privacy Preserving trucmuche, je peux faire les calculs ailleurs sans que le presta est un accès direct des données. Ensuite, je suis censé garder mes résultats pour moi.
C'est un souci business pour un vendeur de cloud, car la plupart s'en foutent des données et veulent juste le pognon des clients. Donc si pour avoir la moula, faut dire qu'on ne peut pas regarder par qu'on utilise de la crypto magie, ils vont le faire. Le but est d'avoir une garantie à l'opération pour faire affaire.
Maintenant bien sur, si tu mets les données en clair chez le fournisseur et que tu stockes le modèle en clair la bas, ça sert à rien.
Et pour penser à ça, faut penser d'une part aux questions business des entreprises, des fournisseurs, et se poser la question du contexte, des données, voir remettre une partie de ses convictions en question. Tout un travail qu'on ne fait en général pas, car on a pas le temps, ou pas d'incitation.
La vie privée, c'est comme les licences. Tout le monde dit s'en préoccuper, et en pratique, tout le monde (ou presque) s'en fout, parce que l'impact moyen est proche de zéro.
[^] # Re: Discourse :(
Posté par Misc (site web personnel) . En réponse au journal La communauté GNOME remplace ses mailing lists par Discourse. Évalué à 9.
Ensuite, rien n’empêche d'avoir une recherche globale dans un serveur de listes. Hyperkitty et Mailman 3 sont un exemple de ce qui est possible.
Le vrai souci, c'est que Discourse a une boite derriére et de la maintenance et des features, alors que la stack Mailman 3 non.
Mais je pense qu'on survends les bénéfices de Discourse pour faire venir du monde. J'apprécie de pouvoir lacher des commentaires rapidement pour certains projets, mais ç'est pas non plus un trafic de folie. Et je pense que pour des listes avec un trafic élevé, c'est un peu mort (pas de thread, par exemple). Ou simplement quand tu as beaucoup de listes, vu que tu va avoir 1 topic qui va dominer les autres sur la page principale. Avoir 75 catégories, ça va commencer à rendre l'interface inutilisable (v que ça utilise des couleurs, et je suis pas sur que j'arrive à distinguer rapidement 75 couleurs).
Le mode mailling list a aussi pas mal de limitation intrinsèque (par exemple, tu n'as pas de mode "aucune archive" par définition).
Du coup, discourse est bien pour le support, les discussions entre utilisateurs ou pour des groupes de taille assez raisonnables (genre moins de 100/500 personnes actives). Je pense que c'est autre chose pour les discussions complexes, la revue de patch, ou des workflows spécialisés (recevoir tout les commits, par exemple), ou des groupes conséquents (comprendre > 100 à 500 personnes). Sans doute une des raisons pour Rust d'avoir plusieurs instances de discourse (eg https://users.rust-lang.org/ et https://internals.rust-lang.org/ , suivant la traditionnelle dichotomie "dev/users"), en plus d'avoir aussi des discussions sur github (eg, directement sur les patchs, et les bugs, et pas sur discourse pour ça).
# Mouais
Posté par Misc (site web personnel) . En réponse au lien Google a empoisonné la communauté scientifique, qui amplifie maintenant sa désinformation. Évalué à 5.
Je trouve le raccourci "IA == desinformation" du début, un peu facile et trompeur.
C'est pas tant l'IA le souci que le fait qu'on a donné l'accès pas cher pour communiquer avec le grand public, avec la possibilité pour le public de participer et rendre viral des contenus, avec la machinerie pour optimiser ça. Je ne dit pas que l'époque de l'ORTF était mieux, mais le cœur du problème, c'est aussi ça.
Et d'ailleurs, appeler ça IA, ça fait aussi appel à un imaginaire visant à tromper. Dans le cas des recherches sur le sujet, c'est faire croire que des algos de recommandation sont plus avancés qu'on le croit et qu'ils vont faire des miracles (donc obtenir des fonds pour la recherche ou pour sa boite). Et dans le cas des personnes contre l'IA, c'est aussi faire appel à un imaginaire bien spécifique (Skynet, HAL, Glados) visant à faire peur en personnifiant un système (ce qui quelque part reprends aussi des thèmes comme le procès de Kafka ou les horreurs de Lovecraft, ou des simples humains sont faces à des horreurs cosmiques ou une bureaucratie qui les dépassent).
La propagande n'a pas attendu les réseaux sociaux pour justifier des génocides, mais en permettant une communication plus facile et moins cher, une des promesses techno-libertaires de l'internet dans les années 90, on a aussi permis de faciliter la propagande.
C'est aussi ignoré les raisons sociales d'un génocide, et finalement, pointer les industries de la silicon valley, c'est aussi un moyen de trouver un méchant facile qui va absoudre les autres acteurs, et passer sous silence les raisons historiques et la politique locale. Y a un petit coté impérialisme culturel, dans le sens ou le méchant tout trouvé, c'est forcément l'Autre.
Ensuite, je ne dit pas que Google/FB ne sont pas responsable (surtout pour le manque de modération dans une langue locale pour FB), mais dire "alors, y a un article spécialisé, mais si il est lu par des gens qui connaissent pas le domaine, ils vont mal comprendre", c'est un chouia faible (minute 12, pour reference). Pareil, minute 26, il dit "mais les gens lisent pas les articles, juste le titre", sans remettre en cause ni le fait que 1) les papiers sont parfois abscons 2) les papiers sont souvent payant et cher 3) qu'il y a les mêmes mécanismes pour la presse en ligne que pour les journaux scientifiques (eg, faut un titre accrocheur).
Mais bon, vu le titre de la vidéo (avec quand même une accusation forte visant à susciter l'émotion et la viralité, vu que la vidéo arrive sur Linuxfr), je suppose qu'on est pas tant dans la communication impartial.
Ce qui me rappelle le livre du moment pour le club de lecture du boulot (Data Feminism), qui dit des choses vraies, qui pointe des vraies soucis et qui est intéressant, mais qui me fait assez hurlé de part sa structure.
Par exemple et pour le moment (vu qu'on lit 1 chapitre par semaine, j'ai lu que les 3 premiers), chaque chapitre commence par un exemple qui implique des trucs graves (ch 1: la mortalité des femmes noires à l'accouchement, ch 2: les endroits ou les gosses noires se font écraser à Détroit en 1971, ch 3: le massacre de Sandy Hook), avec le but de susciter une émotion, ce qui rentre pour moi dans la catégorie manipulation émotionnelle. Non pas qu'on ne doivent pas parler de ses exemples, mais quand c'est dans la structure du livre et que c'est pas exactement le cœur du sujet (qui est quand même sur les statistiques), ça me parait curieux (surtout quand le chapitre 3 dit clairement "il faut susciter de l'émotion", mais curieusement sans pointer sur les recherches de Facebook/Meta de 2014, et la réaction à la publication.
Le livre date d'avant la mort de Georges Floyd donc on peut excuser le fait de ne pas avoir garder ça en tête, mais je pense que les critiques des afro-féministes sur la commodification des morts de personnes noirs sont aussi à envisager sur ces débuts de chapitres (en plus de la question de la manipulation émotionnelle en général).
De même, ce qui me fait hurler, c'est à quel point le livre s'approche d'une autocritique du domaine, mais sans vraiment aller au fond des choses. Par exemple, chapitre 2, à aucun moment ça évoque l'idée même de régulation étatique, ou alors seulement dans le sens ou la régulation va créer plus de travail pour le domaine des data sciences (eg, des audits, des publications de données). Comme l'a fait remarqué Alex Stamos (je crois, je retrouve pas le lien), ç'est un peu un conflit d’intérêt.
L'exemple fin du chapitre 3 avec les nations autochtones, ç'est présenté comme une pratique nouvelle et progressiste, alors que c'est simplement le fonctionnement du copyright (mais ça sonne moins bien comme posture).
Point bonus ce bout du chapitre 3 viole sans doute sa propre licence (le livre est en CC-BY), mais je suppose que tout le monde s'en fout )
Donc je pense qu'il est bon de garder un sens critique y compris sur les gens qui poussent à la critique.
(et j'accuse pas El Titi, je me suis aussi fait avoir avec l'histoire de Xcheck/Meta/Facebook et The wire il n'y a pas longtemps, donc ça arrive clairement aux meilleurs)
[^] # Re: Reprise en main par les autorités
Posté par Misc (site web personnel) . En réponse au lien Censure sur la chaîne ethereum. Évalué à 10.
C'est aussi la preuve que les promesses des cryptomonnaies sont un peu foireuse, car la seule raison qui fait que ça marche, ç'est la centralisation sur quelques plateformes d'échanges, et le fait que les cryptomonnaies n'ont de valeur que si ça passe par les monnaies classiques.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 5.
J'ai vu ça, oui. Un grand groupe industriel qui a viré ses prestas du jour au lendemain lors du confinement, par exemple :)
Ouais enfin, y a 2 façon d'avoir moins de risques. On teste tout, ou on change rien. Et je pense que la, c'était "on change rien, et on diffuse le risque sur les prestas".
Ensuite, je ne sais pas en effet quel applis étaient déployés. Mais j'imagine qu'entre mettre les ressources pour soutenir les équipes internes (quant, datascientist, etc) qui sont captifs, mais peuvent te crier dessus, et celles pour les clients qui sont plus ou moins captif (car changer de banque, quand tu as un prêt, etc, ça parait assez disruptif), mais qui peuvent pas te râler dessus, le choix est assez vite fait.
En terme de support client, ou du moins, la banque en bas de mon nouveau chez moi (et pas la banque de la ou j'ai grandit).
Parfait, je rajoute à la liste des banques à éviter.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 6.
Stricto sensu, je pense que l'informatique a été la première industrie à s'informatiser :)
Ce que j'ai vu en sortant avec quelqu'un qui bossait pour le service info d'une grande banque française, c'est aussi la culture de la sous traitance dans ce domaine, ce qui implique aussi fort peu de motivation pour améliorer les processus. On a du annuler plusieurs soirées parce qu'il fallait mettre en prod quelque chose à minuit, et ça implique 4 à 5 personnes différentes (avec 4 ou 5 en backup).
Donc la, c'était pas une question de cobol (vu que les trucs étaient en java), mais plus du fait que les gens faisant le taf n'avaient pas la motivation pour automatiser (et se retrouver au chomage), et la direction n'avait pas forcément les compétences pour ça (en cause et conséquence de sa structure sous traitante).
Et bien sur, comme tu le dit, une culture d'évitement du risque.
Adrien Blind a pendant un temps fait le tour du circuit des conférences pour parler de Docker et de La Société Générale, et comment il a convaincu la hierarchie de tester quelque chose, mais ça m'a l'air d'être plus une exception qu'autre chose.
Et on m'a dit assez du mal de la Societe Generale pour que j'évite.
[^] # Re: Plus
Posté par Misc (site web personnel) . En réponse au lien Que pensez-vous du nouveau bouton dans Firefox 106 ?. Évalué à 5.
Je synchronise les onglets, mais ça n'a pas l'air de marcher sur le firefox nightly dans flatpak que j'ai.
J'imagine que je pourrais m'en servir pour reprendre les onglets de mon téléphone plus facilement, oui.
Mais l'ancienne façon (via le menu hamburger de droite) était ok aussi pour moi.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 7.
Ils ont refait le site web il y a quelque mois. Le fait que ça ne fasse aucun sens d'avoir ce bouton ici pour dire "ça ne marche pas", et le fait que ça surprenne tout le monde, les conseillers clientèles en premier lieu, me laisse croire que ç'est un état temporaire.
Ensuite, est ce qu'ils ont un backlog gigantesque, je ne sais pas, mais peut être. L'informatique dans le monde banquaire, c'est un peu dans le passé de ce que j'ai compris (cf de ce que j'ai vu en sortant avec quelqu'un au service info d'une grande banque dont j'ai oublié le nom).
Et j'ai eu à faire changer ce plafond 2 fois dans ma vie depuis que j'ai ce compte, je pense que je peux le supporter en pratique.
Quand à changer, le risque est surtout de tomber sur le même genre de branquignoles ailleurs, car c'est structurel pour les banques de détails.
[^] # Re: lineageOS
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 8.
Un truc à faire, c'est d'appeler la banque pour dire que ça marche pas (quitte à passer pour un neuneu, c'est d'autant plus drôle). Tant que ça leur coûte rien, ils s'en foutent. Une fois que ça commence à faire des tickets, je suis sur qu’après une certaine somme, ils vont se pencher sur ça.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 5.
Oui, mais ça coûte 10€.
Et je viens de revérifier, c'est toujours pas disponible sur le site web. C'est quand même formidable que la banque me fasse payer le droit de dépenser mon argent plus vite, une restriction qui a été mise en place par eux mêmes.
[^] # Re: Nécessaire ?
Posté par Misc (site web personnel) . En réponse au journal BPCE : une seule application pour tout le groupe. Évalué à 5.
Augmenter le plafond de la carte ne passe pas sur le site web (mais il y a un bouton qui te dit d'utiliser l'appli), ou du moins, ne passe pas chez moi, et j'ai pas testé depuis 1 mois.
Visiblement, les gens en agence n'étaient pas au courant.
[^] # Re: Un souci pour qui ?
Posté par Misc (site web personnel) . En réponse au journal Tout le monde (ou plutôt, trop de gens) semble se foutre des licences en 2022. Évalué à 6.
Red Hat a mis gcc 2.96 dans RHL à l'époque, et ça a cassé des choses (car c'était vraiment un gcc 3), et les devs du libre de l'époque ont ralés (et par exemple, mplayer avait un warning pendant super longtemps sur le sujet).
Mais toi, c'est une incertitude quand tu écris du code, pas quand tu utilises.
Mais oui, l'incertitude juridique est une histoire du passé, et il est bien que ça le reste, AMHA.
J'ai le sentiment qu'il y a beaucoup d'hubris à ce niveau. Se dire que son logiciel est tellement bien qu'un grand nom va l'opérationnaliser et se faire une tonne d'argent, c'est pas ce qu'on voit.
Les gens citent par exemple Elasticsearch, mais il faut bien voir que la companie est profitable, et y a 3000 employés en 2022. C'est pas exactement une PME qui se bat contre des géants du net. C'est plus un futur géant qui veut grandir sous la pression de ses investisseurs. Pareil pour Mongodb, il y a 3500 personnes dans la boite.
C'est pas la peur que des géants du net les foutent au chômage le souci. C'est la peur de ne pas grandir autant que promis aux investisseurs.
C'est exactement ce que Stephen O'Grady explique dans un article récent.
[^] # Re: Précédemment sur Linuxfr
Posté par Misc (site web personnel) . En réponse au lien Matthew Butterick veut poursuivre GitHub Copilot en justice. Évalué à 6.
C'est marrant, parce que mon chef m'a parlé il y a 2h de CodeGen, donc on a regardé le corpus.
Donc il y a des modèles entraînés sur les dépôts Github avec plus de 100 étoiles, sur les réponses Stackoverflow et sur les descriptions des brevets aux USA. Et point bonus, les emails de l'affaire Enron.
[^] # Re: ton PS
Posté par Misc (site web personnel) . En réponse au journal Recherche hébergeur pour gemini/web et mailing-list. Évalué à 4.
Je pense que tu as bien fait de proposer ça. Ensuite, il a dit qu'il souhaite payer, mais je suppose qu'il y a des limites à ce niveau.
Alors je pense qu'il veut que quelqu'un se charge des trucs sous-jacent tout en ayant la liberté la ou ça semble lui important.
Je vois 3 parts à sa requête pour le site:
- l'hébergement de fichier statique en http(s)
- la partie création du site
- l'hébergement gemini
Commençons par le dernier. C'est un peu mort niveau contrat commercial à mon avis. Mais c'est aussi une variation de la première partie.
Pour la partie hébergement statique, c'est largement standard. Il y a des tonnes de choix ou tu peux envoyer par ftp, sftp ou rsync.
La ou le bât blesse, c'est sur le 2ême point, car c'est exactement ce que tu pointes, à savoir un système de build qu'on suppose maison et qui requiert d'avoir python sur le serveur et ssh. Je peux pas trop supposer le pourquoi de toute ça, mais j'ai le sentiment que c'est pour construire sur place le code HTML.
Donc c'est pas tant la recherche du hosting que la recherche d'un système de compilation du site statique, potentiellement non standard (quoi que ça puisse vouloir dire).
Ce que je ne comprends pas, c'est pourquoi les 2 ne sont pas découplés.
Ce que Ploum dit vouloir, c'est ne pas faire l’hébergement de service. Mais du coup, ça requiert juste d'avoir quelque chose d'assez souple pour construire le site, mais pas assez souple pour heberger un service.
En fait, ce qu'il lui faudrait, c'est un shell. Quelqu'un s'occupe de l'uptime du serveur sans lui donner un compte root, avec le site http chez un hébergeur commercial (car c'est la qu'il y a du monde, cf la motivation pour le coté commercial), et une capsule gemini quelque part sans doute non commercial.
Du coup, je pense que regarder du coté du tildeverse est un bout de solution: https://tildeverse.org/
[^] # Re: Go et Rust
Posté par Misc (site web personnel) . En réponse au journal KataOS, un OS sécurisé basé sur SeL4 écrit en Rust ... par Google. Évalué à 3.
Ensuite, c'est "hello world". C'est important de voir à quel point tu peux optimiser bien sur, mais il faut aussi voir avec des cas plus réalistes, ou tu va devoir de toute façon rajouter des libs et ou l'écart va se réduire.
Et même si je comprends l'argument de gagner autant que possible des ressources, il y a aussi des limites à ça.
Si je cible, par exemple, un ESP32 avec 4M de flash, j'ai pas besoin de pinailler sur les Ko, ni même sur 1 Mo suivant ce que je vais faire.
Je suis sur que si j'ai assez de ressources, je peux trouver des ESP32 avec 2M de flash et sans doute faire des économies à ce niveau. Mais peut être que j'aurais ni le volume, ni le temps pour ça. C'est cool d'avoir un programme qui fait que 512 Ko au lieu d'un qui fait 1.5 Mo, mais si au final, ça me coûte pareil en hardware parce qu'on trouve pas de plateforme sur le marché avec moins de 2 Mo, ça réduit pas mal l'attrait à priori.
Curieusement, je trouve que ça a plus d'importance sur les serveurs et le cloud, vu que les ressources sont plus souvent partagés avec plus de granularité (eg, il y a autre chose que des cases ou on passe de X à 2X), mais à une autre échelle (dans le sens ou on se préoccupe pas des soucis à l'échelle du Mo).
# Go et Rust
Posté par Misc (site web personnel) . En réponse au journal KataOS, un OS sécurisé basé sur SeL4 écrit en Rust ... par Google. Évalué à 7.
Bien que tu puisses faire du Go pour de l'embarqué et des MCU, fondamentalement, ça n'est pas le plus adapté. Par exemple, Go utilise un garbage collector (même si il vient sans VM, contrairement à Java), ce qui le rends moins prévisible au niveau de la gestion mémoire (vu que, sauf erreur de ma part, c'est fait via un thread séparé).
Rust est un peu plus bas niveau dans le sens ou la gestion de la mémoire est fait via le language (le borrow checker, les scopes, etc), via des mécanismes plus proches du C, alors que Go semble approcher ça par l'approche plus haut niveau (eg, comme Java, python).
Cela implique en effet différents choix de design.
Mais bon, faut pas croire que les ingés de Google sont forcés de faire de la recherche en utilisant les logiciels écrits par d'autres ingés. C'est une vision assez tribale d'une entreprise qui ne correspond pas à la réalité.
[^] # Re: Combien de temps avant son abandon ?
Posté par Misc (site web personnel) . En réponse au journal KataOS, un OS sécurisé basé sur SeL4 écrit en Rust ... par Google. Évalué à 7. Dernière modification le 19 octobre 2022 à 10:41.
La, c'est de la R&D (ça sort de Google Research), donc ç'est aussi normal d'essayer des choses, et parfois de les abandonner.
C'est même le propre du logiciel libre que de faire des choses de façon ouverte.
Si ça venait à être présenté comme un produit, ça serait différent, mais je pense pas qu'on puisse blamer Mozilla ou Google pour des logiciels libres mis à disposition, ou du moins, pas autant que pour l'abandon de Stadia, Wave ou d'autres produits mis en avant en grande pompe.
[^] # Re: ton PS
Posté par Misc (site web personnel) . En réponse au journal Recherche hébergeur pour gemini/web et mailing-list. Évalué à 4.
Netlify a un niveau "gratuit pour le moment", et j'ai des doutes (sans doute non fondé) que ça continue tel quel sur le long terme. Sinon, c'est "19$ par mois".
Je ne voulais pas d'une offre gratuite, mais 19$ par mois m'a paru cher pour un simple site. C'est pareil pour Vercel, ou Cloudflare (et Cloudflare était déjà "niet" avant l'appel à boycott récent, et continue à l'être pour les mêmes raisons qu'avant)
Je comprends bien que la facturation n'est pas gratuite pour des startups comme Netlify ou Vercel, mais du coup, on est obligé de passer par des gros acteurs (ovh, aws) qui ont tellement de client que le cout marginal est proche de 0.
J'avais aussi regardé Digital Ocean, via leur produit Space, mais c'était impossible d'exposer ça directement en https comme AWS S3.
Et on m'a aussi parlé de l'offre de Scaleway basé sur knative, mais c'était pas dispo à l'époque.
[^] # Re: ton PS
Posté par Misc (site web personnel) . En réponse au journal Recherche hébergeur pour gemini/web et mailing-list. Évalué à 6.
Alors en dehors du fait que la, ce que Ploum cherche, c'est du hosting gemini (donc exit s3 et co), il y a aussi le fait que Azure et GCP sont vachement cher pour des sites statiques. J'avais fait le tour pour un projet de site statique.
GCP te demande de prendre un load balancer, c'est pas gratuit(tm), cf leur doc. C'est entre 2.5 et 3 centimes de l'heure, soit entre 15 à 21€ du mois. C'est assez non compétitif, parce que tout le reste coûte presque rien (tout le reste, comprendre le stockage, et le trafic qui va avec).
Azure, ça a l'air plus compliqué que ça devrait, si j'en crois un tuto que j'ai lu. La, c'est pas une question de coût, mais de support de let's encrypt (qui semble manquante). Ça a pu changer, ou j'ai pu mal comprendre, mais je sais que c'est pour ça que
Donc à mon grand regret, il n'y avait que AWS et S3 de compétitif, ou en tout cas, quand j'avais regardé, et c'est pour ça que je mets mes sites statiques… chez OVH.
Parce que ça me coûte 3€ par mois, j'ai pas à me faire chier avec les mises à jours des libs et des APIs pour uploader (eg, je fais du sftp).
Car oui, je pense qu'on parle pas assez du fait que le cloud computing, c'est aussi avoir des APIs qui changent de temps en temps, et qui cassent ton automatisation si tu n'est pas suffisament à jour (ce qui du coup n'est pas trop "fire and forget", alors que sftp vers public_html, ça va, ça change pas trop).
# Et atom :p ?
Posté par Misc (site web personnel) . En réponse au journal Recherche hébergeur pour gemini/web et mailing-list. Évalué à 3.
Je pense qu'une part utilise atom, vu que dans mon souvenir, il y a une RFC (et je sais que RSS 2.0 a aussi une spec, mais pas aussi classe qu'une RFC).
[^] # Re: Lol
Posté par Misc (site web personnel) . En réponse au lien La psychologie du totalitarisme. Évalué à 7.
Je suis pas totalement d'accord, quand le texte dit, je cite:
Oui, cette affirmation est valable pour les 3 totalitarismes dûment identifiés : le communisme, le nazisme et l'hygiénisme (le covidisme n'en est qu'une variante. J'ai tendance à classer l'écologisme comme une variante de l'hygiénisme. On peut en discuter).ou commence par:
J'ai découvert Mattias Desmet, comme Ariane Bilheran, par ses videos sur le délire paranoïaque covidiste.j'ai le sentiment que le complotisme s'affiche quand même assez explicitement :)
Et bon, ce bout:
Oui, la modernité détruit systématiquement tous les liens des hommes : famille, village, nation, religion, cultureça sonne un peu comme la politique du gouvernement de Vichy pendant l'occupation, la fameuse révolution nationale. On retrouve quand même des relents de la politique de retour à la terre, et des clins d’œil à "travail, famille, patrie", le tout en 1 phrase.
C'est assez ironique quand on connait aussi la biopolitique du régime en question, parfaitement compatible avec celui de l'occupant.
[^] # Re: implémenté sous forme d'une passerelle
Posté par Misc (site web personnel) . En réponse au lien Le serveur XMPP ejabberd est maintenant aussi un serveur Matrix. Évalué à 5.
Il faut bien voir que ejabberd est capable d'être distribué sur plusieurs machines, donc un bridge externe n'aurait pas la capacité de faire ça, sauf en dupliquant tout 2 fois dans 2 process séparés.
Ça ne me parait pas une architecture qui permet d'éviter les bugs (surtout que tu rajoute de la complexité en rajoutant un lien entre le serveur xmpp et le serveur matrix), ça serait comme demander à avoir un lecteur de vidéo par codec au nom d'une philosophie KISS :/
[^] # Re: Et hop une fois russe il est mobilisable -> direction le front ...
Posté par Misc (site web personnel) . En réponse au lien Edwardovitch Snowdonov (Edward Snowden devient citoyen russe sur décision de Vladimir Poutine). Évalué à 3.
Si je me souviens bien, la pref l'a recontacté peu de temps après pour dire que le dossier est passé à la SDANF et qu'elle aura une réponse dans un délai de 6 mois. Donc on verra dans 5 mois ce que ça donne.
Sans doute aucun rapport avec le courrier envoyé avant…
[^] # Re: Jouer en streaming
Posté par Misc (site web personnel) . En réponse au lien Google ferme son service de jeu en streaming Stadia . Évalué à 5.
Fort possible, j'ai pas les autres consoles :)
La cartouche est sauf erreur de ma part, en lecture seule.
J'ai eu plusieurs fois des cartes SD qui sont tombés en rade sur mes RPi. La faute est sans doute de mon coté à m'en servir comme des disques durs, mais ça m'inspire du coup pas confiance.
Ensuite, c'est clairement une peur qui n'est pas très rationnel, vu que j'ai pas la même peur pour ma liseuse ou mon tel.
Mon plan sur 20 ans, c'est comme pour les jeux d'il y a 10 à 20 ans, c'est d'avoir des dumps pirates des cartouches si il n'y a pas une offre légal.
[^] # Re: Jouer en streaming
Posté par Misc (site web personnel) . En réponse au lien Google ferme son service de jeu en streaming Stadia . Évalué à 8.
Y a pas mal de gens qui prennent des jeux en dématérialisé. Et parfois, tu as pas le choix, que ça soit parce qu'il y a pas de cartouches (sur console), ou parce que la cartouche n'a pas été imprimé à suffisamment d'exemplaire (Xenoblade Chronicles II me vient à l'esprit).
Perso, je prends des cartouches, mais surtout parce que la cartouche me parait plus durable que la carte SD que je vais devoir acheter pour stocker les jeux de 20 gigas qu'on trouve.
Ensuite, je ne sais pas pour les PCs, mais sur Switch, le sentiment semble être un manque de confiance sur le long terme pour la majorité des studios. Par exemple, et pour rester sur Switch, il y a eu cette discussion hier matin sur Reddit, sur les soucis de jeux online avec Ubisoft. J'ai vu passer plus d'une fois des histoires autour du support online de Super Smash Bros Melee.
Donc je pense que la peur de perdre l'accès est bien présente, surtout quand on mets ça en parallèle avec la nostalgie pour les jeux (comme on peut le voir avec la sortie constante de remake des vieux jeux, de remaster, d'émulateurs, etc).
Sinon, suffit d'aller lire ce qui est dit en cherchant "cloud gaming", vu que c'est le nom que l'industrie donne à la technologie.
La différence est que c'est jeu par jeu au lieu d'être un catalogue à la netflix, mais ça donne une idée des anxiétés autour du sujet.