Microsoft est quand même plutôt bien placé dans les entreprises et pour les outils bureautiques et de collaboration (Office, Teams, …). C'est le domaine historique du PC (parce qu'il était vendu par IBM, un vendeur de machines pour entreprises) et donc de DOS et de Windows, et ça se ressent encore aujourd'hui. De la même façon que Mac OS s'est surtout fait une place dans le design graphique et par extension dans le web.
Par contre, ils avaient clairement négligé les aspects en ligne de commande, et ça se rattrape pas mal ces derniers temps (il y a eu aussi du travail sur le terminal lui même).
Le projet WSL peut sembler nouveau mais il ne faut pas oublier que Microsoft a auparavant développé Windows Services For Unix.
Et bien avant ça, déjà en 1980, il y avait Xenix. Dans l'article Wikipedia on peut lire ceci:
Microsoft, which expected that Unix would be its operating system of the future when personal computers became powerful enough
L'idée était donc déjà là il y a 45 ans, alors que le Macintosh n'existait même pas et Steam encore moins! Mais ça y est, on vit dans le futur, les ordinateurs personnels sont enfin assez puissants pour UNIX, et Microsoft continue son plan comme prévu.
C'est juste du reporting après coup sur les dépenses car il n'y a pas vraiment de campagne de dons. Il y a un objectif positionné en début d'année qui est "faire aussi bien que l'année précédente". Globalement l'association récolte plus de sous qu'elle n'en dépense et a pas mal de réserves de côté.
On pourra lancer des campagnes si jamais on a des projets d'embaucher plus de monde par exemple (que ce soit pour le développement, ou pour se faire un peu de publicité, ce qui serait bien mais a priori à faire un peu plus tard quand le système sera plus proche d'une version non-beta).
Et par contre c'est pas présenté de façon aussi jolie. Il faut aller lire les tableaux plein de chiffres (avec en plus une double comptabilité en euros et en dollars).
Je ne sais pas si c'est juste un problème de cache chez moi, mais le lien "faire un don" dans la dépêche me redirige vers une page qui n'existe pas dans l'espace de rédaction de linuxfr.
Ce lien-ci fonctionne beaucoup mieux :) et donne toutes les infos nécessaires.
Or sur cette trajectoire et à ce rythme, nous ne pourrons couvrir que la moitié de nos dépenses projetées pour boucler notre budget.
Est-ce qu'il y a un objectif de dons et des informations sur les dépenses prévues quelque part? Je pense que ce serait intéressant pour valoriser ce qui va être fait des dons reçus.
(Je n'ai pas cherché très loin, mais ni le message d'appel à dons ni la roadmap ne semblent l'indiquer).
Je suis toujours curieux de voir comment chaque projet dépense son argent et quel est le montant annuel des dons. Il y a parfois des surprises (dans un sens ou dans l'autre) ainsi que des idées intéressantes.
Peut être géré par javascript qui va formater la date en heure locale, le site lui à juste à envoyer du UTC
Et c'est ce qui est fait. Mais le Javascript peut très bien renvoyer l'info au serveur aussi.
Il a besoin de la taille de ta fenêtre pour faire sa mise en page.
Si on a cette *@!]=#(% de css, c'est en partie pour ça
Je ne sais pas lequel des deux est apparu en premier. Et je pense que si on retirait Window.screen de l'API Javascript, les développeurs de trackers trouveraient bien un moyen d'extraire l'info à partir de css et je javascript tout de même.
Et je pense que c'est pareil pour les autres cas: ces infos doivent être accessibles d'une façon ou d'une autre (à part en effet pour le niveau de charge de batterie qui ne me semble pas indispensable, mais le besoin initial est tout de même compréhensible même s'il n'est pas acceptable).
Le vrai problème est que ces informations sont trop faciles à remonter au serveur. Chacune individuellement a été mise en place pour de bonnes raisons, mais sans suffisamment de considération pour les risques que ça pose pour le tracking, ou bien, les protections nécessaires n'ont pas pu être mises en place parque que la plateforme de base ne le permet pas (ça semble vraiment difficile de contrôler tout ça et à la fois d'autoriser le code Javascript a faire des requêtes dynamiques pour envoyer et recevoir tout et n'importe quoi).
Sûrement qu'une architecture pensée pour la vie privée dès le départ aurait, par exemple, complètement interdit au code Javascript de pouvoir déclencher tout accès au réseau, et limité fortement les possibilités d'envoyer des cookies et autres en-tête personnalisés. Le résultat serait bien différent de ce qu'on a aujourd'hui. Mais je pense que la seule solution pour y parvenir aujourd'hui ce serait de changer de plateforme, et par exemple utiliser quelque chose comme Gemini.
Probablement parce que les premiers comptes étaient les comptes bancaires et autres trucs financiers de la sorte (servant à compter combien de sous une personne doit à une autre). Le concept s'est étendu à d'autres usages par la suite?
Mais est-ce réellement le rôle d'un langage de programmation de se préoccuper de sécurité ou de vie privée? C'est un peu comme si on reprochait à C++ de ne pas se préoccuper de la vie privée des utilisateurs.
Il ne s'agit pas que d'un langage de programmation, mais de tout un environnement (peut-être comme KDE ou GNOME, ou au moins comme Qt et GTK).
Pour le sujet du fingerprinting: prise individuellement, chaque information remontée est assez cohérente. Le site que tu visites a besoin de connaître ton fuseau horaire pour t'afficher les heures locales. Il a besoin de la taille de ta fenêtre pour faire sa mise en page. Il a besoin de savoir quelles langues tu comprends pour t'afficher le site dans une langue que tu connaît. Il a éventuellement besoin de ton niveau de batterie pour savoir s'il lance une vidéo en full HD qui va consommer les 2% qu'il te reste, ou bien si il vaut mieux passer sur une version légère du site.
Par contre, le truc aurait peut-être pu être pensé pour que ces infos ne puissent pas être remontées vers le serveur, et que un maximum de choses se fassent en local. Probablement que ça n'a pas été possible parce que une grande partie de la conception a été faite avant que la vie privée des utilisateurs soit à la mode, et c'était difficile de changer après coup et que ça remettrait en question des choix assez fondamentaux.
Après, il se trouve que des entreprises se sont engouffrées dans cette faille pour monter un business à partir de l'extraction de données. Mais je ne suis pas certain que ce soit lié, le fingerprinting est assez opportuniste et détourne des fonctionnalités qui, prises individuellement, n'étaient pas prévues pour ça.
Ceci amène à considérer le hacking comme quelque chose de relativement banal ("bidouilles, transformations et créations"), là où c'était originellement une méritocratie, où l'on ne pouvait pas s'auto-proclamer hacker mais seulement être reconnu comme tel par l'entourage.
a: to cut or sever with repeated irregular or unskillful blows
b: to cut or shape by or as if by crude or ruthless strokes
"découper par des coups répétés ; irréguliers ou maladroits", en gros "tailler à la hache". On n'est pas vraiment dans la méritocratie ni dans le travail de qualité.
Par extension ce même verbe est utilisé pour n'importe quel travail effectué grossièrement, sans adresse ni élégance.
Ce n'est qu'ensuite que des gens désignés (péjorativement) comme "hackers" en électronique ou en informatique se sont réappropriés le terme et lui ont donné une signification plus valorisante. Car la solution inélégante pour l'un est, pour l'autre, le trait de génie est l'exploitation inattendue de fonctionnalités, et l'ouverture de nouvelles possibilités pour un logiciel ou un matériel donné.
Le mot geek a pris un virage un peu simlaire dans les années 90-2000. C'était très négatif, mais c'est devenu un badge de fierté pour certaines personnes.
La situation est plus compliquée. À l'époque où Firefox travaillait au respect des normes, il s'agissait de normes établies par le w3c, plutôt stables et avec une évolution assez lente.
Situtaion qui bien sûr ne convenait pas du tout à Google qui hréfère faire évoluer les choses très très vite. Ils ont donc créé le WHATWG qui a remplacé le w3c pour la standardisation du HTML. Depuis, le HTML5 est en "rolling release", toutes lë nouveautés sont ajoutées directement dedans avec peu de préoccupation de la vie privée des utilisateurs. Le rythme est beaucoup plus rapide. Malheureusement, les développeurs d'autres navigateurs ont plus ou moins suivi ce mouvement.
Cela pose déjà des problèmes bêtement techniques: une fois que quelque chose est standardisé, c'est très compliqué de le retirer car cela casserait les sites web exisants. Un standard avec une évolution lente permettrait de faire des expériences puis de les abandonner avant qu'elles n'aient le temps d'être standardisées. Le travail pour suivre le rythme est conséquent et contribue à la prise de poids des moteurs de rendu.
Cela met donc en évidence un problème plus profond: il ne s'agit pas juste du respect des normes, mais de la façon dont ces normes sont établies. Mozilla a, il me semble, suivi Google dans cette aventure en se disant que c'était mieux d'essayer de lutter de l'intérieur pour défendre la vie privée des utilisateurs. Peut être que si à l'époque ils étaient restés du côté du w3c, les choses seraient bien différentes? Quelques années plus tard, ils ont accepté d'implémenter des DRM pour les contenus vidéo. Maintenant ils espionnent leurs utilisateurs via de la télémétrie et essaient d'intégrer des chatbots intelligence artificielle et je ne sais pas quoi alors qu'on leur demande juste de faire un navigateur…
Ce serait servo ou blink ça m’irait aussi, l’important c’est que les différents acteurs dont des représentants des utilisateurs aient leurs mots à dire.
Tout à fait. Le truc qui me chiffonne un peu c'est que WebKit semble souvent oublié dans ces discussions (comme si il n'existait que Gecko, Blink, et Servo voire Ladybird comme candidats sérieux), alors même que ça me semble être celui qui est déjà le mieux configuré (en termes de gouvernance et de portabilité) pour répondre à ce besoin.
Je ne sais pas si c'est lié à l'implication importante de Apple dans le projet (qui ne m'a pas l'air de poser tant problème que ça, et qui sera naturellement "diluée" s'il y a plus de participants) ou pour des problèmes techniques (performance, compatibilité/respect des standards, …) ou pour d'autres raisons. Qui peuvent être justifiées, mais dans ce cas j'aimerais bien savoir ce qu'elles sont, et pas que WebKit soit juste éliminé d'office de la discussion.
Quel moteur alternatif à Blink si Gecko cesse d'être supporté ?
Il y a WebKit, qui est co-développé actuellement par Apple, Sony et Igalia et n'aurait pas de problème à accueillir des participants supplémentaires (par le passé il y a eu Nokia/Qt, Samsung, et Google avant qu'ils créent un fork avec Blink).
Le support multi plateformes est bon, et la distribution est faite sous forme de juste un moteur de rendu, autour duquel il est relativement facile de construire un navigateur.
Gecko faisait la même chose il y a longtemps, mais il a été tué par Mozilla qui a décidé de le lier à Firefox. Si Mozilla abandonnait le développement du moteur, ça rouvrirait la possibilité de mettre en place un vrai projet de moteur de rendu, indépendant d'un navigateur et avec une gouvernance plus ouverte. Et les contributeurs de plusieurs navigateurs pourraient y participer au lieu de maintenir chacun sa version.
En ce qui me concerne, je vais continuer à travailler avec WebKit ou mes patchs pour ajouter le support de Haiku sont plutôt bien reçus (j'ai même vu des patchs pour le support de Hurd passer il y a pas longtemps, comme quoi Apple n'a pas peurt des OS concurrents!)
En fait F-Droid ne veux que du libre et sur Firefox, le nom et le logo sont breveté… Donc ils le rejettent et change que ça je crois.
C'est plutôt Mozilla qui ne veut pas que le nom et le logo Firefox soient associés à des versions du navigateur qu'ils n'ont pus personellement validées. Ce qui semble normal, sinon n'importe quel site malveillant pourrait proposer un Firefox vérolé plein d'extensions publicitaires et de logiciels espions.
F-Droid pourrait faire des démarches auprès de Mozilla pour faire valider leur version (ce que Debian a fait, par exemple, auparavant ils avaient une version de Firefox renommée Iceweasel), mais c'est une certaine perte d'indépendance sur ce qu'ils décident de packager ou non, et quelles modifications ils peuvent apporter.
Chez Haiku, notre version de Firefox s'appelle également Iceweasel. Mais Librewolf et Waterfox sont également disponibles dans nos dépôts logiciels.
C'est compatible électriquement et au niveau du protocole, mais pas au niveau mécanique. Il faut donc effectivement un adaptateur passif.
Sur des machines plus anciennes, le BIOS ne sait pas gérer un disque dur IDE, mais il est possible d'installer XT-IDE sous forme d'une ROM d'extension pour ajouter le code nécessaire. Chez moi j'ai un clone de PC-XT avec un processeur 8086 équipé ainsi (ça ne me sert à rien, cela dit).
Le fond du problème il est plus là que sur les personnes. Le petit milieu tourne en rond.
Les deux côtés du problème s'entretiennent l'un l'autre. Il yea des gens cui conçoient le logiciel libre comme un culte de la personne de rms (volontairement ou pas). Ça rend rms irremplaçable. Donc c'est lui qui donne toutes les conférences. Donc personne d'autre n'a l'occasion de se mettre en avant et de prendre le relais. Donc les gens qui ne sont pas trop content de cette façon de voir les choses vont voir ailleurs. Soit ailleurs que dans le logiciel libre, soit ailleurs qu'à la FSF. Par exemple la Software Freedom Conservancy qui fait plein de trucs pour le logiciel libre et donne plein de conférenges intéressantes. Si on veut absolument des noms: Karen Sandler ou Bradley Kuhn par exemple.
Ge n'est pas propre à la FSF, culturellement les gens ont du mal avec les organisations où il n'y a pas un "chef", et c'est compliqué à maintenir pour d'autres raisons. Mais bon, Richard Stallman n'est pas immortel et plus tout jeune, si la FSF choisit de rester organisée dans un culte de la personne (pourquoi pas, ça semble bien fonctionner tout de même), qui sera son ou sa rerplaçante? Difficile si l'organisation est incapabne de faire émerger d'autres personnes ou de fonctionner sans rms (qui avait été exclu du comité de direction avant d'être finalement réintégré).
Moi j'ai peu d'espoir pour la survie de la FSF dans ces conditions. Heureusement il y a d'autres organisations qui sont mieux gérées à mon avis, et qui prendront très bien le relais si ce n'est déjà fait.
En fait il fait une intervention, c'est tout le temps la même à peu de chose près. Après 40 ans à donner la même conférence toutes les semaines, je pense que n'importe qui deviendrait aussi bon que lui.
Et en plus, il présente une vision "réductrice" du logiciel libre qui parle uniquement du logiciel libre, c'est à dire des licenses et oes 4 libertés fondamentales. Ça n'aborde donc pas du tout tous les aspects communautaires.
Or, la partie sur les licenses, quelque part, c'est un combat qui est plus ou moins déjà gagné. Aujourd'hui il serait plus intéressant de parler d'autres aspects: aussi bien sur le plan technico-organisationnel (comment on maintient des projets sur des dizaines d'années avec des équipes distribuées hartout dans le monde et des milliers de participants) que politique (trouver des moyens de financer le logiciel qui ne dépendent pas des gafam, protéger la vie privée des utilisateurs) ou encore sociétales (la diversité dans l'informatique, est-ce que le logiciel libre peut contribuer à l'écologie et à la lutte contre le changement climatique en retardant l'obsolescence du matériel, …).
Je suis sûr qu'on peut trouver plein de gens pour faire des interventions intéressantes sur ces sujets où il y a plein de choses à dire. C'est dommage d'en rester à la conf degré zéro d'introduction au logiciel libre, non?
Pour les soucis de santé, il me semble avoir lu qu'il y a effectivement une sur-représentation des AVC si on regarde la semaine juste après le changement d'heure, mais qui est annulée par les semaines suivantes.
La conclusion est que le changement d'heure a été le stress de trop pour des personnes qui étaient déjà sur le point de faire un AVC, qui se serait déclenché de toutes façons pour une autre raison une ou deux semaines plus tard.
Cela dit, avec un système hospitalier saturé, il pourrait tout de même y avoir un effet supplémentaire à concentrer les problèmes sur le même jour ou la même semaine?
Je ne sais pas si on peut tout mettre sur le dos de l'incompétence. Certains de ces bots font des efforts pour utiliser plusieurs user agents imitant de vraies machines pour essayer de passer innaperçus, ce qui suppose un minimum de compréhension de comment ça marche et une volonté d, rendre le truc difficile à bloquer par les méthodes habituelles.
Il y a donc au moins une part de malveillance. D'habitude je suis le premier à envisager l'incompétence, mais là il y a des gens qui le font exprès.
Même chose chez Facebook avec un bot qui fait des milliers de requêtes et dont la documentation dit explicitement qu'ils ont choisi de ne pas respecter le crawl-delay du robots.txt. Il n'y a pas de "oups on a pas fait attention, désolé" là dedans cette fois ci.
Oui, ça coùte moins cher de retélécharger les choses que de faire un mirroir de tout l'internet.
Et même sur une "petite" forge, un crawler un peu stupide qui suit tous les liens, il va scanner tout l'historique git du projet si c'est accessible via une interface web, et probablement dans tous les formats possibnes (log, diff, blame, en html, en texte, …). Ça fa?t assez vite un gros volume de données, Multipilié par quelques dizaines d'entreprises qui entraìnent des modèles, chacune travaillant probablementsur plusieurs modèles différents en parallèle, ça fait un très gros volume.
J'utilise également un clone saleae (pour mes bricolages personnels). Plutôt pas mal pour les choses simples en effet. Le matériel est très simple, basé sur un composant standard, et la vraie valeur de ces outils est dans le logiciel. Pour ma part je ne vois pas de problème à utiliser un clone avec un logiciel libre. Les problèmes de Saleae viennent plutôt de leur choix de faire payer assez cher le matériel pour financer le logiciel (logiciel dont on a pas vraiment besoin si on utilise Sigrok).
Les systèmes professionnels vont se dif#érencier soit par la gestion de protocoles plus exotiques, soit par du matériel capable de capturer plus de signaux, à une fréquence plus élevée.
Si on veut par exemple tracer un bus adresse et données d'un CPU, ce genre de choses peut être utile. Certains proposent même des modules logiciels pour désassembler le code exécuté à la volée.
Il peat aussi y avoir des besoins particuliers si on veut scanner des protocoles qui ont des spécificités au niveau électronique (usb, sata, hdmi qui utilisent des paires différentielles par exemple).
Mais si on a pas ces besoins, un analyseur DIY simple fera très bien l'affaire, avec un logiciel comme Sigrok par exemple.
Par exemple sur mon site web, le robots.txt met un crawl-delay de 5 minutes pour tout le monde par défaut. Je n'ai pas besoin que les robots indexent mon site plusieurs dizaines de fois par jour, le contenu change assez peu.
Si les robots LLM respectaient ce réglage, je n'aurait pas de problème de charge CPU ou de bande passante (j'ai d'autres problèmes personnels avec les LLM mais c'est une autre histoire). ça règle le deuxième problème: ce réglage étant valide pour tout le monde, il n'y a pas de "course".
Il en est de même pour les liens avec rel="nofollow" que les robots ne devraient normalement pas utiliser (et je suppose que les gens qui se plaignent de problème de charge CPU sur leurs applis web sont un minimum compétents et ont déjà mis en place ce type de mesures pour éviter que les robot scannent des choses qui n'ont pas besoin de l'être).
Sauf que non: certains de ces robots ignorent complètement le robots.txt, d'autres ignorent le crawl-delay, d'autres refusent un crawl-delay supérieur à 10 secondes. Donc je les ai exclus par d'autres moyens, parce que ce mois ci c'était 2 adresses IP qui représentaient plus de 50% du traffic arrivant chez moi.
Je pense que tous les employés de Cloudflare ne sont pas des milliardaires de la tech, et j'espère que la mise en place du nouveau régime technofasciste américain ne va pas se faire sans un minimum de résistance.
Quelle autre raison pourraient-ils avoir pour faire un message de blog dont le but principal est de dire "coucou, on voit vos mots de passe"? Le risque de "bad buzz" me semble assez évident avec un tel message, non?
Moi, si j'étais Cloudflare et que le gouvernement me demandait ça, je ferais un article de blog disant HÉ VOUS AVEZ VU? ON A ACCÈS À VOS MOT DE PASSES IL FAUDRAIT PAS QUE ÇA TOMBE ENTRE DE MAUVAISES MAINS. À défaut de pouvoir être plus explicite…
Au doigt mouillé, je dirais que 49% des fois où on nous demande "M." ou "Mme" c'est uniquement pour pouvoir le mettre dans un courrier (ce qui en soit ne sert strictement à rien)
Il ms emble que Voyages SNCF s'est fait taper sur les doigts à ce sujet il y a quelques semaines: effectivement, c'est excessif, et ils n'ont pas à te demander ça pour te vendre un billet de train.
Dans votre article sur les circuits EF9364 et suivants, à un moment vous vous posez la question suivante :
« Comment et pourquoi la SESCOSEM a eu l'idée de se lancer dans ce projet? »
Cette idée ne vient pas de la Sescosem, mais de Jean Gastinel.
Sur le site de Grenoble, il y avait de bonnes interactions entre les universitaires et l’industriel Sescosem (puis EFCIS). Jean Gastinel, fils de Noël prof de fac, était bricoleur en électronique et avions radio-commandés. Il rentre à l’ENS et a envie de construire un ordinateur, il demande à son père comment faire. Celui-ci lui conseille d'en parler à François Anceau, enseignant-chercheur à la fac de Grenoble. Ce dernier lui conseille d’aller voir à Paris Gérard Noguez, enseignant-chercheur à l’Université Paris 6, sur le campus de Jussieu.
Jean Gastinel entraîne ses copains de promotion ENS dans l’aventure. Le petit groupe construit un ordinateur 12 bits. Ensuite, Jean définit la fonction de son circuit alphanumérique pour sa thèse, et créé une maquette de simulation en circuits MSI. À l’époque, il n’y avait pas de logiciels de CAO (de toutes façons, il n’y avait pas d’écrans interactifs !), et nous faisions la conception logique en câblant des circuits existants et en contrôlant avec un oscilloscope. Les fréquences dépassaient rarement 10 MHz.
Pour faire exister le circuit, il s’adresse tout naturellement aux connaissances chez Sescosem-EFCIS. Une personne importante dans le lancement du projet chez EFCIS a été M. Joumard qui s’est passionné tout de suite, puis ensuite M. Moreau pour le suivi de la réalisation.
À l’époque, Efcis a suivi, sans objectif précis, si ce n’est de mettre ces circuits à son catalogue. De même ensuite pour mes circuits graphiques.
EFCIS signifie "Etude et Fabrication de Circuits Intégrés Spéciaux". Ils étaient orientés vers la réalisation de circuits à la demande, mais faisaient aussi des circuits standards. C’était une filiale de THOMSON. Dans ce monde industriel, les conceptions ne sont pas publiques. Or, pour ma thèse, j’avais insisté pour pouvoir tout publier. EFCIS a déposé 4 demandes de brevets en mon nom, avec Thomson comme propriétaire, la veille de ma soutenance de thèse. (En accord avec le contrat que l’ENS avait signé.)
C’est le fait que la structure de mes blocs de base était publique qui a permis à EFCIS de les réutiliser ensuite pour les circuits du minitel. En effet, si cela avait été propriété d’un de leur client, ils n’auraient pas pu les ré-utiliser.
Dans les années qui ont suivi, la stratégie marketing de Efcis n’était plus compatible avec la relation avec les élèves de l’ENS et la collaboration s’est arrêtée. Dans une période transitoire (vers 1982), nous avions conçu, toujours en relation avec EFCIS, un ordinateur basé sur un microprocesseur 8 bits, qui a été commercialisé par EFCIS sous le nom de Monocarte-THEMIS. Il a été candidat pour équiper les lycées, mais il était un peu plus haut de gamme que ses concurrents et donc plus cher à produire.
Je vous partage un message de Philippe Matherat, qui a été contacté par un lecteur de cette dépêche (bublbobl) et qui a donné son accord pour la publication de ce message.
Je vous remercie de votre message, et de votre intérêt pour ces circuits et cette époque.
En effet, je suis le concepteur du premier GPU, au niveau mondial !
Ce sont les circuits EF9365 et EF9366.
Nous étions une bande de copains, élèves de l’Ecole normale Supérieure, de la promotion 1973.
L’informatique était balbutiante, les ordinateurs étaient gigantesques (un bâtiment), très rares et très chers. Personne n’envisageait qu’ils puissent être répandus et bon marché. Les seuls écrans connus étaient ceux de la télévision. Les terminaux informatiques étaient des machines à écrire mécaniques actionnés par des relais électromécaniques. Ces terminaux étaient reliés à des gros ordinateurs distants, par une ligne téléphonique à 300 bits/s.
Jean Gastinel était le seul de notre promotion qui connaissait un peu ce qui se passait aux Etats-Unis, grâce à son père : Noël Gastinel, qui était professeur à Grenoble et qui avait fait des voyages dans les universités américaines et chez IBM. Il avait fait équiper l’université de Grenoble d’un ordinateur IBM 370.
Il nous a sensibilisé aux circuits intégrés. Les premières mémoires MOS de taille correcte sont apparues dans ces années-là chez Intel (1 K bits en 1971, 4 K bits en 1974, 64 K bits en 1978).
Jean Gastinel, avec Jean-Marc Frailong et Jean-Luc Richier, ont réalisé un ordinateur 12 bits, à base de circuits MSI de Texas-Instruments, dans les années 1973-1975. Puis Jean-Gastinel s’est lancé dans la conception du circuit d’affichage alpha-numérique, qui a été commercialisé sous le nom de SFF364 puis EF9364 (le changement de nom correspond au changement de nom de la société Sescosem en EFCIS). Cette conception a fait l’objet de sa thèse de 3è cycle.
À la suite, j’ai pensé qu’on pouvait faire du graphique. Il faut bien voir que ceci n’est devenu possible que grâce aux nouvelles mémoires de 4 K bits, car un affichage 512 x 512 à 1 bit/pixel nécessite 64 boitiers mémoires de 4 K bits. En fait cela ne devient raisonnable qu’avec 16 boîtiers de 64 K bits. Il n’était donc pas possible de faire un GPU avant ces années-là. Mon mérite a été d’avoir le flair de voir qu’une période nouvelle pouvait s’ouvrir, et que les écrans graphiques pouvaient se démocratiser.
Nous avons bénéficié d’une période magique, dans laquelle une bande de jeunes étudiants pouvaient passer un contrat d’industrialisation avec une entreprise de semi-conducteurs française. Nos intentions n’étaient pas du tout de gagner de l’argent en créant une start-up. Nous avons tout donné au public, les contrats ont été passés entre Efcis et l’Ecole normale supérieure. L’argent rapporté a servi à créer le Laboratoire d’informatique de l’Ecole normale supérieure, qui n’existait pas auparavant.
D’après ce que je crois savoir, les circuits du Minitel ont été conçus par Efcis, à partir des briques de base de ma thèse de 3è cycle.
Après cela, nous avons été recrutés comme chercheurs au CNRS, installés dans le nouveau laboratoire que nous avions créé à l'ENS. Jean Gastinel et quelques autres sont ensuite partis en 1986 dans la Silicon Valley, chez Xerox-Park. Je suis resté à Paris, chercheur CNRS. J’ai travaillé sur la dissipation du calcul, puis sur les circuits asynchrones.
Dans les années 70, nous faisions la même chose que les créateurs d’Apple, eux dans un garage, nous dans les caves de l’ENS. Mais nous n’avions pas du tout la même mentalité. Notre idéal était de créer des choses qui profiteraient au grand public, avec l’idée que notre rôle était de concevoir, puis de passer à l’industrie qui réaliserait et commercialiserait. Nous avions un dédain pour la fonction commerciale et la finance. Nous avons mis longtemps à comprendre que cela ne pouvait réussir que si les créateurs étaient les mêmes que ceux qui géraient l’industrialisation et la montée en puissance financière.
Cette différence de mentalité explique la différence de succès entre la Silicon Valley et la France.
[^] # Re: cool
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien The Windows Subsystem for Linux is now open source . Évalué à 7.
Microsoft est quand même plutôt bien placé dans les entreprises et pour les outils bureautiques et de collaboration (Office, Teams, …). C'est le domaine historique du PC (parce qu'il était vendu par IBM, un vendeur de machines pour entreprises) et donc de DOS et de Windows, et ça se ressent encore aujourd'hui. De la même façon que Mac OS s'est surtout fait une place dans le design graphique et par extension dans le web.
Par contre, ils avaient clairement négligé les aspects en ligne de commande, et ça se rattrape pas mal ces derniers temps (il y a eu aussi du travail sur le terminal lui même).
Le projet WSL peut sembler nouveau mais il ne faut pas oublier que Microsoft a auparavant développé Windows Services For Unix.
Et bien avant ça, déjà en 1980, il y avait Xenix. Dans l'article Wikipedia on peut lire ceci:
L'idée était donc déjà là il y a 45 ans, alors que le Macintosh n'existait même pas et Steam encore moins! Mais ça y est, on vit dans le futur, les ordinateurs personnels sont enfin assez puissants pour UNIX, et Microsoft continue son plan comme prévu.
[^] # Re: On veut des détails!
Posté par pulkomandy (site web personnel, Mastodon) . En réponse à la dépêche Campagne de dons : Yunohost a besoin de vous !. Évalué à 4.
Pour Haiku les informations se trouvent dans les rapports financiers annuels de l'association Haiku inc:
https://www.haiku-inc.org/documents/
C'est juste du reporting après coup sur les dépenses car il n'y a pas vraiment de campagne de dons. Il y a un objectif positionné en début d'année qui est "faire aussi bien que l'année précédente". Globalement l'association récolte plus de sous qu'elle n'en dépense et a pas mal de réserves de côté.
On pourra lancer des campagnes si jamais on a des projets d'embaucher plus de monde par exemple (que ce soit pour le développement, ou pour se faire un peu de publicité, ce qui serait bien mais a priori à faire un peu plus tard quand le système sera plus proche d'une version non-beta).
Et par contre c'est pas présenté de façon aussi jolie. Il faut aller lire les tableaux plein de chiffres (avec en plus une double comptabilité en euros et en dollars).
[^] # Re: On veut des détails!
Posté par pulkomandy (site web personnel, Mastodon) . En réponse à la dépêche Campagne de dons : Yunohost a besoin de vous !. Évalué à 4.
Je ne sais pas si c'est juste un problème de cache chez moi, mais le lien "faire un don" dans la dépêche me redirige vers une page qui n'existe pas dans l'espace de rédaction de linuxfr.
Ce lien-ci fonctionne beaucoup mieux :) et donne toutes les infos nécessaires.
# On veut des détails!
Posté par pulkomandy (site web personnel, Mastodon) . En réponse à la dépêche Campagne de dons : Yunohost a besoin de vous !. Évalué à 10.
Est-ce qu'il y a un objectif de dons et des informations sur les dépenses prévues quelque part? Je pense que ce serait intéressant pour valoriser ce qui va être fait des dons reçus.
(Je n'ai pas cherché très loin, mais ni le message d'appel à dons ni la roadmap ne semblent l'indiquer).
Je suis toujours curieux de voir comment chaque projet dépense son argent et quel est le montant annuel des dons. Il y a parfois des surprises (dans un sens ou dans l'autre) ainsi que des idées intéressantes.
[^] # Re: Équipe de développement assez grande ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal Librewolf, ce que Firefox devrait être…. Évalué à 3.
Et c'est ce qui est fait. Mais le Javascript peut très bien renvoyer l'info au serveur aussi.
Je ne sais pas lequel des deux est apparu en premier. Et je pense que si on retirait Window.screen de l'API Javascript, les développeurs de trackers trouveraient bien un moyen d'extraire l'info à partir de css et je javascript tout de même.
Et je pense que c'est pareil pour les autres cas: ces infos doivent être accessibles d'une façon ou d'une autre (à part en effet pour le niveau de charge de batterie qui ne me semble pas indispensable, mais le besoin initial est tout de même compréhensible même s'il n'est pas acceptable).
Le vrai problème est que ces informations sont trop faciles à remonter au serveur. Chacune individuellement a été mise en place pour de bonnes raisons, mais sans suffisamment de considération pour les risques que ça pose pour le tracking, ou bien, les protections nécessaires n'ont pas pu être mises en place parque que la plateforme de base ne le permet pas (ça semble vraiment difficile de contrôler tout ça et à la fois d'autoriser le code Javascript a faire des requêtes dynamiques pour envoyer et recevoir tout et n'importe quoi).
Sûrement qu'une architecture pensée pour la vie privée dès le départ aurait, par exemple, complètement interdit au code Javascript de pouvoir déclencher tout accès au réseau, et limité fortement les possibilités d'envoyer des cookies et autres en-tête personnalisés. Le résultat serait bien différent de ce qu'on a aujourd'hui. Mais je pense que la seule solution pour y parvenir aujourd'hui ce serait de changer de plateforme, et par exemple utiliser quelque chose comme Gemini.
[^] # Re: Encore un effet de bord de la centralisation ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien Github limité à 60 requête/heure sans compte.... Évalué à 6. Dernière modification le 15 mai 2025 à 19:35.
Probablement parce que les premiers comptes étaient les comptes bancaires et autres trucs financiers de la sorte (servant à compter combien de sous une personne doit à une autre). Le concept s'est étendu à d'autres usages par la suite?
[^] # Re: Équipe de développement assez grande ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal Librewolf, ce que Firefox devrait être…. Évalué à 3.
Il ne s'agit pas que d'un langage de programmation, mais de tout un environnement (peut-être comme KDE ou GNOME, ou au moins comme Qt et GTK).
Pour le sujet du fingerprinting: prise individuellement, chaque information remontée est assez cohérente. Le site que tu visites a besoin de connaître ton fuseau horaire pour t'afficher les heures locales. Il a besoin de la taille de ta fenêtre pour faire sa mise en page. Il a besoin de savoir quelles langues tu comprends pour t'afficher le site dans une langue que tu connaît. Il a éventuellement besoin de ton niveau de batterie pour savoir s'il lance une vidéo en full HD qui va consommer les 2% qu'il te reste, ou bien si il vaut mieux passer sur une version légère du site.
Par contre, le truc aurait peut-être pu être pensé pour que ces infos ne puissent pas être remontées vers le serveur, et que un maximum de choses se fassent en local. Probablement que ça n'a pas été possible parce que une grande partie de la conception a été faite avant que la vie privée des utilisateurs soit à la mode, et c'était difficile de changer après coup et que ça remettrait en question des choix assez fondamentaux.
Après, il se trouve que des entreprises se sont engouffrées dans cette faille pour monter un business à partir de l'extraction de données. Mais je ne suis pas certain que ce soit lié, le fingerprinting est assez opportuniste et détourne des fonctionnalités qui, prises individuellement, n'étaient pas prévues pour ça.
[^] # Re: Sens noble du hacking & proximité certaine avec le logiciel libre
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au sondage Le hacking et vous. Évalué à 4.
Pas sûr de ça?
Le terme "hacker" dérive du verbe "to hack":
a: to cut or sever with repeated irregular or unskillful blows
b: to cut or shape by or as if by crude or ruthless strokes
"découper par des coups répétés ; irréguliers ou maladroits", en gros "tailler à la hache". On n'est pas vraiment dans la méritocratie ni dans le travail de qualité.
Par extension ce même verbe est utilisé pour n'importe quel travail effectué grossièrement, sans adresse ni élégance.
Ce n'est qu'ensuite que des gens désignés (péjorativement) comme "hackers" en électronique ou en informatique se sont réappropriés le terme et lui ont donné une signification plus valorisante. Car la solution inélégante pour l'un est, pour l'autre, le trait de génie est l'exploitation inattendue de fonctionnalités, et l'ouverture de nouvelles possibilités pour un logiciel ou un matériel donné.
Le mot geek a pris un virage un peu simlaire dans les années 90-2000. C'était très négatif, mais c'est devenu un badge de fierté pour certaines personnes.
[^] # Re: Équipe de développement assez grande ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal Librewolf, ce que Firefox devrait être…. Évalué à 9.
La situation est plus compliquée. À l'époque où Firefox travaillait au respect des normes, il s'agissait de normes établies par le w3c, plutôt stables et avec une évolution assez lente.
Situtaion qui bien sûr ne convenait pas du tout à Google qui hréfère faire évoluer les choses très très vite. Ils ont donc créé le WHATWG qui a remplacé le w3c pour la standardisation du HTML. Depuis, le HTML5 est en "rolling release", toutes lë nouveautés sont ajoutées directement dedans avec peu de préoccupation de la vie privée des utilisateurs. Le rythme est beaucoup plus rapide. Malheureusement, les développeurs d'autres navigateurs ont plus ou moins suivi ce mouvement.
Cela pose déjà des problèmes bêtement techniques: une fois que quelque chose est standardisé, c'est très compliqué de le retirer car cela casserait les sites web exisants. Un standard avec une évolution lente permettrait de faire des expériences puis de les abandonner avant qu'elles n'aient le temps d'être standardisées. Le travail pour suivre le rythme est conséquent et contribue à la prise de poids des moteurs de rendu.
Cela met donc en évidence un problème plus profond: il ne s'agit pas juste du respect des normes, mais de la façon dont ces normes sont établies. Mozilla a, il me semble, suivi Google dans cette aventure en se disant que c'était mieux d'essayer de lutter de l'intérieur pour défendre la vie privée des utilisateurs. Peut être que si à l'époque ils étaient restés du côté du w3c, les choses seraient bien différentes? Quelques années plus tard, ils ont accepté d'implémenter des DRM pour les contenus vidéo. Maintenant ils espionnent leurs utilisateurs via de la télémétrie et essaient d'intégrer des chatbots intelligence artificielle et je ne sais pas quoi alors qu'on leur demande juste de faire un navigateur…
[^] # Re: Équipe de développement assez grande ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal Librewolf, ce que Firefox devrait être…. Évalué à 7.
Tout à fait. Le truc qui me chiffonne un peu c'est que WebKit semble souvent oublié dans ces discussions (comme si il n'existait que Gecko, Blink, et Servo voire Ladybird comme candidats sérieux), alors même que ça me semble être celui qui est déjà le mieux configuré (en termes de gouvernance et de portabilité) pour répondre à ce besoin.
Je ne sais pas si c'est lié à l'implication importante de Apple dans le projet (qui ne m'a pas l'air de poser tant problème que ça, et qui sera naturellement "diluée" s'il y a plus de participants) ou pour des problèmes techniques (performance, compatibilité/respect des standards, …) ou pour d'autres raisons. Qui peuvent être justifiées, mais dans ce cas j'aimerais bien savoir ce qu'elles sont, et pas que WebKit soit juste éliminé d'office de la discussion.
[^] # Re: Équipe de développement assez grande ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal Librewolf, ce que Firefox devrait être…. Évalué à 10.
Il y a WebKit, qui est co-développé actuellement par Apple, Sony et Igalia et n'aurait pas de problème à accueillir des participants supplémentaires (par le passé il y a eu Nokia/Qt, Samsung, et Google avant qu'ils créent un fork avec Blink).
Le support multi plateformes est bon, et la distribution est faite sous forme de juste un moteur de rendu, autour duquel il est relativement facile de construire un navigateur.
Gecko faisait la même chose il y a longtemps, mais il a été tué par Mozilla qui a décidé de le lier à Firefox. Si Mozilla abandonnait le développement du moteur, ça rouvrirait la possibilité de mettre en place un vrai projet de moteur de rendu, indépendant d'un navigateur et avec une gouvernance plus ouverte. Et les contributeurs de plusieurs navigateurs pourraient y participer au lieu de maintenir chacun sa version.
En ce qui me concerne, je vais continuer à travailler avec WebKit ou mes patchs pour ajouter le support de Haiku sont plutôt bien reçus (j'ai même vu des patchs pour le support de Hurd passer il y a pas longtemps, comme quoi Apple n'a pas peurt des OS concurrents!)
[^] # Re: Fennec
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal Librewolf, ce que Firefox devrait être…. Évalué à 10.
C'est plutôt Mozilla qui ne veut pas que le nom et le logo Firefox soient associés à des versions du navigateur qu'ils n'ont pus personellement validées. Ce qui semble normal, sinon n'importe quel site malveillant pourrait proposer un Firefox vérolé plein d'extensions publicitaires et de logiciels espions.
F-Droid pourrait faire des démarches auprès de Mozilla pour faire valider leur version (ce que Debian a fait, par exemple, auparavant ils avaient une version de Firefox renommée Iceweasel), mais c'est une certaine perte d'indépendance sur ce qu'ils décident de packager ou non, et quelles modifications ils peuvent apporter.
Chez Haiku, notre version de Firefox s'appelle également Iceweasel. Mais Librewolf et Waterfox sont également disponibles dans nos dépôts logiciels.
[^] # Re: Ça donne envie de le rallumer
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal De la nostalgie du 486. Évalué à 4. Dernière modification le 12 mai 2025 à 09:26.
C'est compatible électriquement et au niveau du protocole, mais pas au niveau mécanique. Il faut donc effectivement un adaptateur passif.
Sur des machines plus anciennes, le BIOS ne sait pas gérer un disque dur IDE, mais il est possible d'installer XT-IDE sous forme d'une ROM d'extension pour ajouter le code nécessaire. Chez moi j'ai un clone de PC-XT avec un processeur 8086 équipé ainsi (ça ne me sert à rien, cela dit).
[^] # Re: Obsession ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien « The Keynote Will NOT Go Forward » — lien-signets : Richard Stallman devient persona non grata. Évalué à 6.
Les deux côtés du problème s'entretiennent l'un l'autre. Il yea des gens cui conçoient le logiciel libre comme un culte de la personne de rms (volontairement ou pas). Ça rend rms irremplaçable. Donc c'est lui qui donne toutes les conférences. Donc personne d'autre n'a l'occasion de se mettre en avant et de prendre le relais. Donc les gens qui ne sont pas trop content de cette façon de voir les choses vont voir ailleurs. Soit ailleurs que dans le logiciel libre, soit ailleurs qu'à la FSF. Par exemple la Software Freedom Conservancy qui fait plein de trucs pour le logiciel libre et donne plein de conférenges intéressantes. Si on veut absolument des noms: Karen Sandler ou Bradley Kuhn par exemple.
Ge n'est pas propre à la FSF, culturellement les gens ont du mal avec les organisations où il n'y a pas un "chef", et c'est compliqué à maintenir pour d'autres raisons. Mais bon, Richard Stallman n'est pas immortel et plus tout jeune, si la FSF choisit de rester organisée dans un culte de la personne (pourquoi pas, ça semble bien fonctionner tout de même), qui sera son ou sa rerplaçante? Difficile si l'organisation est incapabne de faire émerger d'autres personnes ou de fonctionner sans rms (qui avait été exclu du comité de direction avant d'être finalement réintégré).
Moi j'ai peu d'espoir pour la survie de la FSF dans ces conditions. Heureusement il y a d'autres organisations qui sont mieux gérées à mon avis, et qui prendront très bien le relais si ce n'est déjà fait.
[^] # Re: Obsession ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien « The Keynote Will NOT Go Forward » — lien-signets : Richard Stallman devient persona non grata. Évalué à 10.
En fait il fait une intervention, c'est tout le temps la même à peu de chose près. Après 40 ans à donner la même conférence toutes les semaines, je pense que n'importe qui deviendrait aussi bon que lui.
Et en plus, il présente une vision "réductrice" du logiciel libre qui parle uniquement du logiciel libre, c'est à dire des licenses et oes 4 libertés fondamentales. Ça n'aborde donc pas du tout tous les aspects communautaires.
Or, la partie sur les licenses, quelque part, c'est un combat qui est plus ou moins déjà gagné. Aujourd'hui il serait plus intéressant de parler d'autres aspects: aussi bien sur le plan technico-organisationnel (comment on maintient des projets sur des dizaines d'années avec des équipes distribuées hartout dans le monde et des milliers de participants) que politique (trouver des moyens de financer le logiciel qui ne dépendent pas des gafam, protéger la vie privée des utilisateurs) ou encore sociétales (la diversité dans l'informatique, est-ce que le logiciel libre peut contribuer à l'écologie et à la lutte contre le changement climatique en retardant l'obsolescence du matériel, …).
Je suis sûr qu'on peut trouver plein de gens pour faire des interventions intéressantes sur ces sujets où il y a plein de choses à dire. C'est dommage d'en rester à la conf degré zéro d'introduction au logiciel libre, non?
[^] # Re: précisions
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien Fin du changement d'heure : où en est-on ? . Évalué à 4.
Pour les soucis de santé, il me semble avoir lu qu'il y a effectivement une sur-représentation des AVC si on regarde la semaine juste après le changement d'heure, mais qui est annulée par les semaines suivantes.
La conclusion est que le changement d'heure a été le stress de trop pour des personnes qui étaient déjà sur le point de faire un AVC, qui se serait déclenché de toutes façons pour une autre raison une ou deux semaines plus tard.
Cela dit, avec un système hospitalier saturé, il pourrait tout de même y avoir un effet supplémentaire à concentrer les problèmes sur le même jour ou la même semaine?
[^] # Re: vibe coding
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien Le site de curl désormais à 1,6 Go/minute de trafic à cause des crawlers pour LLMs. Évalué à 5.
Je ne sais pas si on peut tout mettre sur le dos de l'incompétence. Certains de ces bots font des efforts pour utiliser plusieurs user agents imitant de vraies machines pour essayer de passer innaperçus, ce qui suppose un minimum de compréhension de comment ça marche et une volonté d, rendre le truc difficile à bloquer par les méthodes habituelles.
Il y a donc au moins une part de malveillance. D'habitude je suis le premier à envisager l'incompétence, mais là il y a des gens qui le font exprès.
Même chose chez Facebook avec un bot qui fait des milliers de requêtes et dont la documentation dit explicitement qu'ils ont choisi de ne pas respecter le crawl-delay du robots.txt. Il n'y a pas de "oups on a pas fait attention, désolé" là dedans cette fois ci.
[^] # Re: Je comprends pas
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien Le site de curl désormais à 1,6 Go/minute de trafic à cause des crawlers pour LLMs. Évalué à 10.
Oui, ça coùte moins cher de retélécharger les choses que de faire un mirroir de tout l'internet.
Et même sur une "petite" forge, un crawler un peu stupide qui suit tous les liens, il va scanner tout l'historique git du projet si c'est accessible via une interface web, et probablement dans tous les formats possibnes (log, diff, blame, en html, en texte, …). Ça fa?t assez vite un gros volume de données, Multipilié par quelques dizaines d'entreprises qui entraìnent des modèles, chacune travaillant probablementsur plusieurs modèles différents en parallèle, ça fait un très gros volume.
[^] # retex
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal Un super Logic Analyzer DIY pour pas cher. Évalué à 5.
J'utilise également un clone saleae (pour mes bricolages personnels). Plutôt pas mal pour les choses simples en effet. Le matériel est très simple, basé sur un composant standard, et la vraie valeur de ces outils est dans le logiciel. Pour ma part je ne vois pas de problème à utiliser un clone avec un logiciel libre. Les problèmes de Saleae viennent plutôt de leur choix de faire payer assez cher le matériel pour financer le logiciel (logiciel dont on a pas vraiment besoin si on utilise Sigrok).
Les systèmes professionnels vont se dif#érencier soit par la gestion de protocoles plus exotiques, soit par du matériel capable de capturer plus de signaux, à une fréquence plus élevée.
Si on veut par exemple tracer un bus adresse et données d'un CPU, ce genre de choses peut être utile. Certains proposent même des modules logiciels pour désassembler le code exécuté à la volée.
Il peat aussi y avoir des besoins particuliers si on veut scanner des protocoles qui ont des spécificités au niveau électronique (usb, sata, hdmi qui utilisent des paires différentielles par exemple).
Mais si on a pas ces besoins, un analyseur DIY simple fera très bien l'affaire, avec un logiciel comme Sigrok par exemple.
[^] # Re: robot.txt
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien Drew Devault : Please stop externalizing your costs directly into my face . Évalué à 6.
ça dépend ce que tu veux faire.
Par exemple sur mon site web, le robots.txt met un crawl-delay de 5 minutes pour tout le monde par défaut. Je n'ai pas besoin que les robots indexent mon site plusieurs dizaines de fois par jour, le contenu change assez peu.
Si les robots LLM respectaient ce réglage, je n'aurait pas de problème de charge CPU ou de bande passante (j'ai d'autres problèmes personnels avec les LLM mais c'est une autre histoire). ça règle le deuxième problème: ce réglage étant valide pour tout le monde, il n'y a pas de "course".
Il en est de même pour les liens avec rel="nofollow" que les robots ne devraient normalement pas utiliser (et je suppose que les gens qui se plaignent de problème de charge CPU sur leurs applis web sont un minimum compétents et ont déjà mis en place ce type de mesures pour éviter que les robot scannent des choses qui n'ont pas besoin de l'être).
Sauf que non: certains de ces robots ignorent complètement le robots.txt, d'autres ignorent le crawl-delay, d'autres refusent un crawl-delay supérieur à 10 secondes. Donc je les ai exclus par d'autres moyens, parce que ce mois ci c'était 2 adresses IP qui représentaient plus de 50% du traffic arrivant chez moi.
[^] # Re: FUD ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien CloudFlare voit tous vos mots de passe en clair (sur tous les sites qui utilisent CloudFlare). Évalué à 4.
Je pense que tous les employés de Cloudflare ne sont pas des milliardaires de la tech, et j'espère que la mise en place du nouveau régime technofasciste américain ne va pas se faire sans un minimum de résistance.
Quelle autre raison pourraient-ils avoir pour faire un message de blog dont le but principal est de dire "coucou, on voit vos mots de passe"? Le risque de "bad buzz" me semble assez évident avec un tel message, non?
[^] # Re: FUD ?
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au lien CloudFlare voit tous vos mots de passe en clair (sur tous les sites qui utilisent CloudFlare). Évalué à 8.
Moi, si j'étais Cloudflare et que le gouvernement me demandait ça, je ferais un article de blog disant HÉ VOUS AVEZ VU? ON A ACCÈS À VOS MOT DE PASSES IL FAUDRAIT PAS QUE ÇA TOMBE ENTRE DE MAUVAISES MAINS. À défaut de pouvoir être plus explicite…
[^] # Re: D'où l'intérêt...
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal changer de genre est un droit garanti par le RGPD. Évalué à 4.
Il ms emble que Voyages SNCF s'est fait taper sur les doigts à ce sujet il y a quelques semaines: effectivement, c'est excessif, et ils n'ont pas à te demander ça pour te vendre un billet de train.
[^] # Re: Un message de Philippe Matherat
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal La thèse de Jean Gastinel: conception et intégration d'un terminal alphanumérique (1977). Évalué à 10.
# Un message de Philippe Matherat
Posté par pulkomandy (site web personnel, Mastodon) . En réponse au journal La thèse de Jean Gastinel: conception et intégration d'un terminal alphanumérique (1977). Évalué à 10.
Je vous partage un message de Philippe Matherat, qui a été contacté par un lecteur de cette dépêche (bublbobl) et qui a donné son accord pour la publication de ce message.