Thomas Debesse a écrit 3624 commentaires

  • [^] # Re: Sinon (bis)

    Posté par  (site web personnel, Mastodon) . En réponse au journal Youtube embed in Youtube. Évalué à 3.

    Ça arrive aussi sur des vidéos qui traitent d’informations et d’actualité (exemple de sujet qui peut classer 18+ une vidéo : guerre).

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Show your desktop ?

    Posté par  (site web personnel, Mastodon) . En réponse au lien Un PC gaming sous Linux ? C’est possible, la preuve avec ce laptop 100 % AMD. Évalué à 5.

    Ça se scripte: https://github.com/kholia/OSX-KVM

    …et ce n’est pas trop galère. 🙂️

    Ce genre de script est plus sûr qu’une image non-officielle qu’on sait pas ce qu’il y a dedans. Si le script n’est pas plus officiel, il utilise les fichiers officiels d’Apple pour installer l’image.

    ce commentaire est sous licence cc by 4 et précédentes

  • # y a t-il un rapport ?

    Posté par  (site web personnel, Mastodon) . En réponse au journal L’avis de RMS sur les relations sexuelles. Évalué à 10.

    Je trouve toujours curieux ce besoin de lier un débat sur l’idée de copyleft théorisée par RMS avec des positions qu’RMS aurait tenu sur la sexualité (et éventualité la pédophilie). Par exemple je doute très fortement que l’idée de copyleft soit d’une manière ou d’une autre, le marqueur, l’effet, un encouragement ou port en elle la trace de la pédophilie. On peut tout à fait se servir d’une formule mathématique inventée par un mathématicien qui battait sa femme.

    La question se poserait plus s’il s’agissait de baptiser une maternelle ou un jardin d’enfant du nom de RMS, il serait plus judicieux de nommer en son honneur un département informatique d’université…

    Les propos de RMS à l’époque me semblent malheureusement s’inscrire complètement dans l’époque où il a grandi. En ce sens, la pression sociale qui pourrait le lyncher aujourd’hui en 2023 pour avoir tenu ces propos en 2013 pourraient l’avoir lynché à l’époque s’il avait dénoncé de tels propos dans les années 70.

    Le journal Libération au du répondre par exemple au fait qu’il faisait l’apologie de la pédophilie en 1974 (et en fait jusque dans les années 80), cette même année 1974, RMS passait de Harvard au MIT. L’opinion que RMS a sorti en 2013 me semble être une resaucée de ce qui était une opinion majoritaire dans certaines universités.

    En fait là dessus je reprocherait plutôt à RMS d’avoir vécu dans une grotte sur ces sujets pendant tant d’années, mais en même temps c’est pas là dessus qu’on l’attend. Je pourrais comparer ce genre de sortie de RMS en 2013 qui nous ressort un truc qu’il avait gardé au frigo depuis les années 70 à je ne sais plus quel commentateur télé qui a ressortit récemment en 2023 (pendant l’affaire Nahel je crois) sur le sujet des jeux vidéos violents une rumeur de cours de récré (écraser des femmes enceintes ou des landaux pour avoir des points) qui date des années 1998 (une rumeur que je sais provenir de Carmageddon, car j’étais aussi en cour de récré en 1998, héhé).

    En parlant du journal Libération, je suis beaucoup plus critique envers l’un de ses fondateurs, Jean-Paul Sartre, et sa complice Simone de Beauvoir, qui sont désormais reconnus comme des prédateurs sexuels. À la différence d’un RMS dont les idées ou paroles sur la sexualité me semblent indépendantes de ses idées sur les licence libres, un Sartre ou une Beauvoir se servaient de leur rôle d’enseignant, et la séduction par les idées faisait partie de leur stratégie. Je trouve plus gênant que le discours féministe de Beauvoir lui permettait de séduire des étudiantes à son profit avant de les rabattre sur Sartre (exemple).

    Aujourd’hui les paroles et les prises de positions de certaines personnes ressortent, et c’est pas simple à gérer.

    Par exemple l’autre jour j’ai assisté à l’enterrement d’un proche dans une banlieue de la région parisienne. Je remarque en sortant du cimetière la tombe de Léon Bloy. J’entends une des autres personnes présente à l’enterrement faire remarquer que dans ce même cimetière se trouve aussi la tombe de Françoise Dolto. Je connaissais le premier (écrivain) mais pas la seconde (psychanalyste). Rentré chez moi j’ai parcouru la page Wikipédia. J’y ai lu que :

    « Françoise Dolto signe en 1977 — en compagnie de nombreux autres signataires parmi les intellectuels français de l'époque (Jean-Paul Sartre, Michel Foucault, Roland Barthes, Simone de Beauvoir, Alain Robbe-Grillet, Jacques Derrida, Philippe Sollers…). — une « Lettre ouverte à la Commission de révision du code pénal pour la révision de certains textes régissant les rapports entre adultes et mineurs », jugeant que le « consentement des mineurs » suffit amplement. La participation à cette pétition lui vaut comme ses cosignataires d'être accusée dans les années 2020 d'avoir tenue une position favorable à la pédophilie. »

    Wikipédia rapporte alors plusieurs éléments du débat à ce sujet, avec l’idée par exemple qu’elle aurait surtout voulu porter la réflexion sur le caractère arbitraire de la majorité sexuelle, et la page rapporte des positions plus tranchées sur le fait de faire du non-respect du consentement un déli et de faire du viol un crime quelle que soient les victimes, etc.

    Bref, tout ça pour dire que je trouve dommage ce types de paroles, mais ces paroles de RMS me semblent plus être le reflet d’une pression sociale et d’une certaine culture universitaires des années 70 dans laquelle RMS a très certainement baigné, que d’être une profonde conviction. Et surtout je ne vois pas trop le rapport avec les licences libres et le copyleft dans ce cas précis. Il me semble que relier les deux c’est surtout forger une espèce d’argument ad hominem. Et je trouve même que l’argument qu’une telle parole de sa part banaliserai tel discours ne tient pas beaucoup, car j’ai l’impression que personne n’en aurait vraiment entendu parler si ses détracteurs n’en faisaient une telle publicité.

    Personnellement je n’aime pas vraiment le copyleft, mais mes arguments ne sont pas ad hominem et je n’ai pas besoin de parler de RMS pour exprimer et défendre mon opinion sur le copyleft.

    ce commentaire est sous licence cc by 4 et précédentes

  • # Compliqué

    Posté par  (site web personnel, Mastodon) . En réponse au lien Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable. Évalué à 5. Dernière modification le 28 novembre 2023 à 16:31.

    Il y a des trucs qui m’étonnent un peu, par exemple :

    Le fait de consacrer une partie importante de ses revenus à son loyer

    Prenons un exemple précis : une personne A qui a eu un enfant avec B dans sa jeunesse se marie avec C. C trouve un travail à 800km du lieu de résidence de B. Les deux parents A et B partagent la garde. Le môme a son école, son cours de sport et de théâtre et ne fait que passer de la résidence de A à la résidence de B dans la proximité immédiate de ses activités scolaires et extra scolaires. Le couple A et C paient une part très importantes de leurs revenus dans deux loyers (l’un pour C, l’autre pour l’enfant de A et B), et dans des aller-retours.

    Je ne vois pas dans ce cas là de quoi trouver suspect de consacrer une partie importante de ses revenus à son loyer (ses loyers, en fait).

    Le loyer est une dépense, pas un revenu, en plus c’est une dépense sans aucun retour sur investissement, une perte sèche. J’ai du mal à voir ce qui pourrait motiver un tel indicateur, et je peux imaginer assez facilement comment ce genre d’indicateur peut être complètement à côté de la plaque.

    Par contre ça :

    Comble du cynisme, l’algorithme vise délibérément les personnes en situation de handicap : le fait de bénéficier de l’Allocation Adulte Handicapé (AAH) tout en travaillant est un des paramètres impactant le plus fortement, et à la hausse, le score d’un·e allocataire.

    Je trouve que la Quadrature est un peur rapide à tirer des conclusions. Dit comme ça, on a l’impression qu’être handicapé rend plus suspect, sauf que la variable de la CAF n’est pas « être handicapé », mais percevoir l’AAH.

    Il y a eu un fait divers très récent (septembre de cette année), où un escroc se vantait de cumuler ARS, AAH et APL et ce depuis au moins 7 ans (il expliquait que peuvent cumuler ARS et AAH seuls ceux qui cumulaient déjà depuis 2016 où les choses on changées de manière non rétroactive). L’escroc expliquait gagner 1800€ sans travailler, et espérait « gratter jusqu’au dernier centime » en vendant des formations pour mettre en œuvre la même escroquerie. Comme il disait : « je suis en bonne santé, je suis juste handicapé sur le papier, parce que je me suis arrangé avec un médecin, parce que je l’ai manipulé, parce que la manipulation et la persuasion est une science qu’il faut acquérir, et moi je vais vous aider à toucher l’AAH ».

    Voir cet article du site handicap.fr au sujet de cette affaire : https://informations.handicap.fr/a-aah-fraudeur-epingle-apres-video-aberrante-35561.php

    Dans ce genre de situation, ce sont les allocataires légitimes des AAH qui pourraient eux-même réclamer que les contrôles soient plus stricts, en fait.

    Si la CAF a par exemple constaté une forte tendance de fraude à l’AAH, parce que les fraudeurs viseraient cette fraude en particulier, je peux comprendre qu’il faille vérifier plus les demandes d’AAH. Après est-ce que c’est le boulot de la CAF de faire ça ou celui de la police ? C’est une autre affaire (et si la police traitait ce fichier de manière automatisé ça ferait un autre scandale, probablement plus grave en fait).

    Cet escroc expliquait percevoir AAH, ARS et APL, et expliquait lancer une activité de conseil, et donc travailler. L’indicateur « bénéficier de l’Allocation Adulte Handicapé (AAH) tout en travaillant » aurait donc pu déclencher un contrôle chez cette personne même s’il n’avait pas eu la stupide idée de lancer sa nouvelle activité aussi publiquement.

    Le site handicap.fr me propose un autre article rapportant que « seul 1.2% des fraudes » détectées par les Caf en 2020 concernaient l’AAH (soit 36 917 fraudes pour 255,5 millions d’euros), mais on y lisait que le chiffre était visiblement sous évalué car une baisse de 21% de ces fraudes par rapport à 2019 seraient en fait le reflet de la suspension temporaire des opérations de contrôle pendant le Covid.

    Au sujet de l’AAH je suis plus attentif à la question de la déconjugalisation de l'allocation aux adultes handicapés (le fait que l’allocation individuelle ne prenne pas en compte le revenu du conjoint).

    ce commentaire est sous licence cc by 4 et précédentes

  • # Merci pour liquid prompt

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Comparaison critique de systèmes d'invite de commande. Évalué à 3.

    J’en profite pour dire merci pour liquid prompt. Cet article me fait réaliser que je l’utilise depuis au moins 2012 (j’y trouve quelque patchs mineurs à mon nom dans l’historique Git à cette date, et si j’ai cru devoir l’ajuster c’est un bon indice que je l’utilisais suffisamment).

    Je n’arrive pas à imaginer ce que serait ma vie sans lui. En fait je dirai sans rougir que liquid prompt est l’interface à Git que j’utilise le plus au quotidien. Le fait d’avoir un retour immédiat de l’état courant du dépôt courant est quelque chose d’extrêmement pratique, le terminal étant l’interface informatique que j’utilise le plus.

    Bien sûr d’autres prompts font ça aussi. Quelqu’un d’autre a cité powerline de bersace< et j’ai pas essayé (j’aime pas trop les prompts en vidéo inversée) et il fait probablement très bien l’affaire aussi.

    Mais je n’imagine pas une vie sans avoir un retour immédiat sur l’état du dépôt courant à chaque prompt, et liquid prompt fait ça très bien !

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Wikipédia

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Des nouvelles de Xonotic. Évalué à 10.

    Bon j’avais écrit ce commentaire hier, puis j’ai eu d’autres priorités dans ma vie™ et je ne l’ai pas posté.

    Quand je reviens, je retrouve un échange de « c’est toi qui le dit c’est toi qui l’y es » de cour de récré, ce qui me confirme ce que j’avais pressenti : que ton commentaire ne pouvait conduire qu’à un échange stérile, de par la façon dont tu antagonises et essentialises les parties. En simple : tu supposes qu’il y a un complot de complotiste, donc tu ne fais pas mieux, tu obtiens exactement ce que tu recherches, et j’espère que tu ne pensais pas donner une bonne image de Wikipédia avec ton commentaire parce que l’idée de Wikipédia que tu présentes est précisément cause de tels antagonismes et essentialismes stériles. Dans mon commentaire, ci-après, je prends volontairement un exemple dit « comploplo » et d’autres non, pour montrer que le nœud du problème est bien plus profond que ça. S’arrêter en surface c’est s’assurer de ne pas pouvoir traiter les problèmes de fonds.

    Je peux ajouter à mon commentaire : Brandir le drapeau « comploplo », c’est s’assurer que le débat ne porte que sur ce sujet, ce qui permet de ne pas traiter les autres sujets, ou les sujets plus profonds, ce qui construit, volontairement ou non, une forme de déni.


    Pour moi la véritable vulnérabilité de Wikipédia, ce ne sont pas les jeux de pouvoir, mais le déni de ces jeux de pouvoir.

    Par exemple là tu dis que « la véritable contrainte est sur la fiabilité », puis tu parles de « comploplo », ce qui est un peu le point Godwin des œuvres de connaissances à la Wikipédia. Atteindre un point Godwin ou brandir l’argument qui le fait atteindre c’est abdiquer devant ces jeux de pouvoirs et donc leur laisser les pleins pouvoirs. Tu dis également qu’« il y a de nombreux sites ou sources qui sont un peu dans une zone ou on ne peut pas forcément assurer qu’ils ont des exigences de filtrage qui permet de filtrer la désinformation », comme si le seul enjeu était un duel information/désinformation, que la seule cause d’erreur dans Wikipédia proviendrait d’une volonté de désinformation et que le seul outil contre les erreurs dans Wikipédia ou dans les sources de Wikipédia est le filtrage. C’est extrêmement réducteur. Il me semble que Wikipédia est un outil et une œuvre de recueil et de consolidation de la connaissance, le fait que cette connaissance soit une information, une désinformation ou une réinformation est déjà dans un degré second, c’est un rapport à cette connaissance, pas la connaissance elle-même. La connaissance ça se construit, et il peut y avoir des erreurs, des approximations, des intentions de nuire, et des erreurs sincères, ça s’affine, ça se discute, ça se confronte. Un chercheur qui contredit quelque chose de considéré comme acquis ou qui redéfinit les limites d’un élément de connaissance, il ne se place pas dans une dialectique information/désinformation, et son outil ce n’est pas le filtrage, mais un exercice de pensée qui analyse, confronte, vérifie, etc. Et la raison produit bien plus d’outils que le simple filtrage (lui-même vulnérable par ailleurs).

    Pour revenir au déni, illustrons un point particulier dont peut souffrir Wikipédia en tant que champ de bataille de jeux de pouvoirs, avec des exemples grand-public. Si je dis « blanchiment d’information », il y a quelques années, certains auraient prêtés une oreille attentive, peut-être même parmi les wikipédistes qui ont pour volonté de faire de Wikipédia une source d’information sure et fiable, peut-être même toi. Mais ce terme a été employé par une personnalité bien connue (certains diront controversée) : Idriss Aberkane. Et donc maintenant utiliser cette expression est suspecte. Je prends pour exemple cet article de 2022 dans Libération. Titre : « «Blanchiment de fausses informations» : comment Idriss Aberkane fantasme Wikipédia », citation : « L’essayiste controversé a accusé le site de fact-checking «Fact & Furious» d’avoir été créé pour produire de fausses informations destinées à être reprises dans la presse, pour pouvoir être citées dans l’encyclopédie en ligne. ». Plus loin l’article parle de « trame complotiste ». C’est pour ça que je prends cet exemple exprès parce que c’est un exemple qui correspond à ton expression « comploplo ». L’expression « blanchiment d’information » parce qu’utilisée par telle personnalité, devient un marqueur « comploplo ».

    Pourtant cette expression existait bien avant. Dans la galaxie Wikpédia, le wiktionary francophone a une entrée pour cette expression, avec une citation tirée d’un article du Monde de 2019, donc trois ans avant que cette expression ne devienne un marqueur « comploplo ». Titre : « Marlène Schiappa et le « blanchiment » de l’information parodique », citation : « Le blanchiment d’information est un phénomène de plus en plus courant. Les administrateurs du célèbre Gorafi, par exemple, en ont fait l’expérience le 24 avril 2017, lorsqu’une interview imaginaire d’Emmanuel Macron rédigée un an plus tôt avait resurgit en tête des articles les plus lus du site à la faveur de nombreux relais sur des pages Facebook d’extrême droite. ».

    Brandir le drapeau « comploplo » et tout voir sous l’angle de l’information/désinformation, c’est passer à côté du problème et donc ne pas pouvoir y faire face correctement : Wikipédia fait partie d’un monde soumis à des jeux de pouvoirs, et donc Wikipédia subit ces jeux de pouvoirs et est le terrain de ces jeux de pouvoirs. Des tas de gens bien intentionnés pourront en toute honnêteté reporter une information, peut-être même abondement sourcée, qui pourrait ne pas être totalement juste ou même être totalement fausse, et chacun pourra être intimement convaincu de ce qu’il apporte. Et les idéologues de tout bord d’être persuadés d’être dans le camp du bien. Brandir le drapeau « comploplo » c’est simplement abdiquer devant ces jeux de pouvoirs. C’est aussi une posture « comploplo » en fait. C’est supposer que Wikipédia est un camp du bien alors que ce n’est pas un camp, Wikipédia est un terrain où s’affrontent des camps qui pensent tous être des camps du bien.

    Le risque c’est que dire que Wikipédia est soumis à des jeux de pouvoirs soit désormais vécu comme une attaque envers Wikipédia. Le risque c’est qu’au lieu de se servir de ce constat pour mettre en œuvre des méthodes de travail pour encaisser les jeux de pouvoir et ressortir par le haut, et produire une meilleure expression et synthèse de la connaissance, certains se positionnent alors comme victimes et fassent entrer Wikipédia dans de ce jeu de pouvoir.

    Avant, dire que Wikipédia peut servir à du blanchiment d’information était vécu comme un constat constructif pour faire de Wikipédia une œuvre mieux vérifiée en étant plus rigoureux dans la rédaction, la relecture, la compréhension de l’information rapportée, et la vérification des sources.

    Aujourd’hui, dire que Wikipédia peut servir à du blanchiment d’information est vécu par certain comme une attaque contre Wikipédia et contre leur personne, attaque qui mérite une défense, ou un déni.

    Ce sont deux manières de vivre le même événement, le second est celui qui est le moins constructif pour Wikipédia, et la seconde manière est la plus propice à ce que les uns traitent les autres de « comploplo » comme tu le fais.

    Dire que Wikipédia est le terrain de jeux de pouvoirs n’est pas « comploplo », c’est un fait public. Pour poursuivre dans la défense de cette idée je vais ajouter deux exemples.

    Premier exemple, avec d’abord un rappel factuel sur le fonctionnement de Wikipédia : Wikipédia externalise la production de l’information (le travail original doit être en référence, pas sur Wikipédia, donc la production de l’information est externalisée de fait). Les articles de presse sont donc des lieux privilégiés de production d’information, et le rédacteur d’un article de presse est soustrait à l’exigence « référence nécessaire » de Wikipédia et peut mettre cela à profit. Dire cela n’est pas « comploplo », c’est observer le fonctionnement des diverses entités dans l’environnement où elles évoluent, ce qui permet d’identifier les failles possibles, y compris pour y remédier (par exemple en étant plus exigeant avec ce que produit la presse si on désire que Wikipédia soit plus fiable). Ceci rappelé, je prends pour référence cet article de Fakir de 2022, intitulé « Moi, journaliste fantôme au service des lobbies » où un journaliste témoigne des commandes qu’il reçoit. L’auteur commence son article en témoignant d’une une commande qu’il a reçue pour « dézinguer François Ruffin ». On n’est pas du tout dans la sphère Aberkane, là. Cet article ne parle même pas de Wikipédia en fait, donc ça n’est pas censé être vécu comme un article à charge contre Wikipédia, mais ça parle du processus de fabrication de ce que Wikipédia considère comme une source. Je produis ici une observation conduisant à identifier une vulnérabilité dans le processus de rédaction de Wikipédia, non pour attaquer Wikipédia, mais pour y chercher un traitement adéquat dans le but de rendre Wikipédia meilleure. Cet article identifie une faille dans la production de ce que Wikipédia considère comme la garantie de l’inclusion et du maintien d’une connaissance dans Wikipédia.

    Deuxième exemple, très explicite, il n’y a qu’à citer littéralement. Je prends pour référence l’article de Consultor de 2022 et intitulé « Bad buzz : McKinsey cherche un pompier pour nettoyer sa réputation ». Je cite : « C’est dans ce contexte que La Lettre A […] s’est procuré un document de 15 pages signé par la directrice de la communication de McKinsey […]. Il indique que ce marché doit être attribué avant la fin du mois de décembre. […] Objectif pour les cabinets sollicités […] : « infléchir la perception de McKinsey en ligne », notamment dans les résultats Google et sur l’encyclopédie en ligne Wikipédia, identifier des influenceurs bienveillants, réseauter auprès de relais d’opinion, exploiter plus intensivement les réseaux sociaux de la firme en France […] ».

    Le monde dans lequel on vit a parfaitement intégré comment faire apparaître une information dans Wikipédia, ça fait des appels d’offre en ce sens, ça recrute en ce sens, ouvertement. Le métier d’infléchisseur d’opinion par l’usage d’intermédiaires (ici appelés « influenceurs » mais ça peuvent être des journalistes comme on le voit avec l’article de Fakir) qui produiront du contenu qui pourront servir à faire modifier le contenu de Wikipédia. Produire les références de Wikipédia est un véritable métier.

    À une volonté qui prétend être soumise à une « contrainte de fiabilité » mais qui parlerait de « comploplo » pour ses adversaires, je peux poser la question : est-ce que cette volonté fait partie de ces jeux de pouvoirs, ou est-ce que cette volonté est témoin de ces jeux de pouvoirs ?

    Il me semble que Wikipédia est témoin de ces jeux de pouvoirs, ou du moins, il vaut mieux qu’elle le soit. Wikipédia subit nécessairement ces jeux de pouvoirs, mais antagoniser Wikipédia comme tu le fais est problématique. Il me semble plus efficace et constructif d’accepter cet état de fait que de travailler à placer Wikipédia dans un camp du bien (et donc de faire partie de ces jeux de pouvoirs), en plus du fait que ce placement t’est subjectif et donc en partie arbitraire. Il me semble pourtant que c’est plus constructif car ça permet d’être moins affectif dans l’exercice de rédaction, de relecture, de reformulation. Se placer comme observateur extérieur c’est être moins vulnérable à ces jeux de pouvoir, c’est aussi se permettre d’être mieux capable de décrire ces jeux de pouvoirs.

    Je contribue à Wikipédia depuis au moins 2006 (20 ans dans 3 ans, déjà plus de 6000 jours…) et l’utilise depuis 2003 (déjà 20 ans, donc), et j’ai observé plusieurs changements de comportement de la communauté, et l’antagonisation « camp du bien vs comploplo » est probablement la plus toxique, parce qu’elle laisse plus de place à la conviction qu’à la raison, et déplace les débats sur d’autres choses que l’information elle-même.

    Il m’est arrivé récemment de reformuler des phrases d’articles que j’y lisais, depuis des formulations comme « telle chose est mauvaise comme rapporté par untel dans tel article » par « untel dans tel article considère que telle chose est mauvaise », ce qui permet d’extraire l’information du jeu de pouvoir tout en décrivant le même jeu de pouvoir, apporter l’information plutôt qu’en être le porte-parole.

    Penser Wikipédia comme acteur de ces jeux de pouvoirs c’est prendre le risque de nourrir une paranoïa qui ne contribue pas à faire de Wikipédia un espace accueillant :

    Tout d’abord les contributions contradictoires sont alors perçues comme des attaques envers Wikipédia et les personnes, et nourrissent donc des conflits entre personnes. Ton commentaire en est un parfait exemple : tu as besoin d’attaquer une personne pour légitimer l’information que tu apportes. Pourtant ton information doit pouvoir être défendue par elle-même.

    Ensuite, les informations pas encore bien sourcées sont vécues comme des menaces et encouragent au délétionnisme et à la bureaucratie et découragent donc la rédaction, etc. Cela transforme le processus de rédaction de Wikipédia depuis le bazar vers la cathédrale (relire à ce sujet « La Cathédrale et le Bazar » d’Eric Raymond).

    Pour donner un exemple avec la Wikipédia anglophone (comme ça on prend un peu de distance affective avec la Wikipédia francophone), quand la console Atari VCS est sortie, des personnes se sont battues pour maintenir certaines informations qui étaient fausses parce qu’elles étaient sourcées par des articles qui dataient de l’annonce du projet, avant le financement, avant la production, et avant la commercialisation. Le produit finalement livré était un peu différent du produit initialement annoncé, chose qui peut tout à fait arriver dans le cycle de vie d’un projet. Pourtant même les tentatives de reformuler les phrases façon « ça avait été annoncé comme ça » n’étaient pas bienvenues. Le produit était sorti, les gens avaient le produit dans les mains, mais la page Wikipédia disait un truc faux, parce que c’était sourcé. Tout acheteur pouvait vérifier cette information comme fausse, mais partager cette vérification c’était faire un travail original. Je pense que ça vient d’une forme de paranoïa, comme si toute contradiction proviendrait nécessairement d’un complot, justement.

    Au final, cet article sur l’Atari VCS sur la Wikipédia anglophone était la victime collatérale de cette expérience victimaire de certains membres de la communauté de Wikipédia, où certains ont tellement peur de la désinformation qu’ils préfèrent une source qui dit quelque chose de faux à un fait matériellement vérifiable.

    Il me semble que les petits articles ou les articles sur des sujets plus spécifiques comme celui de Xonotic sont également des victimes collatérales de ce genre de posture, ou peuvent le devenir, si un de ces contributeurs victimaires passe par là et décide d’appliquer la bureaucratie la plus stricte.

    L’article Wikipédia francophone sur les fougères (la plante), ne donne pas de sources pour son chapitre Taxonomie, l’article mentionne même que « Les relations phylogénétiques entre les différentes familles de fougères font encore l'objet de discussions et la classification suivante est donnée à titre d’exemple  ». La phylogénie est sourcée, pas la classification. Je n’irai pas supprimer ce chapitre pour autant, je n’ai pas d’élément me faisant craindre que ce sujet soit le terrain d’un conflit, et j’ai toute raison de penser que ce qui est rédigé là est correct, tout comme les faits rapportés dans l’article Xonotic, ou d’autres logiciels libres.

    Pour les logiciels libres, à part certains cas spécifiques, il me semble que le seul risque serait la sur-représentation due à l’auto-promo, ce qui n’est pas un problème de fausse information, et dans ce cas j’ai envie de dire, et alors ? Si l’information est juste ? Ce qui motive la conviction qu’une page à sa place est très subjective, il y a certainement plein de sujets qui motivent une conviction similaire. Il existe peut-être même des sujets tout à fait anodins mais qui génèrent beaucoup plus de sources que des sujets moins anodins, de par la façon de traiter ces sujets, ou les habitudes et pratiques de leurs spécialistes. Ce qui serait encore un autre biais, permettant une sur-représentation similaire mais moins attaquable sur le front de la bureaucratie.

    Par exemple les spécialistes des logiciels libres sont surtout des blogueurs, peut-être même auto-hébergés, là où un spécialiste d’histoire pourra écrire dans une revue ou un magazine. Les deux seront peut-être du même niveau dans leur domaine respectif, mais leurs usages de publications diffèrent, et un biais apparaît. Quand Dave Airlie fait un exposé sur un blog sur la façon d’interagir avec du code source libre, cet article a autant de valeur et peut-être plus de valeur que certains articles d’historien dans Le Figaro Histoire sur certains sujets d’histoire. Wikipédia favorisera le second parce qu’il s’inscrit dans le processus de publication attendu, alors que le support de la publication n’est ici que le reflet d’une différence comportementale de la population étudiée, pas un critère de discernement de fiabilité. On ne discute plus de la fiabilité des sources, on fait de la sociologie.

    Mince, j’ai écrit un journal ! 😅️

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Wikipédia

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Des nouvelles de Xonotic. Évalué à 10. Dernière modification le 19 novembre 2023 à 09:26.

    volonté "élitiste" de ne garder que les articles très complets

    C’est un risque qui guette les initiatives communautaire, et je ne serais pas surpris si culturellement il n’y aurait pas une forme de prédisposition bien française. C’est un risque qui guette LinuxFr aussi : la publication d’un article de qualité et fouillé rend plus exigeant. Les lecteurs, les rédacteurs avec eux-même, les modérateurs, au risque de se retrouver piéger soi-même : difficile de faire moins recherché que le précédent. On l’a vu avec les dépêches sur le noyau ou les dépêches GNOME : on a eu des articles excellents et incroyablement recherchés, rédigés et détailles, mais il est extrêmement difficile de passer après ça. Je me souviens d’avoir un jour imprimé un tel article en livret pour le lire pendant mon voyage. C’est excellent, mais on ne peut exiger à chaque rédacteur de produire cela. Sur les même sujets d’article la comparaison en souffre immédiatement, et sur les autres sujets, par effet de bord, on peut en ressentir la pression. Le simple fait que que ce qui serait un dossier complet dans un magazine est appelé « dépêche » ici témoigne de cette tendance. Certains diront que j’ai pu contribuer par certains de mes articles à nourrir cette pression. 🤭️ C’est aussi pour ça que je suis lucide, un jour (il y a longtemps déjà) je me suis pris une remarque en rédaction que mon article pourrait creuser plus (oups 😅️). Et vraiment, je peux dire que ça a changé ici. Sur LinuxFr ça a été discuté plusieurs fois et je vois clairement un effort de combattre ce risque : certaines dépêches largement suffisantes sont désormais publiées même si moins fouillées et c’est très bien de revenir à ça. Un avantage qui profite à LinuxFr mais pas à Wikipédia est que puisque LinuxFr est un site d’actualité, les articles se suivent dans le temps et se remplacent dans les mémoire. Un article qui a relevé le niveau il y a 10 ans est un article qui est 10 ans derrière dans les archives, alors que sur Wikipédia un tel article est toujours au premier plan et met toujours la même pression sur les nouveaux articles.

    Tiens d’ailleurs, ça me donne une idée pour LinuxFr, de laisser la possibilité à la modération d’apposer une étiquette « dossier » sur certains articles, afin de montrer que certains articles n’en sont pas et que c’est tout à fait normal. Je ne pense pas qu’il faille dissocier les dépêches en deux fils d’actus différents, un seul fil pour les publications modérées est très bien, mais on pourrait visuellement marquer les gros dossiers et les dépêches plus « dépêches ».

    Wikipédia pourrait aussi faire quelque chose de similaire : tous les articles n’ont pas besoin d’être des thèses universitaires, les récompense de qualité basées sur la taille du texte et le nombre de sources ne sont pas nécessairement des objectifs pour tous les articles. Une information factuelle courte est largement suffisante pour de très nombreux sujets, et parfois c’est même plus efficace.

    ce commentaire est sous licence cc by 4 et précédentes

  • # Les vrais savent… 😎️

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Des nouvelles de Xonotic. Évalué à 8.

    Cette dépêche est un complot ! 🤭️

    Plus sérieusement, je suis content d’avoir trouvé le temps de rédiger et soumettre cette dépêche qui me trottait dans la tête depuis plusieurs années. Merci à la modération pour le travail de relecture, etc.

    Si un jour se présente l’occasion de prendre un pot avec l’équipe de modération, pourrais-je dire que je consomme avec modération ?

    J’ai repéré une petite erreur dans le chapô:

    - Xonotic a fêté ses dixans
    + Xonotic a fêté ses dix ans

    ce commentaire est sous licence cc by 4 et précédentes

  • # Noms de machines

    Posté par  (site web personnel, Mastodon) . En réponse au lien jeux: antidépresseur ou personnage de Tolkien?. Évalué à 8.

    J’utilise les noms dans les œuvres de Tolkien pour nommer mes machines, mais si un jour je manque de noms, je saurais où chercher ! 🤭️

    ce commentaire est sous licence cc by 4 et précédentes

  • # Lien cassé

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche L’installation et la distribution de paquets Python (1/4). Évalué à 3.

    Ce lien est désormais cassé : https://docs.python.org/3/distutils/introduction.html

    Celui-là marche : https://docs.python.org/3.10/distutils/introduction.html

    C’est le lien en source de « pour des machines de l’époque comme Solaris et HP-UX ».

    En terme de vieillerie, ça parle aussi de Mandrake Linux:

    Other useful built distribution formats are RPM, implemented by the bdist_rpm command, Solaris pkgtool (bdist_pkgtool), and HP-UX swinstall (bdist_sdux). For example, the following command will create an RPM file called foo-1.0.noarch.rpm:

    python setup.py bdist_rpm
    

    (The bdist_rpm command uses the rpm executable, therefore this has to be run on an RPM-based system such as Red Hat Linux, SuSE Linux, or Mandrake Linux.)

    You can find out what distribution formats are available at any time by running

    python setup.py bdist --help-formats
    

    ce commentaire est sous licence cc by 4 et précédentes

  • # Déjà le moteur Dæmon en 2020…

    Posté par  (site web personnel, Mastodon) . En réponse au lien Les vidéos Theora bientôt illisibles dans les navigateurs ?. Évalué à 7. Dernière modification le 30 octobre 2023 à 19:42.

    En 2020 on a viré Theora du le moteur de Jeu Dæmon (Unvanquished) pour les mêmes raisons.

    cf. https://github.com/DaemonEngine/Daemon/pull/391

    Citations (traduction) d’un de nos développeurs:

    Ce qui m’a motivé c’est qu’en mettant à jour le paquet des dépendances externes, j'ai remarqué que le projet Theora semble mort. Lors de la compilation, j'ai eu un avertissement de gcc indiquant que le code du décodeur indexe en dehors des limites. Bien que cela ait été corrigé en 2012, il n'y a pas eu de nouvelle version depuis 2010 et nous n'avions donc pas le correctif.

    Le problème avec Theora est que la bibliothèque est morte et qu'il n'y a pas de version utilisable. La dernière version date d'il y a 10 ans et contient le très mauvais bug d'indexation hors limites. Cela m'empêche de créer une nouvelle version pour les bibliothèques de dépendances externes (qui corrigerait le bug de plantage de MacOS Catalina, entre autres).

    Et pour nous le code du jeu est dans une sandbox, mais les codecs sont dans le moteur (et donc pas dans la sandbox).

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Autre : un verbe.

    Posté par  (site web personnel, Mastodon) . En réponse au sondage A priori, que représente « a » ?. Évalué à 4.

    C’est un complot pour susciter des commentaires et monétiser la réaction. O:-)

    ce commentaire est sous licence cc by 4 et précédentes

  • # Autre : un verbe.

    Posté par  (site web personnel, Mastodon) . En réponse au sondage A priori, que représente « a » ?. Évalué à 2.

    J’ai pas pu voter, j’aurai au moins pu s’il y avait une option « autre »… 🙂️

    Je dirai : un verbe, une conjugaison (un temps et une personne). Un mot ça marche aussi.

    Et sinon… https://www.youtube.com/watch?v=Ri7GzCUTC5s 😏️

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Cher

    Posté par  (site web personnel, Mastodon) . En réponse au lien Purism sors sa propre carte SIM. Évalué à 5.

    C'est uniquement pour les USA et l'option 10 Go de data est à 59$ par mois.
    Chez Free on a du 250 Go de data pour 20€.
    On ne rend pas compte à quel point on a de la chance en France sur le prix des forfaits internet.

    On peut dire la même chose des hébergements serveurs dédiés, type OVH et Online/Scaleway (toujours le groupe Free, qui se souvient de la « dédibox »?). Louer un serveur dédié c’est carrément plus cher aux US, et avec un support inférieur à OVH/Scaleway.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: C’est Free, mais c’est pas grave

    Posté par  (site web personnel, Mastodon) . En réponse au lien Purism sors sa propre carte SIM. Évalué à 6.

    puis la téléphonie mobile.

    Ah ???
    De mon souvenir de radin, ce sont surtout les MVNO qui ont fait baisser les prix.

    Lorsque Free a sorti son premier forfait mobile à 20€/mois en illimité appel/sms/internet (enfin, “illimité” pour internet, il y avait bien un seuil où ça ralentissait, mais pas de hors forfait, c’est toujours comme ça). Au même moment Bouygues me facturait 30€/mois pour 2h de communication et 30 SMS. Et mon forfait de merde de Bouygues, il avait eu 1 an d’engagement, Free c’était sans engagement. Et les nouveaux clients chez Bouygues avaient plus d’avantage que les clients fidèles. Je suis parti sans jamais regarder en arrière.

    Sur le mobile comme pour les box Internet, quand Free améliore son infra et augmente le débit, tu en bénéficies sans changer ton forfait. Il y a quelques jours j’ai reçu un SMS me disant que le « seuil » de l’Internet passait de 210Go à 250Go, j’ai rien à faire. Quand je suis à l’étranger en je ne regarde même pas ma conso, j’ai le droit à 35Go par mois dans 100 destinations, et étrangement partout où je suis allé en faisait partie.

    Free a fait pareil sur le mobile que sur l’ADSL, chez Wanadoo tu avais un forfait débit, par exemple « forfait 512 », et pour bénéficier des nouveaux débits quand France Télécom améliorait son infrastructure, il fallait se réabonner. Alors que chez Free t’avais un abonnement ADSL et quand Free améliorait son infrastructure tu en profitait sans rien faire. En passant à Free je savais que j’aurai la même chose sur mobile et 16 ans après ils n’ont jamais démenti.

    Je ne connais pas les tarifs des MVNO (j’ai même du regarder sur Wikipédia pour être sûr de savoir ce que c’est), peut-être que parfois ils arrivent à gratter moins cher que Free, mais je doute que l’écart entre un MVNO et Free soit comparable, pour un service au moins comparable, avec l’écart qu’il y avait entre Free et les autres quand Free est arrivé sur le mobile. Free c’était pas quelques euros de grattés pour un service à peu-près comparable, c’était les deux tiers ou même chez certains la moitié du tarif pour infiniment plus (c’est pas une figure de style, l’illimité comparé à un nombre fini est infiniment plus).

    Alors 30 SMS et 2h d’appel en 2007, tu pourras me dire que j’étais peut-être un couillon parce qu’il me suffisait de changer d’opérateur tous les 6 mois en négociant avec les opérateurs (ou de menacer mon opérateur de le faire et pipeauter que j’avais trouvé mieux ailleurs) pour gratter plus, c’est ce que semblait faire beaucoup de monde autour de moi. Sauf que voilà, depuis que je suis passé à free en 2007 je n’ai plus jamais eu à m’occuper de quoi que ce soit. Moins cher, plus de service, plus de confort, moins de charge mentale, pas d’engagement, donc en fait je reste parce que j’ai pas de raison d’aller ailleurs et de me prendre la tête.

    Je suis toujours convaincu qu’une énorme part du prix de ces forfaits exorbitants était dépensé dans la gestion du fait que les opérateurs historiques Bouygues, Orange et SFR avaient en fait autant de contrat et de tarifs que de clients, avec tout le cout de la gestion de la négociation. Free c’est deux tarifs taillés pour deux besoins clairement identifiés et sans négociation. La seule variation qu’ils ont ajouté c’est un tarif de fidélisation la première année, et l’autre variation qui a toujours été là c’est le tarif préférentiel si déjà abonné à une box internet à domicile.

    Les opérateurs historiques faisaient du sur mesure déguisé derrière une façade de prêt-à-porter, Free a apporté le prêt-à-porter. Les MVNO n’ont fait que s’inscrire dans le sillage du prêt-à-porter quand les consommateurs avaient été habitués par Free.

    Quand Free a sorti son forfait illimité à 20€, tous les opérateurs ont du s’aligner pour survivre, ils ont d’abord dû aligner leurs tarifs et leurs conditions sur Free, puis ont sorti leur propre gamme de prêt-à-porter, par exemple Orange a sorti Sosh, SFR a sorti RED, mais il leur a fallu 4 ans tout de même pour sortir ces gammes-là.

    Ah ???

    Oui.

    Quand Free a sorti son forfait mobile sans engagement tout illimité Internet, SMS, et téléphone pour 20€ par mois, les gens payaient encore 30€ par mois pour des forfaits sans internet, 2h de communication et 30 SMS, avec un an d’engagement.

    Oui.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Windows Media Maker

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Window Maker 0.96 est plus ergonomique. Évalué à 3.

    Microsoft 3D Movie Maker et Windows Movie Maker sont deux logiciels différents.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Contri-quoi?

    Posté par  (site web personnel, Mastodon) . En réponse au sondage Cher lectorat, chèr(e) contributeurice, quel âge avez-vous ?. Évalué à 5. Dernière modification le 10 juillet 2023 à 09:38.

    Et pourquoi pas « cher contributorat », formé comme « cher lectorat » ? Quitte à être créatif, on peut étendre le vocabulaire ! 🙂️

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: WebP sans perte et exact

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Des formats d'image. Évalué à 4. Dernière modification le 26 juin 2023 à 22:01.

    Petite correction :

    - par exemple de stocker le vert dans l’alpha si on veut 8 bits de précision pour le bleu
    + par exemple de stocker le bleu dans l’alpha si on veut 8 bits de précision pour le bleu

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: WebP sans perte et exact

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Des formats d'image. Évalué à 8.

    Les formats d'image sont faits pour permettre de restituer une image de façon à ce que nous la percevions de façon acceptable (avec perte), indiscernable de l'originale (avec pertes imperceptibles), ou identique à l'originale (sans perte perceptible ni mesurable).

    C’est pour cela que je ne parle que du « WebP sans perte » et du « PNG sans perte ». Je ne discute pas des formats avec pertes dont les algorithmes supposent un usage bien précis et donc une seule opération de rendu de couleur pour élaborer les optimisations. Si le format a besoin de supposer un usage précis, c’est peut-être qu’on ne fait déjà plus du « sans perte ».

    Même pour pour sauvegarder une image pensée pour être affichée sur le web, un graphiste peut vouloir un format « sans perte » qui ne détruise pas les pixels transparents, parce qu’il peut vouloir éditer la transparence plus tard pour révéler la couleur (ou laisser à un autre la possibilité de le faire).

    Quand aux autres canaux discutés, ce ne sont pas vraiment « autre choses que des images », ou du moins tout n’est pas « autre chose que des images ». Dans les cas que j’ai évoqués, tous les pixels de tous les canaux codent des données pour les mêmes pixels que les canaux rouge, vert, bleu et alpha, de la même manière que le canal alpha code l’opacité. Ce sont des données supplémentaires pour ces mêmes pixels, ce sont donc des canaux supplémentaires pour ces images.

    L’opacité stockée dans le canal alpha n’est déjà pas « une image » en soit.

    Comme l’a relevé marzoul, on peut imaginer coder l’opacité avec 3 canaux alpha : rouge, vert, et bleu, pour par exemple ne laisser passer que le rouge par transparence et rester opaque aux autres couleurs, plutôt que de supposer de n’avoir un seul canal de transparence égal à toutes les couleurs.

    Les canaux rouge, vert, bleu sont pensés pour de l’affichage opaque sur écran. Le canal alpha a surtout été pensé pour le web, pour se passer de CSS dans la majeure partie des cas (détourage, opacité). Mais ce canal alpha fait des suppositions très fortes : que tous les canaux de couleur soient identiques en alpha, et que l’opération de mélange soit toujours la même. Certains formats comme le GIF n’avaient qu’1 seul bit de transparence, donc ça ne servait qu’au détourage. Le web avait besoin de plus que ça, le canal alpha répond vite-fait au besoin, mais pour une seule fonction, avec un seul canal pour toutes les couleurs, « ça fera l’affaire ».

    Les formats d'image sont faits pour […]

    Ces formats d’image ne sont faits que pour le web à l’époque d’HTML 4. FTFY =)

    Si on commence à utiliser ça pour autre chose que des images, c'est du détournement de la fonction du format,

    Ce n’est pas du détournement de la fonction du format, c’est un ajout de données et d’opérations. Même avec une image qui code des données rouge, vert, bleu dans les canaux rouge, vert, bleu, on peut destiner ces couleurs rouge, vert, bleu à autre chose qu’une seule et même opération de mélange. Par exemple on peut faire une addition. Une « carte d’addition », c’est exactement ça : une image avec des canaux rouge, vert, bleu, mais l’opération utilisée n’est pas celle utilisée par le navigateur quand on fait <img src="image.png"/>, les couleurs seront additionnées.

    Il était courant, à une époque où les formats d’images avec canal alpha n’étaient pas autant répandus, de stocker le canal alpha dans une autre image que celle qui stocke les canaux rouge, vert, bleu. Par exemple certains jeux peuvent distribuer les canaux rouge, vert, bleu, dans une image JPEG, puis le canal alpha dans une seconde image JPEG.

    Il existe des formats avec pertes qui n’attribuent pas la même précision pour chaque canal. Par exemple on peut imaginer un format couleur et opacité de seulement 16 bits (au lieu de 32 bits) qui attribuerait 3 bits pour le rouge, 3 bits pour le vert, 2 bits pour le bleu, et 8 bits pour l’opacité. Il est courant d’échanger les canaux, par exemple de stocker le vert dans l’alpha si on veut 8 bits de précision pour le bleu. Ces formats d’image avec pertes fournissent éventuellement des métadonnées qui renseignent ces échanges de canaux.

    Voici quelques exemples d’attribution de canaux avec des textures du jeu Xonotic :

    ivy.jpg ivy_alpha.jpg ivy_gloss.jpg ivy_norm.jpg
    JPEG Rouge: Couleur Rouge JPEG Rouge: Opacité JPEG Rouge: Spécularité Rouge JPEG Rouge: Normale X
    JPEG Vert: Couleur Vert JPEG Vert: Spécularité Vert JPEG Vert: Normale Y
    JPEG Bleu: Couleur Bleu JPEG Bleu: Spécularité Bleu JPEG Bleu: Normale Z
    black-tiles-mossy_norm.jpg black-tiles-mossy_norm.jpg black-tiles-mossy_norm_alpha.jpg
    JPEG Rouge: Couleur Rouge JPEG Rouge: Normale X JPEG Rouge: Profondeur
    JPEG Vert: Couleur Vert JPEG Vert: Normale Y
    JPEG Bleu: Couleur Bleu JPEG Bleu: Normale Z
    pk02_floor07.tga pk02_floor07_gloss.tga pk02_floor07_norm.tga
    TGA Rouge: Couleur Rouge TGA Rouge: Spécularité Rouge TGA Rouge: Normal X
    TGA Vert: Couleur Vert TGA Vert: Spécularité Vert TGA Vert: Normal Y
    TGA Bleu: Couleur Bleu TGA Bleu: Spécularité Bleu TGA Bleu: Normal Z
    TGA Alpha: Opacité TGA Alpha: Profondeur
    pk02_light02a.tga pk02_light02a_glow.tga pk02_light02a_gloss.tga pk02_light02a_norm.tga
    TGA Rouge: Couleur Rouge TGA Rouge: Addition Rouge TGA Rouge: Spécularité Rouge TGA Rouge: Normal X
    TGA Vert: Couleur Vert TGA Vert: Addition Vert TGA Vert: Spécularité Vert TGA Vert: Normal T
    TGA Bleu: Couleur Bleu TGA Bleu: Addition Bleu TGA Bleu: Spécularité Bleu TGA Bleu: Normal Z
    TGA Alpha: Profondeur

    ce commentaire est sous licence cc by 4 et précédentes

  • # WebP sans perte et exact (car tous les fichiers images ne codent pas rouge/vert/bleu/transparent)

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Des formats d'image. Évalué à 10.

    Dérivé du format vidéo VP8, WebP est donc un format ouvert, qui permet de compresser de façon efficace avec ou sans perte, en RVB sur 24 bits, avec un canal alpha optionnel (à noter que ce dernier peut être compressé sans perte même pour une image compressée avec pertes). Il permet également de stocker des animations.

    WebP est vraiment très efficace ! Pour des images à 8 bit par canal, si WebP est pris en charge, mieux vaut utiliser Webp que JPEG ou PNG, pour ces deux cas d’usage.

    Exemple avec une texture de ciel étoilé du jeu Unvanquished (JPEG, WebP avec perte, PNG) :

    comparaison Jpeg, PNG, WebP

    Mais ! Chose importante à savoir pour ceux qui voudraient utiliser WebP ! Par défaut l’outil cwebp avec l’option -lossless ne produit pas d’image sans perte ! Ah bon ? Oui ! Si vous affichez une image, le rendu est exactement le même, pixel par pixel, couleur par couleur, MAIS, des données non visibles (pour un simple rendu) peuvent avoir été perdues. Pour faire un véritable WebP sans perte avec l’outil cwebp il faut utiliser les options -lossless -exact.

    Mais qu’est ce que cette diablerie ? 😱️

    Par défaut cwebp -lossless peut détruire des données si la transparence ne les rendraient pas visibles. Ça peut poser problème si on veut éditer une image… et changer la transparence. Ça peut aussi poser problème si on utilise WebP, pour autre chose que de la représentation de couleur et de transparence.

    Comment ça les canaux rouge, vert, bleu, et transparence ne codent pas nécessairement les canaux rouge, vert, bleu et transparence ? 🤨️

    Par exemple, dans les jeux vidéos, on va utiliser des formats d’image parce que c’est parfait pour représenter des matrices de données. Le premier image sera la texture, donc une « image » telle qu’on se l’imagine, mais on va aussi utiliser des formats d’images pour stocker d’autres données. Par exemple on va coder dans un « fichier image » additionnelle la façon dont lumière se réfléchit en telle ou telle partie de la texture : si c’est du béton, on va mettre une valeur pour dire que la surface ne brille pas beaucoup, si c’est du métal poli, on va mettre une valeur pour dire que la surface brille beaucoup. Ainsi dans le jeu, on va pouvoir afficher la couleur du béton et du métal, mais aussi appliquer sur ces couleurs des effets de reflets. Des « images » de ce type il en existe plein, pour coder la réflexion de chaque pixel, mais aussi des coordonnées de normale (X, Y, et Z dans R, V, B en général), ou l’élévation de texture (pour coder une illusion de déformation, pixel par pixel). Sauf que voilà, si on peut par exemple coder des coordonnées de normale X, Y, et Z dans R, V, et B, on peut aussi coder l’élévation dans le canal alpha, et alors, le canal alpha ne code pas de la transparence, et on ne peut supposer que les coordonnées X, Y, Z de la normale peuvent être ignorées parce que la profondeur est grande, ou encore, que la rugosité du pixel peut être ignorée parce que la métallicité du pixel est élevée ou que sais-je encore en fonction de telle ou telle convention de stockage. 🙃️ Il est donc possible de stocker plein de choses dans le canal alpha qui ne sont pas des informations de transparence, et plein d’autres choses dans les canaux R, V, B qui ne sont pas des couleurs, mais qui sont d’autres composantes du même pixel. 🧐️

    Et donc, au final, puisque les images dans les jeux vidéos ont plus que quatre canaux (rouge, vert, bleu, transparence, addition de rouge, addition de vert, addition de bleu, normale X, normale Y, normale Z, élévation, rugosité, métallicité, occlusion, etc.), et que les formats d’images n’ont que 4 canaux, bah on doit stocker tous ces canaux pour une seule image dans plusieurs « fichiers images ». On peut donc se retrouver avec 2, 3, 4 fichiers images pour une seule image, mais un seul canal alpha utilisé pour coder de la transparence, et une collections de canaux RVB qui ne codent pas de la couleur. 🫣

    Quand il n’y a pas besoin de format d’image sans perte dans un jeu vidéo, les jeux vidéos privilégient d’autres formats que le WebP ou le JPEG, comme les formats DXT qui sont transférés compressé dans la mémoire de la carte graphique, et stockés compressés dans la mémoire de la carte graphique. Mais dans un dépôt de source de données de jeu vidéo, on veut des format sans perte, donc si quelqu’un choisit de faire du WebP pour « giter » les images sources de son jeu libre, il devra utiliser cwebp -lossless -exact. Et s’il utilise PNG, ne pas oublier de cocher la case « Enregistrer les valeurs de couleur pour les pixels transparents » dans GIMP, pour la même raison.

    D’ailleurs il faudra que je vérifie si GIMP propose la même option « Enregistrer les valeurs de couleur pour les pixels transparents » pour WebP. 😀️

    ce commentaire est sous licence cc by 4 et précédentes

  • # gamification, ludification

    Posté par  (site web personnel, Mastodon) . En réponse au journal Comment laisser l'ordinateur faire réciter les leçons de ses enfants. Évalué à 10.

    on pourrait «gamifier»

    Si ça n’existait pas déjà je proposerai « ludifier », et comme ça existe déjà, je ne le propose pas mais le recommande ! 🙂️

    cf. https://fr.wikipedia.org/wiki/Ludification

    ce commentaire est sous licence cc by 4 et précédentes

  • # Bien plus évolué que TremGen !

    Posté par  (site web personnel, Mastodon) . En réponse au lien Infinigen : un générateur procédural de scènes 3d (via Seb Sauvage). Évalué à 6.

     Infinigen is 100% procedural.
    Math rules only. Zero AI. Just graphics.
    Infinigen is free and open-source.

    Pas mal !

    C’est bien plus évolué que TremGen. 🙂️

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Rien de nouveau sous le soleil

    Posté par  (site web personnel, Mastodon) . En réponse au journal Les jeunes aiment les smartphones, mais pas le numérique. Évalué à 5.

    Je trouve que justement le titre est parfaitement adapté.

    Ce n’est pas nouveau, mais c’est vrai.

    Ce n’est pas spécifique au smartphone, mais c’est bien de rappeler aussi que c’est vrai aussi pour le smartphone.

    ce commentaire est sous licence cc by 4 et précédentes

  • # Toujours identifier qui profite

    Posté par  (site web personnel, Mastodon) . En réponse au lien La vérité sur les écrans et ceux qui ne les aiment pas. Évalué à 6. Dernière modification le 30 mai 2023 à 17:25.

    Dans cette présentation (je ne sais comment le nommer, mais ça ressemble à un « powerpoint » avec plus d’intéractivité), j’y retrouve toute la propagande des vendeurs de tablette et des fournisseurs de contenu.

    Je m’explique. Ici écran désigne ce que les marketeux appellent un « display », comme dans la phrase « ce jeu est disponible sur tous les displays », ce qui signifie : ce jeu est disponible sur téléphone, tablette, PC, Xbox, PlayStation, etc. Tous ces objets ne sont pas des outils de travail mais des afficheurs de contenu, musique, film, livre, au mieux des jeux si interactif. La relation est à sens unique, fournisseur vers client. Le display est une télévision (parfois avec un bonus interactif), pas un ordinateur (pas même un ordinateur bridé). Quand bien même une télévision interactive serait équivalente à un ordinateur bridé, ce qui compte c’est que ce soit d’abord une télévision.

    Ce genre de discours va de paire avec les projets de loi régulièrement présentés qui exigeraient par exemple aux citoyens de décliner leur identité pour tout et n’importe quoi, afin de ne jamais poser d’obstacle à l’économie des vendeurs de « display » et celle des plateformes de distributions de « contenus ». Le même élu va pouvoir faire acheter des tablettes avec l’argent public pour les distribuer aux enfants du territoire, et confier aux plate-formes de distribution de contenus une fonction régalienne de contrôle d’identité nationale, car cela protège à 100% les profits des vendeurs de « display » et des plate-formes de distribution de contenu, qui voient leur vente de produit et services jamais entravée, et qui pourraient même mieux cibler leurs clients.

    Un de mes premiers écrans était l’écran d’une calculatrice Texas Instruments TI 83+. L’enfant peut apprendre à programmer avec une TI 83+. Il peut aussi faire des calculs matriciels, des statistiques et d’autres choses. Ce printemps Casio a organisé un concours pour les collégiens et lycéens, un concours de dessin sur calculatrice, le dessin devait être réalisé par de la programmation (Basic pour les collégiens, Python pour les lycéens). Mais l’enfant ne peut pas regarder Youtube Kid, scroller du self-generated-content sur TikTok, ni acheter et installer un jeu Steam ou Xbox Live sur sa calculatrice, la calculatrice n’est donc pas un « display », et ce ne sont pas les intérêts de l’éducation de l’enfant que défend cette présentation anti-anti-écran, mais les intérêts des vendeurs de « display » et des contenus pour « display ».

    Cette présentation use de nombreuses cordes de la propagande moderne : infantilisation de l’adversaire, caricature, prêt-à-juger, homme-de-paille, mauvaise foi (à un point que ça frise le mensonge) et pseudo-débunkage qui te dit seulement ce qui doit être considéré comme vrai ou faux sans autre forme de procès.

    Par exemple dans la partie « débunkage » il y a une diapo avec la copie d’écran de la fiche d’un médecin pédiatre sur doctolib avec plusieurs motifs de consultation, y compris la surexposition aux « écrans », l’asthme, et d’autres consultations de pédiatrie. Le questionnaire demande s’il y a un rapport entre asthme et « surexposition aux écrans ». Sauf que cette question est en elle-même un mensonge, car elle suppose que le lien entre les motifs de consultations ne pourrait qu’être un lien entre surexposition et asthme et pas autre chose. Pourtant, le rapport entre tous ces motifs est autre : celui qui consulte est un enfant, et le médecin est un pédiatre. Ce même médecin pourra tout aussi bien conseiller un traitement ou un changement de comportement de l’enfant ou avec l’enfant, ou même conseiller des produits, pour toute autre chose qui n’a rien à voir avec l’asthme ! Par exemple le pédiatre pourra examiner une ampoule sur le pied de l’enfant et y découvrir que se développe en parallèle une mycose, rediriger vers un podologue, conseiller de changer de chaussures et conseiller telle ou telle pratique d’hygiène, etc. Et quand bien même le médecin pédiatre aurait une spécialité de pneumologie pédiatrique, le médecin reste un pédiatre, et si ce médecin pédiatre est le seul pédiatre de sa communauté de communes et dans un rayon de 10km (tout le monde ne vit pas en ville !), c’est normal que ce pédiatre soit la porte d’entrée pour toutes les préoccupations concernant la santé de l’enfant, y compris mentale, le pédiatre peut rediriger vers un médecin psychiatre si besoin, y compris visuelle, il peut rediriger vers un ophtalmologue, etc.

    J’ai l’impression qu’on pourrait faire un article pour chaque diapo tellement c’est WTF…

    Cette présentation est au sujet des anti-display, c’est à dire ceux qui sont réticents à la distribution aux gamins de tablettes et qui sont réticents au fait de soumettre les enfants à Youtube Kid. Mais ils sont présentés comme des rétrogrades qui ne pigent rien à la technologie et qui ne sont animés que par des peurs irrationnelles.

    Pour reprendre ce même unique exemple, je doute fortement que le médecin pédiatre dont ils présentent une copie d’écran doctolib utilise un boulier pour faire ses comptes, en fait on sait déjà que ce même pédiatre sait se servir de doctolib et donc d’un navigateur web et n’est donc pas anti-ordinateur-de-travail. Par contre ce médecin pédiatre pourrait très bien avoir un avis sur le fait de laisser un gosse seul dans sa chambre avec un téléphone et TikTok et être donc anti-display. Mais cet avis doit être disqualifié, au profit du vendeur de téléphone, et au profit de TikTok.

    ce commentaire est sous licence cc by 4 et précédentes

  • # Extra-territorialité

    Posté par  (site web personnel, Mastodon) . En réponse au lien Meta reçoit une amende record de 1,2 milliard d'euros pour violation par Facebook du RGPD - LaLibre. Évalué à 10.

    Meta qualifie l'amende d'"injustifiée et inutile" […] "il existe un conflit de droit fondamental entre les règles du gouvernement américain sur l'accès aux données et les droits européens en matière de confidentialité", poursuit le géant californien.

    Ah oui, la fameuse extra-territorialité du droit américain…

    Les conflits de droits sont nécessaires et bienvenus, c’est le principe de la souveraineté que de permettre et établir ces conflits de droits afin justement de pouvoir constituer un droit souverain.

    "Des milliers d'entreprises et d'organisations se reposent sur la possibilité de transférer des données entre l'UE et les États-Unis"

    Le fait que la survie économique de l’entreprise requiert certains traitements avec les données personnelle ne peut à lui seul rendre ces traitements nécessaires (sinon le RGPD ne sert à rien). Ce serait comme un dealer ou un trafiquant d’arme qui défendrait son trafic par le fait qu’il gagne de l’argent avec. Le profit n’est ni une autorité morale, ni une autorité légale.

    ce commentaire est sous licence cc by 4 et précédentes