Jehan a écrit 1652 commentaires

  • [^] # Re: Et si on testait nous-même?

    Posté par  (site web personnel, Mastodon) . En réponse au journal imagemagick, GraphicsMagick, vips, chatgpt. Évalué à 4.

    tu as des certitudes, moi aussi :p

    Pour info, j'ai dit le truc sur la pub comme une petite pique pas méchante. 😜 Je n'y croyais, en particulier parce que j'ai regardé le pseudo avant de répondre et ai reconnu que c'était un pseudo que je voyais régulièrement ces dernières années sur LinuxFr (pas qu'il soit impossible qu'un utilisateur existant se fasse "acheter", mais qu'on va quand même plus facilement donner le bénéfice du doute; si on doit se mettre à douter de tout le monde maintenant, ça serait triste et problématique). Donc non, il n'y avait aucune certitude de ma part (même si Misc a pris ma remarque au premier degré effectivement, donc j'aurais pu être moins subtil pour que mon intention soit plus claire!).

    Ceci dit, je dois dire que si exactement le même journal avait été écrit par un nouvel utilisateur dont je ne reconnaissais pas le pseudo, là j'aurais beaucoup plus douté si ça n'avait pas été un journal pub-spam. Ce qui veut quand même dire qu'il y a peut-être un peu de maladresse dans le journal. Genre tu aurais pu mettre les liens vers les sites web des outils cités par exemple. Là le seul lien étant vers ChatGPT, ça fait un peu beaucoup (ou pas assez)! 😅

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Et si on testait nous-même?

    Posté par  (site web personnel, Mastodon) . En réponse au journal imagemagick, GraphicsMagick, vips, chatgpt. Évalué à 10. Dernière modification le 04 janvier 2023 à 18:57.

    J'avais cette idée de journal depuis pas mal de temps car j'ai mis un temps fou pour trouver gm et vips qui m'ont bien aider dans le traitement d'énorme quantité d'image, cela a été rédigé par chatgpt en 15 minutes. Merci à lui c'est gratuit pour le moment. Vous avez des idée de journal ? La flemme de les écrire ? Essayez

    C'est une pub pour ce truc d'IA en fait et le fait de parler de certains outils graphiques n'est qu'une excuse comme une autre, c'est ça alors? Non parce qu'en plus je remarque que le seul lien de tout le journal est pour chatgpt.

    Sinon moi aussi j'ai complètement tiqué en arrivant à cette phrase et comme d'autres, ça m'a carrêment fait douter des résultats. Genre là on demande à une AI (qui est tout sauf intelligente et n'a pas réellement testé quoi que ce soit, mais ressort simplement des textes; c'est vraiment l'inverse de l'intelligence…) et on utilise le résultat comme vérité pure et dure, et il faudrait pas se poser de questions?

    Notons que ce n'est pas une critique contre l'intelligence artificielle en tant que champs d'étude ou pour son usage utile dans des logiciels. C'est aussi ce que j'ai étudié moi-même en spécialité universitaire et j'adore l'IA. C'est tout simplement rappeler le concept de l'intelligence artificielle: donner l'impression qu'un ordinateur a une intelligence, le tout bien sûr idéalement avec une utilité si possible. On est plus dans le domaine de la persuasion que dans le réel. Le but de l'IA n'a jamais été de créer vraiment une intelligence. La "singularité" (vous savez ce truc de SF où on croit qu'on aura un jour une IA qui prend conscience d'elle-même, prend son propre destin en main, et en général ça termine en apocalypse pour les humains), on laisse ça à la science fiction.

    Alors bon, plutôt que juste "tiquer" et "douter", comme ces outils sont facilement installables, je trouve une image de taille raisonnable (pas trop petit, pour que le temps de traitement de l'image soit la majorité du temps calculé), puis essayons nous-même:

    # J'avais déjà ImageMagick.
    $ sudo apt install graphicsmagick libvips-tools
    $ time convert hero_art-GIMP-3840x2160.jpg -resize 200% im.jpg
    
    real    0m1.288s
    user    0m6.246s
    sys 0m0.786s
    $ time gm convert hero_art-GIMP-3840x2160.jpg -resize 200%  gm.jpg
    
    real    0m1.295s
    user    0m6.224s
    sys 0m1.651s
    # La commande donnée dans le journal est mauvaise et ne marche pas!
    $ time vipsthumbnail hero_art-GIMP-3840x2160.jpg --size=200% vips.jpg
    thumbnail: bad geometry spec
    
    real    0m0.065s
    user    0m0.036s
    sys 0m0.028s
    # La bonne commande après une recherche email et un man vipsthumbnail:
    $ time vipsthumbnail hero_art-GIMP-3840x2160.jpg --size=7680x -o vips.jpg
    
    real    0m0.578s
    user    0m3.457s
    sys 0m0.044s

    Donc plusieurs remarques:

    • Je vous épargne de multiples copié-collés, mais j'ai lancé chaque commande au moins 4 ou 5 fois. Je l'ai pas fait des centaines ou milliers de fois dans une boucle scriptée, mais mon but n'était pas non plus de faire un test scientifique. Je voulais juste vérifier plus ou moins les ordres de grandeur assénés dans ce journal généré par une IA.
    • Globalement mes résultats restent cohérents d'une exécution à l'autre. À savoir qu'ImageMagick et GraphicsMagick ont globalement le même temps d'exécution avec les paquets Debian, sur la même machine (en répétant la commande plusieurs fois, parfois l'un est un chouille plus rapide, parfois c'est l'autre; aucun n'est plus rapide de manière incontestable. En tous cas, on est super loin du journal où gm serait 26 fois plus rapide. Ou alors faudrait savoir dans quelles conditions exactes (peut-être avec des flags de compilation spécifiques? Ou bien c'est simplement l'IA qui dit n'importe quoi parce que — je répète — elle n'a pas réellement testé quoi que ce soit).
    • VIPS est effectivement plus rapide, un peu plus de 2 fois plus rapide par rapport au second sur cet exemple précis (ceci dit, loin du 13 fois plus rapide, comme l'annonce le journal). Ensuite cet outil est initialement fait pour faire des vignettes d'aperçu — comme le nom l'indique — et le man explique que ça permet de redimensionner, faire des découpes, retirer ou changer un profil de couleur, faire une rotation… C'est sympa, mais c'est loin des possibilités des autres outils cités. Une comparaison basée seulement sur le temps de traitement est plutôt mauvaise. C'est intéressant et un point utile, mais ce n'est pas une comparaison juste des outils cités de s'arrêter à ça. Enfin bon, soit. C'est un détail et loin d'être le vrai problème ici (si les résultats étaient justes, faits avec de vrais tests, par un humain, j'aurais pas fait ce commentaire d'ailleurs; ça reste une comparaison intéressante en soi).
    • Enfin on remarquera que la ligne de commande pour vipsthumbnail qui avait été donnée dans le journal est totalement mauvaise. L'option --size=200% n'existe pas, comme j'ai pu le constater sur un petit tuto officiel en ligne et avec le man. Il faut calculer soi-même la taille finale voulue (sur au moins un des côtés et mettre x pour l'autre côté, laissant l'outil faire en proportionnel). Et une fois ce problème réglé, ça ne marche toujours pas, car le fichier de sortie utilise l'option -o. Il y a donc deux erreurs grossières dans la commande donnée. En plus des résultats temporels à la ramasse, ça pose vraiment des questions sur l'entièreté des résultats donnés par ChatGPT.

    Non en fait, j'rigole, ça n'en pose aucune, on savait déjà que ce truc raconte n'importe quoi. Je rappelle encore une fois (troisième ici!) que c'est juste un chatbot entraîné avec des techniques d'IA sur des données textuelles dont le seul but est de générer des textes qui ont l'air crédibles. C'est le seul but: il faut qu'on puisse y croire. Rien de ce que ça retourne — absolument rien! — ne doit être pris pour argent comptant. L'IA n'est pas allée faire son petit test, n'a pas installé les 3 outils pour tester en arrière plan pour ensuite sortir une comparaison des outils. Elle a juste sorti un texte bidon qui pourrait être vrai (dans un monde hypothétique), du moins dont le rendu a l'air plausible si on cherche pas à vérifier et regarder dans les détails.
    Ça peut être vrai comme ça peut être un gros truc totalement bidon qui sort dont ne sait où (pas même les créateurs ne pourraient en être sûr probablement, c'est la magie de l'IA par entraînement sur données massives). Il faut considérer ça comme étant aléatoire, comme ça a bien été prouvé ici. En fait, quand je dis "ça pourrait être vrai", si c'était le cas, ce serait vraiment de la grosse chance puisque rien n'a été réellement testé (on peut même pas parler de conditions de tests adéquates ou non ici; y a même pas eu de test!). Donc en fait je suis gentil avec l'IA parce que les chances que ce soit faux sont bien plus élevées. Cette comparaison ne vaut simplement rien.

    Et quand je dis que ça doit avoir "l'air crédible", c'est du style: si on me demande "quel temps fait-il?", je pourrais répondre "il pleut" au hasard. Ça se trouve, avec de la chance, c'est vrai. C'est une réponse crédible pour la question, mais ce n'est pas de l'intelligence. Et ça ne l'est pas plus même s'il se trouve qu'il pleut réellement quand vous demandez ça à une IA.

    Ça me tue que certains semblent utiliser ce bot comme s'ils utilisaient Wikipedia de nos jours. Wikipedia, il peut y avoir des erreurs, des tromperies, mais au moins, y a des gens derrière qui corrigent, qui relisent, etc. C'est loin d'être infaillible, mais pas vraiment moins non plus que les vieilles encyclopédies de la vieille époque, qui étaient aussi pleines d'erreurs. Là, on tombe super bas, avec l'humanité qui commence à utiliser des trucs générés par un bot, qu'on sait être en gros équivalent à de l'aléatoire, et à en faire des références. Ça fait peur.
    Sérieux avant, on donnait des liens à Wikipédia en référence pour donner des indices pour approfondir les recherches. J'ai remarqué que de nos jours, certains se contentent de copier-coller une réponse de ChatGPT et s'imaginent que ça répond à la question. 🤦

    C'est fou d'ailleurs qu'on voit des gens qui croient vraiment au baratin marketing qui fait croire que ces trucs d'IA donnent des réponses de qualité. On a eu quelqu'un l'autre jour qui a ouvert une demande de fonctionnalité sur GIMP pour intégrer ChatGPT pour faire de la retouche d'images avec des commandes textuelles (je crois qu'il confondait avec Stable Diffusion, ou alors il voulait vraiment juste parler d'un interfaçage pour donner des ordres au logiciel, mais qu'importe). Cette personne était vraisemblablement un développeur et nous explique avoir passé une semaine de panique à croire qu'il allait bientôt finir viré car il avait découvert ce bot et s'était rendu compte que le bot était capable de produire du code bien plus rapidement que lui. Et donc pour lui, la solution était d'intégrer au plus vite ces solutions d'IA dans les logiciels pour ne pas être "à la traîne" et utiliser de tels bots partout lui-même. Mais quelqu'un a déjà regardé de près du code généré? Vous croyez que c'est maintenable, voire même tout simplement bon tout court?

    Quelqu'un avait posté sur LinuxFr un lien sur une étude qui montraient que les développeurs qui utilisaient des assistants d'IA écrivaient du code beaucoup moins sécurisés de manière globale, et ironiquement ils croient en écrire du plus sécurisé! J'avais d'ailleurs donné déjà mon avis sur ces IA sous ce lien (comme je le fais un peu trop ces derniers temps, car on se met à en voir des références un peu partout! Comme si c'était des nouveaux messies électroniques…).
    Les images générés (par des trucs genre Stable Diffusion et consort) sont vraiment pas mieux. Ce sont des images totalement kitch, sans aucune originalité, on dirait les mêmes clichés qui ont "l'air impressionnants" répétés 1000 fois, sans aucune réflexion (comme je connais plusieurs artistes et vois comment ils se torturent les méninges sur le sens de leurs œuvres, sur chaque détail qu'ils y mettent, quitte à refaire des points encore et encore quand ils revoient leur vision, ça me fait de la peine que certains voient pas la différence avec des images générées qui ont juste pour elles d'utiliser des couleurs pêtantes — ça doit stimuler le cerveau j'imagine — avec des persos dans des poses holliwoodiennes et des fonds plus clichés-tu-meurs; c'est équivalent à ceux qui semblent croire que du code torché par une IA en 30 minutes sera équivalent à du code produit par un bon développeur qui aura pris des semaines ou des mois, à tester, peaufiner, nettoyer, tester encore, changer son implémentation, tester à nouveau, réfléchir à chaque petit détail… tout ça juste parce qu'ils l'auront testé 5 minutes et que "ça marche"), avec des erreurs à chaque recoin quand on regarde dans les détails (des pieds manquants, des doigts en trop, des anatomies foireuses où on se dit des personnages "le pauvre, il doit souffrir", des problèmes de finition partout qui feraient honte à tout peintre, etc.), tout ça pour générer des images en 512×512 car c'est le format d'entrée des données lors de l'apprentissage. Pour ceux qui savent pas trop, c'est une résolution d'image très faible, inutilisable pour la plupart des usages de nos jours (si on veut du qualitatif j'entends). Par contre, c'est suffisant pour juste montrer des images démos, suffisamment pour impressionner sans aller beaucoup plus loin. Ça me fait marrer, sur un forum, j'avais lu des gens qui conseillent de d'abord générer des images comme ça, puis de passer dans un autre système d'IA pour agrandir sans que ce soit flou ("upscaler", "super-resolution", etc. donc on ajoute plus de données externes), puis d'autres "amélioreurs" d'images IA ("super-enhancers", ils aiment bien mettre le mot "super" partout ceux qui nomment les logiciels d'IA)… On se retrouve avec des images moches passées par 2 ou 3 moteurs d'IA, qui auront sûrement pris presque autant de temps à faire au final, et avec plein d'erreurs. 🤦
    Et bien sûr, les textes générés (notamment par ChatGPT qui est effectivement la grosse mode ces derniers temps) ne sont pas mieux comme je l'ai montré. Et j'ai déjà vu quantité de blogs posts (les médias avec pignon sur rue, eux, ont plutôt tendance à vénérer ces nouveaux systèmes sans se poser trop de questions; ce qui pose aussi des questions puisque leur métier devraient plutôt les inciter à avoir un esprit critique, surtout quand on voit la quantité de non-sens absolus produits par ce bot, qu'ils auraient dû vérifier avant d'y croire) où d'autres gens ont fait pareil, à savoir complètement démonter les réponses du bot sur divers sujets pour montrer qu'il faut arrêter d'y croire sans se poser de questions. Et là on n'est plus dans le cas Wikipédia où on peut dire aux gens qu'il faut vérifier, croiser les sources, que les gens peuvent faire des erreurs, ou même que certains rédacteurs peuvent mentir exprès pour raisons X ou Y. Ici on est plus proche du cas "considérez le résultat comme aléatoire". Ce ne sont pas des erreurs, juste du gloubi-boulga, avec pour seule particularité que c'est exprimé de manière à paraître plausible si on ne cherche pas à réfléchir sur le texte, son fond, ou à le vérifier.

    Bref, toutes ces AI et cette course effrénée pour en utiliser le plus possible de nos jours, c'est vraiment la course à la médiocrité.

    Conclusion: vous avez des idées de journal ? La flemme de les écrire ? Faites pas forcément comme moi qui ai le clavier léger, et écrivez les plus courts s'il le faut ! Ça peut être très intéressant aussi. Ce journal, par exemple, aurait pu être intéressant avec les mêmes tests (mais des tests véridiques!) que j'ai fait, et ces derniers m'ont pris moins de 5 minutes à faire. Si vraiment vous y arrivez pas, vous n'êtes pas forcés d'écrire, on vous apprécie quand même. Mais par pitié, n'utilisez pas un bot pour rédiger votre journal!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Est ce que GIMP vieilli bien ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 10.

    Je vais répondre, mais je suis forcément biaisé en tant que mainteneur du logiciel.

    On peut dire que c'était (oui c'était) une chaîne dédiée à GIMP.Il y a quelques semaines, il a sorti 2 vidéos pour dire que pour lui GIMP c'était mort et qu'il arrêtait de faire des vidéos sur le sujet.

    Je pense voir de quoi il s'agit. Quelqu'un nous a transféré cette vidéo. Perso je l'ai pas regardée (je regarde quasi jamais les vidéos Youtube qu'on nous envoie, surtout si c'est pour dire en 20 min des trucs qui auraient pu être écrites en 2 paragraphes). Si c'est bien celle à laquelle je fais référence, il paraît que le gars avait pas compris grand chose à comment était développé GIMP. Notamment il raconte qu'on travaille sur je-sais-plus-combien de versions de GIMP en même temps et ce serait donc pour cela qu'on serait trop inefficace/lent. Et apparemment il montre une capture des milestones de GIMP. Est-ce bien de la même vidéo qu'on parle?

    En vrai, on ne travaille que sur une seule version (3.0) et parfois on backporte des trucs sur la version stable, et c'est tout. Les autres "versions", c'est parce qu'on est organisé et parfois, certaines fonctionnalités qu'on veut, on les met sur un milestone futur, mais proche, genre 3.2. Ce qui veut dire qu'on ne travaille pas encore sur la dite fonctionnalité!

    Enfin on a les milestones intermédiaires, genre 2.99.16, qui n'est qu'une façon d'organiser notre travail vers 3.0 en sous-étapes (les 2.99.* n'étant pas des versions stables, mais des sous-étapes de développement de 3.0).

    Enfin bon, en quelques mots: j'ai l'impression que certains se basent sur n'importe quoi pour sortir des théories et se sentent l'obligation de donner une raison à un changement personnel: il a juste changé de logiciel de prédilection (ça arrive, et ça ne nous pose aucun problème; on ne force personne à aimer ou utiliser GIMP), et plutôt que de faire cela simplement, voire de continuer à utiliser GIMP avec d'autres logiciels (comme beaucoup de pros font; vous croyez qu'on utilise que GIMP pour tout nous-même?), il y a des gens qui ont besoin de sortir en claquant la porte, en faisant le max de bruit, gueulant, insultant et crachant sur ce qu'ils appréciaient avant. Je sais pas pourquoi certains font ça mais c'est un comportement courant. 🤷

    Vu la quantité de vidéos qu'il a faites sur GIMP, je pense que le type est intègre. J'ai l'impression qu'il a même utilisé GIMP dans un cadre professionnel et qu'il pointe du doigt un vrai problème.

    Peut-être, j'en sais rien. Perso je me demande toujours si les gens qui passent leur temps à faire des vidéos Youtube (ce qui est aussi très chronophage et est finalement un boulot à temps plein pour certains) ont vraiment le temps pour travailler sur ce dont ils parlent. D'ailleurs beaucoup de vidéos sont souvent assez basiques (quand je compare à des usages avancés que je vois autour de moi par des gens qui eux ne font pas de vidéos sans arrêt).

    En tous cas, perso je déconseillerais de se faire un avis parce qu'un gars quelconque a dit un truc sur Youtube (c'est la nouvelle référence; après "Vu à la télé", on aura "Vu sur Youtube" un jour? 🤣). Je conseillerais plutôt de vous faire votre propre avis, puisque vous êtes utilisateur (même basique, vous utilisez, donc pourquoi l'opinion d'un autre devrait influer sur votre connaissance réelle du sujet?): cela vous convient-il? Pouvez-vous faire ce que vous voulez faire avec GIMP?

    Même de l'extérieur, sans utiliser, vous pouvez aussi vous faire une idée en lisant les dépêches de développement qui concernent GIMP, par exemple sur LinuxFr. Faites vous vous-même votre opinion si vraiment ça a l'air de stagner. 😊

    Le développement est beaucoup trop lent et il commence à avoir un retard conséquent dû à l'intégration réussie de l'IA dans les produits concurrents.

    Ensuite, a-t-on du "retard" sur Photoshop? Bon déjà je n'adhère pas au concept même de "retard" qui implique qu'on cherche à mimer Photoshop. C'est pas le cas. On n'a simplement pas le même jeu de fonctionnalités. De même que les concepts "produits concurrents" n'ont aucun sens pour nous. GIMP n'est pas un produit et il n'a pas de concurrent, tout simplement parce que nous ne raisonnons pas en termes commerciaux. Nous ne vendons pas GIMP, ni ne cherchons à avoir des "parts de marché" (si quelqu'un veut utiliser autre chose, c'est très bien; chacun est libre d'utiliser ce qu'il veut; par contre s'ils peuvent s'abstenir de cracher sur ce que préfèrent d'autres, ce serait plus classe de leur part).
    Je sais que c'est super compliqué pour certains. Très tristement, il semble que certaines personnes sont absolument incapables de raisonner en logique de développement communautaire et non-commercial.

    Ensuite, oui il est évident qu'on manque certaines fonctionnalités… de même qu'à l'inverse Photoshop n'a pas certaines de nos fonctionnalités! Plus spécifiquement pour l'IA, on a quelques trucs intéressants ces jours-ci, comme la colorisation par détection de sketch que j'ai implémentée il y a quelques années, ou encore le nouvel outil de sélection "paint select tool" (malheureusement il est encore dans le bac à sable et je commence à douter que ce soit fini avant GIMP 3.0 si le contributeur qui a commencé ne vient pas finir; pour l'instant, c'est encore trop lent et instable).

    Je suis certains que Photoshop a des trucs impressionnants qu'on n'a pas. Il ne tient qu'à quelqu'un de contribuer ces fonctionnalités. Perdre son temps à comparer, grogner et dire du mal de GIMP n'apportera rien.

    Enfin on compare une équipe de bénévoles qui se comptent sur les doigts d'une main avec une multinationale qui dépense en marketing en quelques heures probablement plus que ce que les quelques contributeurs de GIMP qui essaient de se financer participativement arrivent à obtenir en un an en cumulé.
    Donc oui ça ne m'étonne pas plus que cela si Photoshop a sûrement des trucs vraiment cool qu'on a pas. J'en ai aucune honte, je pense qu'on s'en sort vraiment pas mal. Je comprendrai jamais les gens qui nous crachent dessus et disent en gros "votre truc gratuit, c'est de la merde, vous me faites perdre mon temps et mon argent". Je dis pas ça au hasard, on a ce genre de critiques régulièrement (dont aujourd'hui quelqu'un qui a dit précisément cela sur un rapport de bug; ou sur les réseaux sociaux) par des gens qui manquent visiblement totalement d'empathie et pensent que c'est totalement normal de réclamer des trucs à des gens qui contribuent principalement bénévolement, et ils ne vont pas se faire prier d'insulter aussi ou de mettre la pression au passage aux bénévoles.

    C'est bien pour cela notamment que je rappelle constamment qu'il est aussi possible de financer le développement (comme je l'explique en fin de dépêche). Ces dernières années, j'ai eu divers autres emplois pour pouvoir subvenir à mes besoins. Imaginez que je sois capable de vivre en développant GIMP à temps plein sans avoir à me préoccuper au jour le jour de mes finances de base. Imaginez alors à quelle vitesse on serait capable de faire progresser les choses. 😜

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Commande file

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 6.

    C'est possible techniquement et sans aucun doute très facile à faire (en plus file est écrit en C). En outre file m'a l'air d'être encore développé/maintenu. Ensuite je me dis que c'est le genre de projet où ils veulent sûrement limiter l'usage de dépendances au maximum (de ce que je vois dans leur build, il n'y a que des dépendances à des bibliothèques de compression), donc ce serait possiblement le point bloquant. Mais ça ne coûte rien de demander. Le suivi de bug/demande de fonctionnalité se fait là apparemment: https://bugs.astron.com/view_all_bug_page.php

    Et puis je suis d'accord que si ce logiciel souhaite prétendre savoir faire cela, autant le faire bien (ou pas du tout). D'ailleurs je viens de jeter un œil au code de détection de charset (dans src/encoding.c), et comme je m'y attendais, c'est une logique totalement naïve:

     * A file is considered to be ISO-8859 text if its characters are all
     * either ASCII, according to the above definition, or printing characters
     * from the ISO-8859 8-bit extension, characters 0xA0 ... 0xFF.
     *
     * Finally, a file is considered to be international text from some other
     * character code if its characters are all either ISO-8859 (according to
     * the above definition) or characters in the range 0x80 ... 0x9F, which
     * ISO-8859 considers to be control characters but the IBM PC and Macintosh
     * consider to be printing characters.

    D'ailleurs de ce que j'entrevois du code, je crois que tout texte "ISO-8859" retourne "iso-8859-1" avec l'option -i qui n'est donc en fait pas plus précise du tout. Le code ne m'a l'air de faire aucune différence entre les charsets de cette famille (ou d'autres famille de charsets mono-octets) et l'option -i semble juste produire un format de sortie différent mais pas vraiment faire plus de traitement.

    Enfin bon, oui, s'ils veulent vraiment prétendre à donner un charset précis pour des fichiers sans métadonnées, ce programme aurait tout intérêt à utiliser uchardet, au moins de manière optionnelle. Je suis d'accord. N'hésitez pas à le leur proposer en ouvrant un rapport de bug.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Bar des sports.

    Posté par  (site web personnel, Mastodon) . En réponse au journal Tentative de partage de mon expérience, vécue depuis l'extérieur, des réseaux sociaux. Évalué à 9. Dernière modification le 29 décembre 2022 à 23:26.

    Je n'ai jamais considéré ça comme un dark pattern. Twitter et Amazon sont des entreprises, leur objectif étant évidemment de te faire passer le plus de temps chez eux.

    Ce que tu dis, c'est la définition d'un dark pattern. Trouver cela normal que des entreprises te fassent passer "le plus de temps chez eux", et donc te fassent perdre de la vie (dans le sens "du temps de vie") est un symptôme que le problème dans la société est grand.

    Effectivement tu vois de ces dark patterns dans plein de grosses sociétés avec emplacements physiques aussi. Les supermarchés aussi t'accrochent avec des organisations des rayons t'obligeant à passer par le plus possible de produits inutiles, t'attirent l'œil en mettant en avant certains produits, jouent des prix bas et font des promos 1+1 (ou autre) ridicules, avec des systèmes de points sur des cartes pour te faire acheter certains produits spécifiques, et ainsi de suite. Tout ça pour repartir chez toi avec une moitié de produits qui sont au final mauvais pour la santé, que tu ne prévoyais pas d'acheter (et te rends compte que tu n'aurais pas dû acheter après coup…) et tu auras passé 1 heure ou plus au supermarché. En plus tu es épuisé (physiquement et mentalement) après avoir fait tes courses.

    Si les salles d'arcade et fast-food font la même chose, il faut se dire que c'est aussi un problème, pas que "c'est le jeu". Parce que c'est un jeu avec nos vies.

    Perso je ne vais plus aux supermarchés depuis 2 à 3 ans (alors que maintenant je vis dans un endroit avec des hypermarchés pas cher, pas loin), j'achète principalement en vrac dans la petite boutique vrac et vegan du quartier, ainsi qu'au marché, directement aux producteurs bio, et je ne me suis jamais senti aussi bien du point de vue "courses pour la maison".
    En outre, mes commerçants n'essaient jamais de me "faire passer le plus de temps chez eux" (en fait, on se met à passer du temps chez certains, mais parce que ça devient des potes et qu'on discute avec eux! 😅), ni de me faire acheter des trucs que je ne voulais pas. C'est quand même triste de croire que ce genre de comportements entrepreneuriaux ne sont pas des "dark patterns" et que c'est totalement normal. Dire "c'est le jeu", ça implique qu'on considère que c'est normal si les commerçants "jouent" avec ta vie et tes désirs (en se basant sur diverses ruses psychologiques pour manipuler les-dits désirs pour te faire acheter plus), tout ça pour se faire du profit à tes dépens (et ceux du monde, si ça fait acheter plus de trucs inutiles qui vont donc polluer ce monde sans même avoir eu une utilité digne de ce nom dans la vie de quelqu'un). Ben non, désolé mais c'est pas normal! 🙄 Et une telle entreprise, je veux pas lui donner mon argent (ou mon temps pour qu'elle le vende aux publicitaires). Non merci.

    Dire que c'est un comportement normal d'entreprise montre vraiment que l'image qu'on a des entreprises de nos jours est devenu un truc totalement malsain mais on a intégré cela comme étant acceptable (ça l'est pas!).

    Dans le cas des suggestions de vidéos ou de produits susceptibles de t'intéresser ce n'est pas déloyal.

    Si le but était véritablement de te donner ce que tu cherches, ce ne serait pas déloyal. Mais ce n'est pas ce qu'ils font. En fait, c'est très simple: la première vidéo/produit, tu l'as effectivement cherché, n'est-ce pas? Donc les autres produits susceptibles de t'intéresser dans le cadre de ta recherche auraient déjà dû être dans le résultat de recherche. Ces produits additionnels "suggérés" ne sont donc pas ta recherche, ce sont des choses que tu ne cherchais pas, par définition!

    Encore supposons que tu ne les cherchais pas maintenant mais que ce sont bien des choses utiles/désirées dans l'absolu (car la plateforme te connaît si bien). Admettons! Dans ce cas, ce ne serait pas déloyal si c'était réellement présentés avec une certaine "neutralité" quant aux produits. Or on le sait que tout est présenté non dans l'intérêt des gens, mais dans celui de la compagnie uniquement. Par exemple, Amazon, que tu cites, utilise ces infos pour mettre en avant ses propres produits copiés de ses clients-entreprises (ceux qui vendent sur le "market") grâce à sa connaissance aiguë des produits les mieux vendus, mettant ainsi à mal ses propres clients-entreprise (qui perdent leur clientèle) tout en proposant des produits à la limite de la contre-façon aux clients-particulier. Voir les nombreux articles sur le sujet (attention, je ne parle même pas des entreprises "market" qui font de la contrefaçon alors qu'Amazon traîne la patte pour les virer car ça leur fait des sous, ce qui a aussi beaucoup fait parler déjà; là je parle vraiment d'Amazon lui-même qui contrefait — ou au moins copie — les produits vendus par d'autres, pour les vendre à leur tour et ainsi s'emparer de la clientèle des entreprises qui lui ont fait confiance).

    Quant à Youtube, aussi citée, on le sait que cette entreprise ne met en avant que les vidéos qui acceptent la publicité. Donc il peut y avoir des vidéos super bien qui en plus répondraient exactement à ta recherche, mais Youtube ne te les montrera pas dans leurs "suggestions" car la plateforme n'en a aucun intérêt (elle ne pourrait pas te montrer de pub). Car en fait cette plateforme se fiche totalement de te montrer ce que tu veux ou cherches. Elle te montre en fait ce qui lui rapportera des sous, quitte à totalement re-modeler ta vision du monde (forcément si on ne te montre que la partie la plus mercantile et "qui crée de l'engagement" du monde, on ne te montre en fait le monde qu'à travers un prisme très particulier!).

    Croire que ces plateformes ont des techniques "loyales" (pour reprendre tes termes) est naïf. Elles ne s'aident qu'elles-même, jamais toi. Que certains fassent le choix de baser leurs décisions principalement sur les "recommandations" de ces plateformes, vous avez le droit, mais il faut bien être conscient qu'alors vos décisions sont complètement orientées/manipulées selon ce qui rapporte le plus à la plateforme, pas selon ce qui vous est utile, à vous. Et même si certains des résultats vous font parfois faire de belles découvertes, ça ne veut absolument pas dire que vous n'en feriez pas de meilleures en cherchant vous-même directement aux sources.

    En fait les algorithmes vont faire des choix du type "ce qui se vend bien, ce qui 'ne peut pas foirer', ce qui est le plus mercantile…" Or ça veut dire les mêmes trucs, encore et toujours, les clichés; souvent dans l'audiovisuel ou la littérature ou autre, par exemple, ça signifie le choix "hollywoodien". Ça peut vous conseiller du "Harry Potter" ou "Narnia" (attention, je ne dis pas que ces œuvres sont mauvaises; j'ai dévoré Harry Potter pendant mes études; mais il y a autre chose dans la vie aussi et si on nous bassine encore et toujours avec les mêmes œuvres, c'est parce que ça rapporte plus de faire ainsi que de présenter un paysage plus large, étoffé et divers de la création artistique; en gros cela peut être de bonnes œuvres, mais il faut quand même un peu élargir son champs de vision si on veut pas finir dans une boîte!). Mais c'est votre libraire fan de lecture qui vous conseillera les véritables perles qui vont changer votre vision de la littérature (mes œuvres littéraires préférées, je les ai découvertes par les conseils de libraires), en fonction de ce qu'eux ont aimé ou bien de ce qu'ils vous suggèrent en fonction de ce que vous leur dites rechercher. Jamais un bon libraire ne te conseillera en se demandant ce qui lui rapportera le plus ou bien ce qui est le plus commercial. Votre conseiller en médiathèque aussi pour la littérature ou les œuvres audiovisuelles. Et ainsi de suite. Être conseillé principalement par les algorithmes des grandes plateformes commerciales, c'est triste et totalement de l'uniformisation et du nivellement par le bas.

    En fait ces systèmes de conseils basés sur des logiques mercantiles ("ce qui rapportera le plus"), c'est super triste. Ça vient d'une logique où on ne considère plus autrui que comme un "consommateur", et non comme des "gens". Il fut une époque où "consommateur", c'était un terme considéré insultant, mais de nos jours, les entreprises sont fières de vous traiter de consommateur ouvertement. Il faut "consommer", toujours plus et plus. Et si plutôt que consommer, on vivait? Donc non, je n'ai pas besoin de "recommandations" de Youtube, Facebook, Amazon ou autre.

    Au passage, dans l'absolu, je n'ai rien contre les algorithmes de recommandation basés sur l'apprentissage de nos préférences personnelles, si vraiment cette apprentissage était juste et donc "loyal", comme tu dis. Typiquement, il fut un temps, vers la fin de mes études, j'avais voulu implémenter un algorithme de recommandation de musique libre pour la plateforme du même nom (ça s'appelait Dogmazic à l'époque, non? Ou c'est l'inverse! Je sais plus) parce que je trouvais ça super dur de trouver des musiques qu'on aimait sur cette plateforme. Donc je me disais que si un algo pouvait nous conseillait des choses en fonction de ce qu'on avait déjà apprécié, ce serait super cool pour découvrir de nouvelles œuvres ou artistes libres (et aussi car justement j'avais étudié l'IA en spécialité donc creuser ces technologies m'intéressait énormément). Bon finalement, on le sait, je suis parti dans d'autres directions pour mes choix de contributions libres. Si ça avait été fait dans un tel contexte associatif, sans arrière pensée d'essayer de "vendre" des choses, ou de privilégier certaines œuvres pour raisons économiques, alors oui, là on aurait pu appeler cela un usage "loyal" de ce types de technologies de suggestion. Mais dire cela des suggestions telles qu'implémentées par les GAFAMs, ça me faire rire jaune.

    Ensuite je sais que c'est un sujet difficile et on trouve régulièrement des gens pour nous dire qu'ils aiment découvrir des trucs par la pub et qu'ils aiment être ciblés ainsi car ça leur permet d'avoir une pub "pertinente". Ce que tu me dis aussi. Perso je trouve ça triste. Car c'est uniquement "pertinent" dans le sens que ça trouve les choses qui leur sont le plus profitables (aux plateformes), pas à vous en vrai. Mais bon, soit, chacun son truc. Ensuite, non, il n'y a rien de "loyal" dans ces techniques, et leurs implémentations version GAFAM-like, c'est complètement des dark patterns.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Bar des sports.

    Posté par  (site web personnel, Mastodon) . En réponse au journal Tentative de partage de mon expérience, vécue depuis l'extérieur, des réseaux sociaux. Évalué à 10. Dernière modification le 27 décembre 2022 à 20:05.

    Je sais pas si ça existe, des réseaux non motivés par l'économie de l'attention.

    Si tu produis quelque chose pour d'autres, c'est être motivé par l'économie de l'attention. Par exemple, si tu postes un commentaire, c'est à minima pour que quelqu'un le lise, donc avoir l'attention d'au moins une personne. Et c'est important, parce que finalement, quand tu va dans un PMU, c'est pas pour que tout le monde t'ignore (enfin, des fois, oui, mais un bar ou un parc, c'est pareil).

    C'est pas de cette attention dont on parle quand on parle de l'économie de l'attention. On ne parle notamment pas de l'attention reçue par les "utilisateurs" qui ne sont pas des acteurs de cette économie mais de l'attention qu'ils donnent. De cette économie, ils en sont seulement les produits en tant que détenteurs d'une attention (qui est une ressource limitée) qui est vendue par autrui à un tiers.

    Dans le concept de l'économie de l'attention, ce qui est donc vendue, c'est donc l'attention des gens. Typiquement ça le sera sous la forme de temps vendue à des entreprises qui veulent montrer leur publicité. Il y a d'ailleurs un PDG de TF1 qui a explicité ce concept en parlant du fait qu'ils vendaient du "temps de cerveau disponible" à des annonceurs:

    Ce que nous vendons à Coca-Cola, c'est du temps de cerveau humain disponible

    Pourquoi est-ce une ressource finie? Parce qu'un humain ne peut pas aisément se concentrer sur 10 pubs à la fois, et en plus il dort, il mange (le vil humain, comment ose-t-il ne pas passer son temps devant les pubs!)… Donc le temps passé devant une pub donnée, c'est un temps "perdu" qui n'est pas passé devant une autre pub. Et c'est pourquoi les annonceurs se font la guerre pour avoir leur pub vue (aux dépens des autres) et les intermédiaires (par exemple Google, Twitter, Facebook; toutes ces entreprises qui ne sont que des entreprises de pubs même si d'une manière incongrue, ce fait ne rentre pas dans le cerveau des gens) sont les outils de cette guerre en redoublant d'ingéniosité pour inventer des logiques d'UX (qu'on va rentrer dans la classe des "dark patterns") qui poussent les gens à ne pas quitter l'écran.

    Tu notes d'ailleurs toi-même un des dark patterns en question, qui est le "scroll infini" pour empêcher aux gens de pouvoir se dire "allez je finis cette page et je fais autre chose". Il y a aussi les suggestions sur des sujets annexes au milieu du reste pour constamment "t'intéresser" (très utilisé sur Youtube où les gens regardent une vidéo et se retrouvent à en voir pendant des heures; ou Amazon qui essaie de te faire acheter plus en te présentant des produits "complémentaires" ou que tu as regardés auparavant, etc.). Ce dark pattern est particulièrement puissant avec la connaissance accumulée des plateformes qui savent ce qui vous intéressent. Enfin tout simplement, il y a les dark patterns où la plateforme essaie de mettre en avant les contenus qui font ressortir les comportements les moins nobles de l'espèce humaine parce qu'on s'est rendu compte que c'est ce qui fait rester les gens. Si tu lis des choses bonnes, constructives et positives, en général, tu passes à autre chose rapidement (avec bonne humeur). Mais si tu lis un contenu haineux, ton sang bout et tu veux en découdre. Ou bien si quelqu'un dit vraiment de grosses bêtises, on pourrait se dire qu'on devrait juste l'ignorer, non? Ben non, on va passer son temps à le contrer et argumenter, même si les réponses n'ont ni queue ni tête et qu'il ne sert en fait à rien d'essayer de raisonner contre de la théorie du complot par exemple. Ou bien faire de la chasse aux sorcière, en focalisant tout le monde sur une cible qui n'a rien demandé (qui a peut-être dit une grosse connerie, sauf que si on n'était pas devant un écran, ce qui se produit en conséquence est l'équivalent d'un lynchage psychologique et ne devrait pas se produire dans une société civilisée; si quelqu'un fait une action vraiment répréhensible, il y a la justice par exemple; on ne sort pas avec les torches et les fourches). En gros les gens perdent leur temps à s'énerver, s'insulter, être traumatisés, ces réseaux créent du mal-être et une addiction à tous ces trucs négatifs. Malgré tout ces aspects négatifs (ou plutôt contre-intuitivement: à cause de ces aspects négatifs), certains vont y perdre un temps précieux. Sauf que ce temps n'est pas perdu pour tout le monde en fait. Pour la plateforme, ça aura permis de montrer de nombreuses pubs à beaucoup de gens.
    Ce dernier type de dark pattern est une des grosses spécialités des plateformes de type Facebook ou Twitter.

    Il y a plein d'autres types de dark pattern. Par exemple ce qu'on appelle la "gamification" est souvent une forme de dark pattern, de même que les systèmes où on nous met en compétition avec autrui, ce que je déteste absolument. À un moment, j'avais installé un logiciel sur téléphone pour apprendre des langues. Le logiciel était pas mal fait du tout, et je trouvais que j'avançais. Sauf que tout leur système était enrobé de gamification et compétition. On avait des scores hebdomadaires, on était comparé aux autres joueurs/étudiants et on pouvait "monter de niveau" pour accéder à de nouvelles leçons en fonction des résultats (je me souviens plus des conditions exactes).
    Aussi on se fixait des durées et si on ne se connectait pas assez, on avait sans cesse des notifications pour nous dire qu'on serait rétrogradé, etc. Le but évidemment n'est pas de nous faire travailler la langue, mais juste que si on n'est pas sur le logiciel, on ne voit pas les pubs qui s'immiscent entre chaque exercice (et malheureusement y a pas de adblock pour ça!). Typiquement une telle petite entreprise aussi vend notre attention à des annonceurs. Il n'y a pas que les GAFAMs. Personnellement j'aurais 1000 fois préféré un logiciel payant par exemple. Je parle même pas de logiciel libre là. Ça aurait pu être par exemple un logiciel où on peut tester les premières leçons pour voir si c'est bien, puis payer pour le logiciel complet. Au moins c'est un modèle économique plus direct et moins malsain.
    Perso j'avais essayé quelques semaines, puis j'en ai eu marre. J'ai trouvé ça stressant, devoir se comparer aux autres, les notifications constantes pour respecter les temps de travail/pub, etc. Certes tu peux essayer de faire abstraction, mais c'est pas facile quand on est au milieu de tout ça.

    En conclusion: dans cette logique où les gens ne sont plus que des produits, ce qu'on vend, c'est leur attention ("temps de cerveau") à regarder de la pub. C'est de ça qu'on parle quand on parle de l'économie de l'attention. Et non pas du gars qui montre sa vie sur les réseaux sociaux. Lui veut effectivement souvent de l'attention, et c'est ce que ces plateformes utilisent pour le rendre accroc à leur système, mais ce n'est pas la même attention dont il est question ici.

    Un réseau décentralisé comme Mastodon n'est donc pas dans l'économie de l'attention à l'heure actuelle parce que personne ne vend l'attention d'autrui (enfin peut-être certains rajoutent de la pub sur certaines instances Mastodon, j'en sais rien mais ce serait anecdotique).

    Ensuite je dis par pour autant que le concept même de tous ces réseaux sociaux, avec des gens qui semblent ressentir le besoin de partager le moindre détail de leur vie, ou leur moindre pensée, est réellement positif. De manière personnelle, je n'ai pas de compte personnel sur un réseau social non plus et n'ai jamais compris l'attrait. J'ai des comptes pour des projets parce que la pression sociale nous dit qu'il en faut absolument au moins pour les projets (perso je suis même pas sûr: j'ai l'impression que ces réseaux sont en fait des micro-bulles et même quand y a beaucoup de mondes, c'est en fait des nombres ridicules en comparaison à la taille du projet ou du monde; mais bon c'est un autre sujet). Mes comptes de projets sont utilisés quasi essentiellement en écriture-seule (je réponds parfois à certains quand ils nous mentionnent directement et si ça n'a pas l'air d'être du troll et je re-partage certains trucs de temps en temps, quand ça a un rapport; mais c'est tout: je dois passer moins de 30 minutes par semaine sur ces réseaux sociaux). J'ai pas non plus de compte perso sur Mastodon pour ces raisons. Je comprends juste pas l'intérêt pour moi. Ensuite si ça plaît vraiment à certains, pourquoi pas, tant qu'ils ne sont pas considéré juste des produits qu'on vend comme du bétail (ce qui est vraiment triste et montre qu'on est tombé bien bas dans notre relation aux autres avec les grands groupes de médias, les GAFAMs, et autres "startups" qui veulent leur emboîter le pas).

    Mais dans tous les cas, être "motivé par l'économie de l'attention" ne veut pas dire qu'on a affaire avec des gens qui veulent de l'attention. Sinon c'est un peu le cas d'une grande majorité des activités au monde puisqu'énormément de gens sont effectivement en recherche d'attention. Ce terme désigne l'économie particulière où on "vend" la dite attention à autrui. Voili voilà.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: quid de recode ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 7.

    Je connais pas recode, alors je viens de l'installer et je suis en train de regarder son man mais j'ai pas l'impression du tout qu'il fasse de la détection de charset, juste de la conversion.

    D'ailleurs même en cherchant sur le web, je vois que c'est une problématique de savoir quel est le charset de base, puisque les gens cherchaient comment n'utiliser cet outil que conditionnellement en fonction du charset (bon le lien est une vieille question, donc ils essaient divers ruses un peu bancales; de nos jours, on conseillerait un outil tel que uchardet). Donc j'ai pas l'impression que recode fasse de détection du tout, si?

    Et donc si confirmé, cet outil est plutôt dans la catégorie d'iconv que d'uchardet. Ce qui fait que même si je l'avais connu, je l'aurais sûrement pas cité. Ce qui devrait répondre doublement à ta question ([1] je connaissais pas et [2] il fait quelque chose d'autre).

    Ceci dit, merci de la découverte, cet outil me paraît très intéressant. Déjà j'aime beaucoup la façon dont il liste les charsets: recode -l liste par lignes d'alias, alors que iconv -l liste tout en bordel. La question de savoir si un nom est l'alias d'un autre ou une variante légèrement différente (ou complètement différent même) est une grosse question que je me suis souvent posée (dont la quête de réponse obligeait jusque là à faire des recherches laborieuses) et j'envisageais même de faire un script pour répondre à ce type de question. Bon recode répond pas entièrement à toutes les questions (seulement les alias), mais c'est déjà très bien.

    J'aime aussi beaucoup cette option --find-subsets car la question de savoir quel charset est un sous-ensemble de quel autre charset est aussi une grosse problématique. C'est vraiment super.

    Bon par contre, maintenant ça m'apporte potentiellement de nouveaux problèmes, du genre pour les noms de charsets légèrement différents, et savoir quoi correspond à quoi d'un outil à l'autre. J'avais déjà eu la problématique posée en m'apercevant qu'il y a en fait 2 implémentations d'iconv (GNU libc et GNU libiconv) qui peuvent avoir des noms de charset légèrement différents (on a eu au moins un cas rapporté parce qu'il s'avère que sur macOS, ils ont la version libiconv installée qui utilise MACCENTRALEUROPE pour un charset appelé MAC-CENTRALEUROPE dans glibc!). Du boulot en plus quoi!
    Pour ça, je te remercie pas, monsieur! (non, j'rigole! 😁)

    Enfin bon, j'envisageais déjà de probablement ajouter une API pour permettre de choisir le format de sortie (je voulais faire ça pour glibc vs libiconv; je suppose que je pourrais rajouter recode maintenant).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Ah, c'est grâce à toi…

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 7.

    Sois-en remercié jusqu'à la neuvième bobine du dernier film qui passera dans mon smplayer !
    Ainsi que pour ta dépêche, fort intéressante.

    De rien. 🤗

    J'avais pensé à un truc bien plus simple, du style « encodage de la config, mais utf-8 si le player détectait un unicode »

    En fait c'est ce que la plupart des logiciels faisaient (et que beaucoup font encore).

    Le premier point (codage de la config par défaut) fonctionne dans un monde où on s'échange jamais de fichiers entre personnes (et donc on crée nos propres fichiers et on ne travaille jamais que sur ceux-ci). Mais la réalité est toute autre: en vrai, on s'échange constamment des fichiers (et cette tendance a été décuplée avec internet). Et même le cas du "on crée nos propres fichiers" reste imparfait. Les machines et OS ont évolué, les codages par défaut aussi. Je dois avouer ne plus bien me souvenir des locales par défaut dans nos Linux, y a 20 ans, mais ça ne m'étonnerait pas plus que cela, si à l'époque, on avait des charset non-UTF-8 configurés par défaut dans nos systèmes en fonction de la langue qu'on configurait dans les préférences systèmes. Cela voudrait donc dire que si on essaie de relire nos vieux fichiers de l'époque (ceux sans métadonnées de charset), on aurait des problèmes de décodage.

    D'ailleurs je viens de faire une recherche vite fait sur le web et trouve encore des documentations, genre du Linux Documentation Project, qui conseille aux francophones d'utiliser ISO-8859-15: https://tldp.org/HOWTO/Francophones-HOWTO-6.html

    Donc même dans le cas hypothétique où on n'échangerait jamais de fichiers avec autrui, on pourrait se retrouver avec des décodages problématiques, juste parce qu'on met à jour son OS ou parce qu'on a plusieurs machines.

    Pour le point sur la détection de UTF-8 (ou autre codage multi-octet), comme je dis dans l'article, cela reste relativement simple puisqu'il est très simple de tomber sur des cas invalides. En gros, on peut croire que se limiter au premier concept (détection de caractère invalide, autrement dit l'algorithme naïf) est suffisamment fiable au moins pour ce qui est de la détection de UTF-8. Néanmoins même cela n'est pas parfait. Contrairement à la détection des charsets mono-octets, j'ai encore un peu trop de faux positifs/négatifs à mon goût, liés à une mauvaise détection de UTF-8. C'est à dire, qu'avec uchardet 0.0.8, il m'arrive encore parfois que uchardet sorte UTF-8 par erreur avec un score légèrement meilleur que la bonne réponse (un codage mono-octet), comme il arrive à l'inverse qu'un codage mono-octet sorte en réponse erronée avec un score qui bat de très peu le score du codage UTF-8. Dans les 2 cas, la raison est parce que cette version d'uchardet a gardé la logique que pour UTF-8, la vérification naïve suffit (cette croyance vient de l'algorithme originel, de l'époque où c'était un code Mozilla). Mais ce n'est pas vrai et le score attribué avec cette étape seulement n'est simplement pas assez subtil, donc pas fiable.

    Et ce sera une des grandes différences (parmi d'autres) avec uchardet 0.1.0: même pour UTF-8, il y aura maintenant de la détection statistique par langage. Cela rend malheureusement uchardet moins bon pour les langages non pris en charge, mais en même temps, pour tous les langages pris en charge, cela a tout simplement rendu l'outil d'autant plus fiable et efficace. Franchement c'est sans équivoque, avec mes récentes améliorations, je n'ai simplement plus de ce genre de faux positifs/négatifs dont je parlais plus haut.

    Enfin bon, je suis déjà très fier des améliorations qu'on trouvera dans la version suivante. Je pense même qu'on va pouvoir améliorer plusieurs trucs pour rendre les résultats encore plus fiables (mais faut que je fasse plus de tests). 😊

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: équivalent à la biblio Python FTFY

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 10. Dernière modification le 22 décembre 2022 à 18:31.

    Qu'est-ce qu'il se passe si je voulais vraiment écrire « ½uf » ?

    Si ton bout de texte, c'est juste "½uf", c'est clair que c'est pas assez et uchardet ne peut pas te sortir un résultat fiable (je vais même pas prendre la peine de tester; si c'est pour tester sur 3 octets, vous vous êtes trompé de logiciel; même si ça trouvait le bon résultat, j'attribuerais cela à la chance). Mais si ton texte est "Bonjour monsieur, pourriez-vous me servir 2 douzaines d'½ufs, une bouteille de lait, et une baguette s'il vous plaît", tu auras bien du mal à me convaincre (et "convaincre" uchardet) que c'est un décodage pertinent (en comparaison à: "Bonjour monsieur, pourriez-vous me servir 2 douzaines d'œufs, une bouteille de lait, et une baguette s'il vous plaît" puisque le concept est de comparer les scores, je le rappelle, comme techniquement le premier décodage est aussi valide, mais le texte lui ne l'est pas en français).

    Le test en réel avec uchardet 0.0.8:

    echo "Bonjour monsieur, pourriez-vous me servir 2 douzaines d'œufs, une bouteille de lait, et une baguette s'il vous plaît" | iconv -f UTF-8 -t ISO-8859-15 | uchardet 
    ISO-8859-15
    

    L'erreur dont tu parles se produit si uchardet se plante et retourne ISO-8859-1 (auquel cas, en recodant en UTF-8, tu obtiens ½ à la place de œ). Comme tu le vois, sur un vrai texte complet, uchardet ne se plante pas.

    Il peut y avoir des cas particuliers où tu voudrais vraiment dire "½uf", par exemple je pourrais imaginer un texte plus grand qui traite justement du sujet des codages de caractères et donne un exemple de décodage loupé. Mais dans ce cas, le texte est vraisemblablement bien plus long, du moins suffisamment pour justement faire pencher la balance vers le bon codage quand même (celui qui gardera "½uf" sur l'endroit où c'est ce que tu voulais et "œuf" sur les endroits où c'est ce que tu veux). De toutes façons, ce texte plus long, totalement hypothétique, ne sera ni en ISO-8859-15, ni ISO-8859-1 puisqu'aucun des 2 n'a les 2 caractères (donc tu ne peux traiter ce sujet dans un tel codage). Ce texte serait probablement en UTF-8.

    En gros, tu essaies de raisonner en terme de "comment arriver à tromper le système". Et oui, soyons clair, tu peux toujours tromper un système informatique, trouver des cas bizarres et extrêmes, surtout si le système est basé sur les statistiques. Il suffit par exemple de travailler dur pour produire un vrai texte en français en faisant exprès d'aller à l'encontre de toutes les statistiques habituelles de la langue française, en utilisant des tournures particulières, le maximum de mots peu usités, du franglais ou le plus de mots étrangers possibles (mais qu'on utilise quand même en France), etc. Oui tu pourras toujours me sortir un exemple qui pête un tel système. Parce que c'est pas un système fait pour déjouer les ruses, ce qui n'a aucun intérêt selon moi. C'est un système fait pour être utilisé dans la vie réelle, sur de vrais textes de diverses langues. Et dans ce contexte, uchardet fonctionnera 99,99% des fois sur les codages et langues prises en charge (statistiques tirées du chapeau mais franchement j'attends encore les contre-exemples de la vraie vie et pas créés spécifiquement pour ruser et tromper l'outil). 😇

    Pour moi, ton d'exemple (et "si je voulais vraiment écrire « ½uf »", je sais pas combien de fois dans votre vie, vous avez voulu écrire ce mot "½uf" si courant 🙄 dans notre langue, le mettre dans un fichier ou une base de donnée, sans aucun autre texte contextuel, juste ce mot et c'est tout, puis vous êtes demandés plus tard son codage! Moi perso: jamais! 😜) est à ranger dans la catégorie de ceux qui donne des bouts de 3 lettres aléatoires et s'étonnent qu'uchardet ne trouve pas le codage qu'ils avaient en tête: sauf qu'uchardet ne fait toujours pas de magie ni ne lit dans la tête des gens! 😛

    La détection de charset est très utile, mais ça devrait être du dernier recours quand tout à échoué. Ça marche très bien, mais ce n'est pas parfait.
    […]
    Cette négligence nous coûte de la complexité et les détecteurs de charset ont en effet encore de beaux jours devant eux. Je comprends bien qu'il y a des enjeux de rétrocompatibilité, mais il y a un moment où faut décider de corriger les choses, fournir des outils de compatibilité et arrêter les bêtises.

    Tout ce que tu dis, c'est comme dire que c'est nul qu'on soit pas encore tous passé à IPv6. Donc faut arrêter de faire en sorte que son logiciel fonctionne avec IPv4 parce que c'est le passé (soyez libre de ne pas prendre en charge IPv4 dans un logiciel réseau ahahah!) ou que Wayland est le futur, donc faut arrêtez de faire en sorte que nos logiciels marche avec X11 (on entend ça parfois; mais va dire aux développeurs de logiciel d'abandonner la majeure partie des utilisateurs sous Linux!), etc.

    Dans les faits, nous on veut juste que nos machines ou logiciels marchent. C'est tout. C'est pas être en désaccord que la nouvelle technologie X est peut-être vraiment meilleure ou pas que l'ancienne technologie Y. C'est juste que les problèmes d'Y existent encore et qu'on peut pas faire comme s'ils n'existaient pas. Typiquement pour en revenir à mon problème de sous-titres, j'allais pas dire "oooh comment il ose ce gus qui a fait gratuitement des sous-titres pour les donner à tous, et qui a même pas utilisé UTF-8 pour cela! Quel goujât! Pour la peine, je vais pas utiliser ses sous-titres!". Non je dis: "zut, j'ai vraiment envie de voir ce film mais on a besoin des sous-titres. Ce serait bien si mon lecteur vidéo était capable de détecter le bon codage sans que je m'en mêle!" Et donc je règle ce problème (je me suis arrangé pour que mon lecteur détecte au mieux le codage). Parce que je peux pas retrouver tous les gens sur internet qui font des sous-titres en hobby (et même si je le pouvais, aller leur faire la leçon sur le codage de caractère — un truc qu'ils ne comprendront sûrement pas de toutes façons parce qu'ils s'en fichent — n'est pas un truc que j'ai particulièrement envie de faire).
    La théorie est belle, mais bon… Perso je pense aussi que la détection de charset a encore de très beaux jours devant elle (comme la détection de langage, qui est le nouvel usage d'uchardet; j'en parlerai plus en détail à la prochaine sortie du logiciel) mais j'y mets aucun sentiment.

    Je comprends la frustration

    Ahahah. Je suis pas du tout frustré par la situation. J'ai plus l'impression que c'est toi qui est frustré sur le coup, non? 😉

    si ces outils n'existaient pas, peut-être que les logiciels qui produisent du contenu s'assureraient peut-être de standardiser sur un sous-ensemble utile de charset

    LOL Y a bien une trentaine d'années (probablement plus) d'histoire de l'informatique pour réduire à néant ta théorie. 😆

    Comme l'historique dans mon article le montre, ce type de logiciel de détection de codage a vraiment commencé à être utilisé vers 2015 (pour uchardet qui commence à être utilisé dans quelques logiciels à partir de 2015; puis le développement de CED dont le premier commit est de 2016; puis chardetng dont la première sortie est 2019…). La réalité, c'est juste que c'est encore très peu utilisé globalement et que donc les gens ont toujours constamment des problèmes de codage dans une majorité de logiciels. Donc dire que c'est la faute de ce type d'outil qu'on est dans cette situation, c'est complètement inverser les responsabilités et le cause à effet.

    La réalité est juste: (1) on est dans cette situation, c'est comme ça et c'est un fait; (2) ça s'améliore progressivement mais ça prend du temps et en attendant, c'est quand même mieux si on arrive à lire les fichiers sans problèmes de décodage bizarre et (3) même si un jour, tout le monde utilise UTF-8, ça n'efface pas magiquement le passé pour autant, ainsi que les milliards de fichiers et textes en base de données qui ont été créés depuis des décennies et dont une grosse partie va encore être utilisés quelques décennies de plus.

    Donc on est dans cette situation, c'est comme ça. Autant tirer le meilleur parti d'une situation bordélique plutôt qu'énoncer des "et si". 😁

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Double décodage malencontreux

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 6.

    Le but d'un projet comme uchardet, c'est d'éviter que ce genre de trucs se produisent (ce qui est en effet assez courant et justement pourquoi un projet tel qu'uchardet est nécessaire).

    Quand tu es déjà devant un fait accompli (ré-encodage cassé), j'ai l'impression que c'est plutôt le genre de projet dont quelqu'un parle plus haut (FTFY) dont tu as besoin. Note que j'ai jamais testé et n'ai aucune idée de son efficacité. Mais ce dont tu parles est exactement le cas d'usage qu'ils décrivent dans leur README.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: équivalent à la biblio Python FTFY

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 3.

    Corrigé, merci.

    Merci. Cependant il reste encore un bout sur la deuxième commande (elle commence par " et finit par  »). ;-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Commande file

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 10. Dernière modification le 22 décembre 2022 à 03:35.

    Ah en relisant ton commentaire, je découvre que tu mentionnes en fait une option -i particulière que je ne connaissais pas. Dans ce cas, je vois ça essaie en effet de donner un vrai nom de charset complet, mais c'est vraiment pas glorieux:

    $ file -i test/et/*
    test/et/iso-8859-13.txt:  text/plain; charset=iso-8859-1
    test/et/iso-8859-15.txt:  text/plain; charset=iso-8859-1
    test/et/iso-8859-4.txt:   text/plain; charset=iso-8859-1
    test/et/utf-8.txt:        text/plain; charset=utf-8
    test/et/windows-1252.txt: text/plain; charset=unknown-8bit
    test/et/windows-1257.txt: text/plain; charset=iso-8859-1

    À part UTF-8, pas une seule bonne réponse! (le nom du fichier est la réponse, comme on se l'imagine)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Commande file

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 10.

    Mais file connaît quasi rien de la plupart des encodages, ou alors t'as une version spéciale! Tiens, je le lance sur un jeu de fichiers de test du dépôt d'uchardet:

    $ file test/et/*
    test/et/iso-8859-13.txt:  ISO-8859 text
    test/et/iso-8859-15.txt:  ISO-8859 text
    test/et/iso-8859-4.txt:   ISO-8859 text
    test/et/utf-8.txt:        UTF-8 Unicode text
    test/et/windows-1252.txt: Non-ISO extended-ASCII text
    test/et/windows-1257.txt: ISO-8859 text

    Il donne "ISO-8859 text" pour une majorité, ce qui veut pas dire grand chose (je connais au moins 15 IS0-8859-* codages et hormis la partie ASCII, ils sont tous vraiment vraiment différents (c'est même le but). En plus, il se plante dans un cas (WINDOWS-1257 aussi catégorisé en "ISO-8859 text"), et il sait pas dans un autre (WINDOWS-1252 qu'il dit juste être "Non-ISO", ce qui aide pas trop!).

    Dernier point: on n'est pas du tout sur les mêmes ordres de grandeur en terme de rapidité:

    $ time uchardet test/et/*
    test/et/iso-8859-13.txt: ISO-8859-13
    test/et/iso-8859-15.txt: ISO-8859-15
    test/et/iso-8859-4.txt: ISO-8859-4
    test/et/utf-8.txt: UTF-8
    test/et/windows-1252.txt: WINDOWS-1252
    test/et/windows-1257.txt: WINDOWS-1257
    
    real    0m0.008s
    user    0m0.004s
    sys 0m0.004s
    $ time file test/et/*
    test/et/iso-8859-13.txt:  ISO-8859 text
    test/et/iso-8859-15.txt:  ISO-8859 text
    test/et/iso-8859-4.txt:   ISO-8859 text
    test/et/utf-8.txt:        UTF-8 Unicode text
    test/et/windows-1252.txt: Non-ISO extended-ASCII text
    test/et/windows-1257.txt: ISO-8859 text
    
    real    0m0.044s
    user    0m0.036s
    sys 0m0.008s

    Parce qu'un outil comme file, en plus d'être faux ou imprécis, se traîne comme un escargot alors qu'uchardet est fait pour être rapide, juste et précis. 😜

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: équivalent à la biblio Python FTFY

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 10. Dernière modification le 21 décembre 2022 à 19:16.

    C'est un concept dérivé, mais c'est pas du tout la même chose:

    Is ftfy an encoding detector?

    No, it’s a mojibake detector (and fixer). That makes its task much easier, because it doesn’t have to guess the encoding of everything: it can leave correct-looking text as it is.

    Encoding detectors have ended up being a bad idea, and they are largely responsible for creating the problems that ftfy has to fix.

    The text that you put into ftfy should be Unicode that you’ve attempted to decode correctly. ftfy doesn’t accept bytes as input.

    There is a lot of Unicode out there that has already been mangled by mojibake, even when decoded properly. That is, you might correctly interpret the text as UTF-8, and what the UTF-8 text really says is a mojibake string like “réflexion” that needs to be decoded again. This is when you need ftfy.

    En gros, ce projet (que je ne connaissais pas) part du principe que l'on ne va pas détecter correctement le codage d'origine (et qu'on travaille forcément en UTF-8 en codage final), et va essayer de corriger votre résultat de conversion erronée. En d'autres termes, on pourrait utiliser FTFY après avoir utilisé uchardet si ce dernier s'est planté.

    Évidemment je ne suis pas du tout d'accord avec leur "lemme" qui est qu'on ne sait pas faire de la détection de codage ("Encoding detectors have ended up being a bad idea"). J'ai mes nombreuses années de travail sur uchardet qui prouvent que ce lemme est faux. uchardet est vraiment vraiment bon. Je ne dis pas que ce projet (ftfy) est totalement inutile. Il peut l'être pour les rares cas où uchardet se plante. Mais leur argument de base est faux: si, de nos jours, on sait globalement très bien et très efficacement détecter le codage de flux de textes donc le codage d'origine est inconnu. Genre vraiment très bien. Essayer uchardet le prouve.

    Ensuite bien sûr qu'on peut encore améliorer l'efficacité, et des gens comme moi y travaillent (comme je le dis, même si je viens à peine de sortir la version 0.0.8, la future version 0.1.0 a déjà fait un bond d'efficacité avec des nouveaux concepts que j'expérimente; ça m'impressionne moi-même parfois). Et surtout il faut ajouter de plus en plus de prises en charge de langues et codages. J'en ai déjà ajouté plusieurs ces derniers jours. Je pense que je pourrai avoir quelques dizaines de modèles supplémentaires pour la prochaine version.

    P.S.: modérateurs de LinuxFr: un éditeur a dû être un peu trop zêlé avec une regexp:

    $ echo « Joyeux Noël et bonnes fêtes de fin d’année! » | uchardet -V
    []
    $ echo "메리 크리스마스! » | uchardet -V

    Ce sont des strings de lignes de commandes shell, donc c'est bien " et non «  ou  » qui doivent être affichés sur les 2 commandes! 😜

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Sponsors institutionnels ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 10.

    Il faudrait leur demander mais je ne pense pas que leur position ait changé (à propos, je crois avoir retrouvé le post en question, de 2016). En gros, là (dans cet article de Framasoft de ce mois-ci que tu postes) le ministère a financé directement une fonctionnalité de Peertube, d'ailleurs on ne nous dit pas comment. Peut-être ont-il payé des développeurs en interne. Peut-être ont-il fait un contrat de service avec Framasoft. Dans les 2 cas, il est fort possible que c'est le ministère qui les a contactés en premier d'ailleurs (même si ça ne changerait pas grand chose si c'était l'inverse).

    Quels que soient les détails, ce n'est de toutes façons pas la même chose que du "sponsor institutionnel". C'est un rapport plus proche soit de la contribution à un logiciel libre, soit de la fourniture de service. Ce qui est super cool déjà, dans les 2 cas, mais pas du tout la même dynamique.

    Ce dont je parle est vraiment un truc que beaucoup de ceux qui ont été très actifs dans une asso (étant moi-même actif dans plusieurs assos) connaissent: les assos qui s'épuisent à avoir du financement ou de l'aide de manière générale pour des activités de biens communs.

    Par exemple, une asso dans laquelle je suis administrateur, on a un compost de quartier et l'un des trucs qu'on aurait aimé, c'est de répandre le concept dans tous les quartiers de la ville. C'est écologique, pratique, moins odorant que ces poubelles de quartier qui sentent à 10m à la ronde, un bon moyen de faire vivre le quartier…
    Mais comme notre mairie n'est pas très ouverte à ce type d'arguments, on essaie aussi de faire valoir que le tri des biodéchets dans les foyers sera obligatoire en 2024. Si la ville est capable de généraliser un système basé sur le compost citoyen d'ici là, ce serait un énorme avantage économique. Mais ils ne font rien. Ça fait 2 ans qu'on pousse; même notre compost, ils étaient censé participer après installation (livrer la matière sèche notamment, installer des barrières à certains endroits, etc.) mais au final on doit tout faire nous-même, trouver des fournisseurs de matière sèche qui le font gratuitement (la mairie nous assurait que c'était impossible, qu'il faudrait faire des contrats, que ce serait très compliqué — en fait je crois qu'ils ont juste dit ça par habitude et qu'ils ont pas cherché, tout simplement —; au final c'est un instituteur seul dans son coin qui s'est démené et a prouvé que ce que disait la mairie était totalement bidon) notamment a été un énorme travail par un des administrateurs surtout, etc. Au final certains des membres les plus actifs du début s'épuisent et arrêtent. Et on sait bien ce qu'il va se passer en 2024: la ville va juste faire un gros contrat juteux avec une grosse entreprise (probablement Veolia) pour une collecte "biodéchets" séparée, monter les taxes des ordures ménagères pour pouvoir le payer, et dire que c'est pas leur faute ("c'est la loi!"). Alors qu'on aurait pu avoir une ville plus propre avec une gestion solidaire des biodéchets.

    L'asso locale de vélo (je n'y suis que simple membre), qui font vraiment un boulot extra, ont un gros local partagé de réparation gratuite et solidaire de vélo (avec du super matos), des permanences hebdomadaires pour aider les gens, poussent à avoir une politique de déplacement propre et une infrastructure sécurisée pour les vélos dans la ville, etc. Ils rencontrent les élus mensuellement (si je ne m'abuse) dans des réunions où ils consacrent énormément d'énergie, de temps et de compétence. Mais il se passe quasi rien en faveur du vélo ou de déplacements propres de manière générale (en fait, si il se passe tout juste assez pour faire des encarts dans les journaux locaux ou le magazine de la ville qui met la tête du maire à toutes les sauces; mais rien de ce qui est véritablement important n'est presque jamais mis en place). Financièrement aussi, on m'a dit qu'ils ont à peine quelques centaines d'euros annuels de subventions (si ma mémoire est bonne; mais même si c'est plus, je me souviens que c'était un montant ridicule par rapport à ce qu'ils apportent à la vie de société, écologiquement, etc.).

    Dans le monde du spectacle, j'ai connu de nombreuses petites compagnies qui s'épuisaient pour obtenir des subventions et au final abandonnaient quand ils se rendaient compte qu'ils passaient plus de temps à faire des dossiers qu'à préparer leurs spectacles. C'est à dire que même quand ça marchait "financièrement" parce qu'ils arrivaient enfin à trouver des financements d'organismes, ils se rendaient compte qu'ils n'arrivaient plus à faire ce qu'ils voulaient pouvoir faire dans la majorité de leur temps; c'est le genre de conclusion déprimante et un véritable cercle vicieux: soit on continue comme ça car on arrive à en vivre financièrement mais alors on se spécialise surtout dans le montage de dossier et les "relations" tout en produisant de la qualité médiocre, soit on abandonne. Beaucoup abandonnent.

    C'est ça qui arrive à beaucoup d'associations quand elles commencent à chercher de l'aide institutionnelle. En fait, ils en ont marre de courir après des chimères, de chercher à persuader les instances publiques de les sponsoriser ou même simplement de les soutenir (pas juste avec des mots dans des "tweets" mais en actes réels).
    En fait, je pense qu'on peut même dire que — avec la politique et l'organisation en France (c'est donc une constatation, non un but, car dans l'idéal, oui les projets clairs de biens communs devraient pouvoir être aidés par les instances publiques) — que chercher à tout prix des aides institutionnelles tue beaucoup d'activités associatives (soit parce les gens abandonnent et l'asso meurt; soit au contraire parce qu'elle réussit mais l'asso devient alors parfois un trou noir où une majeure partie du financement est mangé par le financement lui-même et on se rend compte que l'activité première de l'asso est devenue l'ombre de ce qu'on voulait qu'elle soit).

    Quand je lis l'article de Framasoft (je l'ai pas relu depuis sa publication y a quelques années, mais juste vaguement parcouru après l'avoir retrouvé), on voit clairement que c'était là leur propos, commun à de nombreuses autres associations. Ils ont donc changé leur logique et clairement on peut voir que ça leur a réussi (ils étaient surtout une asso francophone, maintenant ils ont une reconnaissance plus internationale et des financements participatifs vraiment d'un autre niveau). Le fait qu'un ministère va maintenant financer certaines fonctionnalités ne va pas du tout à l'encontre de cette nouvelle logique de fonctionnement. Au contraire, ça la valide.

    D'ailleurs la conclusion de cet article de 2016 le dit bien:

    Fermons-nous définitivement la porte à l’Éducation Nationale ? Non… nous inversons simplement les rôles.

    Pour autant, il est évident que nous imposons implicitement des conditions : les instances de l’Éducation Nationale doivent considérer que le logiciel libre n’est pas un produit mais que l’adopter, en plus de garantir une souveraineté numérique, implique d’en structurer les usages, de participer à son développement et de généraliser les compétences en logiciels libres.

    Ça me semble assez clair que c'est ce qu'il s'est passé. Ils n'essaient plus de courir après les institutions (que ce soit pour obtenir des aides financières ou autres, ou pour les persuader), c'est maintenant elles qui viennent à eux. Et ces institutions maintenant ne font plus juste des promesses sur le logiciel libre, ils "participe[nt] à son développement", très concrètement!

    Bien sûr, je peux me tromper et mal lire entre les lignes. Peut-être que Framasoft est effectivement dorénavant revenu dans une logique où ils vont courir après les institutions (perso j'en doute). Seul quelqu'un de Framasoft pourrait le confirmer ou l'infirmer.

    Mais quel que soit cette réponse, cela n'invalide pas que la recherche de soutien institutionnel est un vrai tueur d'associations de manière générale. Les blogs posts d'associations qui sont revenues de ce rêve sont légions sur le web (de même que ma propre expérience associative vérifie aussi ce prédicat).

    C'est là l'idée. Il faut juste arrêter d'espérer une aide quelconque des institutions, ce qui tue l'asso à petit feu. C'est pas juste nous (même si on a un peu essayé à nos débuts), c'est la conclusion d'une majorité des assos en France. Il faut faire notre truc à nous, et ne rien attendre des institutions. Et peut-être qu'ensuite, quand on aura vraiment réussi à atteindre une forme d'équilibre sans l'aide des institutions, celle-ci viendront d'elles-mêmes et participeront finalement (sauf qu'on n'aura plus à dépendre d'elles, donc en plus la relation est bien plus saine, beaucoup moins de rapports de force, sans aucun organisme qui se repose entièrement sur l'aval de l'autre).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Sponsors institutionnels ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 8.

    Tu as raison, et c'est aussi ce que dit en un sens Pierre-Alain TORET dans le commentaire du dessus. C'est un système bien plus acceptable et proche de ce que je recherche. D'ailleurs j'en ai déjà fait (en quelque sorte) aussi. Quand j'ai accepté de travailler pour le CNRS notamment, c'était bien parce que je pouvais travailler sur GIMP.

    Ça reste néanmoins un truc qui peut potentiellement nous éloigner de nos plans. Quand une organisation nous demande une fonctionnalité précise, si on a de la chance, c'est quelque chose qu'on voulait vraiment faire nous-même de toutes façons. Mais peut-être pas, et alors, cela repousse de quelques semaines tout le reste. Potentiellement cela repousse la maintenance elle-même (si on a des deadlines avec des malus de retard, finir la fonctionnalité devient soudainement plus important que corriger les bugs ou faire la revue de code des autres contributeurs). Cela peut aussi repousser d'autant la sortie suivante du logiciel. À l'inverse, j'ai mis en pause plusieurs branches de fonctionnalités, certaines d'autres contributeurs et certaines de moi-même, alors que ce sont de vraiment super trucs que plein attendent; mais justement parce qu'à un moment, si on veut sortir GIMP 3.0, faut qu'on arrête de faire des à-côtés pour finir les bases (j'ai donc fait un choix sain de maintenance et de stabilité plutôt que de privilégier de nouvelles fonctionnalités à tout prix). Ce n'est pas quelque chose qu'on peut faire si on est payé pour bosser sur la fonctionnalité, qui retarderait toute une sortie pour des millions de personnes. Et aussi les choix techniques deviennent des choix commerciaux (ce qui pourrait même conduire à de mauvais choix dans les cas extrêmes).

    Alors je dis pas que c'est entièrement mal, et je suis prêt à refaire ce genre d'accord (par contre, uniquement si cela rentre dans la case des choix techniques acceptables). Mais cela reste tout de même bien moins sain que simplement "payer le développement car ça marche bien". Idéalement même faire les 2: payer des fonctionnalités en plus de financer en partie le développement courant (en fait l'idéal-idéal, c'est même: financer le développement courant + payer ses propres développeurs pour contribuer de nouvelles fonctionnalités adaptées à son business).

    C'est ce qu'on propose avec nos financements participatifs, c'est aussi ce que fait Blender (avec le succès que l'on sait depuis fin 2018, voire 2019, où a débuté une progression fulgurante de leurs financements). Ça peut donc exister puisque ça se fait déjà. Perso c'est ce que je veux pousser le plus. 😇

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Sponsors institutionnels ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 10. Dernière modification le 15 décembre 2022 à 21:57.

    Tu avais mentionné une fois que Aryeom avait donné des ateliers Gimp dans une fac. Avez-vous exploré la piste de sponsors institutionnels ?

    Elle donne encore des cours (en vacataire), et ce toutes les années scolaires depuis 4 ans et il me semble bien que ça va faire sa cinquième année de cours universitaire d'affilées.

    Avez-vous exploré la piste de sponsors institutionnels ?

    Je crois qu'ils ont pas de sous. Enfin si, les institutions ont plein de sous pour des "appels d'offre", où on devrait être en compétition avec des SSIIs de taille gigantesque pour un projet irréalisable (les SSIIs s'en sortent car elles font ça mal, en payant mal des sous-traitants, et ont des contrats blindés où elles ont quasi aucun compte à rendre), et tout ça en nous éloignant de notre projet de base.

    Mais faire un truc simple, genre "vous utilisez du libre, que diriez-vous de financer ce dernier simplement et sainement?" Nope! Ça semble malheureusement impensable. Et comme ce serait donc vraisemblablement une donation, j'ai l'impression que ces organismes n'ont même pas les cases pour ça dans leur compta! Un projet à quelques millions avec appel d'offre ça oui les institutions peuvent l'expliquer; des licences de logiciels propriétaires, cette dépense aussi peut être expliquée; mais dépenser quelques milliers pour des logiciels libres (a.k.a. "gratuit" il faut croire pour ces institutions), j'ai l'impression qu'ils n'arrivent pas à en trouver l'explication comptable (et ce, même quand ils sont pro-libres — comme ce service universitaire pour lequel Aryeom travaille, c'est cool! — et en fait comprennent l'idéologie et en défendent l'idée et sont d'accord avec le fait que c'est normal que ces développeurs soient payés aussi; mais ils n'en financent pas pour autant les projets probablement car ils n'ont aucun pouvoir de ce côté là et ne vont pas se battre pour ça).

    J'ai aussi discuté avec des villes, notamment Lyon (il y a peu) car j'avais lu qu'ils étaient pro-libres sur le mandat en cours et faisaient des changements informatiques dans ce sens. On a eu un RDV avec un élu, gentil et qui s'est montré intéressé (il a posé pas mal de questions, clairement il était intéressé par comment était développé un tel logiciel), mais il nous a aussi très vite dit qu'ils n'avaient pas de service de développement, qu'ils n'avaient pas de sous, et que la seule chose qui s'en rapprochait était de répondre à des appels d'offre (mais il a lui-même vu que ce n'était pas ce qu'on recherchait et qu'on ne pourrait évidemment pas s'aligner face à des SSIIs spécialisés dans ce genre de dossier; honnêtement on savait pas trop nous même ce qu'on cherchait, c'était histoire d'avoir un contact et d'essayer de comprendre comment ils voyaient leur passage au libre et s'il y avait des choses envisageables à faire en lien avec eux). Encore une fois, je pense pas que c'est entièrement leur faute (ni de cet élu, ni des contacts à l'université). J'ai juste l'impression que le système entier sur lequel fonctionnent les institutions marche sur la tête. Tout simplement.

    En fait, je crois que trop de gens s'imaginent (parce qu'on lit régulièrement cette remarque) que c'est super facile et évident de trouver des sous, et que notamment les institutions en donneront. Mais si c'était si facile, ça se saurait! C'est pas impossible hein (enfin… peut-être?), mais encore faut-il accepter de passer son temps à faire cela.
    Et évidemment il y a aussi la question de savoir à quel point on accepte de faire des compromis sur ses valeurs. Je peux faire quelques compromis, mais il y en a certains, non. Par exemple, pas de pub. Aussi je refuse de travailler dans de mauvaises conditions ou de faire travailler autrui dans de mauvaises conditions (c'est à dire avoir un super salaire moi-même mais en exploitant une majorité de travailleurs). Ou de faire des coups bas pour un contrat. Ou de faire un truc nocif pour la planète ou pour les autres êtres vivants (animaux compris!). Etc. Malheureusement on se rend compte que dans ce monde, ça réduit drastiquement les possibilités d'obtenir de gros sous.

    Il y a aussi un autre point (ce n'est pas ce que tu dis, mais je rebondis dessus), qui est qu'il y a ce truc, pris pour acquis parmi les libristes, que le logiciel libre a un très bon business model avec du "service à côté du logiciel". Et le rare argent qu'on a des services publics ou des organismes de droit privé, c'est d'ailleurs par ce concept: on va bosser (par ex. donner des cours) personnellement, ou alors on fait une formation ou une conf payante au nom de l'asso, etc. Au final c'est du service autour de l'activité, qui nous fait perdre beaucoup de temps sur ce qu'on aimerait réellement faire.
    Tristement énormément de pro-libres semblent trouver cela super bien. Mais réfléchissons à ce que cela signifie: en vrai, ce qu'on dit aux gens, c'est que leur œuvre ne vaut rien, mais par contre, si vous nous l'installez, ou assurez du support, ou faites une formation (ou autre), alors là ça vaut quelque chose. Par contre, il faut bien sûr continuer à corriger les bugs et à faire évoluer le logiciel (c'est implicite!), sinon c'est absolument inacceptable (et possiblement peut induire une rupture de contrat du service). Donc on suppose encore et toujours que le développement logiciel est du travail gratuit. Et on nous demande de faire 2 ou 3 métiers à la fois (mais on ne nous paye que pour certains de ceux-ci).

    Perso j'aimerais être rémunéré pour coder sur GIMP et autres logiciels libres. Des dizaines de millions de gens utilisent notre code et le trouvent utile. Énormément de ces gens l'utilisent même professionnellement. J'ai pas envie de chercher des contrats de services (qui nous feront vivre mais nous empêcheront en fait d'améliorer GIMP ou de faire nos projets de films). Et donc le business model que je cherche, il se base sur ça: se faire payer pour le développement de communs logiciels et la production de communs artistiques.

    Ensuite je dis pas que c'est totalement impossible, mais à ce jour, le concept de "sponsor institutionnel" tient plus du rêve qu'autre chose pour nous (et certains en sont revenus; je me souviens — il me semble — d'un article de Framasoft qui disaient qu'ils en avaient marre d'espérer attendre quelque chose des services publics, et c'est à ce moment où ils ont changé leur manière de faire les choses et aussi qu'ils ont décollé en utilité et en reconnaissance internationale!). C'est sûrement possible pour ceux qui ont les "contacts" et "relations". Mais je viens pas d'une grande famille d'ingénieurs ou de politiciens, j'ai pas fait de grandes écoles, j'ai pas de potes parmi les dirigeants de ce monde. Pour nous, tous ces concepts de super sponsoring publics (ou privés), ce sont des trucs qu'on lit dans les journaux avec des gens de bonne famille, bien "entre soi", qui se donnent de l'argent entre eux. Pas la réalité des gens qui font des projets libres sans être "du milieu".
    Ensuite si ça change, soyez sûr que vous en entendrez parler sur Linuxfr. Si une institution décidait soudainement de nous soutenir avec du gros financement, je l'annoncerai fièrement haut et fort ici dans une news GIMP ou ZeMarmot!

    ps: la fondation Gimp a des sous, non ?

    Y a pas de fondation GIMP.

    (elle a une poignée de BTC en tout cas)

    Y a effectivement un portefeuille qui a débuté quand des gens ont insisté pour donner des bitcoins. Récemment ça a fait jaser quand certains se sont aperçus qu'on avait un million de dollars en bitcoin (c'était la période où c'était au plus haut; maintenant ce serait beaucoup moins). Depuis y a des gens qui croient qu'on est super riches et qu'on se la coule douce aux Bahamas (j'ai lu un commentaire, ou c'était un tweet peut-être, qui disait un truc du genre; limite d'après le message, on avait monté une grosse arnaque avec GIMP et les développeurs étaient super riches, en train de voler les gens; et c'est ainsi que les rumeurs commencent); certains ont aussi raconté qu'on faisait une sorte d'investissement bitcoin malhonnête (je sais plus le terme, mais y a un mot que certains ont sorti qui apparemment correspond à laisser des sommes dormir exprès pour de l'investissement, ou je sais plus quoi). Etc.

    La réalité, c'est juste qu'on sait pas comment utiliser cela. D'une part les bitcoins ne nous ont jamais intéressé (j'ai toujours eu une vision très mauvaise de ce système), donc on est vraiment très peu au fait des plateformes et de l'usage. L'entièreté du portefeuille nous a simplement été donnée par divers donateurs au fil des ans (et comme ça a commencé y a longtemps, sûrement à une époque où ça commençait à peine, avant que j'arrive moi-même, ça explique la somme). En second, aucun des organismes avec qui on est en relation ne sait quoi faire des bitcoins ni ne veut y toucher (et pas à cause des évènements récents! C'est un sujet qu'on a discuté depuis plusieurs années, on a essayé pas mal de se renseigner, on ne sait juste pas comment faire). Notre propre mini-asso, on ne va sûrement pas prendre de risque non plus, quand je vois que toutes les grosses fondations et assos refusent (nous on n'a pas de sous, pas d'avocats…). On ne va pas y balancer un million de dollars et se retrouver avec des histoires de détournement de fonds, blanchiment d'argent ou que sais-je que certains pourront inventer. Et personnellement, je vais pas mettre ça sur mon compte non plus, c'est sûr (même si j'aimerais bien! Ahaha). Faut dire ce qui est, c'est le genre de somme que j'ai jamais eu dans mon compte en banque! Et puis y a le fait que GIMP, c'est plus que quelques personnes. On fait quoi avec une telle somme tombée du ciel sans entité? On distribue ça chez les contributeurs? Franchement, tout ça, c'est la recette pour avoir des problèmes légaux, c'est tout.

    Les bitcoins, ceux qui sont dans le monde de la finance ou des gros sous, ils n'en ont pas peur et ils n'ont aucun problème à jouer avec. Peut-être même qu'ils trouveraient le montage financier à faire en 10 minutes. Mais le péquenaud moyen (je parle de moi et d'autres développeurs du logiciel), ce sont des trucs qui nous passent au dessus de la tête et nous font peur. L'argent qui tombe du ciel sans aucun cadre juridique, honnêtement, comment j'explique ça? Qu'est-ce que je mets dans ma déclaration d'impôts?

    Attention, je dis pas que c'est pas possible. Mais nous, on n'a trouvé personne pour nous expliquer comment faire (au "mieux", on trouve des gens qui nous disent "non mais c'est bon, t'auras pas de problème!", sans réellement se poser de question, sauf que c'est facile à dire quand c'est pas eux qui prennent les risques).

    Mais elle ne paie aucun développeur directement, c bien ça ?

    Pour payer un développeur, il faut une entité morale, des fiches de paie, ou des factures. Tu ne peux pas juste te virer des sous (ou les partager aux divers développeurs), de l'argent qui vient d'on ne sait où, et t'attendre à ce que tout se passera bien.

    Mais bon, c'est un sujet en discussion ou pas ?

    Il y a bien des discussions pour permettre du financement de développeurs. J'en parlerai s'il y a des choses concrêtes qui en sortent.

    En attendant, c'est déjà possible, juste sans point central. Il faut simplement donner aux financements existants (notre projet, ZeMarmot, pour tout notre travail sur GIMP (aussi sur Patreon), et le développeur de GEGL). Là ce sont des sommes bien fléchées, avec des entités légales, des procédures de rémunération dans les règles. Vous pouvez donner et être sûr que l'argent est utilisé pour ce pour quoi vous donnez. 😄
    Notons que c'est exactement la demande (payer le développement de GIMP) car vous financez bien le développement de GIMP avec ces 2 financements, même si ce n'est pas le nom de "GIMP" sur la devanture. C'est pareil car améliorer GIMP pour nos besoins professionnels fait partie intégrante du projet (et c'est pas du vent, on a toutes les années passées pour le prouver: on est responsable de la grosse majorité du code de GIMP depuis quelques années 😎).

    Ensuite on est conscient que certains veulent juste donner à GIMP, veulent absolument une entité centrale, et ne comprennent pas la décentralisation du financement. Donc on étudie la question. Mais il faut être clair: au final, on peut déjà financer le développement de GIMP.

    Merci à ceux qui le font d'ailleurs! 🤗

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Exemple : démarchage au CPF

    Posté par  (site web personnel, Mastodon) . En réponse au journal Piéger les démarcheurs abusifs. Évalué à 10.

    Ç'aurait été une arnaque selon les règles, mais non, c'était un peu plus honnête, il m'a juste demandé mon adresse électronique, celle inscrite sur le compte CPF, ce qui lui a suffit à me pré-inscrire à des formations.

    Au final tu lui as quand même donné ton adresse électronique. Ça m'aurait fait hésiter. En tous cas, c'est vraiment super, mais faut avoir un certain cran. Personnellement, jusque là, je me contente de leur dire que je suis pas intéressé, et je leur dis au revoir poliment (oui j'ai même du mal à ne pas être poli! C'est le niveau où j'en suis! Alors monter un piège aux arnaqueurs!…).

    Sinon 2 questions:

    1. C'était quand? On en parlait récemment après un article; et après une recherche rapide, j'ai pu confirmer qu'il y a une loi qui interdit tout démarchage pour une formation CPF, adoptée ce 8 décembre, avec 375 000 euros d'amende pour une personne morale (donc l'organisme de formation, mais aussi le sous-traitant? Ou l'un d'eux paye pour les 2? Ou ils partagent l'amende?). Par contre, je vois qu'il semblerait y avoir une troisième étape, non encore passée, "promulgation", qui d'après Wikipédia serait la mise en vigueur? Si c'est le cas, je suis un peu déçu, car ça veut dire que ce n'est pas encore applicable, ou je me trompe? (je ne suis pas le plus au fait sur le parcours d'une loi)

    2. Si ce n'est pas en vigueur, quelle est la base pour dire que c'est illicite? C'est parce que tu es sur Bloctel (le cas "automatiquement illicite" que tu cites)? Parce qu'hormis cela, il faudrait par exemple prouver qu'ils ont eu ton numéro de manière illicite (c'est à dire qu'un organisme leur a donné alors que tu avais explicité refusé, ou simplement rien accepté; mais comment prouver cela?).

    Sinon similairement à ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ plus bas, il y a aussi la question de savoir s'ils auront vraiment une amende. Ils pourraient se retourner en disant qu'ils n'ont jamais appelé (c'est alors une parole contre une autre). Pour vérifier les dires, il faudrait qu'un juge acte pour avoir accès aux appels téléphoniques, mais le feraient-ils sur le signalement d'une personne seulement (je doute malheureusement que beaucoup signalent et au final, chaque organisme a probablement un ou 2 signalements à peine à leur actif)?

    D'ailleurs le fait d'utiliser (très vraisemblablement, comme tu le dis toi-même) des sous-traitants peut aider d'autant plus à brouiller les pistes puisqu'on ne trouverait aucun appel de leur part. Il faudrait alors regarder ta propre liste d'appel (mais tu en aurais été averti si un juge avait autorisé cela, je pense) pour retrouver d'abord l'intermédiaire, puis prouver le lien avec l'organisme de formation. Alors techniquement tout cela est très simple, et en fait c'est même super rentable (à la fin, 375k à la clé pour le gouvernement, ça vaut largement le temps du juge et de la police surtout que toute la procédure ne devrait pas prendre plus de quelques heures si faite efficacement). Sauf que dans les faits, on sait que ce genre de plaintes a plutôt tendance à faire lettre morte.

    Quand je vois le nombre d'arnaques qui se font impunément, où les arnaqueurs ne cherchent même pas à cacher leurs numéros de téléphone, et où la police ne fait rien (car chaque arnaque individuellement fait juste perdre quelques euros — voire rien du tout à l'individu dans le cadre des formations s'ils ont les droits suffisants! — donc la police estime qu'on est à peine lésé).

    Attention, j'ai l'air de faire l'avocat du diable, mais c'est uniquement que je suis blasé car — comme tu peux t'en rendre compte — je n'ai plus grande confiance en notre justice (j'ai eu un cas moi-même, rien à voir avec du démarchage, mais un cas tellement évident qui n'a pourtant mené à rien et sans jugement au final sur des points administratifs; et c'est là qu'on comprend que la justice ne marche pas pour les petits péquins comme nous). C'est juste les entreprises ou les riches qui font leurs arnaques au grand jour, qui ont des avocats, et qui en général s'en sortent par des procédures administratives.

    D'ailleurs y a-t-il le moindre suivi des réclamations que tu fais (tu l'as fait sur ton compte bloctel j'imagine)? Ou il n'y a plus aucune nouvelle après, notamment tu ne sais même pas si ça part dans /dev/null ou s'il y a eu la moindre action de faite?

    Quand je vois sur le site bloctel qu'ils mettent un gros bandeau pour se vanter d'une sanction de 11700 euros contre un organisme qui fait du démarchage, on se dit que ça doit être un fait super rare d'être réellement sanctionné, pour ainsi en mettre un seul en avant. Ce qui serait mieux serait plutôt un vrai fil de "news" et qu'on y voit sans arrêt passer des annonces d'arrêt de justice à l'encontre de contrevenants (y a largement de quoi quand je vois le volume; moi encore j'en ai peu, un peu toutes les semaines, mais j'ai quelqu'un de ma famille par exemple qui reçoit plusieurs appels par jour! C'est effarant quand je vais chez elle; je vais lui demander si elle s'est inscrite sur bloctel tiens!). Mais je me fais des illusions!

    Enfin bon, ça reste génial ton truc; je sais pas si j'aurai le courage de monter des "pièges" mais pour le coup, au moins tu m'as inspiré et je me suis inscrit sur bloctel à l'instant. Je vais m'empresser d'au minimum signaler les SMS de démarchage que j'ai reçus. J'y crois pas mais qui sait si j'arriverai un jour à être désillusionné de notre système de justice.

    D'ailleurs les arnaques évidentes (qui ne sont pas réellement du démarchage), je suppose qu'on ne doit pas faire doublon et ne pas les envoyer à bloctel. Par exemple ces derniers temps, j'ai reçu de faux SMS de livraison ou de faux SMS "votre carte vitale est prête" avec à chaque fois une URL sur un domaine évidemment monté pour l'occasion (qui va probablement vous demander plein de données perso; j'ai évidemment pas cliqué pour vérifier!). Perso je ne les rentrerais pas en démarchage illicite, ce sont des arnaques (on se fait passer pour autrui et on monte une histoire de toutes pièces) et donc à transférer au 33700.

    J'ai un dernier cas: des fois, on reçoit des appels et quand on répond, il n'y a rien. Personne parle. Ça m'arrive de temps en temps. Mais je ne saurais pas classer cela.

    En tous cas, merci pour le journal. C'était intéressant. 😄

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Une petite question

    Posté par  (site web personnel, Mastodon) . En réponse au lien CPF et Qualiopi. Évalué à 10.

    Bah c'est comme toujours: des entreprises fraudent? Faisons payer les citoyens (donc les victimes dans les affaires de fraude citées)! Logique quoi! 🙄

    De toutes façons, l'article dit aussi bien que les fraudes, ce n'est que secondaire. Pour le gouvernement, c'est apparemment assumé de diminuer les dépenses en rendant moins attrayant de se former.

    Mais revenons aux fraudes. Franchement les démarchages de ces entreprises bidons, j'en ai aussi reçu pas mal, par SMS mais aussi par appel téléphonique. Ce ne sont pas des numéros cachés, tout le monde en reçoit (c'est d'ailleurs écrit dans l'article) donc c'est pas comme si ces arnaqueurs étaient bien cachés et pas faciles à débusquer. Et si… soyons fous! Et si on allait enquêter sur ces personnes qui appellent et envoient des SMS impunément? D'ailleurs l'article dit que c'est interdit maintenant (j'ai fait une recherche, c'est une loi adoptée depuis le 8 décembre apparemment avec de belles amendes à la clé! Au moins cet article m'aura appris une chose et la prochaine fois que je reçois un tel appel, je dirai à la personne qu'elle risque une amende de 75000 ou 375000 euros! Je me rappelle encore avoir été démarché y a une semaine, mais sûrement juste avant l'adoption de la loi). Mais même avant toute loi spécifique au CPF, il était évident que ce sont des sociétés qui s'assoient sur la loi car le démarchage en général est déjà bien réglementé et ne peut pas être fait n'importe comment. Si ces sociétés ont des numéros de téléphones tels le mien, alors que je refuse systématiquement les démarchages et le partage de mes coordonnées à des "sociétés partenaires", c'est bien qu'il y a anguille sous roche. Et puis soyons clair: une société qui a besoin de recourir à ce type de méthode n'est pas nette à la base (non, faire chier les gens qui n'ont rien demandé n'est jamais une bonne méthode; on le sait qu'au final ceux qui se font surtout avoir par ces méthodes de démarchage direct sont soit les personnes âgés — bon sûrement moins dans le cas de formations, mais je parle du démarchage en général — soit les jeunes encore incertains de l'avenir, donc finalement les personnes les plus affaiblies de la société).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Déjà dans la rubrique liens

    Posté par  (site web personnel, Mastodon) . En réponse au journal Office 365 et Google Workspace en difficulté chez l'école républicaine. Évalué à 6.

    Ahahah. Je peux toujours en faire un journal (enfin en poussant plus la réflexion et en mieux structuré; là pour moi, c'est vraiment juste un commentaire vite fait 😛) mais en même temps, si c'est juste pour parler sans action derrière, cela reste limité (ce pour quoi je fais un commentaire, comme on peut discuter et grommeler au café du coin quoi!). En général, mes journaux et dépêches, c'est plus pour les trucs où je fais activement quelque chose, pas des "conseils" dans le vent ("blowing in the wind" 🌬️ qu'il disait!).

    Pour tout dire, j'avais postulé à un poste au pôle logiciel libre de la DINUM l'an dernier (parce que justement, souffler dans le vent, ça m'intéresse pas; sauf si c'est dans un harmonica!). Justement il y a un an, je me disais qu'il pouvait être intéressant d'avoir un pied dans la porte (c'était pas un gros poste mais je pensais qu'une fois sur place, je pourrais comprendre mieux comment aller plus loin) et de là essayer de pousser vers des projets gouvernementaux plus actifs que juste de "conseiller" des listes de logiciel libre. J'ai eu un entretien, mais ce qui a surtout bloqué, c'est qu'il faut obligatoirement être sur Paris. Y avait bien une possibilité de télé-travail partiel, mais la règle, c'était genre 2 ou 3 jours max par semaine (et non, je ne vais pas aller à Paris toutes les semaines! Je veux bien rencontrer les équipes à intervalles réguliers ou pour des RDVs importants, mais le concept de devoir obligatoirement aller au "bureau" — juste y être pour y être — est un concept pré-historique d'après moi). Et pourtant c'était en pleine période des confinements COVID (ou juste après), mais bon faut croire que le gouvernement a encore beaucoup de mal à évoluer. 🤷 Après on s'étonne que les choses n'avancent pas si les seuls capables de travailler pour la France sont les parisiens (pas parce que les parisiens ne peuvent pas bien travailler, mais la France est plus grande que cette seule ville et il faut pouvoir intégrer toutes les parties d'un tout pour obtenir quelque chose de cohérent)…

    Personnellement ce qui m'intéresserait, ce serait surtout de pouvoir participer à ce genre de projet (logiciel libre dans l'administration avec de la fédération de développeurs, de la communication et du travail collaboratif entre les diverses administrations publiques à divers niveaux). Je serais heureux de former et diriger des équipes de développeurs, de créer une véritable dynamique nationale de contribution et de mise-à-niveau des logiciels libres, de même que d'adaptation aux usages des collectivités, de formation des fonctionnaires, communiquer et travailler avec les administrations locales, etc. Comme les gens ici le savent, j'ai largement l'expérience pour pouvoir mener à bien ce genre de projet (je sais que cela peut sembler présomptueux et je n'aurais pas dit cela y a 10 ans; mais beaucoup a changé depuis!), en tant que mainteneur de plusieurs projets de logiciels libres, dont l'un des plus gros avec facilement des dizaines de millions d'utilisateurs, et contributeur sur des dizaines de logiciels libres.

    À ce moment là, je pourrais même faire des dépêches car ce serait plus que juste en parler. 😉 Pour l'instant, c'est juste du vent et mes espoirs vains d'une nation qui comprenne enfin comment le milieu logiciel fonctionne (plutôt que de jeter des grands mots bidons de "startup nation", on pourrait être une vraie nation de coopération et d'échanges).

    Bien sûr, je jette ce petit message ici au cas où des gens du gouvernement lisent linuxfr (c'est donc pas innocent 😉). Histoire de dire que j'ai déjà essayé de rentrer à la DINUM par la petite porte et suis toujours potentiellement intéressé (sauf que maintenant je veux plus essayer de juste "postuler", je pense que ça n'a du sens que si j'ai une possibilité de faire des choses en plus grand) pour travailler avec la DINUM pour créer une telle dynamique.

    À vrai dire, maintenant je sais pas si j'aurais encore le temps (puisque depuis j'étais passé à autre chose bien entendu), mais y a peut-être des choses faisables quand même. À voir. Donc chers amis du gouvernement, faut pas hésiter à me contacter si vous voulez que les collectivités françaises rentrent finalement dans le 21ème siècle! 😜

    P.S.: et pour quiconque me dirait que la DINUM a déjà un truc similaire, le mode de fonctionnement actuel me semble surtout démontrer les nombreux problèmes de l'organisation de l'administration de nos jours, avec un marché public qui est toujours remporté par une grosse société de service (et qui clairement s'en fout du Libre, c'est pas dans leur "ADN" du tout et leur expérience avec les communautés du libre doit être quasi-inexistant; c'est aberrant que le contrat leur soit revenu), qui elle-même n'est qu'un intermédiaire avec de nombreux sous-traitants. Des systèmes malsains de dilution des responsabilité, de sommes prohibitives avec des sous-sous-traitants au final qui se tapent tout le travail dans de mauvaises conditions (cf. tous les systèmes de délais non-réalistes que je vois, et qui sont de toutes évidence pas tenus mais ça permet de pouvoir engueuler les sous-traitants; parce que travailler dans de bonnes conditions de travail, c'est vraisemblablement surfait dans l'esprit de nombreux décideurs! 🙄) et qui vraisemblablement ne marche pas tellement: à voir la liste des contributions faites au logiciel libre, soit la liste n'est absolument pas à jour, soit leur système ne fonctionne pas du tout! Je n'arrive pas à trouver l'info sur combien ce marché a coûté, mais il est évident que ça a coûté une fortune (une énorme boîte de services avec 7 prestataires dans un contrat gouvernemental) et il ont fait 55 patchs (dont une majorité semble juste être des mises-à-jour de dépendances) en un an et demi? À moi seul, j'en fais plus en un mois (et c'est pas du vent, j'ai mes dizaines de commits mensuels, mes dizaines de messages sur les systèmes de suivi de bug, mes discussions quotidiennes avec les développeurs de la communauté, tout ça pour le prouver; et pourtant maintenant je passe facilement plus de la moitié du temps à ne pas coder moi-même parce que j'ai trop d'autres responsabilités!)!

    En fait, pire, un résultat médiocre d'un tel contrat pourrait s'avérer vraiment contre-productif en donnant du grain à moudre à ceux qui disent que le logiciel libre ne peut pas marcher. Alors qu'en fait, c'est juste qu'ils n'apprennent pas et continuent encore et toujours les mêmes méthodes de sous-traitance à outrance de tout et n'importe quoi (parce qu'en fait, les exemples d'échec sont nombreux, il y en a encore eu un énorme récemment pourtant en bonne vieille logique de logiciel propriétaire; cet autre article est intéressant aussi car il cite plusieurs autres gros échecs logiciel de ces dernières années, toujours avec ces problèmes de sous-traitance; combien de développeurs de qualité auraient pu être rémunérés avec ces dizaines de millions d'euros!). Ce qu'il faut revoir, ce n'est pas juste la licence des logiciels utilisés mais aussi comprendre comment fonctionne le développement logiciel (libre comme propriétaire), revenir en arrière sur les politiques actuelles absurdes de financement de services privés qui ne fonctionnent simplement pas (et n'ont jamais fonctionné) hormis être des trous financiers, récupérer des compétences internes…

    Ce qu'il faut donc , ce sont de vrais équipes de développeurs, bien payés, en interne, formés de telle sorte qu'ils savent travailler avec les communautés du logiciel libre, et qui sont là pour réellement corriger et améliorer les logiciels, pas juste faire du remplissage. Clairement ce seront des choses qu'on aura jamais tant qu'on continuera de travailler sur ce mode de "on décentralise tout vers des boîtes de service à tarifs délirants".

    Ah et aussi il faut intégrer les collectivités locales. C'est un système où on sera fort si ce n'est pas juste le ministère dans son coin, les communes dans le leur, les régions dans le leur, les autres organismes publics dans le leur… mais bien tous ensemble pour développer nos logiciels en communs. Ne pas faire tout cela, c'est ne pas comprendre du tout le développement libre.

    Pour info, je trouve que c'est super qu'il y ait dorénavant un pôle logiciel libre à la DINUM et que le logiciel libre soit finalement pris en compte et au sérieux. Je suis sûr que ces personnes de la DINUM font leur possible et que beaucoup sont frustrés également d'ailleurs. Et c'est bien pour cela que je dis tout cela. Si on veut vraiment que les choses évoluent dans le bon sens, il faut changer bien plus que ce qui est fait à présent. Et surtout, il faut de vrais compétences de gens qui ont l'habitude en interne! Je parle même pas juste de moi. Il y a énormément de français dans le logiciel libre. On pourrait trouver des développeurs et chefs de projets intéressés si on le voulait vraiment. Continuer à parler de logiciels libres en finançant ceux qui n'ont fait pas, n'ont aucune habitude de le faire et clairement n'ont pas la moindre idée de comment contribuer efficacement, c'est ridicule. Alors qu'on pourrait engager ceux qui font déjà cela depuis des années.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Déjà dans la rubrique liens

    Posté par  (site web personnel, Mastodon) . En réponse au journal Office 365 et Google Workspace en difficulté chez l'école républicaine. Évalué à 10.

    Sommaire

    L'algorithmique et toute ça théorique, ça se fait sans ordinateur, en tout cas sans coder, donc sans problème avec un tableau noir et du papier.

    Pour être dans la partie, avec des élèves en NSI, je peux témoigner de la nécessité d'alterner pratique et théorique. Les élèves n'ont pas encore assez de recul pour se permettre d'apprendre uniquement le côté théorique. Pour que les concepts prennent forme dans leur mémoire, ils doivent expérimenter certaines choses.

    À l'université, y a 20 ans, en licence/master informatique, les cours d'algorithmiques se faisaient sans ordinateurs. Et on comprenait très bien. Alors je veux bien — pourquoi pas ! — rajouter un peu de TPs pour peut-être rendre certains aspects plus pratiques. Mais globalement, ces choses que j'ai apprises en algorithmique, je les avais bien comprises et je les ai encore dans mon esprit à ce jour.

    Sinon dans ce sujet de "l'informatique à l'école", il y a 2 sujets en fait: l'informatique au service des cours (donc l'usage d'ordis pour les élèves et apprendre une matière par le biais de logiciels libres ou non) et au service de l'infrastructure (l'administration, mais aussi les échanges entre élèves, profs et élèves, parents et profs/école, etc.).

    Informatique pour les cours

    Sérieusement, les connaissances de compétences de base que l'école est censée transmettre n'ont pas changé depuis cinquante ans, c'est toujours lire, compter, calculer, réfléchir, puis pour aller plus loin, étudier des textes littéraires, résumer, raisonner, avec des bases en diverses sciences. Que des trucs qui se faisaient très bien sans informatique, et qui peuvent toujours très bien se faire sans informatique.

    Je soupçonne même que ces trucs se feraient sans doute mieux sans informatique.

    Pour le premier sujet déjà, j'abonde totalement avec Tangui. Je trouve la "foire à l'informatique" de nos jours totalement aberrante. On enseigne aux jeunes à ne plus savoir rien faire sans ordi (que ce soit les gros, ou les minis dans la poche, qui servent accessoirement à téléphoner!). Mais le fait est que la plupart des choses se fait très bien sans ordi. Et même justement apprendre à faire les choses à leur base nous fait comprendre.

    Pour les quelques trucs où l'informatique reste tout de même très utile, on a vraiment tout ce qu'il faut en libre.

    Même si parfois certains logiciels propriétaires ont certaines fonctionnalités avancées qui pourraient ne pas exister ailleurs (ce que je mets d'ailleurs aussi en doute; non pas parce que c'est faux, mais parce que c'est en général vrai dans les 2 sens: oui chaque logiciels, libre comme propriétaire, a en général des points forts que l'autre n'a pas — mais passons et supposons ce cas extrême où il y aurait vraiment un logiciel propriétaire mieux en tous points), ce sont justement des fonctionnalités "avancées", ce qui veut souvent dire qu'elles ne sont finalement pas si utiles lorsqu'on parle d'école (où ce n'est pas l'efficacité qui doit primer mais l'apprentissage), voire même qui ne devraient surtout pas être utilisés dans un tel contexte. En effet, un truc typique que j'ai remarqué, c'est que les gens n'aiment pas comprendre et veulent des solutions "magiques". Mais comme on n'est pas à Poudlard/Hogwarts, on n'est pas censé apprendre la magie mais bien apprendre à apprendre, comprendre, réfléchir, se débrouiller par soi-même.

    En fait, en tant que développeur, pour être clair, je trouve cela peu responsable de plonger les enfants dès leur plus jeune âge dans les ordis. C'est une des nombreuses raisons pour lesquelles j'ai très tôt arrêter de travailler dans le secteur des "startups", après quelques années à peine dans ce monde et après avoir compris à quel point ce monde était tordu. En conséquence, je suis pas riche comme ceux qui ont continué auraient pu l'être mais je vis bien avec moi-même (que les gens qui développent des systèmes qu'ils empêchent leur propres enfants d'utiliser; voir le paragraphe suivant). Et je ne suis pas de ceux qui prônent une informatique omni-présente. Au contraire, il y a plein de cas où on peut et devrait s'en passer.

    Pour info, la question de l'informatique pour la formation/éducation des enfants existe depuis des années, et notamment le fait que les gros "pontes" du monde numérique envoient leurs enfants dans des écoles sans informatique, en fait au moins 11 ans dans la presse puisque les plus vieux articles sur le sujet que je trouve datent de 2011, notamment un article de 2011 du New York Times. Bien sûr ça a commencé avant, quand on voit notamment que l'une des plus citées de ces écoles, dans la Silicon Valley — Waldorf School of the Peninsula — fut créée en 1984. Et oui, tous les gens aisés de la Silicon Valley, tous les présidents de GAFAM et autres grosses entreprises du coin notamment, envoient leurs enfants dans ce type d'école ou d'autres similaires (article récent sur les enfants de Steve Jobs et Bill Gates éduqués avec le moins de technologie possible). On en parle depuis une dizaine d'années (le sujet revient dans des journaux depuis très régulièrement; une simple recherche web trouve des articles très récents) mais c'est plus vieux que cela.
    Pour moi, il ne faut même pas y chercher une forme de "théorie du complot" d'ailleurs, comme on lit souvent dans les explications. Ce n'est pas parce que les logiciels de ces GAFAMs sont faits pour vous rendre dépendants (flux de news constants, techniques de "rétention", notamment en jouant sur les instincts et émotions les moins nobles des humains…), même s'il y a forcément un peu de cela, mais bien parce que l'ordinateur est probablement le dernier outil à utiliser pour apprendre les bases de quoi que ce soit (on parle de l'école là, la formation la plus initiale qui soit). Non on n'apprend pas à écrire avec un traitement de texte (LibreOffice pas plus que MS Word), à compter avec une calculatrice, à dessiner avec un stylet et des filtres automatiques (que ce soit GIMP, Photoshop ou autre), à penser et exprimer clairement sa pensée en lisant ou écrivant sur Twitter (ou Mastodon), à sculpter en manipulant des objets 3D (Blender ou 3DS Max), etc. Pour moi, ce serait comme dire qu'on apprendrait à cuisiner avec un robot de cuisine, ou à piloter avec un Boeing 737 MAX, ou bien à planter un clou avec un marteau-piqueur (notons qu'il y a diverses catégories d'absurdités: dans certains cas, ce peut être inadapté notamment parce que la qualité n'est pas au rendez-vous, dans d'autres parce que c'est sauter des étapes voire qu'on utilise trop gros et inadapté pour un besoin simple; mais le point commun dans tous les cas est qu'on ne commence pas par apprendre les bases).

    Les outils libres que l'on fait sont utiles, mais il ne faut jamais oublier que ce ne sont que des outils, pour des usages avancés et particuliers, avec un focus souvent sur l'efficacité plus que l'apprentissage, etc. Il suffit de voir d'ailleurs tous ces gens qui se disent perdus (genre comme si cela touchait à leur métier) si jamais leur logiciel de prédilection devait changer, être racheté par une entreprise, ou disparaître. À quel point peut-on devenir dépendant d'un seul outil? Alors que si on apprend les concepts et qu'on "comprend" les choses, quoi qu'il arrive, on ne se sent jamais perdu.

    Informatique dans l'infrastructure/administration

    Pour le second sujet, à savoir l'infrastructure scolaire, il faut aussi arrêter de rigoler. On a tout ce qu'il faut pour les besoins et l'efficacité des services éducatifs. Que ce soit les logiciels bureaux comme serveurs ("cloud"), on a largement de quoi faire. Oui, on perd toujours quelques fonctionnalités en changeant de logiciels, mais on en découvre et gagne d'autres (ce qui fait que globalement on peut s'y retrouver). C'est toujours comme cela, ça n'a aucun rapport avec le fait d'être libre ou non, et le fait de réduire ces changements à ce point précis, c'est juste ne pas comprendre comment fonctionne le développement informatique.

    Mais surtout, et c'est là où les administrations publiques pourraient avoir un énorme coup à jouer: on gagne la possibilité d'influer les changements, notamment en rémunérant du développement soi-même! Énormément de gens se trompent complètement quand ils parlent de l'avantage principal du libre, du moins dans le contexte de l'usage en entreprise ou administration publique: ils vont vous dire "au moins on peut vérifier le code et s'assurer qu'il est exempt de bug". C'est en partie absurde pour un certain nombre de raisons même si c'est aussi en partie vraie (mais je vais pas épiloguer sur ce point). Le vrai gros pouvoir est de pouvoir changer les choses soi-même. Alors à ça, on aime bien rétorquer que "tout le monde n'est pas développeur". C'est vrai, mais là on parle de grosses entités (entreprises ou administrations publiques) qui, elles, pourraient tout à fait embaucher. Mieux, elles peuvent aussi se rassembler pour partager et réduire les dépenses. Par exemple, pourquoi ne pourrait-on pas avoir un service de développeurs gérés au niveau national qui serait à même de contribuer aux logiciels libres utilisés pour les collectivités? Cela pourrait être géré par la DINUM par exemple? Les collectivités pourraient faire des demandes de correction de bugs, des demandes de fonctionnalités, etc. Elles pourraient aussi faire des demandes de groupes (la plupart des changements sont utiles pour une grande quantité d'administrations). Au lieu de cela, chacun fait des appels d'offres dans leur coin, pour des logiciels que presque personne sauf eux va utiliser et qui coûtera 100 fois plus que de payer des développeurs compétents en CDI et avec des salaires décents.

    J'ai récemment été en contact avec la mairie de Lyon (qui est pro-logiciel libre dans le mandat actuel) et notamment j'ai demandé s'ils avaient des développeurs. J'ai donc été étonné d'apprendre qu'ils n'ont aucun développeur en interne! Pourtant c'est vraiment ce qui fait la force du libre. Pourquoi on utilise essentiellement du libre? Parce que quand on a testé initialement (pour voir ce qu'il se faisait hors monde Adobe, qui était ce qui avec quoi on enseignait aux artistes en université, et l'artiste avec qui on avait des idées de projets en commun, Aryeom, avait un esprit ouvert aux alternatives et s'intéressait à des logiciels plus proches de ses valeurs), il y avait plein de problèmes et que ce n'était pas utilisable dans notre cas d'usage (dans d'autres, ça l'était déjà, notons bien, car l'idée est justement que ça dépend des usages et donc des objectifs de chacun). Comme j'en avais l'habitude, j'ai contribué quelques patchs par ci par là, puis au bout de quelques années, on a testé dans des projets semi-pro, c'était déjà un peu plus utilisable. Puis on a insisté, jusqu'à ce que maintenant on soit plutôt content du résultat (loin d'être parfait, encore, mais un bond depuis nos débuts). Et tout ça avec un seul développeur (un seul focalisé sur nos besoins précisément, j'entends; ce dernier étant moi-même, vous l'aurez compris) qui a souvent fait d'autres choses, a eu d'autres emplois, a fait des patchs majoritairement "à côté". Imaginez s'il y avait des équipes de développeur payés pour cela?

    Autre exemple: Aryeom donne des cours à l'université depuis quelques années maintenant (avec GIMP, bien sûr! Il est loin le temps où elle était étudiante et qu'on lui imposait les produits Adobe!). Cette année, certains étudiants ont rencontré un bug. Le soir même, je l'ai corrigé dans notre code en développement. Essayez d'avoir des corrections de bug dans la journée avec Microsoft ou Adobe, pour voir!

    C'est pour moi le plus gros pouvoir du logiciel libre. Les économies, la souveraineté numérique, la possibilité de faire des audits de code, tout cela est vrai aussi. Mais croire que ce sont les avantages majeurs, c'est aussi prendre le risque d'être déçu ("quoi y a pas cette fonctionnalité?! Le Libre, c'est nul!"; "attends j'ai demandé cette fonctionnalité y a 10 ans et les 3 contributeurs pas payés qui font ça sur leur temps libre l'ont même pas encore mis en priorité 1? Ça prouve la supériorité du propriétaire (dont on peut même pas contacter les gens qui décident, donc au moins ils m'ignorent pas! CQFD!)!"; "ah y a des bugs! Votre logiciel est pas parfait! Le Libre, c'est trop nul!"…). Alors que si on se rend compte que si on peut implémenter les fonctionnalités soi-même et corriger des bugs immédiatement, d'un seul coup, on maîtrise entièrement ses outils de travail. On a un vrai contrôle pour rendre l'outil adéquat à ses besoins.
    Parce que le plus gros pouvoir du Libre, c'est pas d'avoir le droit de se plaindre publiquement parce que les discussions sont effectivement publiques, c'est de pouvoir prendre en main ses besoins.

    Conclusion

    Enfin bon en conclusion: l'informatique à l'école pour les enfants? Franchement, pas besoin dans la majorité des cas; l'informatique dans l'infra, l'administration, la communication? Absolument! Mais il faut aussi prendre le sujet à bras le corps et c'est là où ces administrations y trouveront tellement leur compte que revenir en arrière leur semblera une aberration tellement les avantages seront énormes.

    Il faut des développeurs. Et il faut aussi que les fonctionnaires soient formés à la remontée de bug et comprennent le concept de développement communautaire. En fait ce n'est simplement pas une logique à laquelle les gens sont habitués (puisqu'on les a habitué à attendre passivement qu'on les "nourrisse" et à se plaindre quand ça va pas), mais une fois qu'on a compris et qu'on est au milieu de tout cela, le développement communautaire est juste tellement puissant. Et le pire, c'est qu'il est déjà super puissant alors qu'on a à peine effleuré ses possibilités. On le dit assez, tellement de logiciels massivement utilisés sont développés par une poignée de développeurs à peine (voire souvent 1 ou 2 personnes seules et qui font ça en hobby). Imaginez alors si les administrations et entreprises décidaient réellement de "collaborer", de se rassembler et travailler ensemble. Les possibilités seraient presque infinies. Pour le logiciel, on a déjà tout ce qu'il faut pour que ce soit possible, et ça marche déjà à échelle réduite. Imaginez si les administrations jouaient le jeu plutôt que de jouer celui des GAFAM? Le résultat serait sans équivoque.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # TLDR; "oui"

    Posté par  (site web personnel, Mastodon) . En réponse au lien Do Users Write More Insecure Code with AI Assistants?. Évalué à 6. Dernière modification le 17 novembre 2022 à 15:55.

    Je pense qu'il est acceptable de copier juste le chapeau qui est sur la page de téléchargement et en "résumé" au début du papier de recherche:

    We conduct the first large-scale user study examining how users interact with an AI Code assistant to solve a variety of security related tasks across different programming languages. Overall, we find that participants who had access to an AI assistant based on OpenAI's codex-davinci-002 model wrote significantly less secure code than those without access. Additionally, participants with access to an AI assistant were more likely to believe they wrote secure code than those without access to the AI assistant. Furthermore, we find that participants who trusted the AI less and engaged more with the language and format of their prompts (e.g. re-phrasing, adjusting temperature) provided code with fewer security vulnerabilities. Finally, in order to better inform the design of future AI-based Code assistants, we provide an in-depth analysis of participants' language and interaction behavior, as well as release our user interface as an instrument to conduct similar studies in the future.

    En gros, donc la réponse est: oui, ceux qui utilisaient des systèmes d'AI et surtout faisaient confiance en de tels systèmes et croyaient faire du code plus "sûr" faisaient en fait du code moins sûr en général.

    Ça me paraît assez évident et j'avais déjà donné mon avis (j'ai l'impression de coller le lien de ce fil de discussion un peu trop régulièrement ces derniers temps! Ahahah 😅) sur cette étrange tendance à tout miser sur "l'IA" dernièrement, et comme quoi on est carrêment en train de faire du nivellement par le bas et de la baisse de qualité avec des idées foireuses (ou plutôt mal-comprises, car le champs d'étude de l'IA en soit n'est pas une mauvaise chose du tout!). Y en a qui n'ont pas compris que l'automatisation et l'IA avait pour but d'aider les humains en automatisant, simplifiant les tâches bêtes, répétitives ou complexes car techniques (précision, calcul…), pas en réfléchissant à notre place. Surtout que c'est un mensonge, ces systèmes n'ont aucune réflexion, quiconque a un peu étudié des algorithmes d'IA le sait (ou devrait le savoir car s'ils ne l'ont pas compris, alors il y a un autre problème).

    Ensuite c'est plutôt pas mal d'avoir des chiffres et stats pour appuyer ces dires. :-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: quelques questions sur GIMP

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Conférence "GIMP et ZeMarmot" à Vandœuvre-lès-Nancy. Évalué à 8. Dernière modification le 01 novembre 2022 à 15:26.

    Ne pouvez-vous proposer des trucs pas optimisés, disons en «pré-version», pour mettre l'eau à la bouche ?

    Le problème est que ça ne marche pas comme ça. Les gens sont juste déçus et nous engueulent comme un support client d'un produit qui ne remplit pas ses promesses (pas tous, mais il suffit de quelques uns pour que ce soit pénible).

    Et puis soyons francs, même pour nous, c'est décevant. On aimerait vraiment pouvoir utiliser ces outils sur nos images de tous-les-jours. GIMP n'est pas un jouet et on l'utilise vraiment nous-même, on veut pas perdre notre temps de mainteneurs à juste proposer des démos faites par des étudiants qui cherchent du boulot (ça ne serait qu'une "preuve" pour ces gens qui disent que le libre n'est qu'une vitrine de ceux qui veulent se faire des CVs; c'est une triste vision du libre!).

    Ce serait aussi mettre la pression sur les contributeurs qui ne voudraient peut-être pas laisser ce bout de code pas fini trainer sur la place.

    On n'a pas pour habitude de mettre la pression aux contributeurs! ;-)

    (ajout: et puis si on se pose la question autrement, quand t'as eu une fonctionnalité qui marchait pas dans un logiciel libre, tu es souvent allé en parler au contributeur précis? Est-ce que tu connais même un contributeur d'une fonctionnalité d'un logiciel? Non, si tu te plains, tu le fais sur le tracker pour toute l'équipe, et surtout les contributeurs core, ceux qui sont là en permanence, ce qui ne sera pas le cas de celui qui droppe du code et disparaît jusqu'au prochain drop; alors au final, qui la reçoit la pression du bout de code pas fini, à ton avis? 😵‍💫)

    Ma méthode de maintenance est que les contributeurs ont le droit de travailler sur ce qu'ils veulent. Pour moi c'est le meilleur moyen de les faire rester à long terme, en faisant en sorte qu'ils se plaisent et s'amusent à améliorer GIMP. En un sens, si vraiment quelqu'un se fait chier en codant GIMP et le fait juste pour sa vitrine personnelle, j'ai pas plus envie que ça que cette personne reste. Ça m'amuse pas plus d'avoir des contributeurs pas heureux (qu'eux de ne pas l'être). Et puis tant pis si on attend quelques années de plus pour l'outil rêvé.

    Surtout que je pense qu'optimiser du code est aussi une activité tout à fait sympathique. J'ai déjà travaillé sur des outils que j'ai passé un temps fou à essayer d'optimiser (par exemple la colorisation intelligente qui était un algo du CNRS originellement mais que j'ai rendu plus utilisable et surtout beaucoup plus instantané).

    Franchement c'est aussi jouissif d'arriver à soudain avoir une utilisation quasi temps réelle d'un outil qu'on attendait constamment que ça l'était d'obtenir un outil qui marche (lentement) lors de l'implémentation initiale. De même que ces derniers temps, Aryeom et moi avons fait beaucoup d'itérations pour maintenant améliorer l'interface de cet outil de colorisation et son utilisation (notamment la compréhensibilité des options). Ça aussi (travail UX) est super intéressant. Ce sont toutes des étapes différentes mais chacune vraiment prenante à sa façon. Peut-être qu'un développeur qui va jamais jusqu'au bout et veut juste la partie facile s'est trompé de voie? Je sais pas… je m'interroge (perso je ne fais pas partie des gens qui pensent que le travail est juste un "gagne-pain" en attendant la retraite; on y passe une majeure partie de sa vie, il faut y être heureux aussi). 🤷 En tous cas, on devrait pas avoir à leur mettre la pression, ça c'est certain!

    un ami bosse sur du code C ultra-optimisé (pour des chaines de fabrication de téléphone). Il me dit que ce savoir faire est recherché.

    Un petit détail sur ce point précis. On ne cherche pas particulièrement l'ultra-optimisation de code. J'ai déjà lu des articles de gens qui parlent de certaines techniques, et ce que je vois dans les articles, c'est que ça peut rendre parfois le code tellement imbitable que ça en serait in-maintenable. Rien n'est pire que le code qu'on ne comprend pas sans y passer des jours (les bugs y restent des années et des années parce que personne veut toucher ce code).
    Ensuite qu'on me fasse pas dire ce que je n'ai pas dit: bien connaître les structures de données, etc. c'est important. Mais parfois la lisibilité du code est bien plus importante que des centaines de micro-optimisations basée sur une connaissance avancée du langage.
    Disons juste qu'il y a un intermédiaire entre du beau code très simple (l'implémentation "naïve" qui est souvent la plus belle et compréhensible mais aussi parfois trop lente) et du code imbitable qui va utiliser des techniques obscures et inconnues de compilateurs ou des structures de données sous-jacentes.
    Ensuite je sais pas si c'est ce que ton ami appelle le C ultra-optimisé (ça m'a juste fait penser à des articles que j'ai lu, dont un y a vraiment pas longtemps, mais j'arrive plus à me rappeler où)! 😜

    En contre-exemple, j'explique un peu dans ce document comment j'ai fait évolué l'algorithme de colorisation intelligente de l'équipe G'MIC/CNRS, voire ai changé des morceaux ou bien ai utilisé des astuces d'interface pour l'améliorer: https://developer.gimp.org/core/algorithm/line-art-bucket-fill/

    On notera que pour toute la partie "optimisation", en plus des optimisations habituelle sur le code C lui-même (sans pour autant aller jusqu'à des techniques ultra-avancées en optimisation C), déjà j'ai fait évoluer l'algorithme lui-même (on y gagne 100 fois plus que toute "ultra" optimisation C). Par exemple pour l'étape 3 de "flooding", j'ai simplement utilisé un algo perso basé sur la connaissance qu'on avait déjà des traits et de leur épaisseur locale (info qu'on a calculée pour l'étape 2).

    En plus de l'amélioration algorithmique, j'ai travaillé sur des logiques de travail en "interface graphique", notamment le fait qu'on sait que le graphiste n'est pas aussi instantané qu'une machine et donc il y a du temps entre 2 clics. Donc autant simplement pré-calculer le plus possible dans ce "temps mort" dans des threads (quitte à faire parfois du calcul qui sera perdu comme tout pré-calcul qui est un pari sur l'avenir).

    Puis il y a plusieurs optimisations au niveau de l'UI et même la possibilité d'exclure explicitement (par les options) les parties complexes (ce qui implique pour l'artiste de comprendre un peu la logique interne de l'outil, mais c'est ce que les utilisateurs avancés font de toutes façons).

    Serait-ce intéressant pour des étudiants du Summer Of Code d'apprendre à optimiser ?

    Sincèrement pour les étudiants, déjà trouver ceux qui sont des développeurs sérieux tout court me semble une denrée rare. On en a eu un(e) cette année, qui en plus est très intéressé(e) (et intéressant!) et qui continue à contribuer! C'est d'ailleurs la raison pour laquelle on a fait le GSoC cette année, après 9 ans sans le faire. Cette personne nous avait en effet proposé d'y participer (après quelques patchs où elle a montré faire du bon travail), on s'est donc inscrit et répandu la nouvelle pour avoir potentiellement d'autres étudiants.
    Dans les autres propositions qu'on a reçues, presque aucun ne semble même avoir lu notre news, n'a tenté de corriger quelques bugs au préalable, ni n'a montré avoir même déjà compilé le code (on peut voir venir gros comme une maison de passer les 2 premières semaines à essayer d'expliquer comment compiler GIMP!). Ou simplement personne (enfin presque, y en a un autre en fait — je suis mauvaise langue — mais c'est pas allé loin!) n'a essayé de nous contacter pour discuter avec nous sur IRC. Je parle même pas d'être un développeur de génie (cela ne m'intéresse pas plus que ça), mais juste quelqu'un de curieux et qui intéragit avec nous.

    Donc avant de leur parler d'apprendre à optimiser, ou même d'apprendre à coder bien, ou autre truc avancé, faut déjà leur apprendre à discuter, prendre contact (comme le font les humains) et à apprendre à apprendre. Une chose que j'ai apprise en tant que développeur, c'est que rien n'est réellement difficile, par contre tout est simplement du boulot: ça prend du temps, on se torture les méninges, on est frustrés constamment… jusqu'au moment où on y arrive. Un bon développeur n'est donc pas celui qui est expert dans une technique particulière ou sait faire du code ultra-optimisé ou ceci ou cela. Il fait juste ce qu'il faut faire en fonction de la situation et s'adapte, en utilisant son cerveau pour décider. Et aussi rester toujours humble sur ce qu'on sait ou pas (sincèrement, y a tellement de sujet possibles, on apprend constamment).

    Donc non, on cherche pas forcément des experts de l'ultra-optimisation et je pense pas forcément que ce soit l'une des compétences les plus importantes à apprendre pour ces étudiants. Ce n'est pas ce qu'on leur demande. 😆

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: quelques questions sur GIMP

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Conférence "GIMP et ZeMarmot" à Vandœuvre-lès-Nancy. Évalué à 7. Dernière modification le 31 octobre 2022 à 23:52.

    Je parlais de certains cas extrêmes, mais les problèmes de ralentissement dont je parle sont visibles même sur des images de tailles tout à fait raisonnables pour du traitement d'image grand public de nos jours.

    En fait, très souvent, tu remarques que les démos sont sur des images basse qualité (en fait, non tu le remarques pas, car c'est rapide et on fait rarement attention à ce type de détails, sauf à prendre vraiment le pire du pire). Pour le Paint Select Tool, la "ruse" de la démo est de ne faire travailler l'outil que sur le "viewport", donc si on zoome, c'est plus rapide. Mais ça n'est pas une "solution".
    D'ailleurs pour en revenir à Stable Diffusion, ils expliquent que le modèle a été entraîné sur des images en 512×512 (tu peux produire d'autres tailles, mais la qualité en pâtira) et c'est donc ce qu'il produit. On est quand même loin du "ultra ultra ultra HD", même du FullHD. On se croirait revenu 10 ans en arrière avec ce type de dimensions. Quand je disais que l'effet "démo" suffit pour que les gens disent "waaa" mais que ce vers quoi on va, c'est de la diminution de qualité. :-) Sérieux, c'est marrant, dans les forums, les gens en sont à se conseiller de générer en 512×512, puis d'utiliser des upscalers AI pour agrandir sans rendre tout flou, et enfin d'utiliser encore d'autres systèmes d'AI pour ajouter des détails sur les versions agrandies. Je me demande où on va là! 😂

    Donc même si j'ai pris des exemples pour encore plus mettre en exergue le problème, il ne se produit pas que sur ces exemples extrêmes mais bien aussi sur des images de taille tout à fait raisonnable. Surtout que le nombre de pixel augmente au carré avec les dimensions (la même image 2 fois plus grande est en fait 4 fois plus grande en terme de pixels). Donc ça va vite en terme d'augmentation de complexité.

    Quant à la réflexion sur le besoin de l'instantané, tu as raison pour une action "certaine". Genre tu lances un filtre, tu sais exactement ce que tu veux, tu mets des valeurs, tu attends 5 minutes, et c'est bon. 5 minutes, c'est pas la mort. Sauf que tu sais rarement les valeurs que tu veux. Beaucoup d'algorithmes en traitement d'image sont utilisés par tâtonnements. Tu essaie une valeur, tu regardes le résultat, tu changes légèrement la valeur sur un curseur, un peu plus, tu reviens en arrière… Alors oui, tu peux faire tout ça en attendant 5 minutes à chaque changement, c'est bien ce qu'on faisait y a 30 ans (probablement qu'on attendait même bien plus que 5 minutes!), c'est vrai. Sauf que c'est quand même triste si on a des machines 100 fois plus puissantes et qu'on sait optimiser, utiliser du cache, utiliser des cartes 3D ou du multi-threading, qu'on a fait évoluer l'informatique comme pas possible (aussi bien hardware qu'en connaissances algorithmiques) mais qu'on serait pas capables de faire mieux qu'y a 30 ans! 😓

    Certains se plaignent souvent que le développement est devenu de pire en pire avec des codes de moins en moins optimisés, et même s'ils disent aussi des trucs ridicules car ils ne prennent pas du tout en compte des changements de contexte énorme (notamment, on travaille de nos jours sur des images bien plus grande, avec des canaux plus grands, et on fera beaucoup plus de calcul à chaque instant: dans l'imagerie, chaque transformation est accompagnée de calculs de colorimétrie pour des conversions interne, de l'affichage, parfois de la simulation…), il y a tout de même une part de vérité que certains se disent juste "c'est bon, les machines sont puissantes maintenant".

    Si tu lis un peu les avis des gens sur GIMP, l'un des trucs qui ressort très souvent, c'est que GIMP est très rapide. Ça marche même sur de vieilles machines, ça fait des calculs finalement impressionnants (quand on sait ce qu'il se passe derrière) très vite, etc. On a toujours fait attention à ne pas tomber dans ce travers (qui est d'autant plus présent en infographie où beaucoup de professionnels ont — il est vrai — du matos cher et performant; mais pour combien de petits "jeunes" qui apprennent ou de débutants qui veulent rentrer dans le métier sans pouvoir y mettre des fortunes?).

    Au final, on est capable de faire mieux. Pourquoi se contenter de faire vite et mal? 😁

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: quelques questions sur GIMP

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Conférence "GIMP et ZeMarmot" à Vandœuvre-lès-Nancy. Évalué à 6.

    bravo pour votre travail et persévérance.

    Merci.

    Aparté: sur LinuxFr, j'ai tendance à tutoyer, et surtout on s'est déjà parlé quelques fois en IM et aussi rencontré à des évènements physiques. Enfin bon, ça me dérange pas de vouvoyer, mais je pense qu'on peut se tutoyer. ;-)
    À moins que le "vous" s'adressait à l'équipe GIMP et/ou ZeMarmot!

    Je connais l'outil d'extraction de premier plan de GIMP qui fonctionne bien, mais on est à un niveau encore au dessus ici, pour une tâche très courante.

    Perso je ne trouve pas qu'il marche vraiment bien (notre outil d'extraction de premier plan). 😅
    En discutant avec des contributeurs qui connaissent mieux ce type d'algorithme, ce que je comprends, c'est que cet algorithme qu'on utilise n'est pas vraiment adapté à de l'extraction d'objet. C'est plus pour de la sélection de régions d'incertitude où chaque pixel peut partiellement appartenir en partie à l'objet à extraire et en partie soit au fond soit à d'autres objets. Typiquement sélectionner tout ce qu'en 3D, ils aiment appeler "particules", ou les cheveux, poils… Cet outil serait donc plus adapté pour de la finition d'extraction d'objet.
    Et en plus, y a de gros problèmes de mémoire qui peuvent parfois planter GIMP avec cet outil actuellement.

    On a un nouvel outil expérimental qui s'appelle le "paint select tool" et qui est vraiment assez impressionnant: https://www.gimp.org/news/2021/05/08/gimp-2-99-6-released/#paint-select-tool
    C'est je pense ce que tu cherches, non?

    Malheureusement il a encore des problèmes de performance et de stabilité et le contributeur fait des aller-retours. Donc je ne suis pas certain que l'outil sera réellement fini pour GIMP 3.0. C'est le problème du logiciel libre sur des outils de haut niveau technique. Il n'y a finalement pas tant de développeurs que cela capables de développer ces outils ou du moins de passer le stade de "preuve de concept" (qui est le stade où on a un outil qui marche mais qui souvent a plein de bugs et/ou des problèmes de performances qu'on remarque par exemple dès qu'on utilise des images de grande taille). Or en imagerie, on arrive très vite à des cas où certains vont traiter de très grosses données (en traitement photographique déjà, les dimensions "écrans" telles que FullHD ou 4K, sont dépassées depuis longtemps; on connaît aussi des gens qui travaillent sur des scans de dizaines de milliers de pixel de côté; même en illustration, si on travaille sur de grands formats ou dans certains cas, on a besoin de grosses densités de pixel; et je parle même pas des images scientifiques, médicales, microscopes, télescopes, etc.!) et c'est là qu'on voit très vite les limites des développement "démos" qui sont souvent faites sur de petites images. Dans un outil comme GIMP, on a besoin d'outils de travail réel (typiquement, si j'en crois git, l'outil de sélection de premier plan date de 2005, par un ancien mainteneur. Sauf que de nos jours, si quelqu'un contribuait cet outil dans son état actuel, je ne l'accepterais pas encore en version stable).

    On a déjà eu le cas avec des outils tels que le "seamless clone" notamment qui est aussi très impressionnant sauf que dès qu'on l'essaye sur des images de tailles plus réalistes (pour du travail pro), on déchante. Et donc cet outil aussi est dans notre bac à sable depuis que le contributeur l'a laissé ainsi en disant qu'il reviendrait bientôt pour optimiser (je me rappelle l'avoir rencontré à LGM, en 2014 je crois, et il disait qu'il pourrait accélérer l'outil par ×10! Malheureusement on n'a pas eu trop de nouvelles ensuite). Il me semble que les équipes GIMP qui me précèdent ont eu plusieurs fois ce type de mésaventures avec le GSoC et c'est en partie pour ce genre de raison qu'ils ont arrêté d'y participer (avoir des étudiants qui font des démos puis disparaissent, démos impressionnantes mais en fait inutilisable sur du travail réel du quotidien, c'est pas très utile). Souvent ce n'est même pas forcément que ces développeurs ne peuvent améliorer, mais soit à un moment donné, ça les ennuie (c'est un énorme travail d'optimiser et souvent les gens ne voient que le travail démo; je sais bien, en tant que mainteneur, je passe énormément de temps sur du nettoyage, corrections et optimisations de patchs; et je pense que dans pas mal de cas, j'y passe plus de temps que le contributeur du patch originel). En outre je pense que pas mal des bons développeurs se font ensuite embaucher grâce à leur développement libre donc même s'ils pourraient vraiment revenir optimiser, ben ils ont autre chose en tête ensuite. C'est bien sûr pas une critique, il faut bien vivre!

    Enfin bon, on verra pour le Paint Select tool. Je sais que le contributeur est vraiment bon et il est d'ailleurs revenu pour envoyer quelques patchs en début d'année. J'espère donc qu'il reviendra bientôt avec pour objectif de finir cet outil! 🙂

    Est-ce que ce genre d'outil est envisageable dans GIMP à plus ou moins long terme ?

    Donc la réponse est: oui. Y a même du développement en cours, comme t'as vu. Mais faut le finir et je peux pas te promettre quand!

    2) est-ce que vous avez vous-même joué un peu avec ça ? Est-ce que ça peut entrer dans votre processus de création ?

    Personnellement mon avis sur ces outils "IA", je l'ai donné là: https://linuxfr.org/users/hellpe/liens/matthew-butterick-veut-poursuivre-github-copilot-en-justice#comment-1904701

    3) est-ce que des choses sont envisagées dans le cœur de GIMP pour intégrer ces nouveau outils de machine learning ?

    Comme tu l'imagines avec ma réponse en 2), c'est pas moi qui pousserais mais je ne bloquerais pas un contributeur qui voudrait et contribuerait un bon patch.
    Sincèrement ça m'a l'air très simple à intégrer (mais moins pour faire ça bien, déjà en terme d'intégration technique de la dépendance et réfléchir comment faire cela proprement sans multiplier la taille des téléchargements par 20; ensuite pour faire une interface de qualité).

    Par contre, tu le notes toi-même, les divers plug-ins que certains ont déjà faits pour GIMP requièrent des comptes à des services tiers (je sais pas si on a regardé le même plug-in, mais j'en ai vu un, il fallait genre 3 ou 4 comptes sur des services différents!). Et ça oui, clairement je bloquerais. GIMP n'est pas une passerelle vers des services propriétaires (SaS), même gratuits. Jamais je n'accepterais un outil core qui impose d'avoir un compte sur un de ces services tiers pour fonctionner.

    Donc OK, si quelqu'un propose un patch où on embarque le tout (si ça fait une taille raisonnable ou bien avec une logique d'intégration, genre téléchargement au premier usage en expliquant que ça va télécharger quelques GiB de données, que ça prendra beaucoup de mémoire à l'usage et donc si on n'a pas une machine de guerre, ce sera dur, etc.), et que c'est que du libre, pourquoi pas. Mais pas les trucs que j'ai vu qui passent par des services tiers, ou un hardware particulier pour fonctionner. (notamment y a plein de tutoriels qui expliquent comment utiliser Stable Diffusion par un service Google qui permet apparemment de faire les calculs sur des serveurs Google; je suppose que c'est ça que tu as vu)

    Par contre, les gens sont libres de développer des plug-ins et d'installer ce qu'ils veulent sur leur GIMP. On vérifie pas derrière les gens et on juge pas. 😉

    Et puis réellement, alors que j'écris tout cela, en réfléchissant davantage, étant donné mes réticences quant à héberger de telles données, et même mes doutes sur la légalité (ce qui pourrait être confirmé par des procès; voir notamment ce qu'il se passe avec Github Copilot qui est dans une situation très similaire et se fait maintenant poursuivre en justice), je ne suis même pas sûr s'il serait vraiment une bonne idée d'accepter même un bon patch. Peut-être serait-il mieux de laisser cela aux plug-ins tiers (ce qui permettra aux gens d'utiliser la solution qu'ils préfèrent, tel que de passer par des services tiers s'ils veulent vraiment ça, et ainsi de générer des images commandées à partir de petites configurations hardware; l'expérience d'usage pourrait même être mieux pour le grand public, mais bien sûr au prix de donner ses données à encore d'autres plateformes SaS — au moins c'est eux qui choisissent!).

    c'est fascinant (et un peu flippant) de voir que des choses qui étaient réservées à la recherche il y a peu sont désormais accessibles.

    C'est effectivement fascinant et flippant (les 2). Je suis curieux de voir comment ça évoluera mais je ne suis pas particulièrement optimiste (comme le lien vers mon commentaire, que je donne plus haut le montre). Que ce soit d'un point de vue social (vision de l'art et vision des travailleurs de l'art) comme qualitatif (pour moi, c'est du nivellement par le bas, ça a beau avoir l'air impressionnant en essayant un peu — encore l'effet démo —, ce n'est absolument pas comparable à du vrai travail graphique et est vraiment du bas de gamme d'après moi; et le problème se posera vraiment quand les gens s'habitueront à cela et décideront que c'est la "norme"). Je ne suis absolument pas contre la machine qui remplace l'humain pour des tâches absurdes et répétitives. Dans un monde idéal, l'humain ne devrait pas avoir à travailler plus de 2 ou 3 jours par semaine. C'est d'ailleurs mon boulot de développeur d'aider l'humain à automatiser ces parties de leur travail.
    Par exemple, on va les aider à sélectionner un objet sur une photo facilement (ton exemple plus haut), un truc qu'un humain peut faire laborieusement mais qui en soit n'a pas de grande qualité artistique (mais technique oui). On peut aussi aider à détecter les traits pour faciliter la colorisation d'œuvres. On peut imaginer plein d'aides: des détections de lignes droites, des remises en perspective, annuler des déformations de lentilles, etc. Tout ça c'est des sujets techniques. Mais dessiner à la place de l'humain?

    Ces algorithmes d'IA essaient de remplacer la partie créative de l'humain, ce qui pour moi n'a aucun sens. Ça ne sera jamais possible et ça ne devrait pas l'être. Et non on n'a pas déjà réussi. Il suffit de voir toutes les erreurs des images générées: des mains à 6 doigts, des bras tordus, des visages déformés… toutes ces absurdités qui montrent bien qu'il n'y a vraiment aucune "pensée" ou "créativité" derrière ces images. C'est juste une forme évoluée de reproduction automatique sans la moindre "intelligence", basée sur des algorithmes d'apprentissage, et qui arrivent presque à faire croire à de la pensée. Mais l'IA ne pourra jamais t'expliquer les "choix" derrière chaque détail de l'image, si elle voulait faire passer certaines idées, certaines émotions, ou bien une composition ultra-réfléchie pour mettre en exergue un point particulier de l'image dans le contexte d'une plus grande œuvre, d'une histoire, d'autres images, une arrière-pensée philosophique… Enfin toutes ces choses que les artistes humains font constamment et cela depuis des siècles, voire millénaires!

    Ensuite on verra, je peux me tromper. 😛

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]