Jehan a écrit 1685 commentaires

  • [^] # Re: mauvaise foi

    Posté par  (site web personnel, Mastodon) . En réponse au lien Kicad devs: do not use Wayland. Évalué à 6 (+3/-0). Dernière modification le 22 juin 2025 à 01:55.

    L'artiste a le mainteneur de GIMP en collègue. Elle a son propre build, avec des fonctionnalités que personne a (parce qu'on les designe et teste nous-même en avant-première et que c'est comme ça qu'on a fait avancer GIMP; et aussi parfois on veut des fonctionnalités en quick'n dirty pour travailler efficacement sur notre projet avant de travailler davantage pour en faire une bonne fonctionnalité générique pour GIMP). 😁

    On n'utilise pas Flatpak (même si c'est moi qui l'ai initialement créé pour GIMP).

    Quant à changer de bureau (GNOME), on n'en a pas changé depuis le début du projet.

    Ensuite faire évoluer GIMP fait partie de la dualité de notre projet, qui est un projet totalement artisanal et expérimental, notamment par nos outils (ce qui a clairement mis beaucoup de bâtons dans les roues de la partie artistique du projet, c'est certain).

    Il est évident que dans un contexte plus classique, on aurait été beaucoup plus conservateur dans nos choix techniques. Et si on avait été un projet non libriste et non géré par une asso à but non lucratif qui promeut l'Art Libre et les logiciels libres créatifs (mais disons par une entreprise commerciale à la place), notamment, on aurait fait des choix moins osés et moins militants. Mais voilà… c'est pas notre projet, qui est à la fois artistique, technique, expérimental (dans ces 2 voies), artisanal, évolutif…

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: mauvaise foi

    Posté par  (site web personnel, Mastodon) . En réponse au lien Kicad devs: do not use Wayland. Évalué à 7 (+4/-0).

    Tout dépend de ce que l'on entend par "production".

    Tout à fait.

    Bon déjà y a les problèmes de colorimétrie, bien que ceci n'est pas forcément un gros problème dans beaucoup de cas.

    Ensuite on a eu vraiment une très grosse variété de problèmes avec les tablettes à travers les années et les versions (des bugs disparaissaient mais d'autres apparaissaient). Au point que (surtout au début), on se demandait si on était les seuls au monde à utiliser GNOME sous Wayland pour du dessin dans un contexte professionnel. 🤔

    Bon sur ce point, ceci dit, dans l'intervalle entre le moment où les dévs de GNOME ont commencé à se focaliser sur Wayland et à abandonner X11 et maintenant, on a malheureusement vécu plein de nouveaux bugs de tablettes spécifiques à X11 aussi et certains en particulier furent très ennuyeux (par exemple le pointeur qui disparaît parfois et le seul moyen de le récupérer était de débrancher/rebrancher la tablette… bon celui-là a été corrigé à un moment, mais je pense que ce furent au moins 6 mois ou plus assez chiants). Donc bon… y a des bugs chiants avec les 2 systèmes d'affichage, juste différents (bon ceci dit, aux tous débuts alors que GNOME commençait déjà à mettre Wayland par défaut, pendant quelques années, il y avait des bugs qui rendaient l'usage tablette absolument impossible sur Wayland — par exemple, si je me souviens bien, au début on avait un bug où ça dessinait alors que le stylet ne touchait même pas la tablette, ce qui rendait l'usage du système absolument impossible pour nous, sans même le moindre contournement possible; à leur décharge, je crois que le problème arrivait avec les nouveaux stylets des Intuos Pro et pas les modèles moins chers — mais heureusement ces bugs rédhibitoires ne sont plus d'actualité).

    Je crois qu'on avait quelques problèmes de multi-écran à un moment donné, mais ces derniers se sont améliorés, je crois.

    Enfin il y a les problèmes de stabilité. Malheureusement GNOME plante encore sous Wayland, rarement mais tout de même, pour mois quelques fois par mois (je dirais, à la louche; car c'est pas comme si je gardais un compte). Or lorsque GNOME/X11 plantait, y avait juste globalement un vacillement de l'écran, le temps qu'il relance son système et recrée des fenêtres pour les logiciels qui tournent. C'était peu bloquant. Alors que GNOME/Wayland plante sans savoir se relancer (une régression connue depuis longtemps), on doit relancer la session ainsi que tous les logiciels. Pire: si on n'a pas sauvegardé juste avant, on perd des données. C'est d'autant plus embêtant pour nous, parce que même si Aryeom est la première à dire à ses élèves (quand elle enseignait à l'université) de sauvegarder tout le temps, dans les faits, avec ses véritables fichiers de production qui ont des centaines de calques, ben sauvegarder le fichier peut prendre 10 à 20 secondes. C'est donc assez contraignant (attendre autant en plein milieu du travail coupe l'élan) et elle s'est mise à ne plus sauvegarder toutes les minutes avec ses gros fichiers, surtout que GIMP lui-même est très stable. Alors quand y a un plantage (soit de GIMP quand même, ou créé par un autre logiciel, ça arrive je crois avec Blender qui tourne souvent en même temps, et qui va parfois prendre toutes les ressources et faire des problèmes pour tout le système), c'est chiant et on peut perdre pas mal de travail. Si en plus on rajoute à cela des plantages possibles de GNOME… Donc on évite.

    Notons que moi-même, j'utilise de plus en plus GNOME/Wayland, notamment pour justement rapporter les problèmes, vérifier l'évolution, etc. et je peux effectivement constater que c'est de mieux en mieux et surtout de plus en plus stable. Enfin… il m'arrive encore de tomber sur des problèmes. Le dernier en date: il y a quelques semaines, j'ai utilisé Scribus pour aider à préparer des autocollants (qu'on peut voir ) avant envoi à l'imprimeur. À ce moment, j'étais sur GNOME/Wayland depuis quelques mois et ça allait plutôt bien. Sauf que Scribus, pour une raison ou une autre, faisait planter GNOME/Wayland (pas au lancement, mais en faisant divers trucs, à un moment, le bureau entier plantait). Alors je suis passé sur GNOME/X11 et j'ai pu reprendre sans plus aucun plantage.

    Pour l'artiste par contre, je la laisse sur GNOME/X11 uniquement car elle a déjà assez à faire pour ne pas avoir à contourner ou subir en plus des bugs critiques et des plantages du bureau entier.

    Enfin bon, en conclusion: c'est pas parfait, mais les choses avancent. Ça c'est clair. La différence entre y a quelques années et maintenant est flagrante.

    Et je suis tout à fait d'accord que selon ce qu'on fait, avec quel matos, quel est le besoin, la cible du travail, et combien de temps on va passer sur GIMP. Etc. Il est évident que pour certains, ces problèmes sont acceptables (voire inexistants, dans le sens où on ne les rencontre pas dans son cas d'usage). Pour nous, ça ne l'est pas encore tout à fait et par conséquent, on reste encore un peu sur GNOME/X11 (pour la partie "artiste", je veux dire; moi j'utilise Wayland pour la partie dév/technique, gestion, etc.). Pour tout dire, comme ils sont en train de retirer entièrement la prise en charge de X11 dans GNOME, selon comment les choses évoluent dans les années qui viennent, je vais peut-être commencer à retester d'autres environnements de bureau pour rester sur X11 plus longtemps. Hormis si GNOME fait un énorme effort et comble tous les problèmes majeurs de Wayland entretemps.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: mauvaise foi

    Posté par  (site web personnel, Mastodon) . En réponse au lien Kicad devs: do not use Wayland. Évalué à 10 (+15/-0).

    C'est pas qu'on n'aime pas Wayland. Et d'ailleurs le fait "d'aimer" n'a véritablement aucune importance ni aucun intérêt dans un tel sujet. C'est pas comme si notre appréciation (technique, philosophique, ou autre) d'une technologie peut rentrer en jeu et va changer quoi que ce soit ici. En fait, il est évident que Wayland est le futur du desktop sous Linux, non pas par une évidente supériorité technique (peut-être que ça l'est, mais ce n'est pas la raison dans tous les cas), mais simplement car c'est là où les divers acteurs principaux du bureau Linux se dirigent. Essayer de le nier ou de freiner des deux pieds n'y changera rien. Donc on fait tout notre possible pour prendre en charge ce système d'affichage au mieux, même si c'est pas facile.

    Ensuite oui, il manque (ou a manqué pendant longtemps; ça progresse lentement) des fonctionnalités, dont certaines vraiment rédhibitoires, et cela touche divers sujets (colorimétrie, gestion des fenêtres, accessibilité, bonne gestion de base des périphériques d'entrée…) et malheureusement cela rendait Wayland inapte à divers usages pros. Notamment quasiment tous les logiciels de graphisme (dont GIMP, mais pas seulement) à l'heure actuelle ne peuvent pas recommander Wayland. Et l'industrie du graphisme n'est pas une petite industrie!

    Pour notre travail, puisqu'on utilise GIMP en production, on doit continuer à utiliser X11 encore aujourd'hui (même si cela pose de plus en plus de problèmes car X11 devient seconde zone et on a des cas de changements qui créent de nouveaux bugs et cassent donc des choses qui marchaient sous X avant mais plus maintenant mais peu s'en préoccupent car X11 n'est plus à l'honneur). On se retrouve donc entre 2 implémentations cassées différemment. C'est vraiment pas une situation très glop. 😕

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Je code avec le cul tralalala

    Posté par  (site web personnel, Mastodon) . En réponse au lien Kicad devs: do not use Wayland. Évalué à 10 (+22/-0).

    Il faut bien voir que KiCad est aussi un vieux logiciel historique et les attentes n'étaient absolument pas les mêmes y a quelques décennies. Déjà, par définition, les gestionnaires de fenêtres n'étaient pas au même stade d'avancement que maintenant. Donc beaucoup de logiciel implémentaient effectivement des fonctionnalités qui semblent être du ressort du gestionnaire de fenêtre.

    Ensuite, même de nos jours, il y a encore pas mal de fonctionnalités liées au placement des fenêtres et à leur restauration que la plupart des gestionnaires de fenêtres gèrent mal, encore à ce jour… voire pas du tout! En fait, on a perdu pas mal de fonctionnalités avec Wayland sur ce point de vue là.

    Maintenant cela peut paraître overkill pour les gens qui n'utilisent que des petits logiciels de base. En fait, je pense que pour la plupart des utilisateurs qui n'ont pas de besoins métier, ils n'en verront pas l'intérêt. Ce sont les logiciels dits "métier" (comme GIMP ou KiCad) qui ont des utilisateurs particulièrement avec de tels besoins.

    Malheureusement la mode est aux "apps". Les logiciels métiers n'ont plus trop la côtes pour les développeurs de toolkits (des gens de GTK nous ont dit clairement que pour eux, les gros logiciels comme GIMP ne sont plus la cible — ce qui est triste et ironique quand on sait l'histoire de GTK — et que pour eux, le futur est aux innombrables petites "apps" avec 3 boutons et un menu hamburger). Et pour ce genre de logiciel, clairement, ce genre de fonctionnalités est totalement inutile.

    Par exemple dans GIMP, le "mode multi-fenêtre" est tout simplement inutilisable sous Wayland, car on perd la sauvegarde de la session. Typiquement un pro voudra placer ses fenêtres multiples à des endroits précis de son ou ses écrans. Et quand il rouvre GIMP, il veut retrouver sa boîte à outil à un endroit précis, son canevas avec une position et taille donnée, les diverses boîtes ancrables aussi à des endroits précis (choix de couleur, navigation, etc.). Ça marche parfaitement sous X11. Mais sous Wayland, vous fermez GIMP, puis le rouvrez et trouverez vos fenêtres à des positions aléatoires car Wayland ne donne aucune position (ni me permet d'ouvrir des fenêtres à des positions données).

    Cela est un réel besoin pour les gens qui utilisent des logiciels avec beaucoup de fenêtres et qui ont besoin de les voir se repositionner aux mêmes endroits à chaque fois qu'ils relancent leur logiciel (surtout s'ils le font au quotidien, ce qui sera en général le cas des professionnels pour leurs logiciels de travail).

    Il existe d'autres usages qui sont vachement cassés globalement sur la plupart des compositeurs Wayland, comme le fait d'avoir des fenêtres qu'on va détacher et ré-attacher à d'autres fenêtres de manière générale. C'est une fonctionnalité qui pourra être avoir un comportement totalement inattendu. Typiquement un moyen de "casser" totalement votre interface dans GIMP, sous Wayland à l'heure actuelle, est de passer du mode simple-fenêtre au mode multi-fenêtre, puis de revenir en simple fenêtre. Normalement vos fenêtres devraient s'ancrer dans votre fenêtre unique relativement à leur position d'origine (une fenêtre à gauche est ancrée à gauche du canevas, et une fenêtre à droite sera à droite du canevas; et toutes les fenêtres ancrables gardent leur positions respectives les unes par rapport aux autres). Sauf que ça marche pas! Vous retrouverez vos fenêtres ancrées n'importe comment dans la fenêtre unique: https://gitlab.gnome.org/GNOME/gimp/-/issues/12230

    Tous ces besoins réels ont des discussions en cours pour avoir des protocoles Wayland, depuis de nombreuses années en fait. Je ne compte même plus le nombre de tentatives de nouveaux protocoles pour essayer de réimplementer ces fonctionnalités d'une manière ou d'une autre, car beaucoup se sont faites recalées. Ensuite parfois j'envoie quelques commentaires, mais je ne participe pas énormément car les discussions autour des protocoles Wayland sont particulièrement éreintantes, avec beaucoup de participants, énormément de commentaires, des gens en désaccord profond sur plein de choses et parfois des commentaires mal à propos. En tous les cas, GIMP ou KiCad sont loin d'être les seuls avec ce genre de fonctionnalités. En fait, je crois que beaucoup des "vieux" logiciels métiers ont ce type de possibilités avancées de gestion de leurs fenêtres.

    Ensuite, oui je suis d'accord, si ça peut être implémenté par le gestionnaire de fenêtres, c'est mieux. Mais jusqu'à présent, ce n'est implémenté dans aucun gestionnaire Wayland, ou quand ça l'est, c'est expérimental et différent d'un gestionnaire à l'autre. Donc notre code devrait avoir plusieurs implémentations, ou simplement aucune car justement si on utilise un toolkit, c'est bien parce qu'on aimerait ne pas avoir à s'occuper de ce genre de fonctionnalités (il faut donc attendre que (1) il y ait un protocole unique qui passe "standard" (2) les divers compositeurs Wayland implémentent ce standard (3) les divers toolkits — GTK pour nous par exemple — l'implémentent de leur côté aussi et enfin (4) les logiciels changent leur code pour utiliser spécifiquement ce nouveau protocole.

    Cela doit être fait pour chaque fonctionnalité à propos. Alors que dans le vieux modèle où tout ce qui était nécessaire, c'était 2 APIs (une pour récupérer la position d'une fenêtre et une pour faire une requête de positionnement), maintenant il faudra des protocoles spécifiques pour chaque type de besoin, tel que:

    • Un protocole de gestion des sessions temporaires (utile pour les logiciels qui veulent se mettre en tâche de fond pour ensuite réapparaître exactement comme avant; ou pour la gestion de reprise automatique de session en cas de plantage)
    • Ce même protocole pourra-t-il être utilisé pour récupérer des sessions de fenêtres entre 2 lancements du programme? Peut-être… ou peut-être faudra-t-il un autre protocole spécifique pour ce cas d'usage différent.
    • Pour la problématique du détachement/ré-attachement de fenêtre, qui nécessite au moins un concept de positionnement relatif des fenêtres, il y a déjà eu plusieurs tentative de création de protocole, tel que celui assez "direct", puis l'idée de positions relatives et maintenant l'idée de zones de placement.
    • Pour les fenêtres de lancement (pour les logiciels complexes qui ont pas mal de données à charger, et cela permet de donner un retour visuel sur le chargement et de ne pas donner l'air que le programme ne veut pas se lancer alors qu'il met juste du temps pour cela), il y a aussi un protocole dédié en cours de discussion.
    • Et peut-être d'autres usages à découvrir…

    Notons aussi que même si en théorie, c'est mieux pour ces cas spécifiques si on a un protocole dédié (par exemple, un protocole de session pourrait avoir une simple fonction pour dire store_window_session_data() — où un programme demanderait simplement au compositeur de sauvegarder les infos de session d'une fenêtre — puis apply_window_session_data() où il demanderait plus tard de les réappliquer sur une nouvelle fenêtre; c'est sûr, c'est plus simple que d'avoir à sauvegarder soi-même des positions ainsi qu'un identifiant moniteur, un identifiant pour chaque fenêtre, les mettre dans un fichier côté donnés du logiciel, et ainsi de suite, et en plus obtenir ainsi des données sensibles — puisque l'idée est que Wayland ne veut plus donner d'info aux logiciels sur ce qu'il y a à l'écran), dans la pratique, ça fait qu'il y aura un code spécial pour tous ces usages, juste pour Wayland. En effet la logique du positionnement marche sur tous les autres systèmes et OS (X11, Windows, macOS, BSD, et autres…), donc le code unique actuel marche partout. Ainsi même si dans la théorie, une API dédiée a du sens et devrait même rendre le code plus simple, dans la pratique, ce ne sera pas le cas et devient surtout une implémentation alternative (donc ça complexifie le code).

    Aussi à chaque fois qu'un cas d'usage différent est décelé, il faudra probablement un nouveau protocole dédié (impliquant possiblement des années de travail pour sa création, puis d'attente pour qu'il soit implémenté par tous les compositeurs puis toolkits puis logiciels finaux), alors que l'API très simple de positionnement originelle était générique et donc permettait de tout implémenter.

    Au final, je suis aussi un peu circonspect. Et la logique qui consiste à dire "c'est le rôle du gestionnaire de fenêtre", bien que partiellement vraie dans l'absolu (parce qu'il reste tout de même nécessaire que l'application implémente quelque chose dans son coin! Quand KiCad ou GIMP parle de "restauration" de fenêtre, donc de session, il faut bien que l'application dise au gestionnaire de fenêtre quelle fenêtre en particulier est à restaurer, à la place de quelle autre fenêtre qui eut existé, parce que le gestionnaire de fenêtre n'a aucune information interne sur les fenêtres, leur rôle et la nécessité de sauver ou non leur emplacement; il a besoin que l'application lui donne ces infos; ce n'est donc malheureusement pas uniquement le rôle du gestionnaire de fenêtre, ce que j'aurais bien aimé car un développeur est toujours content d'avoir moins à gérer! 😅), n'est juste pas en accord avec la réalité du paysage logiciel qui fut construit dans les dernières décennies:

    • Oui, les logiciels métier ont souvent plusieurs fenêtres, sont souvent affichés sur plusieurs moniteurs et les gens veulent qu'ils sauvegardent les positions entre sessions, surtout quand ce sont des logiciels avec interface hautement personnalisable qu'on modifie aux petits oignons pour son propre usage et travailler plus confortablement.
    • Oui, les logiciels qui tournent en tâches de fond veulent pouvoir cacher leur(s) fenêtre(s) et les réafficher exactement dans la même position et taille en les rouvrant (on veut pas que notre logiciel s'ouvre différemment à chaque fois qu'on cache puis rouvre des fenêtres).
    • Oui la sauvegarde de sessions en cas de plantage du système d'affichage est un énorme gain de temps (c'est un des trucs qui a disparu avec le passage à Wayland; maintenant si GNOME plante, on perd tout et on doit redémarrer tous les logiciels, alors que dans sa version X11 par exemple, GNOME Shell était capable de se relancer et recréer immédiatement toutes les fenêtres des logiciels en cours sans les laisser planter).
    • Oui on veut pouvoir détacher et réattacher automatiquement de multiples fenêtres en prenant en compte les positions relatives entre les fenêtres.
    • Et ainsi de suite.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: On en parlait justement dans la section liens y a quelques jours

    Posté par  (site web personnel, Mastodon) . En réponse au journal [réflexion sur l'IA] Que nous dit le mois des fiertés raté de Microsoft ("Notre amour ne suce pas”)?. Évalué à 10 (+10/-0).

    Si on va par là, on pourrait aussi faire un jeu de mot avec le mot "sucette" qui est dans l'illustration, tout en utilisant une expression française existante:

    Notre amour ne part pas en sucette

    P.S.: tout en continuant à trouver que c'est pas vraiment du meilleur goût et je ne suis pas certain que réutiliser les clichés ainsi aident beaucoup la cause.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # On en parlait justement dans la section liens y a quelques jours

    Posté par  (site web personnel, Mastodon) . En réponse au journal [réflexion sur l'IA] Que nous dit le mois des fiertés raté de Microsoft ("Notre amour ne suce pas”)?. Évalué à 10 (+10/-0). Dernière modification le 09 juin 2025 à 15:39.

    nous sommes au début d'un monde dans lequel les machines font le travail d'humains sans supervision humaine (car le seul objectif ici est de faire des économies – nous allons y revenir), c'est à dire sans contrôle de cohérence par l'éditeur/fabriquant.
    […]
    Ajouter un contrôle qualité revient à annuler l'économie.
    […]
    merdification des contenus du web.
    […]
    Les arts, la culture, l'artisanat sont confiés à des machines.

    Ce sont des sujets que j'ai plus ou moins soulevés (parfois sous un autre angle) dans ce commentaire qui en a entraîné quelques autres: https://linuxfr.org/users/killruana/liens/my-ai-skeptic-friends-are-all-nuts#comment-1992488

    Bon cet autre lien parlait à la base des LLMs (et "agents LLM") comme assistant de code, mais comme je l'explique, c'est la même chose dans la plupart des activités que certains essaient de remplacer par des IAs de notre jour. Et ce, même si à chaque fois, on va en trouver qui vont dire "ah mais pour le reste, c'est différent"… dans les deux sens d'ailleurs, que ce soit un développeur qui sorte que "pour les arts c'est différent" ou un peintre qui te disent "pour le développement logiciel, c'est différent"! Il y a ce truc bizarre où tellement de gens sont persuadés que leur métier a quelque chose de spécial. C'est vrai: tous les métiers ont des spécificités qui les rendent uniques! Et en même temps, quelque soit son métier, c'est la même chose: c'est une activité professionnelle pour laquelle on a acquis des techniques spécifiques.

    Et j'y notais d'ailleurs justement que le développement logiciel peut aussi être artisanal (c'est ainsi que je le vis personnellement) tout comme il peut être "à la chaîne".

    Mon dernier commentaire est aussi un joli exemple (je trouve) de tout ce que les gens ne voient pas derrière un simple petit dessin. De tout le travail accompli et de tous ces détails qui font la qualité et la valeur d'une œuvre (graphique dans cet exemple, mais cela pourrait s'appliquer à toute activité avec un artiste/artisan qui aime son métier, s'y applique et veut faire de la qualité, j'en suis sûr).

    Ici on fait fabriquer par la machine des objets unitaires. Ajouter un contrôle qualité revient à annuler l'économie. C'est-à-dire que le problème est intrinsèque au choix effectué et ne peut être résolu : c'est mathématique !

    C'est d'ailleurs un bon nouveau contre-exemple de ce que je lis bien trop souvent où on me répond souvent que "l'IA c'est une bonne aide, il ne faut bien sûr pas l'utiliser sans vérification". Or dans les faits, on a déjà tant d'exemple où ce n'est pas utilisé ainsi. Et clairement les "vendeurs" de ces merdes les vendent dans l'idée de remplacer les gens. On te dit "ça remplace un junior en moins cher". Sauf que comme tu le notes très bien, si on devait faire vérifier le travail, cela annulerait l'économie mais j'ajouterai que cela annulerait aussi tout le temps gagné!

    En effet, une bonne vérification de traduction prend à peu près (ou presque du moins) autant de temps qu'une bonne traduction. Sauf que si le traducteur n'est pas très bon, la relecture/vérification/correction peut même prendre plus de temps que si on avait traduit nous-même. D'ailleurs j'ai aussi travaillé un peu dans de la traduction ainsi que de la revue de traduction de jeux vidéos et site web en boulot d'étudiant pendant l'université. Si on fait de la revue de traduction, c'est bien pour avoir 2 humains différents, tous les deux bons en traduction, qui vont donc travailler sur une même traduction et donc la consolider qualitativement. Si on en enlève un (d'humain) pour mettre une IA nulle, alors non seulement on perd en qualité, mais aussi on perd du temps (le relecteur va prendre d'autant plus de temps à tout corriger que le travail originel est mauvais). Et si on enlève les deux humains, alors là on ne perd plus du temps, mais la qualité est maintenant au ras des pâquerettes.

    Similairement j'explique aussi dans un de mes commentaires en lien que croire qu'un développeur junior fait gagner du temps en sa qualité de junior, c'est ne rien comprendre à la programmation (ou être un mauvais développeur). Quand on fait de la revue de code, ça nous prend souvent plus de temps que si on avait simplement fait le code nous-même de rien. Mais on le fait d'une part car à plusieurs, on peut effectivement gagner en qualité (comme pour la traduction+relecture avec un traducteur qui relit la traduction d'un autre), parce ce qu'on se confronte aux idées et propositions d'un autres, mais aussi on investit sur l'avenir car cela forme le junior qui devient très rapidement autonome (contrairement à l'IA qui ne le devient jamais!). Et là oui, on gagne du temps, pas immédiat sur ce code spécifique, mais à terme, dans le futur. Or en remplaçant ce "développeur junior" par une IA, on met les développeurs senior dans une situation où ils ne feront que perdre du temps en permanence (il n'y a plus jamais d'investissement qui fera gagner en temps et qualité sur le long terme). Et j'imagine que la conclusion sera donc la même pour les décideurs incompétents: autant n'avoir que l'IA qui code (ce que certains font clairement déjà). 🤦‍♂️

    Encore une fois, ça se ressemble beaucoup dans les divers métiers. De même que le mode de pensée totalement absurde et incompétent des "dissaydeurs pressés" qui essaient de mettre de l'IA partout "pour faire des économies".

    Enfin en gros, c'est histoire de dire que je suis d'accord. Comme je l'ai répété dans divers commentaires, l'IA, c'est une nouvelle apogée de la médiocrité. ⛰️💩🌋


    P.S.:

    La minute insolite : "Notre amour ne suce pas” ou le mois des fiertés raté de Microsoft

    Spécifiquement sur cette mauvaise traduction, "Notre amour ne suce pas", en voyant le visuel avec une rangée de sucettes, il y avait clairement un très mauvais jeu de mot en double-entendre dans la version originelle en anglais. Seulement ce jeu de mot, en plus d'être de très mauvais goût selon moi (et ça c'était possiblement pas une IA qui en est l'origine… quoique…), est simplement intraduisible (ou très difficilement — mais peut-être qu'un traducteur expérimenté pourrait trouver ou même déjà connaître une astuce adéquate?).

    Enfin bon, ça ne change en rien tout le propos, au contraire. S'il y avait eu un vrai traducteur humain, il aurait aussi bien pu engager la conversation avec les créateurs ou demander à ce que ce "visuel" intraduisible soit simplement retiré de la VF par exemple. Encore une fois, des choses non prévues initialement que les humains pourront faire (alors que l'IA va juste essayer d'exécuter "les ordres").

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Cet article est une ode à la médiocrité

    Posté par  (site web personnel, Mastodon) . En réponse au lien My AI Skeptic Friends Are All Nuts. Évalué à 10 (+8/-0).

    Bon je me dédie déjà de ma décision de ne plus répondre. Peut-être un cas de "someone is wrong on the internet".

    Mais je pense que c'est une erreur de considérer ces IA (je parle de celles qui code, celles qui font de l'utilitaire, pas le dessin, musique, écriture, etc.) comme un épiphénomène qui va faire plop tout seul.

    Je n'ai jamais dit ça.

    Je pense que c'est là pour durer un certain temps.

    Bien entendu que c'est là pour rester (malheureusement). Être une bulle ne veut pas dire que la technologie va soudainement disparaître par magie. Après la bulle internet, internet n'a pas disparu non plus. 🙄

    Et ça n'a rien à voir avec les NFTs que tu mentionnes. Ça c'était pas une bulle. C'était une pure arnaque.

    Mais en vrai, je fais un autre commentaire par pour te répondre davantage, mais pour approfondir un truc que je disais dans mon précédent commentaire:

    Et puis il y a le sens de l'œuvre, la réflexion portée sur chaque petit détail. Quand l'artiste me dit "tu vois là ce petit objet caché dans un coin de l'œuvre, je l'ai mis pour cette raison" et soudainement t'as le cerveau qui fait boum 🤯, tu vois l'œuvre différemment. Tu te rends compte comment un artiste met son âme dans son art, il y a réfléchi, il peut te dire si c'est le matin ou l'après-midi, à quel endroit on est, si le soleil se lève ou se couche… Et à côté de ça, t'as ceux qui sortent une image en pose impossible à la "super-héros hollywoodien", tu te rends compte qu'y a 6 doigts à une main et que le coude est à l'envers, et qu'y a en fait rien à dire sur cette "œuvre". Et là on ose te dire "c'est la même chose, on remplace les artistes!" 🤦‍♂️

    Après avoir publié cela, je me suis dit que c'était un bon sujet que beaucoup de gens ne voient pas. Parce qu'autant sur LinuxFr, on a plein de techos, autant on a peu d'artistes. Et je lis encore bien trop souvent "ah oui mais pour les arts, c'est sûrement différent".

    Pour prendre un exemple très simple, regardez le personnage du jeu BIM, jeu qui est régulièrement présenté ici. Ce personnage a été dessiné par Aryeom (la réalisatrice de ZeMarmot). Juste le dessin, pas l'animation que Julien a faite lui-même (super boulot! 👍):

    Roi dans BIM, dessin par Aryeom, animation par Julien

    Alors on peut se dire: c'est un dessin assez basique, sûrement fait en quelques coups de pinceaux, bâclé en quelques minutes? Certains clairement voient un tel travail ainsi. En vrai, déjà Aryeom a étudié la mode des rois dans l'histoire de France (je veux dire par là, qu'elle a fait de la recherche extensive, étudié des peintures historiques diverses, etc. Tout l'inverse de trucs générés faits pour faire un rendu qui a "l'air raisonnable"… jusqu'à ce qu'on y regarde de plus près). Je me rappelle de cela parce qu'il me semble qu'à un moment, elle m'a montré une table qu'elle avait faite (je raconte un peu tout ça de mémoire, mais j'ai pas trop fait attention à tous les détails) avec diverses périodes de monarques ("mérovingiens", ceci, cela, elle m'a sorti des noms dont je me rappelais plus moi-même, qui datent pour moi de mon éducation scolaire! Enseignement qu'elle n'a même pas eu elle-même puisque vous imaginez bien qu'on n'enseigne pas trop les rois de France en Corée. Et de toutes façons, personne s'est jamais attardé sur la mode des rois, c'est pas dans le programme scolaire! 😂), etc. Rien que ça, c'est un travail fou, des heures de boulot, je pense, et soudain on regarde ce petit dessin tout stylisé et simplifié (et avec un design pour le rendre "marrant") très différemment. C'est pas juste un dessin au hasard qui pourrait être d'époque si on y regarde pas de trop près. Tout en étant stylisé et comique c'est aussi étudié et recherché.

    Elle a aussi étudié la taille et la proportion des personnages, parce qu'elle savait que l'usage serait le petit écran des téléphones. Elle voulait donc un design qui soit simple et bien visible même en petit sur un écran de téléphone, et elle a fait divers tests en taille "réelle" pour valider son propre design. Rien n'est laissé au hasard.

    Test de taille

    Elle a aussi préparé d'autres designs potentiels pour le futur:

    Autres designs

    De mémoire, elle avait aussi même plus de designs de personnages (des Napoléons, je crois) qu'elle a préféré ne pas suggérer car on lui avait spécifiquement demandé des rois. Ou bien le style Napoléon était trop spécifique et reconnaissable comme un personnage unique et historique. Je sais plus trop bien.

    À un moment donné, elle avait aussi imaginé un concept un peu original d'utiliser des fantômes de roi. L'idée était qu'elle n'allait pas travailler sur l'animation et comme dans les premières versions du jeu, le bonhomme avait un design entièrement statique et "glissait" sur l'écran (ce qui rendrait forcément bizarre), elle s'est dit que si c'était un fantôme qui flottait, alors ça ne semblerait pas bizarre. En variante, elle a aussi suggéré que si un jour Julien voulait implémenter des PNJs pour son jeu (uniquement PvP pour l'instant), peut-être que ça pourrait être une idée amusante si à chaque fois qu'un des PJs meurt, il se transforme en fantôme PNJ qui gêne/attaque les autres joueurs:

    Version rois fantômes

    Et puis y a la bombe. À l'heure actuelle, un design très standard a été choisi mais Aryeom avait aussi proposé d'autres idées de design. Et surtout… elle avait proposé une variante super marrante: et si au lieu d'exploser les personnages, ils perdaient… quand on les rasait! L'idée était que leurs cheveux, barbes et moustaches faisaient la fierté de ces rois et qu'ils étaient en guerre avec les autres… en essayant de les tondre! La "mort" d'un personnage auraient pu être une animation super marrante avec le personnage entièrement tondu et honteux, sans poils.

    Bon au final, un design assez standard a été retenu et il n'y a pas de concept autour de la pilosité des personnages. Dommage, ça aurait été marrant! 😅

    Les bombes… et tondeuses!

    Notez aussi comment elle a encore une fois fait un design "ancien" des premières tondeuses manuelles (elle a donc aussi recherché l'histoire des tondeuses à cheveux/rasoirs et notamment leur design). Bon chronologiquement je crois que la première tondeuse est à peu près vers la période des derniers rois de France; mais bon ça reste un jeu vidéo… Dans tous les cas, elle a réfléchi et recherché encore une fois des designs anciens.

    L'une des raisons notamment pour ne pas avoir choisi ce design était aussi que l'animation de "l'explosion" serait plus compliquée pour la tondeuse. Alors que le "feu" de la bombe était une simple tuile répétable à l'infini et une tuile de fin, la tondeuse se propageait dans toutes les directions et pour que cela rendent convenablement, Aryeom a designé un concept de tuiles qui se chevauchaient:

    Comment une tondeuse… explose?

    Clairement cela ajoutait de la complexité au développement. Et puis ce n'était plus la classique bombe. Mais c'est ça qu'elle trouvait sympa aussi et pour cela qu'elle a proposé car avec son chapeau de designeuse, elle est capable de casser certains standards et de proposer autre chose (quand ça a du sens de proposer, c'est pas forcément ni toujours le cas), un truc unique et original. Même si l'idée n'est pas forcément choisie, ni même forcément bonne, cela reste une compétence unique des humains. Vous en connaissez beaucoup des IAs qui vont proposer de changer le gameplay avec une tondeuse à cheveux, lorsqu'on leur demande de dessiner une bombe?

    Au final, ces quelques petits dessins, c'est un travail énorme de recherche, de choix et décisions prises. Même quand une décision est prise de ne pas respecter la réalité historique (ça reste un jeu et le gameplay doit primer), ce sera une décision prise en toute connaissance de cause, avec un raisonnement (et pas juste des designs aléatoires et mélangés sans aucun sens, ni mérite, par une "IA" dont le seul but est de produire un design "raisonnable").

    Personnellement je trouve cela fascinant de voir ce genre de travail se dérouler. On se rend compte que c'est très similaire avec notre boulot de dév. Derrière chaque ligne de code, il peut y avoir une histoire bien plus large que quiconque imagine et c'est ce qui fait sa valeur. Quiconque ose comparer ce travail de dessinateur ou de développeur (ou autre) à un LLM qui fait un truc statistique avec littéralement absolument rien derrière, aucune histoire, aucun travail réel, aucune réflexion, aucune question posée ni réponse donnée, aucune recherche, aucune réelle hésitation, aucune décision prise, aucun choix… rien… ben je me pose des questions sur le travail de ces personnes! (ou alors elles sont incapables de faire un parallèle avec leur propre travail et n'ont pas de capacité à imaginer?).

    Et je sais que ce genre de chose sera vrai aussi pour la musique, et probablement pour la plupart des métiers (en tous cas, quand ce dernier est fait avec moins un esprit "à la chaîne", plus artisanalement et en aimant son métier donc). Il y a tellement de choses que l'on n'imagine pas derrière chaque acte simple, et une œuvre peut paraître basique si on se contente de regarder de la voir comme un "résultat".

    P.S.: des fois, je me dis que je devrais suggérer à Aryeom de faire une dépêche pour expliquer un peu les dessous de son travail. Il est triste que tous ces croquis et ces idées se perdent à jamais dans des archives email (c'est de là que j'ai fait les screenshots ci-dessus) et que personne ne voit jamais le dessous des dessins. Surtout que pour un tel projet, c'est au moins relativement facile et rapide de tout publier (pour un projet comme le film ZeMarmot, c'est une autre paire de manches; vous imaginez bien que s'il y a tant de recherche et de croquis — et encore là c'est juste une petite sélection, y a plus — pour juste quelques dessins finaux, pour un projet de film d'animation, on est à un tout autre niveau de recherche et de préparation).

    P.P.S.: c'est un peu hors sujet car le lien parlait spécifiquement des LLMs pour le code, mais personnellement je ne trouve pas cela si hors sujet. Je trouverais cela rafraîchissant que certains élargissent leurs horizons.

    P.P.P.S.: bon allez cette fois, c'est mon dernier message! Vraiment! 😅

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Cet article est une ode à la médiocrité

    Posté par  (site web personnel, Mastodon) . En réponse au lien My AI Skeptic Friends Are All Nuts. Évalué à 8 (+5/-0).

    tu dis qu'elles n'évoluent pas et c'est faux.

    Non. Ce que je viens de démontrer, c'est surtout que tu parles de tout autre chose. Je parle d'une vraie évolution, de personnes qui passent de "petits débutants sans assurance" à "développeur qui réfléchit et set met à comprendre ce qui importe pour du code de qualité, devient aussi autonome et a une voix technique réelle" dans un intervalle de quelques mois, voire quelques semaines pour les plus doués.

    Toi tu me parles de logiciels qui passent de "produisent du code "au hasard" (statistique) sans rien comprendre à ce qu'ils font, ni au logiciel cible, et utilisent des ressources (fonctions, etc.) qui n'existent pas", y a un an, à "maintenant le logiciel itère aléatoirement jusqu'à ce que ça compile… mais bon c'est toujours du code aléatoire et toujours sans rien y comprendre".

    Si tu vois pas la différence…

    Il y a passé deux nuits à envoyer des prompts et regarder le truc apparaître devant ses yeux, je trouve cool qu'il ait pu faire ça sans rien connaître au code.

    Ton exemple est sympa. Mais on sait bien, autant l'un que l'autre, que ce n'est pas l'usage mis en avant par ces entreprises, que ce n'est pas le futur dont ils rêvent et qu'ils construisent. D'ailleurs quand les IAs sortiront de la bulle et que les prix seront au réel, ce genre d'usage n'existera probablement plus.

    Ce genre d'exemple est anecdotique mais c'est toujours les exemples qu'on va te sortir car ça donne l'impression que c'est une technologie bonne pour l'évolution humaine, qui "libère" les gens de la technique (comme si c'était une bonne chose de les libérer entièrement de la technique, et par là de la connaissance et des compétences), que d'ailleurs ça va même aider "les vrais développeurs™" avec à la fin de l'histoire, le gars qui se met en recherche de développeurs pour aller plus loin, etc.

    Dans la réalité, on sait que ce n'est pas ça qu'ils promeuvent (lire ce post en lien ainsi que de manière générale tous les posts et articles sur le sujet — que ce soit en positif ou négatif d'ailleurs). L'IA sert pour le produit fini, ils te sortent que ça remplace même les dévs juniors (on n'a pas les mêmes juniors 🙄) en beaucoup moins cher, sans se rendre compte en plus que ça se mord la queue (bientôt l'apprentissage se fera sur tout le code généré de merde). On se croirait dans le monde pré-Idiocracy.

    Moi ce que j'ai vu dans la réalité, c'est donc des gens qui nous envoie du code nul fait par IA, qui ne marche même pas et qui ne peut absolument pas être intégré (même avec des développeurs qui essaieraient de regarder pour corriger/améliorer ensuite; la base et le concept du code sont juste inutilisables), puis ensuite qui nous insultent quand on ne l'intègre pas car ils auraient plus fait avancer le logiciel en un patch que nous en des dizaines d'années d'après eux (oui, ça sent le vécu, mais c'est parce que ça l'est; on a eu un "contributeur" comme ça y a pas longtemps et il a vraiment sorti ce type d'insultes à la fin).

    J'ai aussi vu un voisin qui m'envoie les musiques qu'il a "composées" par IA. Et je peux t'assurer qu'il ne cherche pas des musiciens pour aller plus loin.

    Quant à la génération d'images et les gens qui prétendent que ça va remplacer les vrais dessinateurs/peintres (et ils commencent déjà, les illustrations IA pullulent de nos jours dans les milieux pros), n'en parlons même pas. Quand vous avez vu de vrais artistes travailler, vous savez que ce que vous payez, ce n'est pas juste des pixels qui font jolis. L'art (que ce soit musique, ou graphique, ou textuelle, ou autre d'ailleurs), ce n'est pas juste un résultat. C'est tout ce qu'il y a derrière qu'on paie. Le travail, la technicité, les années d'entraînement, les heures ou semaines passés dessus déjà. Quand un artiste fait des lignes à main levée, si on trouve cela extraordinaire, c'est pas pour la ligne elle-même. C'est pour tout ce qu'il y a derrière, tout ce que ça implique. Sinon on pourrait juste se contenter de prendre une règle et un compas. Ou bien encore plus simple: imprimer en vectoriel. C'est techniquement exceptionnel. Quand vous avez vu un peintre s'entraîner à faire des lignes, des courbes, encore et encore, et encore, pendant des heures, des jours, vous comprendrez. De même que si vous avez entendu un musicien s'entraîner (ou si vous même êtes musicien, même amateur, vous savez cela), pour gagner en dextérité, mais aussi en finesse, travailler son son… Tout cela, c'est l'humain qui se surpasse. C'est magnifique.
    Et puis il y a le sens de l'œuvre, la réflexion portée sur chaque petit détail. Quand l'artiste me dit "tu vois là ce petit objet caché dans un coin de l'œuvre, je l'ai mis pour cette raison" et soudainement t'as le cerveau qui fait boum 🤯, tu vois l'œuvre différemment. Tu te rends compte comment un artiste met son âme dans son art, il y a réfléchi, il peut te dire si c'est le matin ou l'après-midi, à quel endroit on est, si le soleil se lève ou se couche… Et à côté de ça, t'as ceux qui sortent une image en pose impossible à la "super-héros hollywoodien", tu te rends compte qu'y a 6 doigts à une main et que le coude est à l'envers, et qu'y a en fait rien à dire sur cette "œuvre". Et là on ose te dire "c'est la même chose, on remplace les artistes!" 🤦‍♂️

    En fait, cette bulle est court-termiste à un point que cela me sidère quand les gens font fi de cela. C'est vraiment court-termiste à tous les niveaux:

    • écologiquement (mais bon ça les gens nous ont habitués à s'en foutre);
    • qualitativement et techniquement (la mauvaise qualité technique se paie toujours à un moment ou l'autre);
    • socialement (si vraiment ces "entrepreneurs" réussissent leur coup — ce que je ne crois pas — et que nos sociétés se mettaient réellement à considérer ces divers métiers comme redondants… alors qu'ils sont en réalité nécessaires comme base de ces technologies, on arriverait à une sorte d'incohérence sociale avec des métiers nécessaires mais qui auraient été tués par la technologie même qui les requièrent);
    • en perte de compétences (si les gens ne pratiquent plus et qu'on se met réellement à considérer ces IAs comme la norme qualitative du logiciel, texte, dessin, etc. je donne pas cher de nos futures générations);
    • en business model (on le sait, ils ont besoin de plus de financement qu'aucun autre projet numérique jusqu'alors et les prix réels des IAs seront exorbitants à terme; mais bon ça c'est l'effet "startup à l'américaine" et ils ont toujours été dans un modèle "succès immédiat ou crève, et réfléchis pas trop avant" — c'est un peu une variante du "sur un malentendu, ça peut marcher");
    • pour la survie de la technologie elle-même (elle aura besoin de plus d'œuvres pour aller plus loin sauf qu'elle noie les données d'entrée avec ses propres œuvres générées en sortie);

    Le truc est une bulle qui ne peut soit qu'exploser ou bien finir en Idiocracy. C'en est ridicule à un point… Ou alors tout le monde est court-termiste car ils s'en foutent complètement de l'avenir, qu'ils sont de toutes façons en train de démolir pour ne laisser que des gravats aux générations futures (et ça c'est pas qu'avec l'IA, loin de là!).

    Maintenant ça ne règle pas les problèmes environnementaux, je ne sais pas si on pourra faire mieux.

    Ce que j'essayais de dire, c'est: n'est-ce pas suffisant en soi pour tout arrêter justement? Oublie mes longues tirades (avec lesquelles tu n'es clairement pas d'accord). Tu es d'accord pour dire que c'est un problème impardonnable. Alors pourquoi même aller plus loin?

    Mais lui parler de ça ça serait l'équivalent de lui faire remarquer que son smartphone est fait avec le sang des congolais des mines de coltan. Je passerais juste pour un chieur devant un gars content d'avoir produit quelque chose.

    Personne ne demande de faire ça. Tu crois que je m'amuse à faire chier les gens sur l'IA dès qu'on m'en parle (ou pire, si on m'en parle pas)? 😅 En général, je dis rien, et me contente de hocher la tête. À part si on me demande explicitement mon avis (et en outre si c'est quelqu'un que je connais un peu ou je sens que c'est quelqu'un qui pourrait accepter la discussion), auquel cas, je pourrais commencer à donner plus de pointeurs aux gens…

    Ici on est sur un forum où on discute autour d'un lien précisément sur ce sujet. Alors bien sûr j'en parle. Et encore… même ici, j'essaie de me retenir (je fais pas de commentaire sur chaque lien au sujet de l'IA; on n'en finirait plus!).

    Néanmoins ce que tu dis là soulève un autre vrai problème additionnel vraiment important de ces technologies: c'est dur d'expliquer aux gens car ils sont totalement trompés par la fausse facilité apparente du truc. Ils croient que c'est un boulot facile "regarde, moi aussi je peux le faire en super rapide" sans voir l'énorme différence entre l'horreur qu'ils ont produite (qui est une bombe à retardement si on tente de mettre en production) et l'œuvre de qualité que pourrait produire un bon développeur (en 100 fois plus de temps mais c'est un véritable investissement sur le long terme).

    Tu le dis d'ailleurs:

    il cherche maintenant des devs pour combler les trous

    Sauf que, côté code au moins, il n'y a pas de "trous à combler". Il y a tout à refaire de zéro, en bien, avec des bases solides et les choix techniques faits par le développeur (qu'importe ces choix). Si quelqu'un pense qu'on peut partir du code produit par ces LLMs sans qu'il n'y ait un prix à payer tôt ou tard, alors ils se mettent le doigt dans l'œil. Et ça c'est très dur à expliquer, surtout quand on voit que maintenant même des professionnels s'y mettent (souvent avant d'y revenir, comme on a vu avec de nombreuses publications ces derniers temps de gens réalisant à quel point ce fut une erreur).

    C'est pareil pour ton entrepreneur du BTP. S'il me sort ce genre de démo, possiblement en espérant éveiller mon intérêt de développeur, je sourirais et hocherais la tête mais absolument pas je ne lui proposerais de travailler sur ce projet. Bon éventuellement je pourrais lui dire qu'il faudrait tout refaire de zéro, que ça prendrait possiblement des mois, et voir sa réaction. Mais si ça semble lui poser un problème alors je ne voudrais pas même essayer un pas dedans car je sais que je m'embourberais dans les problèmes relationnels. S'il n'a pas compris la valeur du travail du développeur ni que ce qui fait la qualité du programme, c'est pas juste une UI-démo mais tout le travail pour arriver à un bon logiciel. De même que si je faisais construire une maison, j'emboîterais pas quelques placos ensemble qui auraient la forme d'une maison (mais essayez pas de marcher dedans! Ça s'effondrerait!) pour ensuite demander à son entreprise de BTP s'il peut partir de mon travail, histoire de gagner du temps et de l'argent. 🤣

    Donc oui c'est effectivement dur d'expliquer cela aux gens, et moi-même ne le fais pas. Il ne faut pas croire que je suis un geek chieur qui explique aux gens à tout va qu'il faut utiliser du logiciel libre ou que l'IA c'est nul. La plupart des gens autour de moi savent à peine ce que je fais.
    Et ce type de services/projets rendent justement cela d'autant plus dur à expliquer notre travail aux gens. Ils créent une illusion de nos travails (œuvres logicielles, graphiques, musicales, textuelles…) et cela pourrit d'autant plus la relation avec ceux avec qui on pourrait travailler. Maintenant on peut encore moins leur expliquer ce qu'on fait (j'en reviens au gars qui dans un rapport de bug nous envoie un patch inutilisable et qui au passage nous explique qu'il fait mieux que nous en beaucoup plus vite grâce à l'IA).

    Et donc t'as raison, on ne va pas lui parler de cela au final car on sait qu'on aura l'air soit d'un chieur soit d'un incompétent qui s'est pas encore mis à l'IA. Et c'est bien dommage pour lui plus que pour nous car ça veut dire que cette personne ne pourra jamais avoir son logiciel dans une version réellement utilisable au final. Ça restera à jamais une démo qu'il montrera à ses clients ou à ses proches et tout le monde dira "ouaaaah! Trop cool! L'IA c'est vraiment bien, ça nous permet des trucs impossibles avant!", il aura son moment de fierté puis ça en restera là. Ou pire: peut-être qu'il trouvera un "dév" qui sera OK pour incrémenter sur son code généré, et qui lui-même utilisera des LLMs pour coder. Et ça fera du code nul sur du code nul. Et le mec va dépenser des sous (en se disant qu'il a économisé avec son premier jet!). Il se retrouvera avec un logiciel… avec quelques fonctionnalités mais inmaintenable, plein de bugs, qui perdra ses données…

    Je suis pas sûr qu'il y aura gagné avec le fait qu'il soit dans une situation où personne n'ose lui dire que son truc, c'est de la merde, car on veut pas passer pour des chieurs ni s'embourber dans un projet pourri d'avance. Au final, il aurait mieux fait de faire juste quelques schéma et expliquer son projet à un vrai dév qui fera un vrai travail d'architecture logicielle, de design, et de vrais choix techniques. Non?


    Enfin bon, je pense que je vais d'ailleurs me retenir pour faire une autre réponse (quel que soit la tienne)… je sais juste pas écrire court et ça me prend trop de temps à chaque fois! 😛

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Cet article est une ode à la médiocrité

    Posté par  (site web personnel, Mastodon) . En réponse au lien My AI Skeptic Friends Are All Nuts. Évalué à 10 (+8/-0).

    Ça c'est pas mal faux. Elles évoluent et montent en compétence quotidiennement ces temps-ci.

    LOL. Je les attends tes IAs qui vont évoluer aussi vite et surtout aussi bien que les dévs compétents que l'on rencontre parfois. Autant on a parfois des contributeurs arrogants et insultants qui vont vous sortir des "je développe depuis 30 ans, on va pas m'apprendre le métier" en proposant un patch totalement mauvais et refusant toute revue de code — heureusement ceux-là ne font jamais long feu dans un projet —, autant on a régulièrement des contributeurs qui débutent, à l'université (ou non), et leur progression à nos côtés, avec la direction adéquate, est palpable. Même pour GSoC, je pense à un jeune qui au début du projet, on pensait limite qu'on avait fait une erreur de l'accepter, mais après avoir adapté notre accompagnement, il a vraiment beaucoup appris et est rapidement devenu extrêmement doué dans son domaine de prédilection (et est resté depuis lors!). Il y en a certains, on sent qu'ils pourront devenir de vraiment vraiment bons développeurs et même s'ils ont encore beaucoup à apprendre, la différence entre maintenant et le mois dernier est évidente.
    Et puis on a des cas de contributeurs qui sont pas du tout du métier. On a un cas sympa, un avocat, qui a commencé par contribuer des petits scripts de build, puis de plus en plus, et de plus en plus complexes, jusqu'à devenir un contributeur majeur. Il fait même quelques patchs de code C maintenant.

    Ce sont des gens que je laisse régulièrement régler des problèmes complexes en autonomie; même si leurs correctifs ne seront pas forcément parfaits, ils en sont à un stade où on peut leur faire confiance (et eux-même prennent confiance) car ils ont montré savoir réfléchir et chercher des solutions appropriées. C'est quand que tu fais confiance à ton IA au point de lui dire "si tu penses que ton correctif est correct, que tu l'as relu et relu et testé et retesté avec toute la rigueur possible, pousse le dans le dépôt, je regarderai plus tard, là je fais autre chose"? Avec ces gens là, ça a mis à peine 6 mois peut-être pour en arriver là (à un stade où on leur fait globalement confiance et où le gain de temps est incomparable; mais aussi où on les considére comme des égaux, qu'on écoute leurs opinions — qu'on sait souvent avisées —, avis techniques ou autre, et qu'on peut échanger des idées, avoir des contre-opinions qui font avancer le projet dans la bonne direction, etc. Le gain n'est pas forcément calculable mais il est bien plus grand que juste "le temps cumulé de plusieurs personnes"). Cela n'empêche pas de relire leurs commits après coup et de passer parfois derrière pour apporter quelques corrections (mais souvent, ce n'est pas nécessaire car le code est effectivement suffisamment bon pour laisser tel quel), ou de commenter un peu de manière bienveillante. Mais la montée en compétence est réellement rapide et extraordinaire entre le moment où la personne fait juste des patchs basiques (et osait à peine donner un avis) et celle où on lui donne une forme d'indépendance dans ses décisions et qu'on lui accorde notre confiance technique. Il faut juste l'accompagnement adéquat. Pour ma part, je crois que j'ai eu les droits d'accès aux dépôts de GIMP après environ 2 mois de contribution. Je me souviendrai à jamais comment ça s'est passé, avec le parler bon vivant de mon co-mainteneur (seul mainteneur à l'époque). Il me dit un truc genre "t'es chiant, y a rien à corriger dans tes patchs, prend l'accès en écriture qu'on n'en parle plus".

    Et puis même sans parler d'autrui tiens, ma propre montée en compétence entre mes premiers codes et maintenant est évidente. Des problèmes qui étaient évidemment extrêmement complexes à mes débuts, me paraissent évidents maintenant.

    Alors ton évolution d'IA, c'est quoi? Y a 6 mois, elle inventait des types de données (histoire vécue déjà plusieurs fois sur des patchs contribués, avec types, fonctions, etc. inexistants, patches qui étaient en réalité faits par IA), et maintenant ils itèrent au hasard jusqu'à ce que ça compile? Le gars du post en lien raconte ça en gros, en expliquant que les hallucinations de LLM sont un "problème résolu" grâce aux "agents" qui font ces itérations. C'est un moment "facepalm" 🤦‍♂️ d'incompétence. On n'a clairement pas la même définition de "résolution de problème" et encore moins celle de "montée en compétence".

    Ils n'ont ni le temps ni l'envie d'apprendre. […] pour le dixième du prix d'un dev […]

    Moi j'ai pas vraiment le temps (j'aurais l'envie mais bon… dans la vie, faut faire des choix) d'apprendre la maçonnerie, alors si j'ai des travaux à faire, j'engage une entreprise de maçonnerie.

    Ma moto, je l'emmène au garage.

    Mon pain, je l'achète à un artisan-boulanger (on a bien essayé à un moment de faire du pain, c'était d'ailleurs super bon, mais bon… c'est pas un truc à faire à la légère, il faut nourrir son levain régulièrement et ne pas le laisser mourir, etc.).

    Si on a besoin de musique, on paie des musiciens et un compositeur.

    Et ainsi de suite. Moi aussi j'aimerais bien un bouton magique pour profiter du travail d'autrui à pas cher et avoir des travaux rapides, une réparation ou révision de véhicule, un pain instantané, de la musique originale. Mais non, je sais que ce sont des vrais travails, qui demandent une expertise, des années d'apprentissage et d'expérience, un certain sens du travail bien fait (qui fera la différence entre le bon artisan/technicien/artiste et le mauvais), que c'est pas simple et au lieu de m'imaginer l'impossible ou de vouloir prendre des raccourcis (qui font du mal à tous sur le long terme), je paie les gens.

    Ou si je ne peux pas payer (je ne suis pas particulièrement riche, notamment de par mes choix professionnels que tu soulèves; mais ce sont des choix et je ne regrette pas), je me fais une raison et soit je me prends en main et fait effectivement l'effort d'apprendre certains trucs et de faire moi-même certains trucs (parfois en y prenant beaucoup de temps, difficilement et avec de la frustration sur le temps passé ou la qualité…), soit simplement j'accepte de ne pas obtenir tout ce que je veux.

    Non parce que le coup du "je n'ai ni le temps ni l'envie d'apprendre, ni l'envie de payer mais je veux, je veux, je veux" (ou encore "tout vouloir mais sans faire aucun effort"), ben… je pense qu'on sera nombreux ici à être d'accord pour dire que ce n'est pas faire preuve de grande maturité, pour le dire gentillement ("enfant gâté" pour le dire autrement).

    […] mais {ma voiture m'a lâché, mon fils a besoin d'un appareil dentaire, je dois payer l'EHPAD de ma mère} rayez les mentions inutiles ou n'en rayez aucune parce qu'on peut avoir tout ça en même temps.

    Comme je disais, dans la vie, on fait des choix. Je fais le choix de ne pas pouvoir tout avoir personnellement, mais avec la contrepartie de ne pas avoir le boss obtus et désagréable qui demande l'impossible dont tu parles. Je ne juge pas ceux qui font l'autre choix, qui leur permet effectivement "d'avoir tout ça en même temps" mais il ne faut pas prétendre que ce n'est pas un choix, ni regarder de haut ceux qui font l'autre choix. Merci.

    Et parmi les autres choix qu'on peut faire, il peut y avoir celui de ne pas utiliser les IA LLM parce qu'on trouve le prix (pas financier, mais ça peut être le prix social, écologique, qualitatif, de société…) inacceptable. C'est aussi un choix réel. Et le coup du "je dois payer les soins dentaires de mon fils" n'enlève pas la réalité de ce choix. Surtout que c'est un faux dilemne que tu nous sors; on peut aussi payer des soins dentaires sans accepter l'IA pour créer du code en tant que développeur. C'est juste une variante des gens qui vont gruger sur un truc, tomber dans l'illégalité et prendre des raccourcis éthiques, et le jour où ils se font prendre, ils te sortent "mais c'était pour survivre!"

    Ça et l'exploitation de main d’œuvre payée au lance-pierre pour empêcher à ces programmes de ressortir des discours néonazis. Là sont les problèmes indéfendables de l'IA.

    Effectivement. Je suis d'accord. Alors en partant de là, pourquoi… défends-tu l'IA? Tu me dis toi-même que tu pars du postulat qu'il y a déjà deux points majeurs qui rendent l'IA indéfendable pour toi (et pour moi!), mais pourtant tu viens de défendre l'IA juste au dessus. Alors c'est quoi exactement l'idée? 🙄

    Ou alors, l'IA a des points indéfendables mais on ferme les yeux pour avoir les autres points (ceux qui permettent d'avoir des boutons magiques pour obtenir un résultat médiocre à bas prix à la place d'un vrai travail rémunéré de manière juste)?

    J'apprécie toujours tes posts, Jehan, et globalement je serais plutôt d'accord. Mais quand les avis sont aussi tranchés, absolus, sans concession, ça titille mon plaisir de me faire l'avocat du diable (expression de circonstance).

    J'avais bien remarqué. C'est pas la première fois que tu fais ton "avocat du diable" avec moi. Mais mes avis ne sont absolument pas tranchés. L'IA (celle dont on parle ici), c'est simplement l'apogée de la médiocrité. Dire les choses telles qu'elles sont n'est pas la même chose qu'une sorte "d'opinion" comme tu sembles le sous-entendre.

    Notons bien qu'on parle de ces technologies et usages récents de l'IA (même si on s'est tous mis à juste dire "l'IA" parce qu'on s'est laissé entraîné dans l'usage linguistique à la mode, probablement à tort). Tout le monde aura bien compris que je ne parle pas de l'IA en général, qui est un sujet que j'adore. C'était d'ailleurs aussi ma spécialité à l'université (master Intelligence Artificielle et Décision). D'ailleurs même ces technologies particulières sont intéressantes pour pleins de trucs (j'ai lu des usages dans la médecine où cela me semblait très à propos; et je pourrais imaginer d'autres sujets de recherche où ce serait très bien pour avancer, avec des données plus limitées, où on ne brûle pas non plus la planète à vitesse grand V et où avoir des résultats non certains garde toutefois du sens et fait tout de même avancer les choses et aide à la décision sur des sujets importants). Le problème, c'est vraiment ce drôle d'usage qui en est fait maintenant sur tout et n'importe quoi, notamment des usages où cette technologie n'est simplement pas du tout adaptée par définition même de la technique employée. Le développement logiciel par LLM est l'un de ces cas.

    Enfin bon sans rancune, mais moi je trouve que le diable 👿 a pris un avocat avec de mauvais arguments. 😜

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Cet article est une ode à la médiocrité

    Posté par  (site web personnel, Mastodon) . En réponse au lien My AI Skeptic Friends Are All Nuts. Évalué à 10 (+28/-0).

    Ok cet article va vraiment à l'opposé de moi, sauf qu'il a en gros des arguments similaires… sauf que pour cette personne, ces arguments sont des "avantages", pour moi des défauts.

    Pour n'en citer que quelques uns, il en va jusqu'à dire que le code médiocre est une bonne chose:

    As a mid-late career coder, I’ve come to appreciate mediocrity. You should be so lucky as to have it flowing almost effortlessly from a tap.

    Cela résonne particulièrement avec mon argument principal sur l'IA (qui s'applique aussi sur beaucoup de changements de société), que j'ai beaucoup répété: "l'IA est une nouvelle apogée de médiocrité". Cela est une juste continuation des précédentes étapes dans cette direction:

    • déconsidérer le travail des artistes en jouant sur leur précarité (cf. les multiples "concours" des grosses boîtes qui ont largement de quoi rémunérer mais préfèrent le travail gratuit);
    • racheter des journaux connus, se débarrasser des journalistes et experts du sujet pour les remplacer par… des publicitaires, voire par rien;
    • dans le monde logiciel, faire de plus en plus de la merde, car on peut se le permettre ("enshittification"), la qualité des services n'est depuis longtemps plus une priorité;
    • etc.

    Ben l'IA est l'étape d'après, que ce soit pour remplacer des artistes (graphiques, sons, auteurs…), des journalistes, des développeurs… après tout puisque la qualité n'était déjà plus recherchée, aller encore plus loin, avec l'IA, dans la recherche du profit au détriment de la qualité, n'est effectivement pas perçu comme un problème.

    Maintenant qu'on ne me fasse pas dire ce que je n'ai pas dit. Bien entendu que parfois, on est OK pour que certaines tâches ne soient pas parfaites. C'est la gestion des priorités. Sauf qu'avec l'IA, on décale d'autant plus les critères vers la médiocrité généralisée de toutes les tâches.

    Y a aussi tout le speech sur le "code ennuyeux" ("tedious code"), qui correspond sûrement beaucoup au "boilerplate" code. On appelle souvent ainsi le code plus structurel (à comparer avec du code plus algorithmique), l'organisation du code par le code quoi. Si on veut faire une analogie, ce sera comment on organise des fichiers dans son bureau, pour les retrouver facilement, ou pour être plus efficace, avec une logique qui rend son travail plus simple au final, etc. Cette personne semble pré-supposer que ce code pourrait être simplement fait par des IAs. Or c'est justement le genre de code qui ne doit absolument pas être fait par des IAs. C'est en fait une erreur typique de débutants de croire que les projets chiants de réorganisation (par exemple la "factorisation" de code) est un truc pour les petits nouveaux. Alors que c'est tout l'inverse. La bonne organisation du code, avec une logique qui donne tout de suite beaucoup plus de sens au code plus "métier" est un truc très humain qui demande une grosse réflexion sur le sens du code. Dans un code objet par exemple, on va réfléchir à quelle classe est sémantiquement fille de quelle autre classe, ou doit implémenter telle interface. On va aussi réfléchir à l'organisation des fichiers: doit-on séparer le code dans son propre fichier? Doit-on au contraire le mettre dans tel fichier ou classe existant(e) parce que ça paraît structurellement sain? Quels noms donner aux fonctions? Quelle est la logique des diverses parties du code? Etc. Etc. La partie vraiment "boilerplate" prend peut-être beaucoup de lignes mais en fait, cette part du travail est très rapide (quelques secondes) et peut d'ailleurs être automatisée (pas par IA, mais parce que ce sont des choses répétitives que l'on peut aisément automatiser d'une manière où on est sûr qu'on ne crée pas de bugs). La part "chiante" du travail d'organisation par contre est importante et n'est pas quelque chose que l'on donne à faire au débutant/stagiaire/IA.

    Donc quand le gars finit cette section de son post avec cette phrase:

    If you listen to me, you’ll know that. You’ll feel worse yak-shaving. You’ll end up doing… real work.

    Ma première réaction, c'est que ce gars n'est sûrement pas très compétent (ce qu'il dit lui-même être le cas en introduction de son billet).

    Un code a besoin d'être bien structuré pour être maintenable. Si vous avez des centaines de milliers de ligne de code, vous voulez qu'elles suivent une logique et une organisation saine et compréhensible, pas un truc fait à la va-vite par le stagiaire qui était là quelques semaines, ne comprenait pas le code existant mais a quand même voulu vous faire un "refactoring" parce qu'il est persuadé qu'il fera mieux que les barbus qui ont fait ce code y a 10 ans.

    Donc non, mon cher monsieur, toute cette partie "ennuyeuse" est très certainement chiante et personne ne veut la faire, mais elle n'en reste pas moins primordiale pour que votre logiciel ne s'écroule pas comme un château de carte après quelques itérations de stagiaires et incrémentations IA… ce qui ne vous intéresse pas seulement lorsque vous vous dites que de toutes façons, vous ne serez sûrement plus là quand ça arrivera.

    Penser que ce n'est pas du "real work", c'est n'avoir rien compris à notre métier et ne peut que conduire à faire des correctifs principalement superficiels. Parfois, la bonne correction pour certains problèmes implique de la restructuration, ce qui nécessite d'aller plus loin dans la compréhension du code et des différents rouages d'un logiciel; c'est même souvent à cela qu'on reconnaît les débutants, c'est qu'ils se contentent de petits "pansements" du code qui consistent souvent en changement superficiel des symptômes (cachant le vrai bug, qui réapparaîtra un jour sous une autre forme), tout ça parce qu'ils n'ont pas réellement étudié le code du logiciel et sa structure. C'est d'ailleurs assez symptomatique de cette vision des tests unitaires visibles dans cet article, où croire que si l'IA peut itérer dans le code jusqu'à ce que les tests passent, alors ça veut dire que le code est bon… euh… comment dire. Un développeur qui pense ainsi me fait peur au plus haut point.

    Ensuite il explique que de toutes façons, il faut lire le code donc au final on le comprend, et il devient "nôtre". Et là je me pose de plus en plus de questions sur ses compétences.
    Bien sûr qu'on relit du code d'autrui, ce qui permet de faire des revues de code pour que ces personnes le corrige. Sauf que cela prend énormément plus de temps que si on écrivait ce code nous même de rien. Combien de fois un mainteneur a-t-il passé des heures (étalés sur des jours, voire des semaines, donc avec en plus la perte de temps liée au fait de changer notre état mental d'un code à l'autre — context switch pour une analogie technique) sur une revue de patch en se disant que ça lui aurait pris 30 min pour le faire parfaitement soi-même?

    Alors… dans ces conditions, pourquoi fait-on cela? L'une des raisons est pour provoquer la montée en compétence des autres contributeurs. Ils ne connaissent pas encore aussi bien la base de code que nous, ils sont peut-être aussi jeunes, etc. On les forme en quelque sorte. Cela veut dire aussi que c'est un investissement sur l'avenir car ce petit nouveau sera alors très efficace dans quelques semaines, puis encore plus dans quelques mois, et enfin quelques années.

    L'IA, elle sera toujours aussi nulle. Elle ne monte pas en compétence. Donc en gros, on est coincé avec un débutant perpétuel qui fera toujours un code qui nous fera perdre notre temps. Or si ce gars estime que ce code de débutant qu'il doit à chaque fois relire, comprendre et réorganiser ne lui fait en fait pas perdre de temps… ben je me demande vraiment comment il code!

    Je passe ensuite sur les propres hallucinations du gars quand il parle des hallucinations de l'IA en les balayant d'une main, ou sur son argument nul et à vomir quand il parle du stagiaire qui coûte plus que 20€ par mois (d'autant plus quand on sait que ce n'est même pas un business model viable et que les pris sont destinés à augmenter; là ils perdent de l'argent à tout va juste pour habituer les gens au produit en espérant les rendre suffisamment accros et dépendants pour qu'ils paient plein pot plus tard).

    Je vais aussi passer tous les autres arguments (rust; j'ai déjà aussi parlé de son ode à la médiocrité; je ne m'étendrai même pas sur son balayage atroce d'un revers de main du problème de droit d'auteur, prétextant que les artistes, c'est différent 🙄 — ce qui tombe bien car il n'est pas artiste! Ni même vraiment développeur j'ai l'impression…).

    Je vais juste faire un dernier point sur la section expliquant qu'on n'est pas des artisans. Ah bah voilà. Personnellement je me considère artisan du code. Le gars en gros t'explique que l'artisanat, c'est du hobbyisme:

    I have a basic wood shop in my basement †. I could get a lot of satisfaction from building a table. And, if that table is a workbench or a grill table, sure, I’ll build it. But if I need, like, a table? For people to sit at? In my office? I buy a fucking table.

    Ben il a juste pas compris ce qu'est l'artisanat. L'artisan menuisier, c'est pas un gars qui fait des tables nulles sur lesquelles on peut pas travailler correctement (pour réutiliser son analogie)! Bien sûr, il peut y en avoir des bons et des moins bons. Mais le bon artisan menuisier, il vous fera une table de qualité qu'on peut garder sur des générations, qui sera belle en plus d'être utile, possiblement personnalisée à votre besoin en plus.

    Mais oui, ça coûtera plus cher. C'est pour cela que les gens vont chez les industries qui font des tables à la chaîne. Mais de meilleure qualité? Sûrement pas! C'est le contraire en fait!

    Mais c'est sûr que si on se considère comme un "travailleur à la chaîne" du code, qu'on se complaît dans la médiocrité de son résultat, voire limite qu'on en est fier, que la chose principale qui nous importe soit apparemment le bas coût de l'AI (avec une vision très court-termiste puisqu'il est connu — car ça a été publiquement dit par les entreprises de l'IA — que ces coûts actuels sont à perte), et qu'on s'en fout de la problématique écologique (cette problématique n'est même pas citée parmi les autres arguments, soit parce que le gars ne saurait pas comment la démonter — faut dire aussi que pour le faire, faut avoir une bonne dose de mauvaise foi —, soit parce que la problématique écologique ne pénètre même pas l'esprit des solutionnistes technologiques) alors oui peut-être dans ce cas, je peux comprendre qu'on trouve l'IA bien.

    En gros, on a les mêmes arguments, mais pour des gens qui ont ce mode de pensée, alors ce sont des arguments positifs, et pour d'autres c'est bel et bien négatif.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Vers un internet plein de vide ?

    Posté par  (site web personnel, Mastodon) . En réponse au lien Vers un internet plein de vide ?. Évalué à 10 (+10/-0). Dernière modification le 05 mai 2025 à 12:54.

    Exactement. Les commentaires qui suggèrent d'utiliser des AIs parce qu'il faut bien faire les "bullshit jobs" prennent le problème totalement à l'envers. De même que le commentaire auquel je répondais.

    Si le travail consiste à produire du rien, il faut peut-être commencer à se poser des questions sur ce travail et ce qu'on veut faire de sa vie. On passe quand même une énorme partie de sa vie au travail, et d'ailleurs l'un des gros problèmes des "bullshit jobs", c'est bien qu'ils conduisent les gens à la dépression (ou burnout ou autre variante). J'ai vu des articles récemment qui expliquaient que selon certaines études, une grosses partie des jeunes présentaient déjà des signes de dépression alors qu'ils sont à peine à l'adolescence.

    Donner son boulot qui produit du rien à une IA et rien faire à côté que taper des "prompts", c'est sûrement pas ça qui va améliorer la situation.

    Donc oui, clairement, ces bullshits jobs doivent disparaître. Les dossiers de dizaines de pages que personne ne lit, la bureaucratie à outrance, les appels d'offres bidons (auxquels seules les grosses boîtes, ou les boîtes spécialisées en appels d'offres, sont capables de répondre, très souvent, et avec une méthode de décision assez problématique quand en plus, on en arrive à donner toutes nos données à Microsoft, sans appel d'offres, sur les trucs qui importent…) et toutes les autres choses inutiles qu'on enrobe autour de l'utile, ça doit aussi disparaître. Le but, c'est pas d'amplifier et d'aller encore plus vite dans le mur en en faisant encore plus (d'inutile) grâce aux IAs!

    D'ailleurs on voit bien que les IAs grand public servent surtout à produire du vide quand on voit les usages les plus visibles:

    • Quand on voit que les gros groupes de "medias" rachètent déjà en masse, depuis des années, des noms connus de la presse imprimée ou en ligne, pour remplacer les équipes de rédaction par du vide, il est évident que quand ils se rendront compte qu'ils peuvent remplacer les humains par des IAs (encore moins cher que les stagiaires!), ce pourrait être une prochaine étape (qu'ils ont peut-être ou pas déjà commencée pour les exemples cités, aucune idée 🤷). En tous les cas, de nombreux sites se sont déjà engouffrés dans la brèche. Quoi de mieux que des IAs pour produire des articles vides de sens à la chaîne!
    • Nombreuses sont les entreprises qui utilisaient déjà des images "stock" sans sens (la photo d'entreprise bidon avec des employés bidons autour d'une table de réunion sur de nombreux site me fait toujours tiquer!) ou des artistes payés au lance pierre (même quand ce sont elles-même des entreprises florissantes, mais faut croire que payer un artiste — photographe, peintre ou autre —, ils ne trouvent pas cela un bon investissement… alors même qu'ils semblent considérer cela comme indispensable pour leur business! Mais on n'est pas à un illogisme près!). Bon bah maintenant, on peut aller encore plus loin avec les IAs! (éditeurs de livres — ceux-là même qui mettaient des images où on se demandait toujours le rapport avec le livre, une fois lu; j'ai aussi remarqué que divers journaux — même si les articles eux-mêmes sont peut-être encore rédigés par des humains — se mettent à utiliser des images générés en tête d'articles: vous savez, le genre d'images débiles où pour représenter un développeur, on montre un gars en capuche tapant dans le noir avec un screensaver Matrix 🤦‍♂️; la pub — j'en vois dans la rue fait avec AI de nos jours, et une recherche web montre que les boîtes de pub s'en donnent à cœur joie! —, et ainsi de suite).

    En gros, tous ces jobs où les entreprises faisaient déjà n'importe quoi, à nous abreuver de "contenus" vides de sens (notons le terme "contenu", car ces gens ne fournissent plus d'information, d'opinion, du journalisme, de l'art… non juste du contenu, c'est eux-même qui appellent cela ainsi!), ben ils continuent encore plus fort maintenant!

    La solution n'est pas "ben fallait bien faire ces jobs, autant que ce soit un IA!" mais bien: pourquoi ces jobs existent-ils? Comment est-ce possible que nous laissons cela arriver?

    Et donc, oui, on avait déjà une floppée de "contenus" vides qui nous assaillent au quotidien (le but étant en général de s'accaparer notre temps de cerveau disponible), et ce depuis des années. L'internet du vide n'a certainement pas commencé avec l'IA générative. Par contre cette dernière permet à ceux à la source de ce remplissage par le vide d'aller encore plus fort, encore plus vite. Ce n'est pas un avantage.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Vers un internet plein de vide ?

    Posté par  (site web personnel, Mastodon) . En réponse au lien Vers un internet plein de vide ?. Évalué à 10 (+10/-0).

    Finalement, est-ce que l'IA n'a pas servi ici à revenir à ne s'occuper que de l'essentiel ?

    LOL! Tu te rends compte à quel point la conclusion de ton anecdote (intéressante par ailleurs en tant qu'anecdote sur l'IA) est ridicule? 😅

    En gros, tout le monde produit du vide que personne n'écrit vraiment et que personne ne lit non plus vraiment. Mais tout va bien?

    Finalement, l'inutile étant maintenant simple à produire, ne va t-on pas pouvoir enfin se consacrer à l'utile ?

    Et si… on n'avait que de l'utile? Pourquoi vouloir absolument produire de l'inutile?

    Note que je n'ai aucune idée de ce que contenait exactement ton appel d'offre, et honnêtement, on peut aisément produire 70 pages utiles. On peut dire des choses très utiles et très importantes sur des sujets divers, et ça peut prendre de nombreuses pages.

    Mais c'est sûr que si un tel document contient essentiellement du baratin sans intérêt, c'est quoi l'idée? Personnellement je ne pourrais pas faire un tel boulot.

    De mon côté, je vais continuer à écrire mes textes moi-même. Au moins, si ça contient des bêtises, ce seront les miennes et même ces bêtises auront plus de sens que du "contenu généré".

    P.S.: quand je parle de n'avoir que de l'utile, je ne parle pas d'avoir une vie uniquement utilitaire, sans divertissement, sans art, sans plaisir. Au contraire, je trouve ces choses justement très utiles et c'est aussi comme cela que nous évoluons en tant qu'êtres humains. Et de même pour ces derniers, je veux pas des trucs générés automatiquement non plus d'ailleurs.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: USB HID

    Posté par  (site web personnel, Mastodon) . En réponse au message Retrouver données d'un tél Android ASUS X00TD (ZenFone Max Pro M1). Évalué à 3 (+0/-0).

    Effectivement, clavier et pointeur en OTG, c'est déjà ce que je fais (avec l'outil scrcpy, cf. mon post initial).

    Le problème, c'est pas ça. Le problème, c'est l'effet "pointeur fou" généré par l'écran cassé qui empêche effectivement d'arriver jusqu'à la configuration pour activer le débogage USB. En fait on n'aurait pas autant de problèmes si le tactile ne marchait plus du tout a priori.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: ca se tente

    Posté par  (site web personnel, Mastodon) . En réponse au message Retrouver données d'un tél Android ASUS X00TD (ZenFone Max Pro M1). Évalué à 3 (+0/-0).

    Par contre, sans être spécialiste, on dirait que la partie gauche de la nappe semble plus liée au tactile alors que la partie droite (en me basant sur l'image de ce site : https://www.deviceparts.com/screen-replacement-for-asus-zenfone-max-pro-m1-zb601klzb602kl-black-hq-AS164018.html) semble plus liée à l’affichage.

    Dans cette image, c'est cette partie que j'ai entourée que tu me suggères d'essayer de couper? (non parce que gauche/droite, selon l'orientation dans laquelle tu regardes l'objet, c'est différent, alors je veux être sûr 😛)

    Écran de téléphone: où couper pour le tactile

    Même si c'est pas bon au final, c'est pas grave, ce sera pas pire que maintenant. Au moins j'aurais essayé quelque chose. Mais au moins je veux essayer de couper ce qu'on m'indiquait, pas un autre truc! 😁

    Sinon une idée : as-tu essayé de saturer le tactile ? En posant plein de doigts sur l'écran.

    Alors après ta suggestion, on a essayé à deux, et on n'a pas réussi à complètement arrêter le pointeur fou, mais en mettant même plus de 10 doigts dessus, je pense qu'on l'a ralenti un peu. Mais c'était pas assez.

    Ensuite on a presque réussi un autre truc, non pas en mettant plein de doigts, mais avec une pression exercée de chaque côté. Limite comme si on essayait de tordre l'écran (mais fallait être subtil car justement on voulait pas tout pêter). Et dans cette configuration, une personne exerçant la pression, l'autre essayant d'aller dans les menus avec OTG, on a… presque réussi! On est même allé jusqu'à cliquer 7 fois sur le numéro de build, ce qui allait activer le mode développeur, sauf que là… l'OS demande de mettre le schéma de déverrouillage à nouveau! Or avec le pavé du portable en OTG, je sais pas pourquoi mais les actions "glissées" ont du mal à marcher (mais ça peut être simplement à cause du pointeur fou de l'écran qui interfère? Je sais pas) et on n'a pas réussi à mettre le schéma avant que le pointeur fou fasse à nouveau changer l'application de premier plan. Et après ça, on n'a plus réussi à y revenir. On était trop frustrés et fatigués. On a fini par abandonner.

    Là maintenant, j'aimerais essayer de couper le bon câble, puis si vraiment ça marche toujours pas, j'essayerais peut-être finalement d'acheter un écran pour rebrancher le temps de récup les données.

    et tu vends / donnes à un bricoleur qui pourra remettre en service pour ne pas gâcher.

    LOL j'aurais trop honte de vendre ça (même avec un nouvel écran). Je le donnerais sûrement au hackerspace du coin qui fait parfois des "repair café" (enfin s'ils en veulent).

    Ensuite si vraiment on arrive à le refaire marcher sans mouvements fantômes, peut-être qu'on continuera à l'utiliser? Là on se dit que même avec un écran neuf, y aura des problèmes puisqu'un réparateur payé n'a même pas réussi à la remettre "à neuf" mais ça se trouve, ce réparateur était réellement nul (et/ou malhonnête, car on avait payé pour un écran "d'origine" et pas juste compatible; il nous assure que c'est ce qu'il a mis mais on doute et on ne sait pas comment vérifier cela de toutes façons).

    P.S.: ce site deviceparts.com, c'est une sorte de référence pour acheter des éléments d'électronique? Ça peut aussi être utilisé pour les particuliers? Ils vendent cet écran à quel prix? Apparemment faut avoir un login pour pouvoir commander et voir le prix, alors j'aimerais éviter de créer un compte et donner toutes mes données perso si c'est pour découvrir qu'un particulier n'a pas le droit d'y acheter!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: ca se tente

    Posté par  (site web personnel, Mastodon) . En réponse au message Retrouver données d'un tél Android ASUS X00TD (ZenFone Max Pro M1). Évalué à 3 (+0/-0).

    il faut pouvoir ouvrir le telephone pour aller debrancher completement l'ecran
    puis tu le branche en scrcpy --otg et tu le geres comme çà

    Le problème, c'est que scrcpy --otg ne duplique pas l'écran. scrcpy a cette fonctionnalité (on a testé avec un autre téléphone, c'est bien cool) mais elle requiert adb donc le debugging USB déjà activé. Avec la fonction --otg seulement, tout ce qu'on peut faire, c'est de permettre à l'ordinateur de servir de périphérique d'entrée (pointeur et clavier).

    Donc j'ai encore besoin de l'écran… mais j'aimerais que ce soit en affichage seulement! Sinon je me retrouverais à pouvoir cliquer à l'aveugle. Pas sûr que ça marche beaucoup mieux!

    Si quelqu'un sait s'il y a moyen de garder la fonction affichage mais couper le "toucher" de l'écran, ça m'intéresse. J'ai rien trouvé là dessus.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Félicitations

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 3.0. Évalué à 10 (+7/-0).

    Merci! C'est pas facile tous les jours, surtout quand on essaie aussi de vivre du Logiciel Libre… ce que tu ne sais que trop bien toi aussi! 😅

    Je ne sais pas trop où tu en es de ce point de vue là, mais j'espère que les choses avancent bien pour toi. 🤗

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Bravo !

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 3.0. Évalué à 10 (+8/-0).

    Bravo pour ce boulot de très longue haleine !

    Merci! Personnellement la tension est retombée d'un coup et j'ai été un peu fatigué, mais soulagé, depuis quelques semaines.

    Ca pourrait valoir le coup de mentionner les gros progrès de builds/CI et du processus de release qui vont aussi nettement aider à publier plus souvent, et avec plus d'assurance - si j'ai bien suivi.

    Oui c'est vrai. On mentionne cela vite fait dans la news 3.0.2 officielle:

    Furthermore it’s a good opportunity to show off our streamlined release procedure, allowing us to make much faster releases in the v3 series than we used to be able to do with GIMP 2.10.

    Mais je n'ai pas pensé à reporter cette mention dans celle-ci en français.

    On avait eu aussi une discussion en interne sur le fait de mentionner des termes de développeurs, genre "CI" qui est un mot totalement opaque à beaucoup (même avec un <abbr/> parce que "Intégration Continue", ça parle pas forcément beaucoup plus à la plupart!). J'imagine que sur nos news de développement, ça passe, mais sur celles pour le plus "grand public" (comme une sortie stable), c'est peut-être à éviter?

    P.S.: parce que justement ma première version de cette phrase en anglais mentionnait notre "CI".

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pourquoi dire IA si on ne parle que des réseaux de neurones ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Une intelligence artificielle libre est-elle possible ?. Évalué à 8. Dernière modification le 28 février 2025 à 16:57.

    Pas tant que ça. Il est vrai que la recherche sur l'IA existe depuis le début de l'informatique. On a longtemps cru que ce serait "accessible" par un programme "conventionnel" "intelligent". Un programme qui dirait essaye, plusieurs chose, teste, et sélectionne la meilleure chose, et puis avant essaye de comprendre comment ça marche… En soit c'est algorithmique… mais force est de constater que l'on a rien réussi a faire de bien intelligent.

    Euh… ça n'est absolument pas le but de l'IA de créer une "intelligence" réelle (surtout qu'on a bien du mal à définir ce concept). Et si vraiment c'est ça, ben on n'y est toujours pas arrivé. Quiconque considère ces systèmes récents comme réellement intelligents ne comprend pas la technologie derrière.

    mais très loin de sortir quelque chose de cohérent.

    LOL On a pas lu au sujet des mêmes IAs si tu considères cela cohérent!

    Mais on pensait que c'était pas de l'IA […]

    Uh?

    Et ce n'est que très récemment qu'on a commencé à s'y intéressé sérieusement.

    N'importe quoi. J'ai fait mes études universitaires avec spécialité Intelligence Artificielle au début du siècle. Les réseaux de neurones faisaient partie du programme et c'était absolument pas nouveau.

    Mais force est de constater qu'aucun programme humain "classic" n'a la moindre intelligence.

    Pas plus que ces trucs récents. Je crois que certains se mettent juste à fantasmer sur ces programmes.

    Et franchement croire que ceux-ci sont réellement intelligents, ça m'attriste sur comment on définit l'intelligence! 🤦‍♂️

    Enfin bon, je confirme: non l'IA, c'est pas juste les réseaux de neurones, et en particulier pas uniquement ceux à large modèles. Ce serait bien triste sinon!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: IA à l'insu de mon plein gré !

    Posté par  (site web personnel, Mastodon) . En réponse au sondage Faut-il accepter les contenus générés par IA sur LinuxFr.org ?. Évalué à 4.

    Honnêtement même sur cet usage, je trouve cela peu intéressant, ou alors vraiment avec très grande parcimonie.

    Pour info, je cite ton commentaire dans un autre journal (oui, y a tellement de journaux, liens et dépêches sur ce sujet maintenant, c'est fou; alors je vais pas tout recopier 10 fois).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Est-ce que je résume correctement ?

    Posté par  (site web personnel, Mastodon) . En réponse au journal Quoi penser de l'IA dans mon monde de linuxien .... Évalué à 7.

    Perso j'ai pas suivi en détail les évolutions des 20 dernières années, et c'est évident qu'il y en a eu. Mais cela reste juste des évolutions (pas des révolutions), ce qui est normal dans tout sujet en recherche active.

    Le vrai problème, c'est pas l'IA, c'est même pas ces technologies particulières (réseaux de neurones et autres technologies par apprentissage), mais déjà, c'est ce qu'on en fait. Ces technologies sont bien pour des cas où on (les humains) n'arrivent pas à trouver un algorithme idéal juste par un exercice de la pensée. Typiquement c'est super intéressant pour l'étude de clichés médicaux où on s'est rendu compte que certaines IAs pouvaient déceler des maladies là où des docteurs expérimentés ne l'ont pas fait. Alors comme certains le notent, il ne faut pas que ça crée une réaction en chaîne où les docteurs se reposent alors entièrement sur le logiciel, ne cherchent plus à réfléchir, apprendre et surtout comprendre. Le logiciel peut aussi se tromper dans un sens (faux négatif: ne pas voir quelque chose que l'humain aurait vu) ou dans l'autre (faux positif: voir une maladie non-existante). Il faut une vérification et une analyse humaines pour validation.
    Ensuite le gros problème de ces systèmes est que ça n'aide en rien à comprendre car ces technologies sont très opaques par conception. C'est d'ailleurs pour cela qu'on va les utiliser pour ce type de cas où l'humain est un peu limité. Or on a besoin aussi de comprendre ces problématiques: pourquoi on tombe malade? Comment déceler la maladie (pas juste avec un algorithme opaque)? Comment s'en prévenir? Etc. Certains notent que c'est un des gros problèmes du fait que beaucoup vont prendre l'IA moderne surtout comme une bonne excuse pour ne plus évoluer soi-même en tant qu'être humain. Néanmoins ce n'est pas une fatalité et je pense qu'on peut faire mieux.

    D'autres cas très intéressants sont lorsqu'on veut un semblant d'imperfection ou bien de copie de comportement humain. Typiquement je me souviens d'articles de jeux vidéo de voitures qui expliquaient comment le jeu utilisait des réseaux de neurones pour calculer les trajectoires des voitures.
    Quand on y pense, un jeu, on veut pouvoir moduler la difficulté, mais les algorithmes faits main peuvent parfois être chiants. Soit trop nuls, soit trop parfaits. C'est pas comme si mathématiquement, on savait pas créer des trajectoires parfaites (surtout si en plus, on contrôle la physique, ce qui est le cas dans un jeu). De même pour un jeu de tir, on veut pas que le joueur se prenne des headshots tout le temps. Avoir des algorithmes basés sur de l'apprentissage permet déjà d'avoir divers niveaux de difficultés, en plus avec un peu de semblant d'aléatoire (pour la même entrée, la sortie n'est pas toujours la même) et même en mode très dur, ce n'est pas non plus de la perfection mathématique. Cela peut rendre le jeu plus intéressant. Certains oublient en effet que l'IA, ce n'est pas seulement d'obtenir une sorte de "méta-intelligence" qui surpasserait l'humain (le genre de réflexion absurde qu'on lit régulièrement de nos jours, et même de la bouche de ceux qui sont à la tête de ces grosses compagnies; c'en est d'un triste…). C'était aussi simuler l'humain (notamment dans son imperfection) pour divers usages intéressants.

    Et ainsi de suite.

    Mais ce qui pose problème est que maintenant on fait des "agents génériques" qui sont censés apporter une solution à tout, et qu'on fait croire être réellement "intelligents". Or c'est bidon. Cette technologie ne permet pas cela. Mais comme les gens y croient et l'utilisent ainsi, ben ça va à la catastrophe.

    De manière générale, les technologies que l'on nomme "IA" ces dernières années (oubliant que l'IA, c'est bien plus que ça en fait) ne sont pas bonnes dans les sujets où les humains "savent déjà faire". C'est le cas pour le dessin, l'écriture, le code… pour tous ces trucs, cela ne crée que des résultats médiocres, du nivellement par le bas. En fait, ce problème est même déjà étudié.

    Par exemple, une étude sur les développeurs qui utilisaient des aides au développement par IA avait déterminé que non seulement ceux qui utilisaient ces aides produisaient un code moins sécurisé, mais qu'en plus ceux-ci croyaient qu'ils produisaient un code plus sécurisé (est-ce une sorte de biais du type Dunning-Kruger?).

    Quant aux textes, tout le monde (sauf ceux qui font ça) sont d'accord pour dire que la prolifération d'articles générés par IA sur internet est une horreur, cela crée des soupes de mots infâmes, sans saveur, et avec plein d'erreurs factuelles (que les gens reprennent ensuite pour argent comptant; on a eu un exemple il n'y a pas longtemps sur linuxfr d'un article dans la section lien qui était apparemment un article généré par IA, recopié ensuite ailleurs et qui a fini ensuite sur ce site; et bien sûr qui disait apparemment n'importe quoi).
    Mais même sans aller aussi loin, beaucoup semblent aussi se mettre à l'IA pour "relire et corriger" leurs textes. Je lisais un commentaire sur le sondage IA justement de quelqu'un qui disait utiliser cela ainsi. Quand je lis l'exemple, je me demande vraiment d'autant plus pourquoi on ferait cela. Oui le langage de chacun n'est pas parfait, ni même lissé. Mais c'est bien là l'important! Les critiques littéraires discutent des heures des tocs de langage des auteurs. C'est notre signature aussi. Pourquoi vouloir à tout prix une sorte de neutre chiant dans le style des textes? Quand je regarde l'exemple en lien, la phrase qui a été le plus changée est:

    Il me sert aussi bien de correcteur orthographique que de réflexion sur la syntaxe.

    Cette phrase est parfaitement compréhensible et exprime très bien ce que veut dire l'auteur.
    Elle fut changée en:

    Il fait non seulement office de correcteur orthographique, mais aussi de conseiller en syntaxe.

    Alors cette phrase n'est pas fausse ni mauvaise, mais la réécriture n'a eu aucun intérêt sinon perdre le style de l'auteur. Ceci dit, je ne suis pas sûr d'apprécier le changement en "conseiller en syntaxe". C'est un peu bizarre pour moi comme changement (un outil n'est pas un conseiller; là l'outil s'humanise de lui-même!) et ça n'exprime pas aussi bien le sens originel (servir pour réfléchir sur la syntaxe, donc on a bien plus une notion d'évolution, de travail sur soi; c'est bien plus intéressant et intelligent comme manière d'exprimer cet usage). Je ne dis pas que la phrase originelle est parfaite ni que ce changement est horrible, mais il est définitivement bof-bof et pas très intéressant. Franchement si le but était d'aider l'auteur à faire évoluer son style, c'est vraiment loupé et j'espère donc que cette personne s'en rendra compte sans prendre ces "conseils" pour argent comptant.

    Il y a peu, quelqu'un avait écrit un journal intéressant. D'autres lui ont conseillé de le faire passer en dépêche, ce à quoi fut répondu que l'auteur aimait sa liberté d'écriture dans un style non lissé. Fort heureusement, les modos de LinuxFr, dans leur infinie sagesse 😉, ont promu le journal en dépêche. J'espère que ça continuera longtemps, parce que moi, c'est ça que je viens lire: des gens différents, dans leur style à eux, qui présentent les trucs intéressants qu'ils font. Pas une sorte de moyennage du style littéraire francophone sur des sujets générés et rempli d'erreurs factuelles.

    Quant aux images, c'est pareil. Là aussi, on va vers un monde où la création graphique n'est plus considérée que comme une bouillie de pixels, et où le nivellement par le bas est encore si évident. Les images générées qu'on trouve sur internet sont tellement chiantes et juste des styles bateau. Alors le truc c'est qu'il y a aussi beaucoup d'humains qui dessinent avec ce genre de styles copiés (de même qu'il y avait déjà beaucoup de textes qui étaient aussi globalement des copié-collés vaguement retouchés dans l'industrie de l'écriture; le nivellement avait clairement commencé avant la vague IA de ces dernières années). C'est toutefois beaucoup plus acceptable car on peut voir cela comme une évolution, notamment dans la phase d'apprentissage. C'est comme tous ces jeunes qui vont dessiner en style X ou Y, et en gros vont surtout copier des personnes de leurs BDs favorites. Personne ne leur dira rien, et c'est même très bien de commencer ainsi. On apprend aussi en copiant. Mais on s'imagine bien qu'à un moment donné, si on veut devenir professionnel, on doit évoluer et trouver son propre style. Qui veut rester coincé dans le style d'un autre? (bon je dis ça, mais certains passent professionnels en restant coincé ainsi; chacun son truc, on dira) Ben avec les IAs, c'est un peu ce qu'on crée aussi… Le problème est surtout d'en faire une sorte de standard, un "étalon" de ce qu'est la création maintenant (du vite, et "mal copié").

    Enfin bon, tout cela est d'un triste…

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Outils IA non-génératifs prévus ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP 3.0 RC2 est sorti. Évalué à 10.

    Les IA génératifs de type LLM sont une apogée de la médiocrité créatrice (pour moi, c'est une version moderne des logiciels de clipart!). GIMP est un logiciel pour aider les créateurs à créer donc, à faire de la qualité, en leur donnant du temps pour penser, notamment en aidant avec des effets ou pour des procédures techniques, répétitives et/ou rébarbatives. L'idée est pas de "créer" à leur place en leur faisant faire la partie rébarbative pour finaliser l'œuvre (nettoyer, corriger les "hallucinations", les problèmes d'anatomie, les bugs graphiques, etc.). En gros, les IAs génératives sont à l'opposé de ce qu'il faut faire.

    À une époque, les gens croyaient que les ordinateurs étaient faits pour aider les gens en leur libérant du temps pour évoluer en tant qu'êtres humains épanouis. De nos jours, on voit l'inverse: ce sont les ordis qui font tous les trucs intéressants et les humains sont là pour faire les parties qui ne nécessitent aucune humanité ou dignité, voire même leur enlèvent celles-ci (par exemple avec des tâches répétitives limite "zombifiantes", ou pire en faisant faire aux travailleurs les parties carrément horribles des jobs). GIMP reste évidemment dans l'optique initiale d'aider les humains. Cela aide que ce soit un logiciel communautaire fait par des gens qui créent eux-même avec ce logiciel et ne sont pas là pour promettre une fausse "rentabilité" ou juste faire du hype en s'engouffrant dans des modes, pour remplir les poches d'investisseurs.

    Bon ton commentaire initiale demandait explicitement pour les "IA non-génératifs", mais j'ai utilisé cette opportunité pour aussi expliciter ce point.

    Il y a une volonté d'introduire des outils à base d'IA ?

    Bon déjà, GIMP a des outils d'IA depuis 30 ans. L'IA n'étant pas juste les LLMs ou assimilé, ce que semble avoir oublié le grand public ces dernières années, il y a de nombreux algorithmes qui marchent plutôt bien. Que ce soit en traitement des langues, des couleurs, reconnaissance de formes, de bords, etc. L'IA, ça existait déjà (c'était même ma spécialité en master informatique). Et on a plein de trucs en cours intéressants, dont certains très récents (que ce soit le nouvel algorithme de colorisation implémenté relativement récemment en collaboration avec des chercheurs du CNRS, ou l'outil de sélection par peinture qui est vraiment impressionnant — bien que le code est encore instable et un peu trop lent, ce pourquoi il ne sera pas intégré dans la version 3.0.0 — et ainsi de suite), qui rentrent dans la catégorie "intelligence artificielle".

    Donc oui on a la volonté d'introduire des outils d'IA, et on n'a pas attendu la mode récente pour cela. :-)

    Ensuite si la question est de savoir si on va introduire spécifiquement des outils basés sur les technologies de réseaux de neurones avec d'énorme modèles tels qu'on en voit ces dernières années. Bien entendu, c'est intéressant pour plein d'usage, notamment pour de l'in-painting (correction de "trous" dans des images avec moins à faire manuellement), tout ce qui est en rapport avec la reconnaissance de formes ou de bords, du "up-scaling" qui a l'air de meilleure qualité, etc.

    Ensuite, il y a beaucoup de problématiques à régler:

    • Les droits d'auteur! Je sais que les entreprises à fond dedans vous disent tous qu'il n'y a aucun problème, et peut-être même gagneront-ils des procès dans ce sens (avec leurs armées d'avocats financés par les investisseurs). Mais éthiquement, c'est non. Ces entreprises ont massivement aspiré le web, causant d'ailleurs multitudes de problèmes techniques à tous les particuliers, petits ou moyen entrepreneurs, etc. qui ont des petits serveurs qui sont carrément DDOSés (on a vu pas mal de liens sur Linuxfr à ce sujet aussi, les journaux aussi relaient ces histoires et j'ai suivi des discussions privées parmi les grosses fondations du Libre qui s'inquiétaient de ces problèmes). Bon ça c'est en plus du problème de base qui est l'apprentissage à partir d'œuvres qu'ils n'ont pas le droit d'aspirer et utiliser ainsi. En gros, si on doit avoir cela, je veux que ce soit sur la base d'un vrai modèle libre, qui se base sur des données libres (CC-0 ou domaine public globalement ou bien licence explicitement accordées au projet; même les licences BY et BY-SA sont problématiques dans ce cas d'usage)
    • La taille de ces modèles: alors j'ai l'impression que d'énorme progrès ont été faits dernièrement donc ce sera peut-être à terme plus un problème. Mais au début, il s'agissait en gros de rajouter des GiB de données dans le logiciel!
    • Rien de basé sur une quelconque plateforme en ligne, avec notamment obligation de créer des comptes, donner ses données persos, envoyer ses images par internet et les récupérer, etc. Certains des plug-ins marchaient ainsi, mais oui mais non. Il faut que ça marche en local, sans fuiter les données des gens, et de manière générale, GIMP n'est pas une vitrine pour faire de la pub à divers services propriétaires en ligne.
    • On aimerait aussi éviter les technologies qui soient ciblés pour du hardware particulier. Tous les gros constructeurs de matériel essaient de se faire une place dans les "puces IA" et je sais pas si vous avez remarqué mais ils font tous des démos avec GIMP 3! Par exemple Intel ont créé leur plug-in GIMP (ils en ont même la démo lors de leur keynote de conf en 2023). Ni une ni deux, Qualcomm a contré avec son plug-in GIMP pour lequel ils ont même fait une pub comparative avec le plug-in Intel côte-à-côte. Alors moi perso, si j'intègre une technologie logicielle dans GIMP, j'aimerais m'assurer qu'elle marche de manière le plus neutre possible sur divers matériel de divers constructeurs. Notez bien que c'est peut-être déjà le cas pour ces 2 implémentations (c'est pas clair), et je suppose que je devrai tester pour être sûr. Parce qu'encore une fois, GIMP n'est pas une sorte de vitrine à bas prix pour les entreprises mastodontes du secteur. Notez que nous avons d'ailleurs été contactés par certains des gros fabricants de hardware et je leur ai dit cela assez clairement. S'ils peuvent m'assurer qu'on ne transforme pas GIMP en entrée publicitaire pour leur matos, alors on accepterait avec joie des patchs pour certains trucs intéressants, genre un outil inpainting/patch, etc.
    • Il y a clairement un truc d'éducation à faire pour que les gens comprennent les tenants-et-aboutissants de ces technologies que beaucoup semblent bien trop utiliser comme des "outils magiques" et c'est dangereux. Même si le problème est moins évident qu'avec l'usage où on génère entièrement une image, cela reste souvent de l'IA-génératif, qui crée des données à partir de modèles, et… ça crée vraiment des horreurs. Cherchez un peu sur internet les vidéos et articles montrant des problèmes créés par de l'inpainting ou du super-scaling basés sur les technologies récentes. Entre les visages ajoutés au mauvais endroit, les visages tordus, les aberrations sur les corps ou objets… plein de trucs à donner des cauchemars!
    • Enfin il y a les aspects sociaux (par exemple je ne veux pas de modèles qui ont été créés en torturant mentalement des travailleurs sous-payés sous prétexte que c'est le prix pour le confort des occidentaux; ben non, les autres font ce qu'ils veulent, mais GIMP ne veut pas participer dans ce genre de "business") et écologique. Une majeure partie du "marché de l'IA" actuel est une aberration écologique. Je parle même pas des problèmes déjà existants du marché de l'informatique, mais là on passe carrêment à l'étape supérieure. Genre: le mur approche, accélérons! Et ça on veut pas y participer activement. Tous les gros modèles actuels, tant qu'ils restent dans cette approche actuelle du "all-in" (et on se pose pas trop de questions), on en veut pas.

    Enfin voilà. Il y a clairement plein de questions à se poser et tant qu'on n'a pas les réponses, ce sera sans nous. Mais si on trouve des réponses satisfaisantes à toutes les grosses questions autour de l'IA (enfin ce qu'on appelle "IA" dans les journaux en ce moment), alors ok. Dans tous les cas, on continue très clairement nos recherches autour des technologies d'IA qui n'ont aucun de ces problèmes, comme le projet le fait déjà depuis 30 ans et comme il continuera de le faire pour les nombreuses années à venir. 😄

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: J'ai du mal à aimer Gimp

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP 3.0 RC2 est sorti. Évalué à 6.

    rip l'approche multi fenêtre, cela me manque pas mal

    Uh? Ça existe toujours. Rien n'a été retiré.

    À terme, on veut virer la dualité de 2 modes mono/multi-fenêtre, mais parce qu'on veut simplement un unique mode bien plus puissant, qui puissent faire tout ce que font ces 2 modes… et plus!

    Typiquement pourquoi ne peut-on pas décrocher des onglets d'images en mode simple-fenêtre?

    Enfin bon, aucune fonctionnalité n'a disparu, et rien n'est planifié dans ce sens. Au contraire!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Se voir samedi?

    Posté par  (site web personnel, Mastodon) . En réponse au journal GIMP et ZeMarmot au FOSDEM 2025! Et avec une keynote!. Évalué à 3.

    Ah bah c'est malin. C'est pas vraiment comme si je me focalisais sur les autocollants des gens dans la salle! 😛

    Surtout que j'ai vu ce commentaire de devnewton seulement dimanche soir ou lundi (je sais plus, mais en tous cas, après mes confs), donc j'allais encore moins chercher les autocollants sur les ordinateurs!

    Sinon y a quelqu'un de LinuxFr qui est passé me faire un coucou. C'était plutôt cool. Par contre, avec le brouhaha et les plusieurs personnes qui sont venus me parler, je dois avouer ne pas avoir bien compris le pseudo et ne pas avoir osé demander de répéter 😅. C'était l'un de vous deux? Sinon si tu me lis, cher linuxfrien qui est venu me parler, rappelle moi qui tu étais (et désolé de pas avoir bien compris/me souvenir)! :-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: XMPP

    Posté par  (site web personnel, Mastodon) . En réponse au journal GIMP et ZeMarmot au FOSDEM 2025! Et avec une keynote!. Évalué à 3.

    En fait je suis passé au stand XMPP samedi en fin de matinée (je sais pas si c'est celui cela dont tu parles, mais sûrement parce que j'ai pas vu de salle spécial XMPP dans le programme; donc y avait que ce stand, je suppose?). Y avait juste une ou 2 personnes, mais il me semble que je ne les connaissais pas, et ils étaient en pleine discussion. Je me voyais pas me mettre au milieu juste pour dire "salut, je suis un ancien". Donc au final je suis juste parti. :-/

    La XSF organise encore des réunions au FOSDEM? En fait, la raison pour laquelle j'étais allé au FOSDEM y a longtemps (ce que je mentionne dans ce journal), c'était pour la réunion XSF annuelle. À l'époque, la XSF louait des chambres à l'hôtel, et on avait une salle de réunion pour discuter de sujets sur le protocole. Ça existe toujours? Je serais bien passé faire un coucou, mais j'ai aucune idée où avoir les infos du programme spécial XMPP/XSF.

    Je serais bien passé saluer Peter aussi, s'il était là.

    Sinon j'ai aussi voulu passer à ta conf de samedi, mais ce fut un peu compliqué et en plus j'étais épuisé dès le premier jour.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Se voir samedi?

    Posté par  (site web personnel, Mastodon) . En réponse au journal GIMP et ZeMarmot au FOSDEM 2025! Et avec une keynote!. Évalué à 4.

    Argh désolé, on est arrivé hier, et j'ai pas trop eu le temps de lire linuxfr entre deux. J'étais au FOSDEM tout à l'heure, mais je me suis échappé dans un café (10 min à pieds, y a pas grand chose dans le coin, et le peu qu'il y a est plein!). Il y a tellement de monde!!! C'est fou. Faut pas être agoraphobe! Enfin bon, j'y retourne tout à l'heure, mais il semble qu'on se soit manqué si tu as un train de 30 min.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]