Journal Recrudescence de contributions générées par IA

Posté par  . Licence CC By‑SA.
24
25
fév.
2026

Ça fait longtemps qu'on a pas parlé d'IA générative ici. Ça manquerait presque.

Je suis en train de découvrir une nouvelle tendance. Des profils GitHub qui envoient des dizaines de pull-requests en une journée, générées par IA.

Dans le pire des cas, c'est à peine relu, à peine compris, ça prétend clore une issue en proposant une solution qui contredit la discussion qui avait abouti à une autre proposition. Parfois l'envoyeur ferme la PR de lui-même parce que le CI passe pas et il a la flemme de corriger.

Parfois, la PR est acceptée. À l'inverse, certains projets refusent d'office en application de leur politique IA. Un mainteneur a même créé un tag "ai-slop" pour l'occasion.

Je suppose que les "auteurs" cherchent à obtenir des contributions à peu de frais, probablement pour gonfler leur profil.

C'est peut-être pas nouveau, mais je titre "recrudescence" parce que je viens de recevoir des PR de trois sources différentes en quelques jours. Je sais pas si ça va durer. Et je me demande si c'est une coïncidence ou si c'est lié à une nouvelle fonctionnalité d'une IA.

Si ça vous parle, je veux bien des détails dans les commentaires. Dans l'une des PR citées au-dessus, le commentaire initial indique

🤖 Generated with Claude Code

Ça m'inquiète un peu, parce que pour un mainteneur, valider des PR, c'est du boulot, plutôt ingrat, et ces PRs rajoutent pas mal de bruit, c'est presque du spam, et ça risque de rendre la tâche de maintenance encore plus ingrate, voire démotivante.

Mais certaines contributions ont un peu bousculé mes certitudes. Je suis très sceptique quant à l'utilisation de l'IA générative pour faire du code propre, mais dans certains cas, l'IA a identifié des petits problèmes qui ne l'avaient pas encore étés, et a proposé un fix d'une ligne ou deux qui était bon. Autant je trouve ça naze d'utiliser l'IA pour pisser un code qui sera aussi compliqué à vérifier qu'à écrire, autant pour détecter des problèmes ça peut être intéressant, parce qu'il y a une validation humaine derrière et ça me semble générer moins de problèmes de propriété intellectuelle si on s'arrête à la détection ou si le fix est minime.

Ça m'embête si les noobs se mettent à générer du spam dans les dépôts grâce à l'IA, mais si à la fin ces spammeurs se mettent à produire du contenu utile…

Titre de l'image

  • # Github

    Posté par  (site web personnel, Mastodon) . Évalué à 10 (+26/-1).

    Qu'est-ce que vous faites encore sur Github? Ça fait plusieurs années que ce site a changé de but hour promouvoir les LLM et la génération de code automatique.

    Ce qui se met en place est exactement ce qui a été annoncé. D'autres forges logicielles sont moins concernées par ce virage (Gitlab) ou pas du tout.

    La mort de Github pour l'hébergement de projets libres était inévitable. Comme Sourceforge avant lui. Comme Google Code Project Hosting. Comme Berlios, Codehaus, et sûrement tout plein d'autres.

    Allez confier votre code au prochain challenger, en sachant déjà qu'il faudra prévoir une nouvelle migration dans quelques années, ou bien auto hébergez vous.

  • # OpenClaw

    Posté par  . Évalué à 5 (+3/-0).

    Je me demande si c'est une coïncidence ou si c'est lié à une nouvelle fonctionnalité d'une IA.

    Un co-mainteneur me souffle qu'il s'agirait d'OpenClaw.

    • [^] # Re: OpenClaw

      Posté par  (site web personnel, Mastodon) . Évalué à 4 (+2/-0).

      OpenClaw est un assistant personnel IA autonome et open source créé par Peter Steinberger. Il tourne sur ta propre machine (Mac, Windows ou Linux) et peut exécuter de vraies tâches : gérer des fichiers, contrôler le navigateur, envoyer des messages et automatiser des workflows sur des apps comme WhatsApp, Telegram, Discord, Slack, Signal et iMessage.

      Ça fait un peu peur…

      • [^] # Re: OpenClaw

        Posté par  . Évalué à 7 (+5/-0).

        Grave.

        Je l'utilise que pour gérer les impôts, ProNote et Tinder.

        Le code, je le fais moi-même.

      • [^] # Re: OpenClaw

        Posté par  . Évalué à 3 (+1/-0).

        ça veut dire quoi "gérer des fichiers", "contrôler le navigateur" lol

        • [^] # Re: OpenClaw

          Posté par  (Mastodon) . Évalué à 2 (+1/-0).

          J'imagine que "gérer les fichiers" signifie pouvoir en créer, modifier et supprimer sur le système de fichier (en tout cas les parties où on l'y a autorisé).

          Et "contrôler le navigateur", je suppose que ça fait un peu comme ce qu'on fait avec Selenium

          • [^] # Re: OpenClaw

            Posté par  (Mastodon) . Évalué à 3 (+4/-4). Dernière modification le 27 février 2026 à 07:40.

            Ça s'appelle des Agents IA. Je commence à jouer avec ça et c'est très intéressant.

            En gros, quand on demande à chatGPT un bout de code, il nous répond avec du blabla, et avec du code bien formaté dans la page du site web. L'idée c'est d'utiliser un formalisme (MCP) pour les entrées et sorties, au lieu du texte brut. C'est en gros un JSON dans lequel tu trouveras le prompt (donc le texte brut de ta requête, tout pareil) mais aussi d'autres entrées nécessaires (un fichier joint par exemple).

            La sortie aussi est formatée en JSON avec dedans du blabla de réponse, mais aussi des fichiers et des actions.

            Un outil saura donc prendre ce JSON et faire ce qui est dit dedans : Claude Code est un bon exemple (il marche avec le LLM Claude mais peut très bien tourner en local avec ollama : c'est l'objet de mes expérimentations).

            Au final tu peux laisser faire le LLM, il va coder, compiler, tester, corriger etc.

            L'idée étant même d'avoir des agents distincts (ça limite la taille de la fenêtre de contexte) pour chaque tâche (et pourquoi pas utiliser des LLM différents, chacun sa spécialité).

            En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

            • [^] # Re: OpenClaw

              Posté par  (site web personnel) . Évalué à 7 (+5/-1).

              MCP c'est aussi le Master Control Program de Tron.

              Sinon, c'est aussi une spécification sont je trouve la présentation comme la documentation incompréhensible. C'est quelque chose que je trouve de plus en plus fréquemment, des concepts techniques avec une présentation bullshit et une documentation conçue pour je ne sais qui, mais manifestement pas pour moi.

              Même impression avec OpenTelemetry d'ailleurs.

              • [^] # Re: OpenClaw

                Posté par  (site web personnel, Mastodon) . Évalué à 10 (+8/-0).

                C'est quelque chose que je trouve de plus en plus fréquemment, des concepts techniques avec une présentation bullshit et une documentation conçue pour je ne sais qui, mais manifestement pas pour moi.

                Tu as besoin de l'aide d'un LLM pour comprendre comment ça marche.
                Tu croyais pas que les vendeurs de LLM allaient faire en sorte que les humains puissent s'en sortir sans acheter le seul truc qu'ils ont à vendre?

            • [^] # Re: OpenClaw

              Posté par  . Évalué à 6 (+4/-0).

              Ça pourrait déjà s'améliorer si l'agent lisait les PR existantes et les issues qu'il prétend résoudre.

              On a encore eu trois PR aujourd'hui qui sont plus ou moins des copies de PR en cours ou d'un PR fermée parce que l'issue conclut que le comportement actuel est bon (mais qu'on pourrait mettre un commentaire dans le code).

              Le LLM est bon (il fait du code, des tests, etc.) mais il est con (il lit pas toutes les infos à disposition).

              Et l'utilisateur est égoïste et un peu con aussi. Il est clairement piloté par ses stats.

              (Le fameux "quand un indicateur devient un objectif, il cesse d'être un bon indicateur.)

  • # J'ai eu un problème similaire avec le Frido (livre de math)

    Posté par  (site web personnel) . Évalué à 10 (+18/-0).

    le Frido est un livre de math libre que j'écris. Il y a beaucoup de choses, mais pas mal de théorèmes encore sans démonstration.

    Il y a quelques semaines, quelqu'un m'a envoyé une "contribution" qui consiste à avoir copié-collé un énoncé sans démonstration dans Claude.

    https://github.com/LaurentClaessens/mazhe/issues/269

    La réponse de Claude est que l'énoncé était faux. Et effectivement, il était faux. Facile à vérifier, corrigé. Merci, une faute en moins :)

    Ensuite, en l'espace de 2 heures, il m'a balancé les démonstrations de 4 théorème :

    https://github.com/LaurentClaessens/mazhe/issues/271
    https://github.com/LaurentClaessens/mazhe/issues/273
    https://github.com/LaurentClaessens/mazhe/issues/272
    https://github.com/LaurentClaessens/mazhe/issues/270

    J'avoue n'avoir pas lu. Je crois que le "contributeur" est de bonne foi et croit réellement aider. Mais, comme j'ai tenté d'expliquer, en réalité ça n'aide pas du tout.

    À la fin, je ne sais pas qu'en penser.

    D'une part, je ne peux pas dire que je ne veux pas de preuves générées par IA, parce que moi-même j'utilise souvent chatGPT pour produire des démonstrations que je ne trouve pas sur internet.

    Mais d'autre part, je veux que le contributeur me dise au moins "j'ai le niveau, je suis capable de comprendre la démonstration, je l'ai lue et elle est correcte".

    Or j'ai du mal à croire qu'on puisse vraiment lire une démonstration et s'assurer qu'elle est correcte sans la re-rédiger soi-même.

    Du coup je préfère quand même lire des textes rédigés par des humains.

    • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

      Posté par  (site web personnel, Mastodon) . Évalué à 10 (+21/-8).

      Bon je veux pas être méchant mais en commençant à utiliser les LLMs, tu as toi-même donné le bâton pour te faire battre. Je fais partie de ces gens qui aiment beaucoup tes dépêches régulières sur le Frido, et je dois t'avouer avoir été extrêmement déçu dans les dernières versions, quand j'ai vu que tu as commencé à recourir aux LLMs. Pour moi, ton œuvre (magnifique, par ailleurs! J'oserais même dire extraordinaire! Parce que de la connaissance libre à ce niveau, c'est beau!) a perdu énormément de sa valeur d'un coup. 😔

      Ensuite, ce que tu dis toi-même dans ton lien d'explication est complètement vrai. Taper un "prompt" 🙄 dans un LLM et copier-coller une réponse bidon, ça n'a aucune valeur si tu n'as pas relu, compris et validé "chaque virgule", et bien sûr fais le lien avec les autres énoncés du Frido. Ce pourquoi c'est d'après moi juste ridicule d'utiliser un LLM pour commencer, puisque ce sera souvent faux, ou pire: ce sera faux mais aura l'air d'être vrai si on n'est pas extrêmement attentif (bien plus attentif qu'on ne devrait l'être si on devait tout écrire soi-même); et dans tous les cas, on perdra énormément de temps à arriver à l'une ou l'autre des conclusions possibles. Quand je vois que les moteurs de recherche se mettent maintenant à faire des requêtes LLMs sans qu'on demande rien, et parfois je regarde. Très régulièrement, ce que le LLM sort est juste complètement faux (et souvent quand je clique sur le lien qui est indiqué comme étant la source du "résumé IA", ça dit l'inverse que ce que disait l'IA), mais ça le dit avec un tel aplomb! 🤦

      La réponse du quidam à ton message est d'ailleurs assez symptomatique des gens qui utilisent ces outils (par paresse intellectuelle d'après moi). En gros, il commence avec une tournure de phrase pour te faire culpabiliser ("C'était pour te rendre service"). Puis il essaie de te faire passer pour un con, avec une fausse tournure "gentille", mais en fait plutôt insultante quand tu y regardes de près ("Mais si tu préfères avoir des points en suspens, imprécis ou faux, aucun souci!"). Genre qui préfère avoir des points faux? Personne. Ce qu'il te dit donc, c'est que t'es débile de refuser l'aide de la toute puissante IA qui a forcément raison et que c'est tant pis pour ta gueule si ton bouquin a des erreurs à cause de ta reluctance.

      Enfin voilà, on va pas refaire la discussion que j'ai déjà eu 10 fois sur ce site, mais pour moi, ces LLMs, c'est la nouvelle apogée de la médiocrité.

      On en a régulièrement des gens comme ça dans notre dépôt (pour GIMP). Parfois on a des artistes qui vont lire une connerie sur ChatGPT (ou autre LLMs) sur un algorithme ou un sujet dans la théorie des couleurs (qui est aussi un truc super complexe avec certains sujets où on doit se tordre le cerveau pour essayer de comprendre et visualiser certains trucs… enfin je vais pas t'apprendre ce qu'est un sujet difficile! Toi tu fais des maths à un niveau où j'essaie même pas!) et vont donc venir argumenter sans se poser la moindre question avec un contributeur hyper calé sur le sujet et qui étudie, recherche et expérimente au quotidien les théories relatives aux couleurs depuis 30 ans! Ces gens vont parfois soutenir mordicus des trucs faux, qu'on connaît par cœur, sur un sujet dont ils ne comprennent pas le début du commencement, parce que "ChatGPT me l'a dit".

      Enfin voilà. Pour nous, c'est assez simple, puisqu'on a une politique stricte de refus de toutes contributions générées par ces systèmes de genAI. Que ce soit du code, comme du texte, des images ou autre chose, d'ailleurs! Donc dès qu'on a une telle contribution, maintenant on ne réfléchit même pas. On explique (calmement et poliment, mais succinctement, sans perdre plus de temps) que les contributions genAI ne sont pas acceptées, mais que s'ils veulent reproposer un patch qu'ils ont fait eux-même, avec leurs petites mimines et leurs propres méninges, on se fera un plaisir d'en faire la revue (spoiler: ça arrive presque jamais! Les gens qui font ce type de "contributions" semblent pour la plupart avoir abandonné l'usage de leur cerveau depuis longtemps et ne veulent plus que des contributions faciles pour remplir leur CV).
      Ajoute à cela qu'on n'est pas sur Github, source de tant de maux, on a donc finalement relativement peu de contributions de paresseux qui font du copier-coller de LLMs (on en a quand même régulièrement — ne rêvons pas — mais quand je lis l'horreur que vivent les projets sur Github, il est évident qu'on est épargné et que la source principale de ces anti-contributions, c'est Github et son écosystème). Je rejoins donc pulkomandy plus haut quand il enjoint autrui à quitter Github, et aussi quand il conseille de ne pas faire l'erreur d'aller sur la nouvelle forge à la mode à un moment T. Il n'est pas forcément nécessaire de s'auto-héberger, mais rejoindre un groupe de projet avec des atomes crochus marche très bien!

      Enfin voilà, perso ma suggestion est de ne pas tomber dans la facilité des LLMs qui sont simplement médiocres. Les utiliser toi-même (même, et surtout, sur des sujets autres qui ne sont pas ta spécialité! On lit trop souvent des argumentaires "c'est mauvais dans ma zone d'expertise mais j'utilise là où j'y connais rien" au sujet des LLMs, ce qui est un bel exemple d'œillères intellectuelles qu'on s'applique; tout en validant une technologie nocive, créant ainsi des problèmes pour les autres de cette zone d'expertise), tu as déjà fait le premier pas vers la facilité, et c'est vraiment dommage étant donné ton niveau d'implication, mais aussi ton niveau technique. Et puis c'est donner raison à leurs créateurs malgré tous les problèmes connus de ces technologies (qu'on ne va pas re-lister ici!).
      À mes yeux, ton œuvre est très belle, et elle a bien plus de valeur sans jamais utiliser de LLMs. Il y a des manques ou des questionnements sur certains sujets ou théorèmes? Et alors! C'est pas comme si tu allais révolutionner les maths (et sûrement pas comme si le moindre LLM avait cette capacité d'ailleurs), et ce n'est pas ton objectif, il me semble. Tu fais clairement de la qualité, et c'est ça qui importe. L'imperfection et les erreurs (humaines) font partie du chemin.
      Et une fois que tu auras décidé cela pour toi, il sera aussi très simple de couper court à ce genre de discussions que tu nous montres, et de leur dire juste "Les preuves données par de la genAI ne sont pas acceptées". Parce que perdre ton temps à argumenter avec ces faux contributeurs, c'est juste nul. Tu le dis toi-même dans tes commentaires: ce gars a passé 30 secondes selon ses dires, mais pour toi, ce serait un mois de travail (pour peut-être en arriver à la conclusion que ce n'est pas utilisable). Cela en vaut-il vraiment le coup? Coupe court et ne perd plus ton temps (ni ta patience et ta passion; car ce genre de contributeurs, ce sont des tueurs de passion).

      Bon on pourra me rétorquer que je fais la même chose avec toi, à essayer d'argumenter alors que tu as clairement déjà décidé d'utiliser des LLMs de ton côté. Pour mon excuse, c'est que j'ai l'infime espoir de pouvoir te faire un peu réfléchir sur cette technologie car il est évident que tu réfléchis clairement plus que l'usager moyen de LLMs. Et aussi comme je disais, j'avais été extrêmement déçu de lire ton passage à la genAI car je tenais ton œuvre en grand respect. Donc bon… qui sait… peut-être y réfléchiras-tu un peu plus et changeras d'avis?… 😅

      Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

      • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

        Posté par  (site web personnel) . Évalué à 10 (+15/-0).

        Ce pourquoi c'est d'après moi juste ridicule d'utiliser un LLM pour commencer, puisque ce sera souvent faux, ou pire: ce sera faux mais aura l'air d'être vrai si on n'est pas extrêmement attentif (bien plus attentif qu'on ne devrait l'être si on devait tout écrire soi-même); et dans tous les cas, on perdra énormément de temps à arriver à l'une ou l'autre des conclusions possibles.

        Dans le cas très particulier des démonstrations mathématique, les réponses de chatGPT ne sont pas souvent fausses. Par contre, c'est vrai que quand elle est fausse, c'est presque toujours subtil, et l'erreur ruine généralement l'ensemble de la preuve.

        C'est pourquoi je préfère toujours trouver une démonstration dans un cours publié par un humain.

        MAIS MAIS MAIS MAIS MAIS …

        Aussi incroyable que cela puisse paraître, il y a des trucs en math qu'on ne trouve pas sur internet. Un des plus gros pavé généré par LLM dans le Frido est toute la partie pour démontrer le théorème de Cauchy-Lipsitz analytique. À ma connaissance, le seul endroit sur internet où on donne la définition d'une application analytique entre espaces de Banach est ce document.

        Et ce n'est pas faute d'avoir demandé à des humains:

        https://math.stackexchange.com/questions/5113042/analytic-picard-lindel%c3%b6f-theorem
        https://math.stackexchange.com/questions/5101596/analytic-picard-lindel%c3%b6f-theorem

        (zéro réponses, mais les commentaires m'ont convaincu de passer par l'holomorphie, et y'avait encore pas mal de boulot)

        tu as déjà fait le premier pas vers la facilité, et c'est vraiment dommage étant donné ton niveau d'implication,

        Demander à un LLM n'est pas la facilité. Les démonstrations données dans les cours publiés par les profs sont toujours plus faciles à exploiter que celles données par les LLM—il y a plusieurs raisons à cela, et le fait qu'il y ait moins d'erreurs n'en est pas la principale.

        Si les mathématiciens passaient un peu moins de temps à écrire le millième livre "Introduction à l'algèbre linéaire" publié chez un éditeur privateur (qui imprimera 500 exemplaires avant de le remplacer par le livre suivant exactement identique), et un peu plus de temps à publier des notes de cours bien faites, je ne serais pas réduit à demander à des LLM.

        En attendant je reprécise mon flux :

        1. j'ai une preuve sur mon écran (pdf, blog, mathoverflow et LLM)
        2. je rédige une preuve complète sur ma feuille de brouillon (à la main, au crayon)
        3. je retranscrit la preuve en LaTeX.

        Prétendre que ce flux génère plus d'erreurs en partant d'un LLM que d'ailleurs est une hypothèse possible, mais elle doit être vérifiée empiriquement.

        Pour l'instant l'erratum ne contient pas de fautes générées par l'IA.

        Si quelqu'un veut aider à prouver le point de la médiocrité des LLM, il suffit de chercher les preuves dont les références contiennent un de ces trois :

        • BIBooMistral
        • BIBChatGPT
        • BIBChatGPTDifficile

        Et puis il faudra montrer que la densité de fautes parmi ces résultats est plus importante que parmi les autres.

        Mode d'emploi: ag BIBChatGPT retourne des lignes comme:

        \begin{proposition}[\cite{BIBooGIDYooKaacXf,BIBChatGPT}]    \label{PROPooYTMYooEYxuQc}
        

        Ensuite il suffit de faire une recherche du label (PROPooYTMYooEYxuQc) dans le pdf pour trouver le résultat à vérifier.

      • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

        Posté par  (site web personnel) . Évalué à 8 (+7/-1). Dernière modification le 26 février 2026 à 15:00.

        Je voudrais contrebalancer la réponse de Jehan.

        Je n'aime pas cette idée d'essayer de convaincre les développeurs ou les créateurs de ne pas utiliser d'agents IA ou d'IA génératives (et plus généralement, de travailler comme ceci ou comme cela), ou même de les culpabiliser (même indirectement), s'ils le font.
        L'utilisation de ces outils relève d'un choix personnel et le développeur d'un projet libre est toujours le mieux placé pour savoir si ces outils sont adéquats pour lui et son projet.

        Cela dit, cela ne date pas de l'arrivée des IAs. Les développeurs de LL le savent : il y a toujours eu des donneurs de leçons extérieurs aux projets qui viennent expliquer qu'il faudrait faire plutôt comme ci, surtout pas comme ça, etc. et 99.9999% du temps, c'est du bullshit (ou quand on leur demande de proposer un PR, y a plus personne). Du coup, pas vraiment plus pertinent que les PRs générés par des IAs…

        Les agents IA sont des outils, avec certes pas mal de défauts, mais aussi des qualités, et ce n'est plus à démontrer que pour certaines tâches ils peuvent être très utiles/performants et faire gagner du temps au développeurs/créateurs pour peu qu'on prenne le temps de vérifier ce qui est généré (ce temps de relecture est effectivement parfois plus court que de réaliser la tâche soi-même à partir de zéro).

        Bref, ce n'est pas si simple.

        En particulier, tous les projets ne sont pas les mêmes (en taille, en nombre de contributeurs, en objectifs, etc.) : Les projets libres sont suffisamment divers (et la façon de travailler de leurs développeurs aussi), pour ne pas pouvoir prétendre connaitre "la bonne façon de travailler" et donner ce genre de leçons.

        Chacun choisit sa méthode, et si quelqu'un trouve son compte dans l'utilisation de agents IA, ma foi, pourquoi pas ? L'important au final, c'est que les projets libres avancent dans le sens que leur créateur souhaite.

        Bref, si toi, Laurent, tu penses que les IA conversationnels permettent d'enrichir la rédaction du Frido, tu as probablement raison : étant donné ce que tu as déjà produit sur ce projet, je pense qu'on peut totalement te faire confiance sur la méthode de travail que tu as choisi d'appliquer.
        Bravo à toi pour ce beau travail en tout cas.

        Pour en revenir aux PRs générés par IA : je vois ça un peu comme le tri des spams avec les mails. C'est certes un peu pénible, mais on finit quand même par pouvoir gérer ça avec les outils ou heuristiques adéquates. Ca ne m'inquiète pas plus que ça.

        • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

          Posté par  . Évalué à 10 (+11/-3). Dernière modification le 26 février 2026 à 17:49.

          Chacun choisit sa méthode, et si quelqu'un trouve son compte dans l'utilisation de agents IA, ma foi, pourquoi pas

          Parce que cela est extrêmement energivore et destructeur de l'environnement ?

          Toutes les méthodes ne se valent pas.

          Analogie un peu naze (comme toutes les analogies ?), pour monter en haut d'une montagne, des peaux de phoques, un télé-siège, une moto-neige et un hélicoptère ne sont pas équivalents.

          • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

            Posté par  (site web personnel) . Évalué à 2 (+5/-5).

            Parce que cela est extrêmement energivore et destructeur de l'environnement ?

            Il serait intellectuellement assez malhonnête (ou simpliste) d'affirmer qu'écrire quelques requêtes à Claude ou ChatGPT de temps en temps fait de l'utilisateur quelqu'un qui détruit l'environnement. Je n'imagine pas qu'un développeur de projet open-source en ait une utilisation à ce point abusive.

            On peut rester raisonnable dans l'utilisation de ces agents IA, et avoir un bilan carbone individuel correct (bien moins élevé que certains ne les utilisant pas, mais qui prennent l'avion 2 ou 3 fois par mois pour faire des vols A/R dans la journée, pour le travail par exemple). Calculer un bilan carbone se fait en prenant en compte l'ensemble des usages de chacun. Ce n'est pas trivial, ni à réaliser, ni à analyser.

            Après, s'accorder sur le fait que les sociétés qui entrainent ces gros modèles d'IA devraient avoir le droit de le faire ou pas, pour des raisons écologiques, c'est une autre histoire, qui dépasse largement le sujet initial de ce journal. Ne mélangeons pas tout, et ne rejettons pas la faute sur les utilisateurs occasionnels de ces agents IA. Le vrai problème écologique n'est pas vraiment dû à l'inférence de ces réseaux (leur entrainement est largement plus énergivore, à des ordres de grandeurs autrement plus grand que leur inférence).

            Pour reprendre ton analogie : on peut-être OK avec le fait de monter au sommet d'une montage en hélicoptère, si cela permet de gagner du temps et de sauver par exemple quelqu'un enseveli sous une avalanche. Le contexte de l'objectif est à prendre en compte pour mesurer si le rapport 'coût écologique / utilité de l'action' est favorable ou pas.

            • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

              Posté par  . Évalué à 1 (+4/-5).

              Je suis globalement d'accord avec tout ce que tu dis, mais je ne vois pas le lien avec ce que j'ai dis.

              Tu poses littéralement la question de pourquoi ne pas utiliser l'ia, je donne une réponse.

              La question n'était pas le bilan carbone mais de savoir s'il y a une bonne raison d'éviter l'ia.

              On peut changer de débat si tu le souhaites je préfère que ça soit explicite.

              Ou peut-être je t'ai mal compris ?
              Penses-tu qu'il n'y a pas de bonne raion d'éviter l'ia, et si oui en quoi ce que tu écris est en lien avec cette question ?

              • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                Posté par  (site web personnel) . Évalué à 0 (+2/-5).

                Dis autrement : L'IA n'est pas extrêmement énergivore et destructeur de l'environnement.

                En gros, tu évites un seul trajet en voiture et tu as compensé l'usage de l'IA annuel.

                "La première sécurité est la liberté"

                • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                  Posté par  (site web personnel) . Évalué à 10 (+8/-0).

                  Sauf que les requêtes sont de plus en plus nombreux et de plus en plus complexes donc la pénalité environnementale globale augmente à mesure que cela est utilisé.

                  Ce n'est pas le fait qu'une personne fasse un trajet en voiture pour acheter du pain alors que la boulangerie est à 100 m qui pose un gros problème. Mais quand tout le monde le fait, ce n'est pas le même délire. Et si en plus on allonge la distance et le nombre de trajets par jour, ça n'ira pas mieux loin de là.

                  On ne peut pas balayer cela d'un revers de la main et cela se voit par les commandes de cartes et d'énergie nécessaires pour les alimenter.

              • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                Posté par  (site web personnel) . Évalué à 0 (+2/-4).

                Pour répondre plus simplement, le problème de ton raisonnement, consistant à affirmer :

                Parce que cela est extrêmement energivore et destructeur de l'environnement ?

                c'est que ça ne prend pas en compte la notion d'utilité de l'action, mais seulement son coût environnemental en valeur absolue, qu'on serait censé devoir absolument minimiser. C'est un raisonnement fallacieux. C'est le coût environnemental relatif au bénéfice de l'action qu'il faut considérer, car sinon tu en arrives à des conclusions du type :

                • Une requête à un agent IA est énergivore → N'utilisons pas les agents IA, pour préserver l'environnement.
                • Laisser son ordinateur allumé est énergivore → Eteignons tous les ordinateurs, pour préserver l'environnement
                • Prendre l'avion est énergivore → Supprimons tous les vols en avion, pour préserver l'environnement
                • Manger de la viande est énergivore → Arrêtons d'élever des animaux, pour préserver l'environnement
                • Produire de l'électricité est énergivore → Arrêtons les centrales nucléaires, pour préserver l'environnement

                Tu comprends bien qu'en cherchant à minimiser le coût environnemental à tout prix, on en arriver facilement à la conclusion que, pour un humain, juste vivre est tellement énergivore et destructeur d'environnement que la solution la plus naturelle serait d'éradiquer tous les humains sur Terre. Alors oui, ça résoudrait probablement le problème du réchauffement climatique, mais bon… Ca ne me parait pas être une bonne solution.

                Pour revenir sur l'utilisation d'agents IA : Il m'est arrivé, pour mon propre projet open-source que je détecte un jour un bug en estimant très sincèrement que ça allait me prendre une bonne journée de travail pour corriger ce bug. C'était un bug impliquant un code vieux de 15 ans sur un algorithme de décomposition matricielle que je ne maitrise plus aujourd'hui. Juste par curiosité, j'ai soumis le bug à Claude.ai, qui m'a trouvé le bug en 3 minutes. Devine quoi : j'ai pu corriger, éteindre mon ordinateur et aller randonner le reste de la journée. Dans ce cas, il est évident que cette requête a été positive, non seulement pour moi, mais aussi pour l'environnement !

                • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                  Posté par  (site web personnel) . Évalué à 2 (+3/-3).

                  la plus naturelle serait d'éradiquer tous les humains sur Terre.

                  Exterminer l'espèce humaine ? C'est une idée géniale, c'est génial. Mais c'est un projet à long terme, il faut d'abord se fixer des objectifs un peu moins éloignés. [Ref]

                  Ceci étant dit (ou écrit), limiter l'informatique, l'avion et la nourriture carné est probablement incontournable si on veut que nos enfant jouissent d'une habitabilité planétaire comparable à la notre. (Ha on me souffle dans l’oreillette que l'essentiel des gens s'en foutent.)

                  Adhérer à l'April, ça vous tente ?

                • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                  Posté par  . Évalué à 4 (+3/-1).

                  c'est que ça ne prend pas en compte la notion d'utilité de l'action, mais seulement son coût environnemental en valeur absolue, qu'on serait censé devoir absolument minimiser. C'est un raisonnement fallacieux. C'est le coût environnemental relatif au bénéfice de l'action qu'il faut considérer

                  Je suis globalemeot d'accord avec toi, même si je trouve que tu déformes mes propos en omettant une partie de ma phrase ("extrêmement") et son contexte (c'était une réponse à quelqu'un qui dit "chacun sa méthode, pourquoi pas l'ia").

                  Dire "il y a de bonnes raisons de ne pas utiliser l'ia" n'est pas la même chose que dire "il n'y a pas de bonnes raisons d'utiliser l'ia".

                  Je pense qu'il y a de bonnes raisons de ne pas utiliser l'avion, de moins utiliser son ordinateur et surtout de le garder plus longtemps, de ne pas manger de viande, de consommer moins d'electricité, etc.

                  Quelqu'un qui dirait "chacun se déplace comme il veut, et si tu veux utiliser un jet privé pour partir en week-end, ma foi, pourquoi pas.", ça ne te ferait pas réagir ?

                  Tu comprends bien qu'en cherchant à minimiser le coût environnemental à tout prix

                  On est d'accord que ce n'est pas ce que j'ai dit ?

                  on en arriver facilement à la conclusion que, pour un humain, juste vivre est tellement énergivore et destructeur d'environnement que la solution la plus naturelle serait d'éradiquer tous les humains sur Terre.

                  Je ne suis pas d'accord, je pense qu'il est possible que des humains vivent sur Terre sans que cela soit extrêmement energivore et destructeur de l'environnement. Il me semble que cela a été le cas pendant plusieurs millénaires ?

                  Dans ce cas, il est évident que cette requête a été positive, non seulement pour moi, mais aussi pour l'environnement !

                  Ça ne semble pas évident. Je suppose que tu es allé randonner en partant de chez toi à pied ou à vélo, mais même dans ce cas, comment calcules-tu l'impact ?

            • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

              Posté par  . Évalué à 10 (+12/-1).

              Il serait intellectuellement assez malhonnête (ou simpliste) d'affirmer qu'écrire quelques requêtes à Claude ou ChatGPT de temps en temps fait de l'utilisateur quelqu'un qui détruit l'environnement. Je n'imagine pas qu'un développeur de projet open-source en ait une utilisation à ce point abusive.

              Alors là on est en plein dans le 'on fait moins de 1%' que pas mal de gens utilisent pour continuer comme aujourd'hui,

              De même la comparaison avec un autre, c'est gratifiant, mais ça ne nous empêchera pas d'aller dans le mur.

              Le vrai problème écologique n'est pas vraiment dû à l'inférence de ces réseaux (leur entrainement est largement plus énergivore, à des ordres de grandeurs autrement plus grand que leur inférence).

              Non c'est le même, en utilisant le modèle tu valide son entrainement; un peu comme si tu prenais la voiture tous les jours pour aller chercher du pain tu valide son achat et sa construction, même si sa construction pollue bien plus que ton usage pour aller chercher le pain.

              Il ne faut pas décorner les boeufs avant d'avoir semé le vent

              • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                Posté par  (site web personnel) . Évalué à -3 (+2/-8).

                L'entrainement d'un modèle consomme l'équivalent d'un vol transatlantique. Il y a 100 vol par jour.

                "La première sécurité est la liberté"

                • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                  Posté par  (site web personnel) . Évalué à 7 (+6/-1).

                  Ça tombe bien ; faudrait aussi réduire fortement l'avion.

                • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                  Posté par  (site web personnel) . Évalué à 9 (+7/-1).

                  C'est comme dire "compiler le noyau Linux consomme X Watt.heures".

                  C'est factuellement vrai, mais ça passe outre qu'ils le font en parallèle et en continue pour poursuivre le développement et que des dizaines d'entreprises font cela aussi. Ne prendre en compte que l'entrainement du modèle en production c'est passer à côté du problème.

                  C'est quand même bizarre que les grandes structures qui avaient des objectifs de neutralité carbone ont remis en cause leur trajectoire d'émission baissière depuis l'arrivée de l'IA générative alors que ces boîtes étaient déjà de gros consommateurs d'énergie. Si cela avait si peu d'impact, cela n'aurait pas remis en question ces trajectoires.

                  • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                    Posté par  (site web personnel) . Évalué à -3 (+1/-7).

                    Corrélation n'entraine pas causalité. Je n'aurai pas cru l'écrire sur linuxfr.

                    Peux-être que l'agent Orange est une cause non improbable également.

                    "La première sécurité est la liberté"

                    • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                      Posté par  (site web personnel) . Évalué à 10 (+8/-0).

                      Corrélation n'entraine pas causalité. Je n'aurai pas cru l'écrire sur linuxfr.

                      Les commandes d'électricité, la hausse des factures électriques pour ces boîtes, les demandes pour des centrales nucléaires dédiées, le coût réel par utilisateur qui est loin d'être négligeable, etc. tout ça c'est de la corrélation dont pour OpenAI et Anthropic qui sont littéralement des entreprises qui ne font que ça ?

                      L'impact environnemental de l'IA générative n'est pas un sujet nouveau et comme par hasard même quand ils sont transparents ils cachent toujours des informations importantes pour conclure, comme par hasard… Mais c'est sans doute un non sujet comme tu le dis, heureusement que tu es là.

                      • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                        Posté par  (site web personnel) . Évalué à 7 (+5/-1).

                        ils cachent toujours des informations importantes pour conclure, comme par hasard…

                        Alors, pour avoir été dans des réunions sur le sujet avec un client et ses fournisseurs, c'est aussi parce que c'est complexe.

                        Je vais prendre l'exemple de l'usage de l'eau. Je gère un cluster Openshift de quelques noeuds sur AWS. À l'époque, pour éviter d'être en panne comme tout le monde, j'ai pas pris un déploiement sur la zone us-east-1 (Virginie), mais j'ai choisi de mettre tout sur us-west-2 qui est en Oregon (c'était aussi un peu moins cher).

                        Le DC est sur OSM, et en cherchant des articles pour préparer les dites réunions que j'ai cité, je suis tombé sur une enquête dans Rolling Stone qui parle exactement du DC. L'url cite Amazon, le chapeau cite Amazon, le titre parle des datacenters.

                        Mais quand on lit l'article, on voit que le souci vient pas de l'usage de l'eau en tant que tel, mais du fait que l'évaporation augmente le niveau de nitrates dans l'eau qui n'est pas évaporé, que le niveau de nitrate est haut à cause des installations agricoles, que l'eau n'est pas correctement recyclé et tout un tas de magouille entre les entrepreneurs locaux et les pouvoirs politiques. Y a de tout, des intimidations par les entrepreneurs locaux, du népotisme, de l'insider trading, etc. Notablement, les habitants ont essayés de retarder l'intervention des autorités de l'Oregon et de l'état fédéral.

                        Je vais pas dire que Amazon est 100% innocent, mais si tu peux pas faire confiance à l'état pour faire son taf et à aux partenaires industrielles (en l'occurrence Windwave/Inland), et que c'est la volonté clairement exprimé des habitants (70% de vote pour les républicains en 2020, 72M en 2024) ç'est quand même un challenge.

                        Et aucune publication de données ne va changer ça.

                        On peut prendre un autre exemple, le Chili. Il y a eu un documentaire sur Arte sur le sujet (avec un peu d'imprécision parce que y a quand même plus de DC au Brésil qu'au Chili), et des articles dans la presse sur la construction d'un DC par Google. Le cas est allé devant la justice, qui a bloqué le projet.

                        Je parle pas suffisamment espagnol pour tout comprendre mais de la page 60 à 69, ça parle du fait que l'évaluation par les autorités était foireuse.

                        Quand on regarde la presse, il est assez rarement fait mention d'une part de la constitution de 1980 qui a permis ça, un héritage de la dictature de Pinochet. Et on parle rarement du fait que le gouvernement pousse à avoir des datacenters, ni qui est au pouvoir à ce moment. Par exemple, Google a déposé une demande en juillet 2019, et eu son permis en février 2020, le président en fonction à l'époque était le fondateur du RN (pour Rénovation National, un parti de droite. Il y a eu une alternance, mais le prochain président est littéralement fils d'un nazi et d’extrême droite.

                        Encore une fois, c'est assez difficile d'argumenter que les électeurs n'ont pas fait le choix explicite de ce qui va arriver, parce que 58% de vote pour Kast, c'est assez confortable (même si Santiago semble voter plus à gauche que le reste du pays).

                        Et personne dans la presse n'a fait mention du DC de Microsoft à coté, alors que ça aurait pu aussi être une cible médiatique. Et personne ne connaît les noms des autres boites comme Ascenty, Cirion, Sonda, donc je suppose que personne ne va en parler.

                        Je dit pas que tout les DCs consomment autant de flotte, mais quand on regarde la carte, le déroulement de l'affaire et le contexte, c'est pas plus d'info qui va changer grand chose si les autorités ne font pas leur travail.

                        À chaque fois, on peut quand même relier ça à une volonté politique qui aboutit à la dérégulation et moins de contrôle.

                        Savoir combien d'eau est utilisé, ça sert à pas grand chose si tu sais pas d’où vient l'eau, ou va l'eau, et à quoi sert le DC, et dans quels conditions.

                        Sur le papier, le DC en Oregon réutilise de l'eau agricole, et l'eau est recyclé pour arroser encore des plantes après, c'est au bord d'une rivière. En théorie, tu es censé avoir des autorités indépendantes qui vérifient la pollution.

                        Mais malgré tout ça qui semble correct sur le papier, c'était la catastrophe. La publication d'info au niveau du DC n'aurait rien changé à ce niveau, et les solutions comme avoir une gouvernance non corrompu n'implique pas de publier des tas de données, mais surtout d'avoir des autorités qui font leur taf.

                        Et ça, c'est sans parler des sujets qui fâchent comme le chômage, etc. Les DCs autour de Paris sont pas mal en Seine St Denis qui aussi un des départements les plus pauvres de France.

                        C'est comme les émissions de carbone, on peut balancer les chiffres d'une industrie, mais ça donne pas d'info utile pris de façon isolé, et on peut pas faire confiance à son intuition (exemple, les liseuses).

                • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                  Posté par  . Évalué à 6 (+4/-0). Dernière modification le 27 février 2026 à 19:01.

                  Source ?

                  Après une rapide recherche je suis plutôt à plus de 20000.

                  https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai

              • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                Posté par  (site web personnel) . Évalué à 2 (+1/-1).

                Non c'est le même, en utilisant le modèle tu valide son entrainement;

                Je me permet d'ajouter une nuance (qui était dans mon point de départ) : il est certain que l'utilisation PAYANTE valide l’entraînement.
                Mais pour moi c'est pas clair que l'utilisation de la partie gratuite avec aucune intention de payer valide l'entraînement.

                Exception 1

                Si il y a une mécanique qui fait que :

                1. si JE l'utilise, je crée de la pression sociale pour que LES AUTRES l'utilisent
                2. les autres sont dans une situations qui les empêche d'utiliser la version gratuite.

                Un cas de ce type serait un étudiant qui a une version étudiante gratuite de Word et qui enverrait des fichiers doc à d'autres personnes qui n'ont pas d'offre gratuite.

                J'ai un peu du mal à voir comment ce genre de mécanisme existe avec l'utilisation de l'IA.

                Exception 2

                Si c'est financé par de la pub et que je n'ai pas une raison très solide de croire que la pub n'a pas d'influence sur moi.
                Je considère un utilisateur qui affiche la pub comme un utilisateur payant.

          • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

            Posté par  (site web personnel) . Évalué à 3 (+2/-1).

            Parce que cela est extrêmement energivore et destructeur de l'environnement ?

            Quelque réflexions à ce propos.
            Je tente d'utiliser le critère de «qu'est-ce qui se passerait si tout le monde faisait comme moi?».

            Vu que je ne paye pas pour chatGPT et que je m'engage à ne ni pleurer ni payer si ça devenait payant, si tout le monde faisait comme moi, OpenAI aurait déjà fait faillite. Ok pour l'environnement de ce côté. (j'ai la même excuse pour youtube)

            Vu que j'ai toujours tapé et publié sur internet mes notes de cours (ma thèse, mes cours de collège et d'univ), si tout le monde faisait comme moi, le Frido n'aurait pas besoin de chatGPT : tout serait facilement disponible sur internet.
            De ce point de vue, chatGPT en réalité un moyen détourné d'accéder au contenu que les mathématiciens enferment dans des livres privateurs.

            • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

              Posté par  . Évalué à 8 (+6/-0).

              Merci pour ta réponse intéressante.

              Une autre question que j'aime me poser est : est-ce qu'en faisant comme je fais, je permets à d'autre de faire comme ils font.

              Par exemple, je crois aussi aue les smartphone sont une mauvaise idée, pour plein de raison.

              Je n'achète donc que dès smartphone d'occasion de plus de 7 ans. Si tout le monde faisait comme moi, il n'y aurait rapidement plus de smartphone.

              Et pourtant je pense que ce que je fais est une mauvaise idée : en achetant un smartphone d'occasion, je légitime en quelque sorte le renouvellement par un neuf.

              Je pense que c'est pareil pour l'IA. Les requêtes gratuites font gonfler les stats, permettent la valorisation en bourse, légitiment l'usage et favorisent l'intégration de cette technologie dans notre quotidien.

              J'espère que tu comprends qu'il n'y a pas de jugement moral dans ma réponse, juste un débat sur les conséquences d'une action.

              • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                Posté par  (site web personnel) . Évalué à 2 (+1/-1).

                Je pense que c'est pareil pour l'IA. Les requêtes gratuites font gonfler les stats, permettent la valorisation en bourse,

                Ce qui est certain, c'est qu'une utilisation SANS PAYER de l'IA fait gonfler la bulle sans augmenter la valeur réelle.
                Est-ce vraiment un problème ? Si des spéculateurs veulent perdre de l'argent pour me fournir les démonstrations de math qu'il me manque, c'est sympa de leur part.

                légitiment l'usage et favorisent l'intégration de cette technologie dans notre quotidien.

                Avec la façon dont je l'utilise pour le Frido, je suis tranquille avec ça.
                Avec cette nouvelle écrire avec IA, tu as probablement raison.
                Je ne crois pas que je recommencerai ce genre d'expérience, mais il y a une vérité dans le fait que j'encourage le monde à essayer.
                Mais franchement, qui va payer pour ce type d'utilisation ?

                • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

                  Posté par  . Évalué à 7 (+5/-0).

                  Ce qui est certain, c'est qu'une utilisation SANS PAYER de l'IA fait gonfler la bulle sans augmenter la valeur réelle.

                  Et attendant que la éclate, chaque utilisateur, même non payant, fait gonfler les statistiques qui permettent l'investissement, donc la fabrication de datacenter, gpu, entraînement de nouveaux modèles, etc.

                  Avec la façon dont je l'utilise pour le Frido, je suis tranquille avec ça.

                  J'ai dû mal m'exprimer. Faire gonfler les stats d'utilisateurs d'une technologie, ça contribue à rendre incontournable l'utilisation de la technologie dans la société.

                  Cela devient un parcours du combattant de ne pas avoir de smartphone aujourd'hui. Je crains que cela devienne pour l'ia plus tard.

                  Autre exemple, je regarde des vidéos sur youtube avec ablock et sponsorblock. Je ne vois donc aucune publicité et en ce sens je fais perdre de la valeur à la sponsorisation. Cependant, je pense qu'au final cela a un impact négatif, car je contribue à faire gonfler les vues qui permettent aux youtubeurs de continuer à négocier des contrats de sponsorisation.

          • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

            Posté par  (Mastodon) . Évalué à 6 (+4/-1).

            Parce que cela est extrêmement energivore et destructeur de l'environnement ?

            Même si l'argument est factuellement bon, faudrait pas non plus que les informaticiens se découvrent aujourd'hui une vague âme écolo, après avoir créé des monstres de merde pour au final faire 3 pages web. Et du coup on parle plus de Netflix qui était précédemment l'anti écolo étalon.

            Les datacenters, le monde en est déjà rempli, et vu le temps que ça prend à en fabriquer un, c'est pas pour de l'IA non, ils y étaient bien avant le boom la bulle.

            L'écologie dans l'informatique c'est un vrai sujet, et c'est pas avec les productions actuelles qu'il y aurait de quoi être fier.

            Mais bon, c'est pas une raison de faire pire évidemment.

            En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

  • # Gistagram

    Posté par  (site web personnel) . Évalué à 8 (+6/-0).

    Ça fait longtemps que GitHub est devenu le facebook du codeur. Je déteste cette plateforme depuis le début. Il y a des gens qui viennent polluer des issues de projets où ils ne sont même pas impliqué juste pour mettre des emojis et des gifs « j'y étais ». Le meilleur moyen de s'affranchir de ces codeurs du dimanche est d'auto héberger. Envoyer un patch requiert plus d'investissement et limite donc les conneries.

    AI is a mental disorder

    • [^] # Re: Gistagram

      Posté par  (site web personnel) . Évalué à 4 (+2/-0).

      Envoyer un patch requiert plus d'investissement et limite donc les conneries.

      Et justifie d'autant plus le recours à l'IA dégénérative au motif d'abaisser les barrières techniques et administratives. :)

      Adhérer à l'April, ça vous tente ?

      • [^] # Re: Gistagram

        Posté par  (site web personnel) . Évalué à 4 (+2/-0).

        Mais non, rien que de pas savoir comment contribuer à un projet qui n'est pas sous GitHub refroidit déjà assez. Le nombre de fois où on m'a dit « je peux pas contribuer à ton projet parce qu'il est pas sur GitHub »

        AI is a mental disorder

    • [^] # Re: Gistagram

      Posté par  (Mastodon) . Évalué à 10 (+7/-0).

      Ça fait longtemps que GitHub est devenu le facebook du codeur.

      C'est triste ton avis sur LinuxFR.org

      En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

  • # Comme tout, ça dépends comment c'est fait.

    Posté par  (site web personnel) . Évalué à 0 (+5/-5).

    Hello,

    Je ne sais pas quoi en penser non plus.

    C'est vrai que l'IA générative fait beaucoup d'approximation, et nécessite une relecture approfondie, mais d'un autre côté, elle permet aussi de corriger des erreurs connes, et de gagner un temps précieux sur certaines tâches.

    J'aurai tendance à dire que, comme pour tout outil, cela dépends de qui l'utilise, et comment.

    J'ai vu des projets codés complètement à l'IA, qui (je ne suis pas dev) semblent très propres, complet, car le cadre avait été posé proprement au début; et d'autres qui sont beaucoup plus compliqué à maintenir.

    Dans un tout autre contexte, lancer une IA pour rechercher des références (qu'on vérifie après), ça peut trouver des pépites, compliquées à trouver sinon.

  • # vieux problème amplifié

    Posté par  (Mastodon) . Évalué à 10 (+8/-0). Dernière modification le 26 février 2026 à 09:59.

    Le problème de vomitage de contributions pas fofolles n'est pas nouveau, et n'est pas spécialement lié à l'IA, par contre les agents amplifient fortement le problème.

    Le nœud de l'histoire, c'est que les cabinets de recrutements et RH ont un champ "compte github" dans les formulaires ce qui incite un certain nombre de personnes à se créer des contributions artificielles à au maximum de projet dans le but un peu vain de gonfler leur CV.

    La solution est simplet et est de ne pas mettre son code sur github, ou de ne l'utiliser que pour se faire connaitre comme un miroir en n'acceptant ni ticket ni merge request.

    • [^] # Re: vieux problème amplifié

      Posté par  . Évalué à 5 (+3/-0).

      Je suis d'accord.

      Effectivement, ils auront peut-être leur nom au générique d'une lib connue, mais si on consulte leur historique, on voit bien qu'ils ont mitraillé à l'IA.

      Je doute que les recruteurs en question se donnent cette peine, mais je doute aussi qu'ils voient que le postulant est cité dans les auteurs de telle ou telle lib.

      Et un technique qui prend la peine de regarder verra rapidement à qui il a affaire.

      Donc je pense en effet que c'est vain.

      Et oui, c'est pas nouveau, mais l'outil démultiplie l'effet de telle sorte que ça en fait une vraie nuisance là où avant c'était assez marginal.

      • [^] # Re: vieux problème amplifié

        Posté par  . Évalué à 4 (+2/-0).

        Je doute que les recruteurs en question se donnent cette peine

        Il vont peut-être demander à Claude d'analyser les PR du postulant pour dire si elle sont IA-(dé)générées ?

        Du coup, les LLM, c'est peut-être un peu comme l'homéopathie ? Un poison et son contre-poison ? Combattre le mal par le mal ?

        • [^] # Re: vieux problème amplifié

          Posté par  . Évalué à 4 (+2/-0).

          Du coup, les LLM, c'est peut-être un peu comme l'homéopathie ? Un poison et son contre-poison ? Combattre le mal par le mal ?

          Ce serait parfait si c'était aux mêmes doses. Là, on frise un peu l'indigestion.

      • [^] # Re: vieux problème amplifié

        Posté par  . Évalué à 5 (+2/-0).

        mais si on consulte leur historique, on voit bien qu'ils ont mitraillé à l'IA.

        Et du coup, tu pars du principe que ça serait mal vu? Je connais très mal le monde des RH en dev, mais si j'ai bien compris l'état d'esprit du moment, je n'ai pas l'impression qu'un CV d'un junior 100% vibe coding" soit éliminé d'office…

  • # Problème de méthode, pas de fond

    Posté par  . Évalué à 3 (+4/-4).

    La question de savoir si des LLM modernes bien configurés et correctement supervisés peuvent proposer des patchs utiles me semble totalement dépassée: c'est évident que oui. À moins de partir sur un créneau d'authenticité (de style "poulets fermiers élevés à l'ancienne"), les logiciels libres ont tout intérêt à utiliser ces outils pour automatiser des tâches ingrates, y compris trier les PR, les patcher pour correspondre aux conventions de la communauté, trier les rapports de bugs, vérifier les bugs, vérifier les non-régressions, écrire des tests unitaires, etc.

    À mon avis, le problème vient plutôt de la source de ces PR. Il me semblerait tout à fait pertinent qu'un mainteneur habituel du logiciel utilise des outils pour détecter des vulnérabilités potentielles, des fuites de mémoire, des bouts de code qui ne respectent pas les conventions, des bouts de code mort, des dépendances non-nécessaires, etc. Les LLM peuvent faire l'équivalent de ces analyses statiques, et bien plus encore : ils peuvent proposer des patches, et le faire d'une manière interactive.

    Par contre, ce qui est malvenu, c'est des contributions externes. Un PR basé sur "j'ai fait tourner valgrind et il m'a dit que votre code était tout pourri" n'est probablement pas plus bienvenu qu'un truc rédigé par Claude".

    Je ne pense pas qu'il faille avoir peur des LLM dans le LL, mais par contre il faut approvoiser ces outils, et faire comprendre à tout le monde que si les devs utilisent déja ces outils, proposer des PR n'apporte rien au LL, ça n'est pas une contribution.

    • [^] # Re: Problème de méthode, pas de fond

      Posté par  . Évalué à 6 (+4/-0).

      Je suis assez d'accord.

      Il se trouve qu'on a un environnement, entre l'intégration GitHub, les LLM qui annoncent la lune, etc. qui fait que le premier noob qui passe n'a pas honte d'envoyer 70 PR quitte à ce que seulement 3 soient acceptées. Voire à la fin il va être content parce que 3 PR acceptées, c'est bien, sans réaliser le coût en bruit.

      L'analyse statique, le formatage de code, on fait déjà, et sans LLM.

      J'aurais même pas d'objection à ce qu'un contributeur fasse tourner un Valgrind ou LLM et nous envoie le rapport, idéalement commenté et priorisé, ou nous donne la config pour le faire nous-même. Je dis bien dans le journal qu'il peut y avoir un apport positif de ces technos.

      Mais balancer des PR aveuglément sans chercher à les comprendre, c'est du bruit (avec un peu de signal dedans).

      Effectivement, passer sur une plateforme différente pourrait freiner ce bruit. Assez pour le stopper, dans un premier temps. Mais c'est pas super satisfaisant. Éduquer les contributeurs le serait plus, mais c'est un vaste programme.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.