Journal Un code généré par IA est-il obligatoirement du "AI slop" ?

3
11
mai
2026

(Pour ce que ça vaut, promis, c'est un humain et ses petit doigts boudinés qui ont composé ce journal).

Ceci n'est ni une ode à la gloire de l'IA ni une condamnation définitive de celle ci. En tl;dr sur ce point je dirais que je comprends tout à fait les gens qui crient au scandale sur les impacts sociétaux et écologiques de l'IA, mais également ceux qui considèrent son potentiel en tant qu'outil de production de code (n'étant pas assez pointu sur les autres domaines que l'informatique je ne me risquerai pas à formuler une opinion éclairée à leur sujet, notamment en graphisme, écriture d'articles, etc.)

Je sors d'un weekend assez frustrant. D'une part il a plu quasiment non-stop sur les deux jours. Et à présent j'écris un article dont j'ignore complètement comment il va être reçu.

Ces derniers temps j'ai utilisé Claude Code pour un projet personnel : une application GNOME qui joue le rôle d'interface graphique à Terraform/OpenTofu. Pourquoi ? J'ai trouvé l'idée fun, j'ai jamais dev d'appli graphique (d'aucun dirons que c'est pas moi qui l'ai dev, c'est Claude, c'est de bonne guerre).

De par mon travail dans une entreprise poussant très fortement l'usage de l'IA pour la production de code, je pense avoir une expérience relative avec le développement par IA, et j'estime avoir une bonne idée de la plupart des pièges communs de cette discipline qui font franchire la limite floue entre un programme viable et du "AI slop". Je ne suis pas un "pisseur de code" mais je sais faire la différence entre du bon et du mauvais développement.

Revenons donc à mon projet. Il fonctionne dans ce que j'ai pu tester. J'ai fait en sorte que le code soit lisible et maintenable par des humains. Et franchement, la qualité de l'interface GTK4/Adwaita est enthousiasmante.

Le projet est donc jeune et a encore une roadmap assez conséquente, mais comme pour l'instant, "ça juste marche", je me suis dit qu'il serait une bonne idée de le soumettre à Flathub. Grossière erreur.

En lisant les conditions de soumission Flathub je suis tombé sur ce passage :

Submissions or changes where most of the code is written by or using AI without any meaningful human input, review, justification or moderation of the code are not allowed.

Je me suis dit que mon code, bien qu'écrit principalement par de l'IA, ne rentrait pas dans cette catégorie car:

  • je relis mon code ;
  • les choix techniques, architecturaux et ergonomique sont les miens.

J'ai vite découvert qu'en pratique les mainteneurs Flathub vouaient une haine inconditionnelle à l'IA. Ceci n'est pas grave en soi (j'estime qu'une politique claire "aucune IA autorisée" est acceptable, même si ce n'est pas ce que je comprends de ma lecture pour Flathub), cependant ça le devient quand cette haine se mute en mépris, en irrespect et en infantilisation de l'utilisateur.

Et encore je pense que je m'en sors bien car j'ai senti le vent du boulet et je n'ai pas insisté face au refus de ma proposition. Mais je ne suis pas un cas isolé et tous les projets en vague lien avec l'IA se font retoquer avec moult violence. Les reviewers partent du principe que tu essaye de faire croire que ton projet est codé sans IA et qu'ils te prennent en flagrant délit de mensonge. S'ensuit ensuite tout un tas de remarques passive agressives et franchement irrespectueuses. Sur leur room matrix, le sujet dominant (et de loin) tourne autour de l'idiotie des gens qui vibe-codent et de la haine de l'AI slop, dans une ambiance très "gatekeepers" et un brin entriste.

Pour leur défense, je n'ose pas imaginer le nombre de soumissions que ces gens doivent se coltiner, incluant la quantité incroyable de contributions de très faible qualité : des projets one-shot qui ne seront jamais entretenus, des contributions qui ne respectent aucun des pré-requis clairement formulés un peu partout dans le processus de soumission. Et je comprends tout à fait à quel point la démocratisation des agents IA leur a rendu la tâche de review encore plus titanesque et ingrate. On en parle assez souvent sur LinuxFR, de cette "AI fatigue" qui consiste en dégradation drastique des conditions de travail des mainteneurs de projets libres. On ne compte plus les burn-out, les abandons de projets et les dépressions diverses que cette activité subit.

Le problème c'est que Flathub est en voie de devenir la porte d'entrée du grand public sur Linux, et c'est un énorme soucis que tant de haine et d'irrespect transparaisse dans les interactions publiques.

En ce qui concerne mon projet, après avoir bu un peu d'eau fraîche et touché de l'herbe (mouillée par la pluie), j'ai pris ce refus comme une leçon de vie et j'ai adopté ces décisions :

  • Énorme disclaimer dans le readme du projet
  • Nécessité d'aquérir une userbase et d'avoir des feedbacks réguliers pour prouver aux gatekeepers que ce projet est maintenable et que même si le code est principalement issu de l'IA, l’intérêt est réel et la communauté qui le soutiens est bien humaine.

Si la mayonnaise ne prends pas, et bien soit, les reviewers auront eu raison de ne pas l'accepter.

Pour ceux que ça intéresse, le projet en question : https://github.com/raspbeguy/terrain

  • # "utilisation de l'IA"

    Posté par  (site web personnel) . Évalué à 2 (+0/-0).

    A partir de quand on considère qu'un projet est généré avec l'aide de l'IA ? Il m'arrive d'utiliser gemini en "consulting", comme un "super moteur de recherche", ce n'est pas lui qui génère à proprement parler mon code, mais je copie-colle très souvent des morceaux de code proposé par l'IA que j'adapte à mon projet. Est-ce que celui-ci serait accepté ou non sur Flathub ?

    • [^] # Re: "utilisation de l'IA"

      Posté par  (Mastodon) . Évalué à 3 (+1/-0).

      Est-ce que celui-ci serait accepté ou non sur Flathub ?

      À mon avis, tu te situerais dans une zone grise d'après les conditions de soumission :

      Submissions or changes where most of the code is written by or using AI without any meaningful human input, review, justification or moderation of the code are not allowed.

  • # Mon soucis avec l'IA

    Posté par  (Mastodon) . Évalué à 9 (+6/-0). Dernière modification le 11 mai 2026 à 11:09.

    Perso je me sers très régulièrement de Claude code, et ça marche plutôt bien. Je commence à savoir être pertinent dans mes agents, le code pondu ressemble à ce que j'aurais fait, en mieux.

    Mais bon, c'est ma vie, je fais ce que je veux.

    Mon soucis avec l'IA c'est que on voit débouler un nombre gigantesque de publications de nouveau code, on ne peut pas suivre le rythme. Full IA ou pas, relu ou pas, qualité ou pas… le vrai soucis est dans la masse de code qui va être produite.

    Gardez votre code pour vous par pitié. Si il marche bien c'est tant mieux pour vous. Mais chaque outil développé en qques heures, aussi pertinent soit-il, ne peut pas faire l'objet d'une publication.

    Par contre, comment c'est fait, comment rédiger des agents, la différence de performance entre IA locale et IA commerciale, les retours d'expérience etc. ça oui c'est sympa (j'ai une idée de journal là dessus d'ailleurs).

    En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

  • # Bon

    Posté par  . Évalué à 6 (+3/-0).

    Ben à partir du moment où tu ne t'es pas contenté d'un prompt avec quelques interactions avec la production de l'IA, et emballé c'est commité, mais que au contraire tu relu et compris avec un œil critique ce que t'as proposé l'IA; que tu n'as pas laissé les mauvaise pratique, tu est, de mon point de vue, dans le développement assisté et non le AI slop.

    Le problème que je vois avec les projet AI-slop, c'est qu'ils se concentrent sur un rendu rapide, mais sous le capot y'a un gros plat de spaghetti monolithique, parfois distribué. Alors en apparence c'est cool y'a des test unitaire des technos sexy (ou pas), mais caché quelque part (voir en évidence) y'a un truc (ou même parfois plusieurs) qui ne va faire qu'empirer. Et avec les évolutions du projet, ces morceaux là vont finir par bloquer des évolutions des corrections vont faire péter l'appli à coté, on va se retrouver avec des données dupliquées non synchronisés, et ça finira abandonné, ou repris de 0 avec un reborn/redux/new/remade/again/pro/open ajouté au nom.

    Et distinguer les deux type, c'est comme une histoire de bon chasseur et de mauvais chasseur…

    Il ne faut pas décorner les boeufs avant d'avoir semé le vent

  • # Situation inverse

    Posté par  (Mastodon) . Évalué à 3 (+0/-0).

    Imaginons la situation inverse : ils autorisent l'IA. Ils vont alors se retrouver sous un torrent de mauvaises contributions et ils n'auront plus le temps pour les bonnes contributions. Donc je comprends parfaitement leur position.

    Au delà des «impacts sociétaux et écologiques de l'IA» (qui sont réels), il y a aussi tout un flou juridique pour l'instant. Or, quand on fait du libre, on est plutôt prudent sur ces aspects parce qu'on sait que ça peut exploser au visage de tout le monde. Si à un moment donné, les travaux produits par IA sont soumis à une redevance parce que basés sur d'autres travaux, alors l'écosystème va tousser très très fort et on félicitera des gens comme les mainteneurs Flathub d'avoir pris la bonne décision.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.