URL:     https://linuxfr.org/users/raspbeguy/journaux/un-code-genere-par-ia-est-il-obligatoirement-du-ai-slop
Title:   Un code généré par IA est-il obligatoirement du "AI slop" ?
Authors: raspbeguy
Date:    2026-05-11T10:38:42+02:00
License: CC By-SA
Tags:    flathub, terraform, opentofu, claude, code, développement et intelligence_artificielle
Score:   4


(Pour ce que ça vaut, promis, c'est un humain et ses petit doigts boudinés qui ont composé ce journal).

Ceci n'est ni une ode à la gloire de l'IA ni une condamnation définitive de celle ci. En tl;dr sur ce point je dirais que je comprends tout à fait les gens qui crient au scandale sur les impacts sociétaux et écologiques de l'IA, mais également ceux qui considèrent son potentiel en tant qu'outil de production de code (n'étant pas assez pointu sur les autres domaines que l'informatique je ne me risquerai pas à formuler une opinion éclairée à leur sujet, notamment en graphisme, écriture d'articles, etc.)

Je sors d'un weekend assez frustrant. D'une part il a plu quasiment non-stop sur les deux jours. Et à présent j'écris un article dont j'ignore complètement comment il va être reçu.

Ces derniers temps j'ai utilisé Claude Code pour un projet personnel : une application GNOME qui joue le rôle d'interface graphique à Terraform/OpenTofu. Pourquoi ? J'ai trouvé l'idée fun, j'ai jamais dev d'appli graphique (d'aucun dirons que c'est pas moi qui l'ai dev, c'est Claude, c'est de bonne guerre).

De par mon travail dans une entreprise poussant très fortement l'usage de l'IA pour la production de code, je pense avoir une expérience relative avec le développement par IA, et j'estime avoir une bonne idée de la plupart des pièges communs de cette discipline qui font franchire la limite floue entre un programme viable et du "AI slop". Je ne suis pas un "pisseur de code" mais je sais faire la différence entre du bon et du mauvais développement.

Revenons donc à mon projet. Il fonctionne dans ce que j'ai pu tester. J'ai fait en sorte que le code soit lisible et maintenable par des humains. Et franchement, la qualité de l'interface GTK4/Adwaita est enthousiasmante.

Le projet est donc jeune et a encore une roadmap assez conséquente, mais comme pour l'instant, "ça juste marche", je me suis dit qu'il serait une bonne idée de le soumettre à Flathub. Grossière erreur.

En lisant les [conditions de soumission Flathub](https://docs.flathub.org/docs/for-app-authors/requirements#generative-ai-policy) je suis tombé sur ce passage :

> Submissions or changes where most of the code is written by or using AI without any meaningful human input, review, justification or moderation of the code are not allowed.

Je me suis dit que mon code, bien qu'écrit principalement par de l'IA, ne rentrait pas dans cette catégorie car:

* je relis mon code ;
* les choix techniques, architecturaux et ergonomique sont les miens.

J'ai vite découvert qu'en pratique les mainteneurs Flathub vouaient une haine inconditionnelle à l'IA. Ceci n'est pas grave en soi (j'estime qu'une politique claire "aucune IA autorisée" est acceptable, même si ce n'est pas ce que je comprends de ma lecture pour Flathub), cependant ça le devient quand cette haine se mute en mépris, en irrespect et en infantilisation de l'utilisateur.

Et encore je pense que je m'en sors bien car j'ai senti le vent du boulet et je n'ai pas insisté face au refus de ma proposition. Mais je ne suis pas un cas isolé et tous les projets en vague lien avec l'IA se font retoquer avec moult violence. Les reviewers partent du principe que tu essaye de faire croire que ton projet est codé sans IA et qu'ils te prennent en flagrant délit de mensonge. S'ensuit ensuite tout un tas de remarques passive agressives et franchement irrespectueuses. Sur leur room matrix, le sujet dominant (et de loin) tourne autour de l'idiotie des gens qui vibe-codent et de la haine de l'AI slop, dans une ambiance très "gatekeepers" et un brin entriste.

Pour leur défense, je n'ose pas imaginer le nombre de soumissions que ces gens doivent se coltiner, incluant la quantité incroyable de contributions de très faible qualité : des projets one-shot qui ne seront jamais entretenus, des contributions qui ne respectent aucun des pré-requis clairement formulés un peu partout dans le processus de soumission. Et je comprends tout à fait à quel point la démocratisation des agents IA leur a rendu la tâche de review encore plus titanesque et ingrate. On en parle assez souvent sur LinuxFR, de cette "AI fatigue" qui consiste en dégradation drastique des conditions de travail des mainteneurs de projets libres. On ne compte plus les burn-out, les abandons de projets et les dépressions diverses que cette activité subit.

Le problème c'est que Flathub est en voie de devenir la porte d'entrée du grand public sur Linux, et c'est un énorme soucis que tant de haine et d'irrespect transparaisse dans les interactions publiques.

En ce qui concerne mon projet, après avoir bu un peu d'eau fraîche et touché de l'herbe (mouillée par la pluie), j'ai pris ce refus comme une leçon de vie et j'ai adopté ces décisions :

* Énorme disclaimer dans le readme du projet
* Nécessité d'aquérir une userbase et d'avoir des feedbacks réguliers pour prouver aux gatekeepers que ce projet est maintenable et que même si le code est principalement issu de l'IA, l’intérêt est réel et la communauté qui le soutiens est bien humaine.

Si la mayonnaise ne prends pas, et bien soit, les reviewers auront eu raison de ne pas l'accepter.

Pour ceux que ça intéresse, le projet en question : https://github.com/raspbeguy/terrain
