Sommaire
Introduction
Bonjour à tous,
Bonjour nal,
En novembre, j’ai décidé d’écrire une application. Le but était de pouvoir suivre mes équipements (vélo et ses composants : plaquettes de frein, purge, pneus, etc., ainsi que mes baskets pour la course à pied et la marche).
Pourquoi ? Parce que le suivi proposé par Strava ne me convenait pas.
L'expérience
Ce programme que j’ai voulu écrire, j’ai décidé de le générer par IA. Je me suis dit :
« Peut-on développer une application entièrement avec les IA actuelles sans toucher une seule ligne de code ? ». C'est ce qu'on vois partout.
Je me suis donc lancé. Le résultat final est sur le Store Android et le code source est sur mon Gitea perso. Bien sûr, la licence est open source :).
À défaut de vous parler de l’application (si elle vous intéresse, je vous laisse aller voir le store), je vais vous parler de mon expérience.
Méthode de travail
Pour créer cette application, j’ai passé deux semaines à faire les itérations suivantes : description du besoin, jeu à la console (pendant que GitHub Copilot code), tests et retours.
Après ces deux semaines, je me suis retrouvé avec 0 crédit premium (GitHub Copilot inclus dans sa licence payante, GPT‑4 en illimité, et Claude Sonnet ou Gemini en version limitée). Et là, je me suis rendu compte que GPT‑4 était beaucoup moins performant que Claude Sonnet ou Gemini.
Relecture et constats
Plutôt que de galérer à faire faire des choses qui ne marchent pas à Gpt-4, j’ai commencé à relire le code. Voici les remarques que je me suis faites :
- Utilisation des principes de Clean Architecture, découpé en « Data », « Domain », « Feature » et « Core », avec des Use Cases fonctionnels représentant les fonctionnalités de l’application, séparées de l’IHM. Bref, une architecture que je n’aurais pas mise en place pour un projet perso. Pour une V1, j’aurais visé quelque chose de plus simple mais maintenable. Mais bon c'est probablement un bon choix d'entreprise pour un projet plus gros :)
- Plein de code mort. Chaque fichier contenait du code mort, probablement issu de développements qui ont échoué, de retours en arrière, de choix différents suite à mes tests, ou de l’IA qui s’est dit : « Ça servira peut‑être un jour, ou pas… ». Demander à l’IA de ne pas générer de code mort ou de le supprimer ne fonctionne pas bien.
- Beaucoup de code dupliqué, plusieurs manières de faire la même chose.
- Modèle de données non optimisé. Plutôt que de considérer les chaussures et le vélo comme des équipements pouvant avoir des composants, c’étaient des tables différentes avec des structures complètement différentes. Il y a de bons côtés à faire cela, mais dans ce qui avait été généré, ça ne me convenait pas : tout le code de gestion de l’usure et des écrans était dupliqué pour le vélo et les chaussures.
Ca donne l'impression que la personne qui développe à une mémoire de poisson rouge et qu'elle en regarde pas ce qui existe avant de développer une fonctionnalité.
Reprise et refactorisation
J’ai voulu commencer le refacto, mais GPT‑4 n’était pas assez performant. J’avoue que la quantité de choses qui ne me convenaient pas ne me donnait pas du tout envie d’entrer dans ce code que je n’avais pas écrit. J'ai donc attendu…
J’ai donc repris en décembre (renouvellement des crédis premium).
Quand les crédits sont revenus, j’ai commencé les corrections (au début tout en même temps, mais le LLM avait du mal ; j’ai donc traité petit morceau par petit morceau). Et là, en un mois, j’ai pu avoir une application à peu près propre (sûrement encore des bricoles à faire, mais au moins elle n’a plus trop de bugs).
Conclusion
- J’ai pu développer une application en deux semaines + un mois (soir et week‑end uniquement) en jouant à la console… Si j’avais développé avec mes petites mains, cela m’aurait pris plus de temps mais aussi plus "moins de console".
- J’avais un junior/stagiaire qui développe à la vitesse de l’éclair.
- Ce n’est pas mon projet — enfin si, en un sens, mais dans un autre non. Bref, c’est mon code sans être vraiment mon code, et je n’ai pas trop envie de mettre les mains dedans.
- Ce que j’aurais dû faire (et que je fais en dehors de ces expérimentations), c’est avancer petite fonctionnalité par petite fonctionnalité et faire une revue de code à chaque fois.
- Le code n’aurait pas pu partir en prod comme ça (probablement que si, mais avec des bugs). Et heureusement tout est local : pas de problématique de sécurité.
- Quand je veux faire corriger un bug, il m’en crée d’autres…
Développer avec une IA est quasi obligatoire (enfin c'est mon avis) si on ne veut pas être dépassé et garder du travail dans le futur. Il y aura toujours des cas spécifiques où l’IA ne viendra pas, où les développeurs devront/pourront/voudront s’en passer, mais pas sur que cela n'est qu'un effet de mode.
Questions
Mais des questions que je me pose :
- Comment les juniors vont‑ils faire pour entrer sur le marché du travail ?
- Comment vont‑ils monter en compétence s’ils se reposent trop sur l’IA ?
- Va-t-on se retrouver avec une perte de connaissance du métier ?
Autre chose qui m’attriste : Avant, pour moi, tant qu’il y avait de la volonté et de la logique, on pouvait développer sur n’importe quelle machine. Demain, j’ai peur que, pour devenir développeur, il faille un abonnement, une dépendance à une plateforme, ou une carte graphique qui coûte un bras. Le bon côté, c’est que l’IA facilite la montée en compétence et rend le développement accessible à ceux qui n’ont pas la logique.
Et vous, qu’en pensez‑vous ?
J'espère que je n'ai pas été trop concis et que j'ai été claire.
Merci

# Ne pas utiliser directement les modeles
Posté par pasBill pasGates . Évalué à 3 (+3/-1).
Pour du développement de softs, il est bien mieux d'utiliser les solutions agentiques comme Claude Code ou Q for Developers (ou autre) plutot que faire du copier-coller de code dans un modele directement.
Pour commencer, rien que parce que la context window du modele a des limites, et ensuite parce que ces agents sont optimisés pour la géneration de code plus ou moins correct.
Ici j'utilises Kiro avec Q for developer, et c'est bluffant. Il fait des trucs stupides de manière régulière hein, et il faut bien le guider histoire qu'il ne choisisse pas des approches mauvaises, mais il m'a géneré une petite solution de taint tracking utilisant joern à peu près 5 fois plus vite que je ne l'aurais fais moi même au moins, notamment vu que je ne connais rien à Joern.
Le truc le plus important selon moi est de bien s'assurer qu'il génère des tests complets et… corrects
[^] # Re: Ne pas utiliser directement les modeles
Posté par phoenix (site web personnel) . Évalué à 3 (+1/-0).
Je suis tout à fait d’accord.
Je n’avais peut‑être pas précisé, mais j’utilise bien le mode agentique de GitHub Copilot (avec Claude Code Sonnet 4.5 ou Gemini 3 Pro comme modèle derrière).
C’est ce que j’aime bien avec GitHub Copilot : si on veut un second avis, on peut changer de modèle.
[^] # Re: Ne pas utiliser directement les modeles
Posté par barmic 🦦 . Évalué à 10 (+11/-0).
Pour moi c’est de continuer à own le code. Que le code soit écrit à la main, par un LLM, via un singe savant qui tape aléatoirement et indéfiniment,… c’est toi qui soumet le code tu en es responsable. Ça veut pas dire qu’il faut taper sur les doigts des gens, mais que « je sais pas c’est claude qui a généré ça » c’est pas une question acceptable pour du code mergé. Si tu perds ça, tu va dans le mur à moyen terme. Tu n’es entrain de produire plus de dette technique que de valeur.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Ne pas utiliser directement les modeles
Posté par pasBill pasGates . Évalué à 5 (+4/-0).
Il faut surtout te souvenir qu'il y a un spectre entier de code produit, allant du prototype au code critique en production.
Moi étant dans la sécurité, la plupart du code que j'écris ou génere est typiquement du coté prototype, au final sa maintenance, performance, … n'est pas super importante. Si tu es un dev produit qui développe le service S3, évidemment tes critères sont très diffèrents, et tu utiliseras ces agents de manière diffèrente.
[^] # Re: Ne pas utiliser directement les modeles
Posté par barmic 🦦 . Évalué à 3 (+1/-0).
Du coup je vois pas pourquoi, c'est important qu'il écrive des tests et qu'ils soient bons
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Ne pas utiliser directement les modeles
Posté par pasBill pasGates . Évalué à 4 (+3/-0).
Parce que je veux que les résultats de mon analyse soient correct.
Je me fiches que le code soit maintenable pendant 15 ans, qu'ils soit super bien documenté, soit le plus performant possible.
Mais il est éxtremement important qu'il retourne un résultat correct.
# Toujours pas convaincu
Posté par Julien Jorge (site web personnel) . Évalué à 10 (+39/-1). Dernière modification le 30 janvier 2026 à 15:30.
Tu nous dit :
Mais aussi :
Ainsi que :
Et j'ai l'impression que tu nous dit que l'IA ruine l'avenir des juniors mais leur facilite la vie. Ça m'a pas l'air hyper clair.
Perso en lisant ton retour ça me semble une expérience très négative. La seule qualité si je puis dire est que c'était rapide, mais en fait c'est plutôt vite-fait-mal-fait. Tu as une app qui semble faire ce que tu veux et avec laquelle tu ne veux rien avoir à faire, tu ne veux pas mettre les mains dedans.
Cet argument qui revient tout le temps, qu'il faut développer avec une IA pour garder son métier à l'avenir, c'est à mon sens purement bidon. C'est l'argument des vendeurs d'IA, ça permet de vendre, et les clients attrapés auront du mal à s'en défaire. C'est un peu comme quand on disait qu'il fallait fumer, tout le monde le fait, ça rend cool, les médecins le recommandent. Bah non, perdu, c'est négatif et ça se paye sur la durée.
Alors certes on va générer très vite une grosse quantité de code qui passe des tests et sans doute que certains arriveront à être les premiers sur un marché grâce à ça, mais je ne vois pas à quel moment ça devient un critère de qualité pour les clients ou les devs. Pour les investisseurs, oui, mais pour le reste du monde ? Une app mal fichue reste une app mal fichue, qu'elle ait été codée en 5 minutes ou en 5 mois. Et si par malheur ton app trouve un public je pense que tu vas bien souffrir à la maintenir pour suivre les demandes des utilisateurs.
[^] # Re: Toujours pas convaincu
Posté par Fernando . Évalué à 7 (+8/-2).
+1000
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 2 (+10/-9).
Euh non, c'est 100% vrai
Aux USA c'est devenu standard. Le projet sur lequel je suis là, j'ai dû écrire 10 lignes de code sur les 3000 (tests non inclus). Le reste a été géneré en tapant en anglais.
Ensuite est-ce que l'IA va tout remplacer, tout faire ? Absolument pas. Il faut quelqu'un de compétent pour la guider, la corriger. C'est un stagiaire, dés fois un peu ivre, qu'il faut guider et rediriger, dont il faut vérifier le travail tout le temps.
Mais l'amélioration de la qualité du code géneré par l'IA ces 2 dernières années est bluffante.
[^] # Re: Toujours pas convaincu
Posté par Fernando . Évalué à 10 (+9/-0).
Du coup je ne vois pas l'intérêt !
De plus, avec un stagiaire humain, c'est intéressant pour le faire progresser, avec une machine qui n'apprend rien, c'est une perte de temps.
[^] # Re: Toujours pas convaincu
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 9 (+6/-0).
Je me permet de supputer, à partir du journal, et du témoignage de pBpG qui me semble assez clair, que l'intérêt est que le développeur chevronné (de préférence) qui chaperonne la machine peut ainsi :
Tout le monde n'est pas enseignant, altruiste, ou disposant de temps à consacrer à autrui, etc. J'adore avoir des stagiaires à qui je fais souvent refaire des choses bien maîtrisées pour les former. Mais beaucoup de gens poursuivent très légitimement foultitude d'objectifs bien différents de celui-là. Par exemple développer le plus efficacement possible. Si l'IA les aide… Moi je trouve en tout cas pertinent qu'ils viennent en discuter ici. Ça m'instruit.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 4 (+2/-0).
Je m’en sert mais bien moins qu’eux.
Ça m’aide :
Je suis d’accord, mais je trouve qu’il est fatigant de faire du pair. C’est bien et j’en fais, mais je sais que je suis plus fatigué après une demi journée de pair qu’en dev solo.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par arnaudus . Évalué à 4 (+3/-2).
Le nerf de la guerre, ça va être le rapport qualité-prix. Tu vas peut-être avoir une niche pour le développement à l'ancienne, un peu comme la culture bio de variétés anciennes de légumes, qui vont être servis dans les restos à 100€ le couvert. Et puis pour le macdo, bah de la vache aux hormones congelée, ça va très bien.
Si avec une organisation à l'ancienne et une forme d'artisanat et de compagnonnage pour former les juniors, tu arrives à un niveau de qualité suffisant pour justifier d'un prix très supérieur, il y a peut-être un moyen de faire survivre ce métier, dans une forme plus confidentielle, mais avec un côté patrimonial.
Ce qui me rend pessimiste, ça n'est pas que l'AI sait faire à bas coût, c'est que la qualité du code AI ne va pas cesser d'augmenter, et que beaucoup d'entre (nous/vous) me semblent excessivement optimistes sur la qualité du code produit par les humains. L'informatique des années 2020 est fondée sur du code écrit par des humains, et ce code est dans une très large mesure assez mauvais, voire médiocre, en termes de perfs, de conception, de lisibilité, et d'évolutivité. Donc évidemment, on peut toujours trouver que Copilot fournit de la bouse, mais quand cette bousitude va rencontrer le niveau de bousitude moyen du code du Google Play Store, paf, ça va faire des chocapics. En tout cas, l'argument du "fait à la main" n'a aucun sens commercial.
En gros, il va aussi falloir beaucoup augmenter la qualité du code humain pour soutenir la différence.
Il existe peut-être d'ailleurs un avenir un peu bizarre ou le code AI sera en effet moche et tout convolué, mais que les logiciels produits seront meilleurs parce que le code moche sera en réalité optimisé et testé beaucoup mieux que l'équivalent humain. C'est comme ça que sont "conçus" les organismes vivants et ça marche plutôt bien: bricolage sur bricolage, aucune étape de conception ou de refactoring, des commits random, mais des gros tests de non-régression à chaque étape.
[^] # Re: Toujours pas convaincu
Posté par gUI (Mastodon) . Évalué à 10 (+13/-0).
On disait déjà ça en 2000 avec le début du "no code". Plus besoin d'informaticiens dans le sens où l’ingénierie métier suffira. Pour faire 3 boîtes de dialogue et 4 calculs autour d'une règle métier, plus besoin d'un informaticien !
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: Toujours pas convaincu
Posté par Christophe B. (site web personnel) . Évalué à 2 (+0/-0).
Comme avec le cloud qui aurait du permettre de se passer de ces en…… de sysadmin
Ce que je peu comprendre ;)
mais quand il y aura un problème et que la majorité se cache ou fais le mort …
Eh bien il faudra bien demander à ceux capable de prendre un problème en partant de la base pour escalader le montagne technique mise en place.
Dans tout les corps de métiers, pas que dans l'info, il y a plusieurs niveaux.
Pour l'instant le codage de l'IA est de niveau manard, cela aide mais il faut tout vérifier.
[^] # Re: Toujours pas convaincu
Posté par BAud (site web personnel) . Évalué à 0 (+0/-2).
manard ?
c'est qui ?
[^] # Re: Toujours pas convaincu
Posté par Christophe B. (site web personnel) . Évalué à 3 (+2/-1).
D'après google :
– n. m. Manœuvre, ouvrier, pue-la-sueur ; forme populaire introduite, semble-t-il, par San-Antonio (1972), à moins que ce soit par Risser, Le Bada, 30-4-1971. »
Pour moi le manard c'est l'ouvrier de base, le pisseur de ligne, celui qui ne réfléchi pas et fait ce qu'on lui ordonne.
[^] # Re: Toujours pas convaincu
Posté par BAud (site web personnel) . Évalué à 1 (+0/-1).
ah oui, c'est sur https://weshipedia.fr/glossary/manard/ mais pas sur le wiktionary manard sinon j'aurais mieux vu ton analogie :D
va falloir que je relise des San Antonio pour ré-actualiser mon vocabulaire manouche :p
[^] # Re: Toujours pas convaincu
Posté par Christophe B. (site web personnel) . Évalué à 2 (+1/-1).
Apparemment d'après ton lien sur weshipedia c'est une expression lyonnaise …
Désolé je pensais que cela avait dépassé les frontières de la région :)
"Hé le gone si tu sors jouer aux glinches, n'oublie pas de sortir les équevilles
et au retour, si tu bois trop de pot te perd pas dans les traboules"
« Le tout c’est pas d’y faire, c’est d’y penser ; mais, le difficile, c’est pas d’y penser, c’est d’y faire. » (La Plaisante sagesse lyonnaise)
=> Parler Lyonnais
[^] # Re: Toujours pas convaincu
Posté par BAud (site web personnel) . Évalué à 1 (+0/-1).
bah, j'ai passé 3 ans à Lyon, mais mes potes étaient plutôt Mussipontains ;-)
[^] # Re: Toujours pas convaincu
Posté par Christophe B. (site web personnel) . Évalué à 2 (+0/-0).
Ah ah joli nom, c'est vrai que les noms d'habitants Français m'aura toujours fait rire
[^] # Re: Toujours pas convaincu
Posté par Ysabeau 🧶 (site web personnel, Mastodon) . Évalué à 4 (+1/-0).
On appelle ça des gentilé (nom masculin).
Je n’ai aucun avis sur systemd
[^] # Re: Toujours pas convaincu
Posté par Christophe B. (site web personnel) . Évalué à 3 (+1/-0).
Waouh je suis ébloui par la culture générale des personnes sur ce site.
presque à chaque passage j'apprend quelque chose.
Merci à tous ! et longue vie à linuxfr !
[^] # Re: Toujours pas convaincu
Posté par gaaaaaAab . Évalué à 10 (+10/-1).
ça me paraît un peu tôt pour le dire. Les outils de genAI sont aujourd'hui loués à une fraction de leur coût réel. D'un autre côté, c'est p-e pas la peine d'avoir des modèles entraînés sur l'intégralité des productions textuels de l'humanité pour avoir un outil spécialisé pour le code. Il y a encore beaucoup d'inconnues.
[^] # Re: Toujours pas convaincu
Posté par Moonz . Évalué à 6 (+6/-2).
Pas vraiment non. Par token, il est presque certains que tous sont (largement) bénéficiaires. Cf par exemple cet article qui cite ~40% de marge, ce qui correspond à d’autres estimations que j’ai vu ailleurs.
Tous sont massivement déficitaires, oui, mais c’est parce qu’ils investissent massivement. Forcément, quand tu investis beaucoup année X et X+1 à gros renforts d’emprunts, faut pas s’attendre à être direct bénéficiaire année X+2 et X+3.
Et tu peux aussi raisonner à partir « quel est l’intérêt, dans leur situation » ?
Il n’est clairement pas de vendre à perte. La vente à perte, ça a un intérêt quand tu es dans un secteur « winner takes all » (typiquement : effet réseau comme réseaux sociaux), pour étouffer la concurrence, rester le dernier debout, et pouvoir dicter les prix ensuite. L’IA n’est absolument pas dans ce cas de figure. Ça se voit très bien parce que tous les 3 mois un nouveau modèle sort et tout le monde se rue sur le nouveau modèle sans grande difficulté. Il n’y a aucune dynamique de type « tout le monde est sur ChatGPT donc je dois utiliser ChatGPT même si je préfère Claude ».
Pour l’IA la dynamique est plus proche des grosses fonderies type TSMC/Samsung/Intel : des coûts d’investissement de plus en plus colossaux, et le but du jeu c’est d’avoir les reins assez solides financièrement pour rester en lice (si tu regardes dans l’industrie des semiconducteurs, tu vois très bien avec le temps les processus demandant de plus en plus d’investissement, et de plus en plus d’entreprises qui n’arrivent plus à suivre et jettent l’éponge, pour qu’il n’en reste qu’aujourd’hui que trois).
(différence entre les deux : pour les semiconducteurs, "jetter l’éponge" ne signifie pas mettre la clé sur la porte mais se concentrer sur des processus plus anciens mais toujours rentables ; dans l’IA, il y a peu de chances que cette option soit sur la table au vu des progrès des modèles open-weight)
Et dans ces conditions, tu ne veux absolument pas vendre à perte ; tu veux au contraire tirer le plus de revenus possible, parce que ces revenus se traduisent directement en une capacité d’emprunt et d’investissement supplémentaire (et au final… plus de pertes dans l’immédiat, parce que les investissements porteront leurs potentiels fruits que plus tard).
Tu peux alternativement, si tu veux, comparer les prix de l’API ChatGPT/Claude/Gemini vs les plus gros modèles open-weight.
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 1 (+5/-6). Dernière modification le 31 janvier 2026 à 17:20.
Après, les LLM c'est pire que du macdo, c'est de la suprématie blanche. Si s'en servir devient "quasi obligatoire" pour garder du travail, c'est peut-être le moment d'arrêter de travailler dans l'informatique, ou alors d'accepter que les technofascistes ont raison en fin de compte.
(j'ai conscience que ma réponse signifie en substance que la totalité de ce thread est à côté de la plaque, mais comme je ne vois personne avancer cette idée, je me permets de le faire et tant pis pour le moinssage)
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 5 (+5/-2).
Je sais pas, c'est un moyen de montrer qu'il y a aussi des gens qui cherchent le buzz en étant outranciers sur les réseaux sociaux dont le code est open source ? Je l'ai déjà dit, mais le problème racine de Twitter ce n'est pas Elon Musk (et pourtant c'est un putain de problème), c'est le centrage sur l'ego et la valorisation du buzz. Ça donne plus de parole aux messages outranciers qu'au reste.
Son parallèle est foireux. Il marche avec tellement de choses qu'on peut lui-même le considérer comme un supremaciste blanc. Il poste son message avec un matériel qui ne peut pas exister sans l'exploitation des populations et la destruction de l'écologie.
Ça ne veut pas dire qu'il n'y a pas de problèmes, mais que son angle est tellement mal foutu qu'il ne mène à rien. N'utilise ni pétrole ni charbon ni terre rare est la condition minimale mais pas suffisante pour ne pas être supremaciste blanc, ok. Les chinois d'Alibaba sont des supremaciste blancs, ok.
On (en tout cas moi) va laisser ce genre d'uluberlu dans leur habitat naturel, les réseaux sociaux. C'est dans ce genre de chambre d'écho qu'ils s'épanouissent.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 3 (+5/-4). Dernière modification le 01 février 2026 à 15:15.
À un ordre de grandeur nettement moins élevé tout de même. Tu peux poster sur le fédivers depuis une instance de GoToSocial installée sur un vieil ordi avec 128 Mo de RAM.
À ma connaissance, rien dans l'histoire de l'informatique n'a causé une exploitation humaine et un gaspillage de ressources aussi massifs que le développement des LLM, sur lesquels on imagine (y compris dans ce journal) faire reposer toute l'activité économique et artistique de l'humanité. Le ton du post est peut-être outrancier, mais la situation qu'il dénonce est clairement outrancière. Je suis moi-même assez frappé de voir, aussi bien sur Linuxfr que dans ma vie professionnelle, à quel point cette réalité semble difficile à gober pour des libristes.
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 1 (+1/-2).
Je pense que tu sous-estime fortement l'état des choses même dans les années 2010. Le travail des enfants en usine, les mines de cobaltes exploitant des gens et des enfants dans des conditions d'esclavage, le néocolonialisme sur l'Afrique,…
L'IA repose aussi sur ça, mais ton infrastructure internet, ton device pour te connecter au fediverse, l'abondance de ressources qui permet le développement et l'exploitation du fediverse repose sur ces prémices.
Venir m'insulter comme si tout cela n'existe pas ou serait acceptable par contraste c'est putassier.
Si ce gars cherchait autre chose que le buzz ordurier, il s'intéresserait peut-être moins à stigmatiser les gens et plus à questionner le modèle qui permet ça et qui est un continum avec ce qu'on faisait avant.
Mais oui s'il avait eu ce niveau de réflexion, tu n'aurais probablement pas pris le temps de nous le partager. C'est quand même pas marrant s'il n'y a pas une insulte qui fuse.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 2 (+3/-3). Dernière modification le 01 février 2026 à 17:58.
Pour le coup c'est toi qui m'insultes.
Nulle part dans son message rakoo ne dit que "tout cela n'existe pas ou serait acceptable par contraste". Tu ne m'apprends rien en rappelant que la filière électronique repose effectivement sur des rapports de domination et un extractivisme effréné, j'avais relayé une conférence dessus ici l'autre jour. Mon propos n'est pas de dire que ceux-là sont acceptables, mais que les LLM en sont devenu le moteur principal (aurait-on encore besoin de tout ce cobalt s'il ne fallait pas produire quatre fois plus de GPU, de SSD et de RAM parce qu'une poignée de boîtes en a grosso modo acheté tout le stock sur Terre ?) et qu'une ligne rouge doit être tracée, au-delà de laquelle les considérations de ce journal n'ont plus aucun sens : on s'en fout de ce retex de GitHub Copilot, car il ne faut pas utiliser GitHub Copilot du tout. C'est pourtant moins compliqué que d'arrêter les clopes ou la viande, ou même Windows. Nous devrions plutôt réfléchir aux moyens de ne pas laisser nos collègues ou nos proches être complices de cette gabegie, ce qui je te l'accorde est une autre paire de manches (mais en tant que libristes, on est censés en avoir l'habitude).
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 2 (+2/-2).
Comprends que le fait de t'insulter est le dernier de mes soucis. C'est toi qui vient nous expliquer qu'on est des "suprématistes blancs". Dit toi que je suis aussi mesuré que possible et que je prends la peine de te répondre. Il y a un moment où il y a une limite à la décence en venant insulter et reprocher que les réactions ne sont pas à ton goût. Je fais de mon mieux pour ne pas te sortir des mots d'oiseaux qui me feraient évidement modérer. Je trouve parfaitement malhonnête ta façon de faire. Ce n'est pas simplement mon dernier commentaire dans ce thread, c'est aussi mon dernier commentaire dans un thread au quel tu participe.
Elle est parfaitement arbitraire et débattable, mais le procédé de discussion mise en place et au quel tu participe cherche expressément à disqualifier tout échange sur le sujet.
Je ne suis pas libriste, en aucune façon. Les personnes qui se revendiquent libristes sont trop souvent sectaires et moralisateurs pour que je puisse me reconnaitre dans des gens qui sont dans la posture et la recherche de la pureté notamment en culpabilisant les utilisateurs et en ayant totalement perdu de vu que le libre n'est qu'un moyen l'objectif c'est de libérer l'utilisateur. On ne libère pas les gens malgré eux, on ne libère pas les gens à coup d'exigence de pureté idéologique.
Soit content ton troll aura bait 2 personnes, ce ne seras plus mon cas.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 3 (+2/-1). Dernière modification le 01 février 2026 à 22:58.
Ce n'était un troll, ni une insulte, et je suis honnête : je crois sincèrement qu'il est pertinent d'aborder les questions éthiques que soulèvent les usages décrits dans ce journal, tout comme il est pertinent sur Linuxfr de parler des questions éthiques liées aux logiciels propriétaires ou au pouvoir des GAFAM. Si tu ne veux pas le faire, tu en as tout à fait le droit, ce sont des questions sensibles qui peuvent énerver ; mais ne viens pas me prêter des intentions qui ne sont pas les miennes. Je ne vois même pas ce que cet argument a de si extravagant, Benjamin Bayart a fait un rapprochement similaire entre réseaux sociaux et esclavagisme dans une de ses interviews :
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 3 (+3/-2).
Traiter les gens de supremacistes blancs ce n'est pas soulever une question mais insulter. Dire à ceux qui n'acceptent pas de se faire insulter qu'ils ne veulent pas débattre c'est un homme de paille.
Cesse de me faire dire ce que je ne dis pas pour continuer une discussion que tu as intoxiquer.
Ton comportement est odieux.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 4 (+5/-3). Dernière modification le 01 février 2026 à 23:53.
Mais non, ce n'est pas une insulte, il ne faut pas le prendre comme une attaque personnelle. La suprématie blanche c'est comme le racisme et le sexisme, c'est un mécanisme insidieux dans lequel nous avons tous grandi et qu'on reproduit tous plus ou moins contre notre gré, jusqu'à ce qu'on en ait conscience, ce qui est tout un travail. Et on ne peut pas faire ce travail sans nommer les choses, même si le nom ne fait pas plaisir à entendre. Une industrie qui repose sur des millions de travailleurs kényans ou philippins payés une misère pour apprendre à un logiciel, extrêmement énergivore et requérant des métaux et terres rares qu'on ne peut extraire à bas coût sans piller les pays africains, à reproduire en masse ces biais racistes qu'on galère déjà à désapprendre, quand ce n'est pas pour entraîner avec elle toute l'économie des États-Unis, justifier des licenciements massifs ou simplement produire du code et du texte médiocres, c'est manifestement de la suprématie blanche. Est-ce un idéal trop abstrait de prétendre vouloir lutter contre, en évitant d'y recourir autant que faire se peut, en veillant à ce qu'on n'en devienne pas dépendant ? C'est possible, et peut-être que je l'exprime maladroitement (je ne cherche certainement pas à me montrer odieux), mais ça me parait néanmoins une préoccupation légitime.
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 1 (+2/-2).
Question: Quelle est la source de tes champignons hallucinogènes ?
Petit exemple de oû tu te fourres complètement: ces phillipins-kenyans qui labellent des données (tu sais, "apprendre" à un LLM), ils sont typiquement bien mieux payés que les kenyans-phillipins autour d'eux, ils font un travail qui est somme tout technique, et qui gentiment aide à amener leur pays hors de la situation dans laquelle il est.
Deuxième exemple: les biais racistes. Ils n'ont absolument rien à voir avec la technologie derrière les LLMs, cela est complètement dû aux données ingérées, et diffèrents modèles se comporteront diffèrement.
Tu racontes n'importe quoi, tu divagues, tu sonnes vraiment comme le petit ado boutonneux convaincu que Micro$oft c'est le Mal(TM) , et bon, à part faire rire tout le monde, tes idées farfelues sans aucune reflexion vraie derrière ne vont convaincre personne.
Je t'invite à mettre un petit peu d'eau dans ton vin.
[^] # Re: Toujours pas convaincu
Posté par Moonz . Évalué à 0 (+0/-2). Dernière modification le 02 février 2026 à 09:58.
Et les biais tendent à être dans l’autre sens :
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 4 (+2/-0).
Principalement Antonio Casilli, mais on peut aussi mentionner Timnit Gebru, Eryk Salvaggio, Ali Alkhatib, Narayanan et Kapoor et j'en passe. Après il y a les blogueurs à la mode comme David Gerard et Ed Zitron, mais comme ils ont tendance à poster tous azimuts, je te suggère plutôt la veille d'Hubert Guillaud sur ce sujet.
[^] # Re: Toujours pas convaincu
Posté par Benoît Sibaud (site web personnel) . Évalué à 4 (+1/-0). Dernière modification le 02 février 2026 à 11:03.
Je resterai prudent/modéré sur la première partie du propos, on est pas à l'abri d'une erreur d'implémentation ou de corrections post-apprentissage par exemple.
https://news.mit.edu/2025/unpacking-large-language-model-bias-0617
Exemple (sur la question du biais positionnel): Their experiments revealed that model architectures, particularly those affecting how information is spread across input words within the model, can give rise to or intensify position bias, and that training data also contribute to the problem.
Ou https://arxiv.org/html/2411.10915v1
In terms of bias mitigation, strategies are typically categorized into three broad approaches: data-level interventions, model-level techniques, and post-processing adjustments.
(Et les questions ne semblent pas forcément propres aux LLM mais pour beaucoup au traitement statistique en général ?)
Ou https://hellofuture.orange.com/en/how-to-avoid-replicating-bias-and-human-error-in-llms/
LLM bias can appear within the model’s internal representations as well as in final decisions. Bias in LLMs can be mitigated with or without additional training.
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 1 (+0/-0).
Le biais positionnel (et pas que positionel) est certainement une réalité architecturale, mais elle n'a rien à voir avec un biais lié au contenu.
Sur un sujet tel que la couleur de peau ou le sexe des gens par exemple, c'est textuel, par contextuel, c'est basé sur le positionnement dans le texte (début ou fin), pas sur le fait d'être noir ou blanc, ou "white" ou "black", etc…
Le fait d'avoir plus de connotations négatives sur le mot noir/black/… joue un rôle par contre, et c'est là ou il faut faire très attention aux données ingèrées, et comment essayer de rectifier ce biais.
[^] # Re: Toujours pas convaincu
Posté par Moonz . Évalué à 4 (+3/-1).
Bon, si tu es honnête et sincère, je vais essayer de t’aider de manière honnête et sincère également.
Prenons mon cas : j’ai longtemps été libertarien (et je le suis, en majeure partie, toujours). Prenons le slogan « l’impôt c’est le vol ». Ceci est un reflet honnête et sincère de mes croyances. Pour 99% (y compris toi je suppose) de la population, c’est une idiotie sans nom.
Ton « l’IA c’est le suprémacisme blanc », c’est mon « l’impôt c’est le vol », mais de l’autre côté du spectre politique. Si tu comprends pourquoi le second est stupide, tu comprendras pourquoi le premier est stupide.
Le premier est stupide car il présente comme quelque chose de factuel et d’évident ce qui est une opinion subjective déguisée. Parce qu’il se repose sur des présuppositions que tu considères comme totalement secondaires et sans importance, mais qu’il se trouve que le reste du monde considère comme importante.
Dans mon cas, cette considération secondaire est la légitimité « sociale » de l’identité du « voleur » (ie: est-ce que le voleur est considéré par la majorité de la population comme le souverain légitime). Pour moi, dans la situation « donne moi ton fric ou sinon », cette considération est au fond sans importance, de sorte que « le ministère des finances publiques m’a envoyé une lettre disant donne moi ton fric ou sinon… » et « Al Capone m’a dit donne moi ton fric ou sinon… » est une distinction sans différence.
Mais, trivialement : pour 99% de la population, la différence de nature entre Al Capone et le Ministère des Finances Publiques est primordiale. Et si cette différence est importante, « l’impôt c’est le vol » ne tient plus. Et sortir « l’impôt c’est le vol », c’est le meilleur moyen de brusquer le lecteur (pour de très bonnes raisons : le blâme n’est pas à mettre sur le lecteur) et de se brusquer en retour sur les réponses (« mais c’est totalement raisonnable de dire que l’import c’est le vol, c’est exactement la même chose, violer la propriété privée sous la force ou la contrainte de la force… pourquoi tout le monde m’insulte ? ils doivent être stupides ou de mauvaise foi ou désinformés ou… »). Si je veux convaincre en tant que libertarien, mon job c’est de montrer raisonnablement que la différence de légitimité perçue entre Al Capone et le Ministère des Finances Publiques est au fond sans grande importance éthique, pas de déblatérer un slogan qui n’a aucun sens pour quelqu’un qui n’est pas à la base déjà entièrement d’accord avec moi et de passer pour un clown ou un fou.
Je te laisse appliquer ça à ta situation.
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 3 (+1/-0).
Bof, c'est pas mon impression, je dirais que les gens sont nombreux à détester l'impôt et que le sujet de leur réduction est un débat récurrent — bien que le libertarianisme n'est pas directement représenté par les forces les plus importante de l'échiquier politique français, c'est donc une rhétorique mal connue. Du reste, même si je ne suis pas d'accord avec ce slogan, je ne vais pas me sentir immédiatement insulté par celui-ci. "L'impôt c'est le vol" c'est certes un peu bizarre pour moi qui ai tendance à penser "pas d'État sans impôt" (et qui considère que beaucoup de bonnes choses dans nos vies sont fournies par l'État, à commencer par mon salaire), mais ce n'est pas non plus "les Arabes sont des parasites" ; ça, je le prendrais comme une insulte.
Je ne sais pas trop quoi ajouter de plus. Pour autant que je sache, aucun de vous n'a placé toutes ses économies dans des actions Microsoft. On devrait pouvoir parler ensemble de racisme et de rapports de domination dans l'informatique sans avoir envie de recourir à des noms d'oiseau ; et compte tenu de la popularité croissante des deux, ça me semble très important de s'y mettre.
[^] # Re: Toujours pas convaincu
Posté par thoasm . Évalué à 5 (+2/-0).
On ne compte pas les travaux, simulation par exemple, qui montrent que l'abscence d'impot et de redistribution est néfaste ne serait-ce que du point de vue économique, si on veut vraiment rentrer dans le débat : https://arxiv.org/abs/2501.08573 par exemple.
Sinon quand tu t'en sors pas, il n'y a que la charité et le bon vouloir des puissants qui puisse daigner t'aider si ta tête leur revient. Des exemples de types comme Musk montrent que c'est pas la priorité de bien des puissants assoiffés de pouvoir, et que quand ce genre de type en ont, du pouvoir, faut les chasser à coup de pied au cul pour qu'ils l'abandonnent.
Je sais pas trop ce qu'il y a d'autre comme démonstration à faire. Quelqu'un qui rêverait de ce genre de monde montre quand même un mépris pour le reste de l'humanité, ou une délusion/illusion assez forte si il croît vraiment que l'humanité en général en bénéficie.
[^] # Re: Toujours pas convaincu
Posté par Moonz . Évalué à 3 (+1/-0). Dernière modification le 02 février 2026 à 11:53.
Tu t’es concentré sur le message politique, qui n’était qu’une illustration secondaire et au fond sans importance du point principal. Et que je n’essaie pas de défendre. Relis plus lentement.
« Pour autant que je sache, aucun de vous n’est ministre des finances publiques. On devrait pouvoir parler ensemble de la violence implicite et réelle derrière l’impôt sans avoir envie de recourir à des noms d’oiseau ».
Les noms d’oiseaux sont un symptôme mais ne sont pas la source du problème. Le problème dans cette réponse est que je présente la thèse « le recouvrement de l’impôt a recours à la violence (implicitement: éthiquement problématique) » comme un présupposé de la discussion. Si je fais ça, je suis soit honnête et aveugle (beaucoup ne sont pas d’accord avec ce présupposé, et je suis aveugle de penser le contraire), soit intelligent et manipulateur (je bluff et fait passer ça pour une évidence indiscutable).
L’exercice pour toi est de trouver ces présupposés qui te semblent évident mais qui de manière persistante donnent lieu à des réactions épidermiques à tes interlocuteurs. J’ai quelques idées, mais n’étant pas dans ta tête, aucune certitude — pour ça que j’ai donné un exemple de cet exercice mon point de vue plutôt que de m’improviser télépathe-thérapeute et essayer de le faire de ton point de vue.
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 3 (+1/-0). Dernière modification le 02 février 2026 à 12:27.
Genre ceci ?
J'avoue que ça me semble assez fondamental, en effet, davantage que "le fisc n'est pas si différent de la mafia". Je suis favorable au logiciel libre et à une informatique qui n'opprime pas, c'est précisément pour cette raison que je viens m'exprimer sur Linuxfr. Dans ce contexte, se renseigner sur la suprématie blanche, qui est une forme d'oppression parmi les plus importantes de notre société, me paraît être la moindre des choses.
[^] # Re: Toujours pas convaincu
Posté par Moonz . Évalué à 6 (+4/-0).
Oui, quelque chose comme ça.
Pour 99% des personnes, la suprématie blanche c’est essentiellement le Ku Klux Klan. Ou l’époque de la ségrégation en Afrique du Sud. À moins d’une expérience personnelle horrible (et dans ce cas, toutes mes condoléances), je pense pas qu’il vienne à l’idée à qui que ce soit ici de décrire le KKK comme « un groupe insidieux dans lequel nous avons tous grandis et qu’on reproduit tous plus ou moins contre notre gré ».
Tu es dans une bulle qui a développé son propre jargon au point que des termes du type « suprématie blanche » sont difficilement reconnaissables par le quidam moyen. Ce n’est pas grave en soi, mais si tu veux communiquer de manière productive hors de ta bulle il va falloir en prendre conscience et communiquer avec le vocabulaire du quidam moyen, pas ton jargon.
[^] # Re: Toujours pas convaincu
Posté par Benoît Sibaud (site web personnel) . Évalué à 4 (+1/-0).
https://fr.wikipedia.org/wiki/Supr%C3%A9macisme_blanc donne les deux sens :
Et
reste à savoir si et quand il faut préciser tel que défini en sciences sociales en début de conversation ; un peu comme "open source intel" ne voudra pas dire la même chose suivant le public (pilote libre d'un fondeur ou renseignement à sources ouvertes), ou "avoir une expression rationnelle" (une pensée logique ou une regexp). Après il n'y a pas de quoi se sauter à la gorge non plus, si on connait les deux sens, et qu'on comprend que l'autre est utilisé.
Et je ne crois pas non plus qu'il faille toujours employer le vocabulaire du quidam moyen : en dehors de la vulgarisation et de la communication spécifiquement à destination du quidam moyen, on peut utiliser du vocabulaire spécifique/spécialisé, du moment que les termes sont définis. (C'est en général ce qui se passe sur une table ronde par ex., ou un débat télé/radio/net entre spécialistes).
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 2 (+0/-0).
Je ne vois pas comment la seconde définition qui s'intéresse à des processus peut être utilisée comme stigmate d'individus.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 2 (+0/-0).
Oui voilà, ça correspond à peu près à ce qu'en dit le paragraphe "Academic use of the term" sur le Wikipedia anglophone. Je note l'article de Friedersdorf à la fin, avec laquelle je ne suis pas sûr d'être d'accord, mais qui semble décrire la réaction qu'ont suscité mes commentaire :
[^] # Re: Toujours pas convaincu
Posté par Moonz . Évalué à 4 (+2/-0).
Entre des gens du domaine, pas de problème (pour ça que j’ai dit dans mon message plus haut quelque chose comme « vous avez développé un jargon, et ce n’est pas un problème en soi ».
Dès lors que tu sors de ton cercle d’initiés… comme d’habitude, il y a un XKCD pour ça :
Mieux vaut errer dans le sens du dénominateur commun, et dans le cas contraire, ne pas s’étonner que ça parte dans tous les sens. Comme l’échange sur ce fil vient de l’illustrer.
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 5 (+3/-0).
Quand tu reprends à ton compte l'affirmation :
Tu ne dis pas que l'IA c'est un truc qui maintient les dominations occidentales et les poussent renforce. Tu dis que nous sommes des supremacistes blancs.
Si tu ne vois pas la différence, c'est un problème en terme de communication que nous ne pourront pas résoudre. Ta façon de te placer comme si tu n'y touche pas et être naïvement surpris que des gens n'apprécie pas l'étiquetage que tu fais tiens est une manœuvre rhétorique que je trouve insupportable.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à -2 (+0/-4).
Dans le contexte de l'action politique, "faire des trucs racistes" et "être raciste" c'est rigoureusement la même chose. Ce que je dis, c'est que ce n'est pas une fatalité : arrêtons d'encourager l'usage de Copilot et nous aurons fait un pas dans la bonne direction. Auquel cas, on devient complice de quelque chose de beaucoup plus grave.
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 4 (+2/-0).
C'est bien ce que je dis, tu essentialise. C'est vraiment un mouvement de militant des réseaux sociaux qui ne savent pas échanger sans agresser. "oui mais moi je le fais pour le bien" c'est ça, ça remet en cause ses biais racistes mais si je rappelle la dissonance cognitive tu l'a déjà tu te dis insulter. Et bien sûr ne pas remettre en cause l'essentialisation de manière générale.
De toute façon sur les réseaux sociaux c'est pas comme ça qu'on buzz n'est-ce pas ? On va pas introduire de nuances. Au contraire si on peut créer un flameware c'est parfait.
C'est la définition du troll, mec. Il y a un moment où tu va comprendre que la conflictualité à la quelle tu participe permet au capitalisme de créer les conditions de son maintien ou tu va continuer à chercher les likes ? (mais sur mastodon, ces likes là ils sont bien et n'ont rien à voir avec ceux sur Facebook eux oulala c'est tous des supremacistes / fascistes / nazis / zemouriens / cryptocapitaliste)
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par Faya . Évalué à 6 (+4/-0).
Oui c'est pertinent de les aborder, mais «Tout ce qui est excessif est insignifiant.» Si tu les abordes en traitant les gens de suprémacistes blancs, la discussion est finie. C'est la même chose qu'atteindre le point Godwin, dont on rappelle que lorsqu'il est atteint «il est temps de clore le débat, dont il ne sortira plus rien de pertinent». Le Konvwa ba réparasyon a eu l'occasion de générer des visuels par IA, ce sont des suprémacistes blancs ? Tu as un clip de vaporwave hébergé sur Youtube, détenu par Google qui soutient Trump, tu es un suprémaciste blanc ? Tu vois bien que c'est absurde. Il serait plus constructif d'adresser directement les problèmes soulevés par l'IA plutôt que balancer une étiquette sur les utilisateurs. Ça ne touchera que les convaincus, les autres vont juste tourner le dos.
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 2 (+1/-1). Dernière modification le 02 février 2026 à 17:24.
Évidemment que c'est absurde, on parle de trois choses différentes : utiliser un réseau social de Google, avoir "l'occasion" d'utiliser de l'IA, et littéralement encourager l'usage quotidien de l'IA et la présenter comme un fait accompli. Ce n'est pas juste un pas à franchir, c'est un bond que je vois de plus en plus de monde faire allégrement, et je trouve ça très alarmant. Combien d'épaisseurs de gants dois-je enfiler pour convaincre les gens d'ici que le suprémacisme blanc c'est abominable et qu'il faut lutter de toutes ses forces contre ? Copilot n'existait même pas il y a quelques mois, et vous en parlez comme s'il n'était plus possible de vivre sans. Ne laissons pas ce truc envahir nos vies, ne nous trompons pas d'ennemi, et tâchons de ne pas nous ridiculiser en invectives de cour de récré quand on essaie de désigner les choses par leur vrai nom.
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 3 (+2/-0).
Tu utilises le réseau social d'une boite américaine, tu les aides à faire de l'argent, tu les aides à créer leurs modeles, et à payer pour cette infrastructure hardware d'IA dont tu parles tant.
Tu es en fait le premier coupable ici.
[^] # Re: Toujours pas convaincu
Posté par Laurent Pointecouteau (site web personnel, Mastodon) . Évalué à 2 (+0/-0). Dernière modification le 03 février 2026 à 09:35.
J't'en prie, tu es en train de me faire le coup du mec dans son puits là. Je maintiens que se vautrer dans le vibe coding est beaucoup plus grave que ma pauvre vidéo YouTube à 900 vues.
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 1 (+0/-0).
Je me contente de bien rire en lisant les aneries que tu écris, qui n'ont ni queue ni tête.
Oui oui on est tous des supremacistes blancs !
Ah merde, même ceux d'entre nous qui ne sommes pas blancs… ah c'est con.
"Une industrie qui repose sur des millions de travailleurs kényans ou philippins payés une misère pour apprendre à un logiciel, extrêmement énergivore et requérant des métaux et terres rares qu'on ne peut extraire à bas coût sans piller les pays africains, à reproduire en masse ces biais racistes qu'on galère déjà à désapprendre, quand ce n'est pas pour entraîner avec elle toute l'économie des États-Unis, justifier des licenciements massifs ou simplement produire du code et du texte médiocres, c'est manifestement de la suprématie blanche."
est je pense une des phrases les plus stupides que j'ai lues sur ce site depuis que j'y suis, et pourtant je suis là depuis un quart de siècle. C'est du tirage de cheveux niveau olympique, des affirmations qui sont tout simplement fausses (ces gens sont plutôt bien payés en comparaison de leurs voisins, la reproduction en masse de biais racistes, etc…)
Je veux dire, tu ne réflechis visiblement même pas à ce que tu dis, tu régurgites sans même chercher à comprendre pourquoi tout le monde te dis que tu racontes n'importe quoi, en étant sûr que tu es le seul chevalier qui a tout compris face aux hordes supremacistes blanches, c'est triste et drôle à la fois.
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 1 (+0/-1).
Ne cherche pas il sait parfaitement ce qu’il fait. Ce n’est pas une maladresse de sa part. Et en bon pompier pyromane, il en ajoute en faisant des amalgames : si on réfute son insulte, on est racistes. Il n’est pas là pour discuter.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à -1 (+1/-3).
Je te suggere de passer à MultiDeskOS, il lave plus blanc que blanc.
Sinon, quand tu auras décidé de revenir sur terre et d'utiliser un peu de logique, fais nous signe.
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 1 (+2/-2).
Ce lien donne sur un texte d'une stupidité assez affligeante je te dirais
Les annonces comme quoi "X est horrible, cela va détruire la planète, l'emploi, mon chat,…" on l'a entendu 3455 fois, cela n'a jamais tenu, et surtout ce torchon n'a pas passé une seconde à essayer de comprendre la valeur de la chose
[^] # Re: Toujours pas convaincu
Posté par Moonz . Évalué à 2 (+0/-0).
Je suis à 99% d’accord avec ce message, mais pour le modérer un peu : certains de ces "X sont horribles et vont détruire la planète" ne sont pas arrivés parce que certaines personne ont pris le problème au sérieux et que des adultes se sont mis autour de la table pour l’éviter avec des mesures actives et non triviales. Par exemple la non-prolifération des armes nucléaires qui tient principalement grâce à des traités internationaux et des efforts diplomatiques réguliers.
[^] # Re: Toujours pas convaincu
Posté par arnaudus . Évalué à 3 (+0/-0).
En philosophie des sciences, il existe une théorie assez intéressante, souvent appelée "théorie du monde vulnérable". J'ai aussi entendu parler de la théorie de la "boule noire", mais je pense que c'est plus confidentiel (ça doit faire référence au jeu "Lingo"—"Motus" en France).
L'idée, c'est que chaque découverte scientifique ou technologique peut potentiellement détruire la terre (ou l'humanité, ou la vie sur Terre, mais vous voyez l'idée générale). Et on ne sait jamais à l'avance si une découverte a ce potentiel ou non. Donc on "tire" une boule, et jusqu'ici, on n'a tiré que des boules jaunes, donc on continue à jouer. On n'est pas passés loin avec l'énergie nucléaire, mais coup de bol, c'est suffisamment difficile de déclencher une réaction en chaine que c'est réservé à de très grosses organisations (États et multinationales) qui n'ont pas intérêt à détruire le monde. Mais c'est ça l'idée : jusqu'ici, on n'a pas détruit le monde, mais c'est un coup de bol, pas une propriété intrinsèque des découvertes technologiques.
La théorie du monde vulnérable est évidemment spéculative, mais elle offre en tout cas une réponse très satisfaisante au paradoxe de Fermi.
Donc voila, l'argument de "jusqu'ici tout va bien" ne tient pas du tout dans le cadre de la théorie du monde vulnérable.
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 1 (+0/-0).
Oui, mais n'oublions pas que c'est…une théorie :)
Je suis dans la sécurité, analyser des risques c'est ce que je fais toute la journée.
Ce que la personne du dessus fait revient à trouver une petite taille sans conséquence et aller crier partout qu'il faut tout débrancher et éteindre d'urgence.
C'est tout simplement ridicule. Les risques c'est un spectre et selon ce que c'est on met des mitigations en place et on continue à vivre.
Je veux dire, sortir dans la rue aussi est tirer une boule à chaque fois hein
[^] # Re: Toujours pas convaincu
Posté par arnaudus . Évalué à 5 (+2/-0).
La théorie des graphes aussi, ainsi que la théorie de l'évolution ou la relativité. Il ne faut pas confondre avec les séries policières!
C'était juste une discussion épistémologique. L'argument était "À chaque fois qu'on dit ça il ne se passe rien", et la réponse est "Il existe un cadre théorique en philosophie des sciences où cette observation n'a aucune raison de te rassurer".
Plus fondamentalement, il y a une différence énorme entre les exemples de la vie de tous les jours (sortir dans la rue, prendre l'avion, subir une attaque informatique, etc) et la théorie de la boule noire : quand tu prends l'avion, tu tires toujours dans la même loi de probabilité; les tirages précédents te renseignent donc sur les probabilités de risques. Imaginons que tu n'as aucune idée du risque de prendre l'avion, tu pars donc sur un prior non-informatif; tu prends l'avion une fois et tu survis; tu peux donc conclure que la probabilité de mourir n'est pas 1 (avec un modèle simple, ton intervalle de confiance à 95% est réduit de (0,1) à (0,0.95). Tu prends l'avion 10 fois: ça se réduit à (0, 0.34). Tu prends l'avion 1000 fois? (0, 0.005). Bref, les réussites passées diminuent ton estimation du risque.
Il n'a pas dû t'échapper qu'à Motus, tirer une boule jaune ne fait qu'augmenter la probabilité de tirer une boule noire au prochain coup. La théorie du monde vulnérable suppose juste qu'il existe au moins une boule noire. Chaque nouveauté technologique qui ne détruit pas l'humanité est une boule jaune, et ta civilisation disparait à la première boule noire. Tu ne peux donc absolument rien déduire de la probabilité de tirer une boule noire. Il n'est pas du tout impossible que 90% des boules soient noires, et que l'humanité a juste eu un bol gigantesque de ne tirer que des boules jaunes jusqu'ici; de toutes manières il ne peut pas en être autrement.
De toutes manières, l'argument est solide, sinon il n'aurait jamais été publié et validé; il n'a rien à voir avec prendre l'avion ou traverser la rue. Il existe des objections possibles, mais elles ne sont pas très puissantes. Tu peux affirmer qu'il n'existe pas de boules noires, mais c'est dur à argumenter (pourquoi les lois de la physique interdiraient par essence de fabriquer une bombe H avec un mixer de cuisine?). Plus convainquant: on commence à découvrir les technologies les plus simples, donc s'il existe des boules noires, elles vont être difficiles à tirer, et donc probablement moins facile à déployer à une échelle suffisante pour détruire une civilisation.
Ou alors, plus triste: on a déja tiré une boule noire, c'est les moteurs thermiques qui fonctionnent aux énergies fossiles, et c'est juste que les effets ne sont pas instantanés.
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à -2 (+0/-3).
Bah oui il y a des boules noires. On a eu une boule assez grise il y a 4 ans avec le Covid par exemple, le nucleaire n'est pas une boule noire, mais l-arme atomique par contre pourrait bien devenir une boule noire un jour effectivement.
Les LLMs, au final, c'est une technologie de base, c'est ce que tu en fais qui peut devenir une boule noire.
Si on va assigner des effets terribles aux elements fondationels, alors le charbon est une boule noire, le petrole est une boule noire, etc… mais cela n'a que peu de sens, c'est ce que l'humanité en a fait qui est une boule noire: les bruler sans fin.
[^] # Re: Toujours pas convaincu
Posté par kantien . Évalué à 3 (+1/-0). Dernière modification le 05 février 2026 à 00:19.
Solide, il l'est ! mais il ne date pas d'aujourd'hui. Il traverse toute l'histoire de la philosophie, il a dominé les débats entre écoles philosophiques de toute l'antiquité et, selon Jules Vuillemin, il est au fondement de toute sa métasystèmique de la philosophie. Ce que tu décris ressemble furieusement à l'argument dominateur de Diodore.
Selon Epictète :
La surcouche en terme de calcul des probabilités ne sert à rien, c'est un problème de logique modale (toute mesure de proba induit un logique modale, mais la réciproque n'est pas vraie). Lorsque Diodore affirmait que « rien n’est possible qui n’ait ou ne doive avoir une réalité actuelle », il affirmait, en terme de calcul des probabilités, que ce qui a une mesure non nulle arrivera nécessairement un jour. La théorie que tu mentionnes ajoute simplement comme prémisse que la cause de l'apocalypse a une proba non nulle.
Jacques Bouveresse dans sa série de cours sur le thème « nécessité, contingence et liberté chez Leibniz » est revenu en détails sur l'aporie de Diodore : Le Dominateur, les possibles et le problème de la liberté.
On notera la subtilité de la position de Chrysippe qui rejette la conclusion de Diodore (et donc celle de la théorie que tu évoques) en rejetant la logique modale classique au profit de la logique modale intuitionniste. En terme de proba, cela signifie qu'il rejette l'équivalence
P(A) = 0 ssi P(non A) = 1. Ce qui revient à prendre pour modèle sémantique de la logique modale des algèbres de Heyting et non des algèbres de Boole (comme en calcul des probabilités classique) : une double négation n'est pas équivalente à une affirmation, on rejette le tiers-exclus, le principe du raisonnement par l'absurde…Quoi qu'il en soit, je trouve que tu vas sacrément loin d'en appeler au dominateur pour rejeter une remarque du style « à force de crier au loup, on ne vous écoute plus », surtout quand elle répond à une affirmation manifestement excessive. D'autant qu'alors tu t'exposes à voir s'opposer à toi un partisan de la théodicée de Leibniz à la mode Pangloss : « tout est pour le mieux dans le meilleur des mondes possibles » (c'est ainsi que Voltaire raillait, dans son Candide, la position de Leibniz sur le dominateur).
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
[^] # Re: Toujours pas convaincu
Posté par Meku (site web personnel) . Évalué à 5 (+3/-0).
Je n'ai pas d'expérience avec la génération de code par IA, mais pour ce qui est du code produit par des humains, même s'il n'est pas toujours reluisant, ça reste une construction humaine, avec une logique d'humain derrière.
Écrire du code, c'est comme raconter une histoire. Certains sont très mauvais à ça mais on arrive tout de même, en analysant leur code, à en déduire une manière de penser et de concevoir un logiciel. Ou bien on peut être en train de lire un très vieux code, et déceler les techniques et de l'état de l'art de l'époque où il a été écrit, et donc le comprendre en fonction de ce contexte.
Dans tous les cas, lorsque c'est un humain qui écrit du code, il est obligé de suivre une démarche (même si c'est la démarche la plus merdique possible), une réflexion. Quand on arrive à la saisir, on comprends mieux comment est conçu le logiciel, comme le développeur a voulu (ou essayé) de faire les choses, et comment on peut faire évoluer ou corriger le logiciel en restant dans l'esprit du code originel, ou bien en décidant qu'il vaut mieux tout reprendre sur telle ou telle partie car la logique n'était pas bonne.
Pour une IA, je me demande bien si l'on va arriver à percevoir ce genre de chose en lisant son code. Quand je lis ici que l'IA laisse du code mort (alors que ça ne lui sert à rien), j'ai peur que ça n'ait en fait aucun sens derrière. Et du code qui n'est pas construit comme une histoire, ça me semble horrible à chercher à le maintenir. Bon après, c'est juste un sentiment, comme je n'ai pas encore analysé de code produit par une IA, peut-être que je ne réalise pas la ressemblance avec la production humaine…
[^] # Re: Toujours pas convaincu
Posté par Psychofox (Mastodon) . Évalué à 3 (+0/-0).
Beaucoup d'optimisme la-dedans.
La qualité du code généré par l'IA va peut-être atteindre un plateau, tout comme l'énergie utilisable pour un nombre croissant d'utilisateurs et donc la rapidité. Pour faire una analogie: on a inventé la voiture. Super ça nous faisait gagner du temps pour aller A à B. Ça reste vrai en zone à faible densité. Par contre en zone à haute densité comme certaines grandes métropoles on se rend compte qu'au final a un tel traffic et on gaspille tant d'espace aux infrastructures nécessaire à l'automobile (avenues, parkings…) qu'on passe sa journée dans la bagnole pour faire des trucs qu'on ferait en une demi-heure en marchant vers des commerces de proximités. C'est ma conclusion quand je visite ma belle famille dans une grande ville mexicaine. Tout est fais via et pour la bagnole, à part l'Oxxo du coin de la rue t'as rien tout près de la maison donc tu passes ton temps pare-choc contre pare-choc pour faire des trucs basiques (faire des courses, coiffeur, médecin) que je fais en marchant ou à vélo ici. Du coup là l'IA ça va encore, mais quand 8 milliards d'humains l'utiliseront quotidiennement?
On n'a pas encore assez de recul sur la dette technique générée, une chute probablement croissance sur les connaissances et la capacité des developpeurs à savoir identifier et corriger les erreurs de l'IA dans 3, 5, 10ans. Il y a déjà des dev plus capables de faire quoique ce soit quand ils sont à court de crédit ou que copilot a une panne. Si l'IA s'entraine sur du code essentiellement générée par elle-même avec des erreurs de stagiaire ivre comme l'a mentionné quelqu'un ici, va t'elle progresser ou régresser?
J'ai déjà vu un dev annoncer qu'ils avait été embauché pour nettoyer la merde qui avait été créée via du vibecoding. Je ne sais pas si c'était réel ou juste du click bait mais bon j'entrevoie la possibilité. J'ai testé le vibecoding dans un langage que je ne connais pas, ça marchotte mais tu n'apprends presque rien. Je peux corriger un agent de code quand je sais ce que je fais, pas quand je ne fais que décrire mes prérequis en anglais et que je laisse les reines à un agent.
[^] # Re: Toujours pas convaincu
Posté par Kannagichan . Évalué à 0 (+0/-0).
Je ne constate pas que l'IA fasse du meilleur code.
J'ai l'impression que tout ce qu'elle produit (image, musique ,code ,texte ) y'a un genre uncanny valley.
Mais pour le code, le code est trop "standard", pas dans bon le sens du terme.
Moi même et d'autre dev senior que j'ai questionné, trouve que l'IA fait perdre du temps parce que le review et la correction de code prend beaucoup de temps.
Et je vois pas comment elle va s'améliorer alors qu'elle a pomper tout le web et connaissance humaine…
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 10 (+18/-0).
Personnellement j’appelle déjà ça perdre son travail. Mon travail n’est peut être pas d’écrire du code, mais il est de livrer du logiciel dont je me porte garant d’un niveau de qualité. Je ne relis pas plus vite que j’écris et je suis certains que ceux qui pensent le contraire ont un niveau de revue léger. Donc si tu nous dis plus haut que tu livre du code 5 fois plus vite, je suis prêt à parier que la variable d’ajustement c’est la qualité. Je dis pas que vous livrez de la merde, mais que vous avez accepté de réduire la qualité pour livrer plus vite.
D’autres part vos coûts de développements qui sont probablement réduit aujourd’hui risque de devenir douloureux, si OpenAI n’a plus son cashflow (parce que les investisseurs ne sont plus dans le moud, parce que l’énergie va devenir trop chère ou que sais-je). Vous avez créé un danger fort sur vos chaîne de production et je suis certains qu’il n’a pas était mesuré.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par Thomas (site web personnel) . Évalué à 9 (+8/-0).
Voilà.
En effet, écrire du code est facile, et facilité avec ces agents.
Penser ce code et le maintenir, c'est autre chose.
Je cite de ce pas le grand penseur Yogi Berra : « En théorie, il n'y a pas de différence entre la théorie et la pratique. En pratique, si.»
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 2 (+2/-1).
Tout dépend en fait de ce que tu es en train de faire.
Dans mon cas précis, je construis un prototype pour de l'analyse de code basé sur joern histoire de faire des mesures sur certains paquets de code et en tirer des conclusions.
Je n'ai jamais utilise joern de ma vie bien que j'ai pas mal de connaissances théoriques en ce qui concerne taint tracking et analyse de code. Si j'avais du écrire ce truc à la main, j'aurais du lire comment faire cela avec joern, me familiariser avec sont langage, etc…
J'ai demandé à l'agent de me génerer le code, et surtout de me génerer des tests pour vérifier que l'analyse de code est faite correctement, et je me suis concentré sur la revue des tests plutôt que du code de l'outil, pour m'assurer que les tests couvrent les situations qui importent et que j'aie des résultats corrects. Parce qu'au final, comment le code est écrit je m'en fous un peu tant que les tests couvrent tous les cas qui m'importent et que eux sont corrects.
C'était vraiment bluffant.
Quand à OpenAI, on s'en fout un peu en fait, on a nos propres modèles, on a Anthropic, il y a les Llama de Meta, DeepSeek, … et vu qu'on est AWS ben ils tournent en interne, chez nous. Moi j'utilises principalement Claude Sonnet 4.5
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 5 (+3/-0).
À l'instant où OpenAI ou Nvidia s'enrhumera, ce sera pareil pour tous les providers occidentaux comme un seul homme. C'est pas forcément une disparition, ça peut être multiplier les prix par exemple. Tant qu'il n'existe pas de modèle pérenne pour ces solutions, c'est une connerie de s'en rendre dépendant
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 2 (+1/-0).
OpenAI fait des folies, cela ne veut pas dire que tout le monde fait de même.
De ce que je vois, il y a vraiment OpenAI qui fait des contrats complètement déments, et il y a plein de startups stupides qui mettent le mot AI partout.
Ces startups vont exploser en vol, OpenAI, je ne peux pas prédire mais à mon avis les gens clairement hallucinent sur ce que cela vaut vraiment.
Pour le reste par contre, cela me semble assez solide. Claude Code par exemple, cela a vraiment l'air bien. Niveau prix, cela va suivre les courbes HW assez vite, cela ne m'inquiète pas beaucoup.
[^] # Re: Toujours pas convaincu
Posté par barmic 🦦 . Évalué à 5 (+3/-0).
La soutenabilité n'a pas de lien avec ça. La question c'est juste comment est-ce que ça sera dans 10 ans. Les investisseurs passeront à autre chose. Il y aura toujours de l'argent mais il va aussi falloir qu'ils en dégagent. Il va falloir se demander dans quel DC on peut faire tourner ces trucs sans anéantir notre habitat. Non pas que Altman ou les Amodei vont se réveiller un jour en se disant que l'écologie c'est quand même important, mais bien qu'il y a un moment où ça va devenir concret même pour l'américain moyen. Anthropic continue de brûler des milliards par an, on parlera de pérennité quand ils auront une forme d'équilibre même erratique, avant ça se rendre dépendant c'est un risque qui partout où je regarde n'est même pas estimé. L'IA est une forme de cargo cult doublé d'un FOMO.
Je dis ça je ne suis pas contre l'IA je l'utilise, mais faut se passer la tête sous l'eau froide de temps en temps.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Toujours pas convaincu
Posté par flagos . Évalué à 3 (+1/-0). Dernière modification le 31 janvier 2026 à 14:17.
On commence à voir des modèles légers qui tournent sur des ressources plus légères grace a la distillation. Gemini-3-flash est un meilleur modèle pour l'agentic coding que gemini3-pro par exemple. On peut aussi noter devstral small 2 qui obtient des scores remarquables (68% sur SWE bench verified, il a un gros un an de retard sur les modèles les plus performants) tout en tournant en local.
A mon sens, on va plus voir une rationalisation pour utiliser des modèles plus petits, moins coûteux et plus rapides, voire même qui tourne en local notamment pour les risques liés à la protection des données.
[^] # Re: Toujours pas convaincu
Posté par devnewton 🍺 (site web personnel) . Évalué à 4 (+1/-0).
Tu délégues la recherche et la correction des bugs à tes collègues, c'est ça ?
Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.
[^] # Re: Toujours pas convaincu
Posté par pasBill pasGates . Évalué à 3 (+2/-0).
Au bon dieu, parait qu'il est omniscient donc certainement mieux qu'un LLM !
[^] # Re: Toujours pas convaincu
Posté par fearan . Évalué à 8 (+5/-0). Dernière modification le 01 février 2026 à 18:04.
le teste passe, il est couvrant
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Toujours pas convaincu
Posté par Moonz . Évalué à 10 (+10/-0).
"Si vous voulez apprendre, l’IA est le meilleur outil ça. Si vous voulez ne pas apprendre, l’IA est également le meilleur outil pour ça."
[^] # Re: Toujours pas convaincu
Posté par Faya . Évalué à 8 (+6/-0).
C'est sûrement de l'humour mais pour moi c'est exactement ça. J'ai lu sur Reddit des histoires de dev junior qui font tout avec l'IA et sont incapables de débugger si elle disparaît, ils ne savent pas réaliser la trace d'un programme, trouver où mettre des points d'arrêts pour isoler ce qui déconne, bref ils ne savent pas programmer. Et l'IA ne va pas le leur apprendre… J'ai appris à coder en fouillant, en ratant, en recommençant 15 fois, en passant des après-midi à m'arracher les cheveux (mais j'aimais ça).
Et en même temps, quand tu déjà un certain bagage, l'IA va te permettre de mettre les mains plus rapidement dans un nouveau langage/framework, parce que tu as déjà la compréhension de l'algorithmique, tu sais comment guider ton agent pour qu'il ne parte pas sur la mauvaise route, et surtout tu es capable de lire et comprendre le programme même si tu ne l'as pas écrit. Tu peux démarrer ton prototype rapidement et regarder ce qui est fait, pourquoi, comparer avec les good practices,… Il y a moyen d'apprendre avec si on s'y prend bien et qu'on a les bases. Bref l'IA c'est un cadeau potentiellement empoisonné. Elle ne va rien t'apprendre si elle code à ta place et que tu n'es pas capable de comprendre ce qu'elle (parfois mal) fait. Pour revenir à "l'avenir des juniors", ça peut leur faciliter la vie dans l'immédiat et dans le même temps ruiner leur évolution future. Sans parler du fait que ça n'a absolument pas la même saveur de résoudre un problème et demander à un robot de le faire à notre place.
[^] # Re: Toujours pas convaincu
Posté par Colin Pitrat (site web personnel) . Évalué à 4 (+2/-0).
Pour moi, le "Si vous voulez apprendre, l’IA est le meilleur outil ça." c'est surtout qu'elle peut servir de tuteur personnel. Ça m'est arrivé plusieurs fois de ne pas comprendre quelque chose (un truc que je lis en maths, un bout de code en assembleur, etc…) et de demander à l'IA. Si l'explication ne suffit pas, je lui explique ce que je comprends de la chose, j'essaie d'expliquer pourquoi quelque chose coince et en général, je finis par comprendre (parfois simplement par le fait d'avoir creusé pour poser mes questions).
Avec l'IA générative, tout le monde à accès à son tuteur privé qui excelle dans beaucoup de domaine mais qui en plus, peut parfois dire n'importe quoi donc il faut rester sur ses gardes en permanence. Pour apprendre, c'est l'idéal. À condition que l'on soit motivé (d'autant plus que pour l'utiliser il faut être sur une machine qui a une fâcheuse tendance à nous distraire).
Dans une discussion avec les recruteurs autour de moi, l'un d'eux à dit "ces dernières années, chez les nouveaux diplômés, le niveau moyen des entretiens techniques à globalement baissé, mais le niveau des 10% les plus hauts a significativement augmenté". Et il attribuait ça au fait que ceux qui veulent juste avoir leur diplôme font faire leur boulot à l'IA alors que ceux qui veulent vraiment apprendre s'en servent pour progresser. Ça vaut ce que ça vaut, c'est son interprétation perso des données, pas une étude sérieuse, mais ça colle avec mon expérience personnelle.
[^] # Re: Toujours pas convaincu
Posté par BAud (site web personnel) . Évalué à 3 (+1/-0).
aussi appelé la méthode « parle à ton canard » :D
nul doute qu'il y a un marché à occuper :p (ça fonctionne aussi avec un nabaztag… ah non :/)
[^] # Re: Toujours pas convaincu
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 3 (+0/-0).
Il y a un site web pour ça avec une équipe de canards en plastique prêts à répondre à toutes les questions pour beaucoup moins cher qu'un LLM.
# Mon avis
Posté par Serge Julien . Évalué à 9 (+7/-0). Dernière modification le 30 janvier 2026 à 14:51.
Voici ce que je répondrais à tes questions. Avis totalement subjectif d'un dev tout proche de la retraite et qui jusqu'ici n'a pas utilisé l'IA pour coder au boulot (j'ai fait 2-3 essais sur des projets perso). J'espère que d'autres personnes donneront leur avis aussi…
Très difficilement, malheureusement. J'imagine qu'il va d'abord y avoir une baisse des embauches, surtout dans les boîtes où les RH attendent des miracles de la part de l'IA. Après, soit l'IA monte en "compétence" et rend le métier de dev obsolète pour le remplacer par celui de "poseur de problèmes" (j'entends par là la compétence à bien formuler ce qu'on attend de l'IA), soit les catastrophes imputables à la mauvaise qualité du code généré finissent par instiller la méfiance dans le chef des chefs (mais j'en doute, ces trucs deviendront bons) et il y aura alors une chance pour eles juniors.
Si tu parles de compétences de développement, mon avis est qu'ils stagneront, voire régresseront. Mais ils pourraient acquérir d'autres compétences : le métier va tellement se transformer qu'il est difficile de savoir à quoi il va ressembler. Quand j'ai commencé mes études d'informatique, on ne formait pas de développeurs web : le web n'existait pas.
Oui. Indubitablement.
[^] # Re: Mon avis
Posté par gUI (Mastodon) . Évalué à 7 (+4/-0).
Je suis pas d'accord. Des futurs juniors j'en vois passer en surveillant des TPs… Ça me rappelle tout à fait ma propre jeunesse où j'ai été élevé par des profs qui nous disaient qu'il faut passer du temps papier/crayon avant de toucher le clavier, pendant que d'autres profs nous disaient "mais putain, vous compilez en 2mn, vous gênez pas, pissez du code et faites bosser la machine ! c'est fini la compilation qui dure toute une nuit."
Je force, mais pour moi j'ai vu chez eux clairement une utilisation intelligente de l'IA : de la relecture, de la création de boilerplate, répondre à une question précise… Mais jamais je ne les vois filer le sujet et attendre que ça ponde tout. En parlant avec eux ils savent très bien que c'est très limité si tu fais ça. Ça marchera oui, mais déjà ils vont se faire dézinguer par le prof qui va le détecter à 10km, et en plus c'est les premiers à savoir que pour ensuite faire 3 modifs (typiquement la question suivante sur le sujet) ils vont galérer.
Franchement, sans vouloir dire du tout que "junior + IA = senior" un junior reste un junior : il coûte moins cher qu'un senior, et ça, ça compte pour un recruteur ;)
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: Mon avis
Posté par totof2000 . Évalué à 3 (+1/-0).
Ben oui, c'est exactement ce que fait l'IA. Je ne pourrais pas mieux résumer. Après certains s'en contentent et font du copier/coller crade dans leur projet (ça marche, mais se foutent royalement de qui va reprendre derrière), et d'autres (comme moi) demandent via 3 ou 4 itérations supplémentaires de refactoriser un peu et d'avoir des trucs un peu mieux structurés ( en faisant attention qu'à chaque itération, l'IA ne te supprime pas complêtement un truc qui pose problème plutôt que de le corriger). Est-ce qu'on gagne du temps ainsi ? Je n'en suis pas certain. Parfois oui, parfois non, mais globalement je n'ai pas l'impression que globalement on y gagne tant que ça (en tout cas c'est mon retour d'expérience).
[^] # Re: Mon avis
Posté par Thomas (site web personnel) . Évalué à 2 (+2/-1).
IA -> agents, hein, sinon on raconte n'importe quoi.
La majorité sera full-agent, agents qui seront intégrés dans leurs environnements de dev. Pour avoir vu des stagiaires ces dernières semaines, je suis très pessimiste sur la maîtrise du code. J'ai été approché par des boîtes qui poussent fort sur cette intégration. A mes yeux c'est une ineptie.
Ils ne vont pas monter en compétence sur le code, ou peu. Ils vont apprendre à développer avec des agents et vont apprendre plein de choses, mais appellera-t-on ça développer ? Qui sait.
Oui. Dette technique++. On a encore du pain sur le clavier.
Après, le risque est de tomber dans une sorte de querelle des anciens contre les modernes, sans toutefois verser dans le FOMO. Difficile.
[^] # Re: Mon avis
Posté par Philippe F (site web personnel) . Évalué à 4 (+3/-1).
Comment ces juniors full-agent vont-ils faire pour travailler sans accès internet ? Dans ma boite, la majorité du développement est fait en zone sécurisée (nous travaillons dans la haute sécurité), donc sans accès internet, sur un réseau à part.
Ah oui, c'est pour eux qu'on est train de bricoler une IA interne locale, entrainée uniquement sur nos données privées. Finalement, ils vont peut-être s'en sortir…
Tout ça est déprimant, je suis pas assez prêt de la retraite pour passer au travers de toute cette m*****
# Faut faire avec :)
Posté par fearan . Évalué à 9 (+6/-0).
La première erreur est de laisser l'IA commettre sans relire avec un oeuil critique.
Je l'utilise au travail, typiquement je lui ai demandé de rajouter une information dans un flux de données, le flux transitant déjà une map de map, il m'a rajouté un truc via des @header; c'est cool, il m'a modifié tous les fichier (bon sauf 1) impacté, mais
1) le code initial était bof,
2) le code résultant était pire
Je l'ai repris pour remplacer la map de map, par un record avec la map en question, et la donnée supplémentaire.
chose qui a payé car pas longtemps après il a fallu rajouter une autre info, et j'ai juste eu à modifier le record, sa création et son usage, pas les 15 interfaces / implémentations / usage/ passe plat, qui traînaient.
Autre exemple, j'ai un soucis de bibliothèque qui génère un mauvais flux de données, dans l'absolu c'est correct, mais pas pour mon usage, je lui demande de me faire un remplacement via un stream, on passe de 20ms d'écriture, a 17s; autant dire que c'est pas envisageable.
Je lui signale, elle me crée une nouvelle classe bien plus complexe, (sonar alerte sur une brain fonction difficilement lisible), moi même j'ai du mal à suivre, je lui demande de simplifier, le résultat est performant et lisible.
Bref dans les deux cas j'aurais pu accepter les modifs sans vérifier ou relire, dans le premier cas j'aurais galéré pour ajouter la 3eme info, dans le 2eme cas j'aurais perdu en performance.
Ma conclusion, c'est que si tu codes sans comprendre et sans relire & comprendre ce que fait l'IA, tu auras potentiellement un résultat rapide, mais très difficile à faire évoluer.
Pour un truc simple et jetable oui, pour avoir un truc maintenable, on y est pas encore
Tu va pas pouvoir faire tourner les modèles que tu as avec intelliJ ou github avec une carte graphique domestique ; quant à être développeur, le code n'est qu'un support, ce qui est important c'est comment tu va architecturer ton code prendre du recul et faire un peut d'abstraction; de ton propre constat l'IA utilisée n'a pas fait ce travail.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
# Merci pour le retour
Posté par Thomas (site web personnel) . Évalué à 7 (+7/-1).
Pourquoi ?
Ta conclusion explique plutôt que le code est mi-pourri mi-moisi, et que tu aurais fait mieux sans les agents.
[^] # Re: Merci pour le retour
Posté par Luc-Skywalker . Évalué à 5 (+3/-0). Dernière modification le 30 janvier 2026 à 17:26.
La réponse cynique: parce que c'est là ou on met le pognon et parce que c'est déjà le monde de demain (comme le telef portable ou l'internet 1 2 3.0 avant cela mais en x10).
La réponse mesurée: parce que bien utilisée, ça marche.
Je plussoie le "merci pour le retour".
On va dire que j'ai déjà tenté ce genre d’expériences.
Je préfèrerais (*) que cela (le stagiaire IA) tourne en local mais je me demande si c'est seulement possible ?
(*) les CPU d'aujourd'hui embarquent presque tous des fonctionnalités d'IA.
"Si tous les cons volaient, il ferait nuit" F. Dard
[^] # Re: Merci pour le retour
Posté par barmic 🦦 . Évalué à 3 (+1/-0).
Installe ollama. Tu aura un large choix de modèle. Certains vont plus galérer que d'autres, on va pas se mentir.
Tu peux même utiliser claude code maintenant avec ollama : https://docs.ollama.com/integrations/claude-code
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Merci pour le retour
Posté par Luc-Skywalker . Évalué à 2 (+0/-0).
Merci pour la réponse.
à priori ça devrait marcher avec ma bécane (Rock5B avec un RK3588).
Je vois que dans le noyau 6.18, il y a
drivers/accel/rocket:
:)
Ma question était aussi en rapport avec ce dont sera capable le petit NPU embarqué. Je pense qu'il est illusoire d’espérer l'utiliser comme assistant pour programmer.
"Si tous les cons volaient, il ferait nuit" F. Dard
[^] # Re: Merci pour le retour
Posté par barmic 🦦 . Évalué à 2 (+0/-0).
C'est ce que prétend ce commentaire : https://linuxfr.org/users/san_guickoo/journaux/retour-d-experience-sur-le-developpement-d-une-application-par-l-utilisation-d-ia#comment-2012088
Bon devstral small 2 , c'est :
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Merci pour le retour
Posté par Luc-Skywalker . Évalué à 2 (+0/-0).
oui, ben je suis loin du compte.
Le blog du dev (de chez Collabora je crois) met en avant la reconnaissance d'image et ça a l'air plutôt efficace. Comme c'est pas mon truc, je n'ai pas trop d'idées quant à l'utilité que je pourrais tirer de mon NPU.
"Si tous les cons volaient, il ferait nuit" F. Dard
# Ce que je pense de l'IA
Posté par David Demelier (site web personnel) . Évalué à 3 (+8/-7).
Voir ma signature.
AI is a mental disorder
# Utile pour le oneshot
Posté par ff9097 . Évalué à 7 (+5/-0).
L'IA c'est surtout pratique pour des scripts simples qui ne serviront qu'une seule fois mais qui demanderaient un peu de lecture de doc quand même si tu ne maîtrise pas l'API en face.
[^] # Re: Utile pour le oneshot
Posté par Colin Pitrat (site web personnel) . Évalué à 5 (+3/-0). Dernière modification le 31 janvier 2026 à 09:29.
Oui c'est super adapté pour faire un prototype, expérimenter et itérer rapidement. Un gros défaut dans le monde de l'ingénierie logiciel, c'est qu'on a tendance à faire des prototypes et à ensuite les envoyer en prod. C'est déjà une très mauvaise habitude, mais ça deviendra encore pire avec l'IA (du moins tant qu'elle n'aura pas une vision globale).
Mon expérience personnelle avec l'IA générative pour le code c'est qu'elle excelle dans certains domaines: les taches répétitives, bien définies et peu ambiguës. Si on a une spécification de format de fichier et qu'on veut écrire un parseur par exemple. La génération de tests unitaires est aussi un très bon exemple.
C'est un outil très performant du moment qu'on le guide suffisamment. Mais il faut aussi des taches sur lesquels la génération par IA suivie d'une vérification (et potentiellement correction) par un humain fait gagner du temps. Si la vérification est presque aussi complexe que la génération, il y a de fortes chances de perdre beaucoup de temps. Disons qu'il faut prévoir jusqu'à une demi-douzaine d'itérations pour être sûr.
Récemment j'ai utilisé l'IA pour générer du code plus complexe avec des résultats mitigés. La leçon générale que j'en tire c'est qu'il faut un prompt précis qui fournisse les étapes à suivre et l'architecture globale que l'on désire. Il faut fournir plus de détails que ce qu'on ferait typiquement avec un humain, même un junior (ou alors un junior "du bas du panier").
Mais j'ai aussi commencé à faire une première passe de revue de code par l'IA elle même et ça fournit, là aussi, des résultats parfois plutôt bons pour créer un prompt pour refactorer le code. Il faut juste faire le tri…
Au final il y a une véritable compétence à développer pour savoir quand et comment utiliser ces outils de manière efficace. En l'état actuel, ce n'est pas facile: les performances évoluent rapidement, le modèle utilisé change la donne et il peut changer automatiquement par manque de crédit, un modèle plus récent peut être meilleur pour une tache et moins bon pour une autre, etc…
[^] # Re: Utile pour le oneshot
Posté par pasBill pasGates . Évalué à 6 (+5/-0).
Pour moi le vrai problème de l'IA c'est surtout cela :
Tu communiques en langage naturel (anglais, francais, …) donc instinctivement tu crois que tu parles à une personne, et tu omets plein de contexte qu'un humain connaitrait ou trouverait logique.
Cela amène des prompts bien plus courts qu'ils ne devraient l'être.
Il y a toute une éducation sur comment écrire des prompts pour avoir le meilleur résultat possible selon les modèles qui est nécessaire.
[^] # Re: Utile pour le oneshot
Posté par Faya . Évalué à 2 (+0/-0).
D'où l'intérêt de savoir rédiger un bon agent.md.
Ça doit faire 3 fois que je colle ce lien sur LinuxFR mais j'ai l'impression que les gens qui se plaignent que leur LLM fasse n'importe quoi l'ont testé en mode copier-coller dans l'interface web, sans jamais lui donner de guidelines. Donc le voici de nouveau. C'est salvateur si on veut obtenir des résultats : https://www.lesswrong.com/posts/dxiConBZTd33sFaRC/field-notes-from-shipping-real-code-with-claude
[^] # Re: Utile pour le oneshot
Posté par Renault (site web personnel) . Évalué à 4 (+1/-0).
Ça ne suffit pas, chaque interaction le nécessite.
Mais même en s'en servant "bien" les résultats faux, bancals ou surprenants arrivent. Ce serait se mettre des œillères de ne voir quand cela fonctionne bien et ignorer les limitations aussi bien réelles.
C'est d'ailleurs tout le risque si tu le confis à des personnes non expertes du domaine où il est employé ou si celui ci fait une confiance aveugle et ne vérifie pas assez : ne pas voir quand ça part en vrille.
[^] # Re: Utile pour le oneshot
Posté par Faya . Évalué à 2 (+0/-0).
C'est exactement ce que j'ai écrit plus haut. Quand je dis qu'il est nécessaire de savoir rédiger un bon agent.md, je ne dis bien sûr pas qu'il est suffisant de savoir rédiger un bon agent.md
# PRD
Posté par flagos . Évalué à 7 (+5/-0). Dernière modification le 30 janvier 2026 à 17:34.
J'ai de bons résultats avec l'IA. Je trouve gemini-3-flash particulièrement bon et rapide.
Mon conseil, c'est comme pour un junior ou un stagiaire, il faut pas le laisser trop faire :-)
J'utilise ces prompts https://github.com/snarktank/ai-dev-tasks/tree/main pour créer un PRD ticket afin de mettre en place le contexte de la feature (en plus de l'Agents.md), ensuite un autre prompt pour en dériver une liste de tâches assez fines. Il faut bien travailler sur ces 2 étapes, ça doit prendre plusieurs heures. Avec ces 2 premiers prompts, on arrive à un fichier PRD et un fichier tasks.
Une fois que c'est fait, on doit avoir une bonne compréhension du développement a faire. On peut générer une tâche a la fois, on doit être a 20-30 lignes max a chaque fois, et comme le contexte est déjà bien clarifié, on peut prendre un petit modèle rapide.
L'avantage ? Oui certainement un gain de temps, mais au delà de ça, on anticipe les problèmes, on design la solution proprement. Chose qu'on ne pas toujours lorsqu'on code a la main.
Autre avantage: lorsqu'une feature évolue en cours par le PM change d'avis, vous reprenez votre PRD, droppez les commits d'implémentation qui ne sont plus valides, et vous raffinez la solution. Comme derrière le code se re-genere rapidement c'est pas un problème, finalement ça ira bien plus vite. On est plus résilient face aux specs non figées, le travail devient moins stressant.
[^] # Re: PRD
Posté par flagos . Évalué à 5 (+3/-0).
Autre astuce que j'ai oublié de mentionner avec votre cli agent préféré : faites lui générer les tests et faites en sorte qu'ils puissent les exécuter. Il va corriger de lui même certaines erreurs et lorsque vous allez demander des changements de code, il relancera les tests de lui même.
[^] # Re: PRD
Posté par Colin Pitrat (site web personnel) . Évalué à 2 (+0/-0).
ch Mon expérience c'est qu'il faut lui rappeler régulièrement de lancer les tests. Dans l'outil que j'utilise il est possible de fournir des fichiers contextuels (dans chaque répertoire du path courant) chargés automatiquement, c'est très pratique pour ce genre de choses
J'ai aussi eu de mauvaises expériences ou l'agent, malgré le prompt disant de modifier le code pour que les tests passent, finissait par modifier les tests et déclarait un succès. L'IA avait mouliné pendant un bon moment, et mon hypothèse est qu'elle avait remplit sa fenêtre contextuelle et qu'il ne restait plus grand chose du prompt initial.
[^] # Re: PRD
Posté par barmic 🦦 . Évalué à 2 (+0/-0).
C'est le truc que je fais pas. J'interdis l'usage de maven aux IA. C'est très verbeux ça va consommer beaucoup de tokens pour un workflow que je trouve regrettable. Je lance les tests et je corrige, c'est l'occasion de vraiment rentrer dans les tests.
Je vous ai dit à quelle point c'est important d'own ce qu'on livre ? :)
Je suis très déçu par contre sur la difficulté qu'on les llm à produire des tests basés sur les propriétés.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: PRD
Posté par flagos . Évalué à 2 (+0/-0).
Disons que l'approche que je suggère de générer des petits blocs de code permet justement de relire et comprendre où on va et si l'AI n'a pas devié.
Et le fait de lui laisser exécuter les tests, ça permet de s'assurer avant de relire que le code faut quelque chose d'a peu près cohérent.
Pour les tokens, c'est aussi l'intérêt des prompts que j'ai partagé : on écrit tout le contexte dans 2 fichiers, et on implémente 1 a 1 les tâches en effaçant le contexte des que ça devient un peu gros. Bon après maven je connais pas, si il est verbeux c'est un souci, mais typiquement un run pytest sur un dossier ça va te sortir 10 lignes sintout est bon, donc ça va pas te remplir le contexte en 2 minutes.
[^] # Re: PRD
Posté par barmic 🦦 . Évalué à 2 (+0/-0).
maven est très verbeux. C'est moins une question de remplir le contexte que si je paie mon token je préfère éviter. A noter que je n'ai pas d'aller-retour. Je ne fais jamais écrire le code et les tests par le LLM soit il écrit l'un et j'écris l'autre soit l'inverse.
Si un jour je voudrais aller vers ça, je pense que je me débrouillerais pour chercher et faire si besoin un MCP qui wrap maven et retourne une information plus concise.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
# Parenthèse
Posté par Maderios . Évalué à 5 (+4/-1).
Fin de la légende:
[^] # Re: Parenthèse
Posté par Colin Pitrat (site web personnel) . Évalué à 10 (+9/-0).
On a tous lu ce genre de debunk. Mais on a tous une mémoire de poisson rouge donc on a oublié…
[^] # Re: Parenthèse
Posté par Benoît Sibaud (site web personnel) . Évalué à 5 (+2/-0).
[^] # Re: Parenthèse
Posté par gUI (Mastodon) . Évalué à 4 (+1/-0). Dernière modification le 31 janvier 2026 à 10:09.
Oublié quoi ?
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: Parenthèse
Posté par ted (site web personnel) . Évalué à 3 (+1/-0).
La mémoire de moule, c'est pire
Un LUG en Lorraine : https://enunclic-cappel.fr
[^] # Re: Parenthèse
Posté par Maderios . Évalué à 1 (+1/-2).
Le pire, c'est une mémoire de moule + un QI d'huître. Quand ça concerne la politique, ça fait mal:
https://www.rtl.be/actu/decryptage-rtl-info/qui-est-vraiment-jordan-bardella-le-visage-angelique-de-lextreme-droite/2024-06-24/article/683398
# dépendance
Posté par Psychofox (Mastodon) . Évalué à 5 (+2/-0).
Le marché tend clairement à pousser les gens/entreprises à devenir dépendants des grostech comme elles l'étaient déjà avec des trucs comme office ou active-directory (et maintenant Azure).
# sécurité
Posté par Psychofox (Mastodon) . Évalué à 5 (+2/-0). Dernière modification le 01 février 2026 à 20:20.
Et parmis ceux qui utilisent des agents distants ici, combien isolent complètement l'environnement de développement de leur agent du reste de leur station de travail?
Où vous y allez YOLO en faisant tourner l'agent directement dans votre IDE ou shell?
[^] # Re: sécurité
Posté par flagos . Évalué à 2 (+0/-0).
Qu'est ce que tu veux par "complètement" ?
La plupart des cli agents embarquent une sandbox, et par défaut, ils ne peuvent accéder aux fichiers en dehors de $CWD. La sandbox peut également empêcher toute connection réseau (en dehors des appels a la LLM évidemment), mais ca peut etre pénible si tu as besoin d'une base de données pour tes tests par exemple. Et les réglages de la sandbox peuvent être forcées au niveau organization par l'IT, du moins chez OpenAI.
Bon tu peux trouver que ce n'est pas suffisant et qu'il faut tourner l'agent dans un container docker que tu peux restreindre comme tu veux, mais dire que de base c'est en mode YOLO, c'est un peu exagéré.
[^] # Re: sécurité
Posté par barmic 🦦 . Évalué à 2 (+0/-0).
Je bosse sur du code open source et je le fais travailler sur un workdir vierge, il n'a évidement pas accès à la signature de mes commits. Techniquement je ne le sandbox pas et il peut véroler ma machine c'est vrai, mais ce n'est pas trivial (il ne peut pas mettre en péril mes projets sans, faire une première étape pour me voler ma clef privée.
Ce n'est pas une sécurité en béton (je vais regarder comment le sandboxer à un niveau en plus), mais j’appellerais pas ça YOLO
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: sécurité
Posté par Moonz . Évalué à 3 (+1/-0).
Personnellement, ça fait un moment que je considère irresponsable d’avoir un environnement de dev non-sandboxé. Avant même les agents de développement, les supply chain attacks, où
npm install xqui tire y qui tire z qui tire t qui est compromis et peut lancer n’importe quelle commande shell (à l’installation, sans même l’utiliser) était une raison amplement suffisante pour isoler les environnements de dev.[^] # Re: sécurité
Posté par barmic 🦦 . Évalué à 3 (+1/-0).
Comment fais-tu ? Tu utilise des règles avec le LSM de ta distribution ? Des containers docker/lxc ? Des VM ?
Comment ça impact ton utilisation ? Tu a ton éditeur graphique qui est dans la sandbox ?
Avec java, je n'ai jamais vraiment ressenti le problème puisque maven n'exécute jamais du code, il ne fait que télécharger des fichiers signés.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: sécurité
Posté par Moonz . Évalué à 3 (+1/-0).
https://linuxfr.org/users/moonz/journaux/sandboxer-des-applications-avec-bubblewrap-3-3-script-de-gestion :)
(et plus récemment https://gist.github.com/sloonz/ef282a1f53366e1ed6f5cb848de015ba)
Oui, l’éditeur graphique est dans la sandox.
Les plus gros impacts c’est :
foo: ~/Downloads/y: file not found… ha tiens oui, faut le copier manuellement dans la sandbox du projet x)[^] # Re: sécurité
Posté par Psychofox (Mastodon) . Évalué à 4 (+1/-0).
À la maison j'ai une VM de dev mais claude-code tourne dans un podman dédié avec accès uniquement au répertoire du projet en question.
Je fais tourner l'agent dans un shell, j'utilise neovim comme ide dans un autre pod qui n'a accès qu'à mon src.
au boulot je ne peux pas faire tourner de container ni de VM et n'ai pas accès à neovim donc c'est copilot YOLO dans intellij.
# Mécanisation du travail
Posté par datross . Évalué à 5 (+5/-0).
Bien sûr, il ne faut pas nier les problèmes actuels de fiabilité du code généré et les enjeux à long terme d'apprentissage du développement informatique.
À mon sens, l'avènement des LLM est comparable à la mécanisation de travaux manuels tout au long de la révolution industrielle. Même si la transition est peut être plus rapide actuellement.
La révolution industrielle a engendré des industries mécanisées et automatisées d'un côté, et un monde de l'artisanat de l'autre côté. L'artisanat de la production matérielle est plus cher, plus confidentiel, et plus sur-mesure.
Peut être que l'avenir de beaucoup de métiers intellectuels sera analogue, nous verrons.
Dans le cas du dev, je pense qu'il faut avoir à l'esprit que depuis le début, le fruit du travail des développeurs a été (entre autres) d'automatiser les tâches d'autres métiers et de faire perdre leur boulot à pas mal de gens, ou alors de les transformer en profondeur. Les calculatrices (de la Nasa par exemple), les guichets, les dessinateurs, les photographes, la presse, les musiciens, etc, sont des gens qui ont vu dans leur métiers des automatisations souvent partielles, parfois totales.
Je trouve donc un peu hypocrite, venant de la part des développeurs dans son ensemble, de crier au loup avec l'automatisation de l'une de leurs tâches qui est l'écriture du code.
# Mon retour d'expérience
Posté par karteum59 (site web personnel) . Évalué à 5 (+3/-0). Dernière modification le 02 février 2026 à 16:01.
Puisqu'on parle du sujet, je m'y suis aussi mis en janvier
J'ai été bluffé, mais je suis d'accord avec les commentaires plus haut qui pointent le risque de dépendance et de dette techique (ne plus own le code…). Clairement, je ne suis pas en mesure de débugger facilement les milliers de lignes que Claude m'a généré (d'autant que si j'ai fait appel à lui, c'est précisément que je ne suis pas hyper à l'aise avec la programmation web ni Android). Mais ça reste super impressionnant !
Même si on restreint l'accès uniquement à une partie de son arborescence, je reste mal à l'aise avec l'idée qu'il puisse exécuter n'importe quelle commande shell (la prochaine fois je pense que je vais créer un chroot ou un conteneur dédié).
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.