Une I.A. ne prend pas des décisions architecturales, elle vomit du code à partir de celui présent sur internet. Elle ne crée pas, n'a pas d'imagination, ne pense pas aux développeurs que reliront son code, n'a pas d'humour. Elle ne laissera pas un petit commentaire personnalisé bien écrit pour les développeurs juniors qu'on vient d'engager.
Tu n'as jamais interagit avec un modèle plus récent que GPT 3.5?
Les modèles génératifs modernes sont clairement difficile à distinguer des meilleurs humains pour ce qui est de:
- produire du code de bonne qualité (incluant les commentaires) pour des problèmes relativement complexes mais bien spécifiés
- faire preuve d'humour
- interpréter et expliquer de l'humour
- produire (et expliquer) de la poésie
Là où personnellement je suis inquiet en tant qu'informaticien, c'est sur la maintenance de systèmes réalisés, tout ou en partie, en utilisant ces outils. Parce que gérer des systèmes énormes que l'on a pas écrit (ou seulement une petite partie), c'est compliqué. Je le sais, c'est ce que je fais au quotidien. Les modèles génératifs permettent de faire grossir ces systèmes encore plus, encore plus vite, en comprenant toujours moins ce qu'ils font.
Et quand l'IA fonctionne bien, le management s'en félicite. Quand ça part en sucette, le management fouette les techos pour réparer les dégâts plus vite et les blâment pour n'avoir pas empêché le désastre. Malgré les alertes et l'absence de moyens. Malgré les licenciements, les non remplacements et l'augmentation de la charge de travail.
Au final, c'est un problème organisationnel et managerial. L'IA dans tout ça n'est qu'un élément de plus qui vient amplifier tout ce merdier.
Ce n'est souvent quelque chose de conscient mais, comme tous les biais cognitifs, quelque chose qui influe notre raisonnement sans même que l'on s'en rende compte.
Ce qu'il suggère et qui me semble pertinent, c'est qu'on utilise le slogan "tout est politique" en le prenant pour évident à cause du premier sens mais qu'on en fait parfois des déductions en utilisant les deux autres sens sans même s'en rendre compte.
Et c'est à mon avis très pertinent, car dans le cas présent, c'est ce qui se passe (justifier la prise de position d'une entreprise en disant que ce qu'elle produit est politique car "tout est politique").
À noter que le premier sens n'apporte rien, c'est une tautologie. Mais c'est aussi celà qui fait que personne ne contredira ce sens là. À l'opposé, les autres sens sont plus fort mais rencontreront moins d'adhésion. Mais si la phrase est utilisée dans une argumentation avec le second sens, identifier le raisonnement bancal demande beaucoup d'effort comparé à la simplicité avec laquelle l'argument initial est développé (loi de Brandolini).
C'est vrai qu'on voit une diabolisation des écrans et en tant que parent, moi même j'ai du mal à faire comprendre à mes enfants. J'essaie de faire passer le message (déjà plutôt simpliste) qu'il faut différencier :
- usage passif vs. actif
- usage accompagné vs. seul
- choix de l'activité vs. activité choisie par l'algorithme (je veux regarder X vs. l'algorithme me fait regarder Y)
- usage modéré vs. signes de dépendance(1) (temps passé, difficulté à faire autre chose, impossibilité de s'arrêter malgré l'envie, …)
- usage connecté (et les risques associés en l'absence de contrôle) vs. usage déconnecté
- spectre d'activité de "qualité" diverse pour le cerveau: regarder un film, jouer à Minecraft, doom scroller, programmer en Scratch ou en python, écrire un roman … Ce sont autant d'usages des écrans qui n'ont pourtant rien à voir. Ils ne nécessitent pas les mêmes limites (de temps par exemple) ni le même accompagnement.
Pour ma part, mes enfants ont un ordinateur portable avec limite de temps (durée et heures de la journée, différentes en semaine et weekend) et proxy avec "liste blanche" très restreinte pour l'accès à Internet. J'essaie dans la mesure dunpossible d'accompagner les activités les moins nobles (jeux, films/séries, accès internet) qu'ils peuvent avoir en dehors de leur ordinateur, mais c'est clairement de plus en plus difficile (ils entrent dans l'adolescence).
(1) À ce sujet, ma fille montre des signes de dépendance aux livres (difficulté à lui faire lacher un livre pour venir à table, jouer avec ses amis, … besoin irrépressible d'emmener ses livres partout avec elle, peur de ne pas en avoir pris assez). C'est, de manière intéressante, beaucoup moins considéré comme problématique par les parents autour de nous (qui nous disent même à quel point on est chanceux).
C'est juste une blague, rien de plus. Comme goto++, ook, FizzBuzzEntrepriseEdition, ou autre. Il ne faut pas s'exciter comme ça.
N'importe qui ayant un peu de culture sur les LLMs modernes sait qu'ils sont maintenant bien meilleurs que l'humain moyen pour détecter et expliquer l'ironie. Un projet de plus sur GitHub faisant du code pourri pour le fun ne va pas influencer l'entraînement des LLMs sur le code (qui est extrêmement facile et efficace comparé à d'autres tâches grâce à une phase de reinforcement learning basée sur des choses très concrètes). Si ça a un impact sur les IAs génératives, ça sera d'améliorer leur capacités humoristiques.
Pour moi, le "Si vous voulez apprendre, l’IA est le meilleur outil ça." c'est surtout qu'elle peut servir de tuteur personnel. Ça m'est arrivé plusieurs fois de ne pas comprendre quelque chose (un truc que je lis en maths, un bout de code en assembleur, etc…) et de demander à l'IA. Si l'explication ne suffit pas, je lui explique ce que je comprends de la chose, j'essaie d'expliquer pourquoi quelque chose coince et en général, je finis par comprendre (parfois simplement par le fait d'avoir creusé pour poser mes questions).
Avec l'IA générative, tout le monde à accès à son tuteur privé qui excelle dans beaucoup de domaine mais qui en plus, peut parfois dire n'importe quoi donc il faut rester sur ses gardes en permanence. Pour apprendre, c'est l'idéal. À condition que l'on soit motivé (d'autant plus que pour l'utiliser il faut être sur une machine qui a une fâcheuse tendance à nous distraire).
Dans une discussion avec les recruteurs autour de moi, l'un d'eux à dit "ces dernières années, chez les nouveaux diplômés, le niveau moyen des entretiens techniques à globalement baissé, mais le niveau des 10% les plus hauts a significativement augmenté". Et il attribuait ça au fait que ceux qui veulent juste avoir leur diplôme font faire leur boulot à l'IA alors que ceux qui veulent vraiment apprendre s'en servent pour progresser. Ça vaut ce que ça vaut, c'est son interprétation perso des données, pas une étude sérieuse, mais ça colle avec mon expérience personnelle.
ch Mon expérience c'est qu'il faut lui rappeler régulièrement de lancer les tests. Dans l'outil que j'utilise il est possible de fournir des fichiers contextuels (dans chaque répertoire du path courant) chargés automatiquement, c'est très pratique pour ce genre de choses
J'ai aussi eu de mauvaises expériences ou l'agent, malgré le prompt disant de modifier le code pour que les tests passent, finissait par modifier les tests et déclarait un succès. L'IA avait mouliné pendant un bon moment, et mon hypothèse est qu'elle avait remplit sa fenêtre contextuelle et qu'il ne restait plus grand chose du prompt initial.
Oui c'est super adapté pour faire un prototype, expérimenter et itérer rapidement. Un gros défaut dans le monde de l'ingénierie logiciel, c'est qu'on a tendance à faire des prototypes et à ensuite les envoyer en prod. C'est déjà une très mauvaise habitude, mais ça deviendra encore pire avec l'IA (du moins tant qu'elle n'aura pas une vision globale).
Mon expérience personnelle avec l'IA générative pour le code c'est qu'elle excelle dans certains domaines: les taches répétitives, bien définies et peu ambiguës. Si on a une spécification de format de fichier et qu'on veut écrire un parseur par exemple. La génération de tests unitaires est aussi un très bon exemple.
C'est un outil très performant du moment qu'on le guide suffisamment. Mais il faut aussi des taches sur lesquels la génération par IA suivie d'une vérification (et potentiellement correction) par un humain fait gagner du temps. Si la vérification est presque aussi complexe que la génération, il y a de fortes chances de perdre beaucoup de temps. Disons qu'il faut prévoir jusqu'à une demi-douzaine d'itérations pour être sûr.
Récemment j'ai utilisé l'IA pour générer du code plus complexe avec des résultats mitigés. La leçon générale que j'en tire c'est qu'il faut un prompt précis qui fournisse les étapes à suivre et l'architecture globale que l'on désire. Il faut fournir plus de détails que ce qu'on ferait typiquement avec un humain, même un junior (ou alors un junior "du bas du panier").
Mais j'ai aussi commencé à faire une première passe de revue de code par l'IA elle même et ça fournit, là aussi, des résultats parfois plutôt bons pour créer un prompt pour refactorer le code. Il faut juste faire le tri…
Au final il y a une véritable compétence à développer pour savoir quand et comment utiliser ces outils de manière efficace. En l'état actuel, ce n'est pas facile: les performances évoluent rapidement, le modèle utilisé change la donne et il peut changer automatiquement par manque de crédit, un modèle plus récent peut être meilleur pour une tache et moins bon pour une autre, etc…
toujours avoir un ou deux vieux PC en réserve avec un Linux léger pour dépanner les proches
C'est à double tranchant. Si le PC est trop vieux, ça donne une mauvaise image de Linux. Ce sera lent, avec des temps de chargement exasperants et des trucs qui ne tournent carrément pas. Donc idéalement, un vieux PC mais pas trop pourri non plus!
C'est quoi cette horreur de commit log avec tout ces émoji ? On se croirait dans une foire.
J'ai vu ça dans d'autres projets. C'est une façon de catégoriser les différents commits (technique (merge, rebase, …), correction de bug, nouvelle fonctionnalité, refactoring, etc…).
Je ne suis pas non plus très fan mais je vois l'avantage. Une fois qu'on connait la signification de chaque pictogramme on peut vite survoler le log pour retrouver le commit qui nous intéresse.
Il faut malheureusement admettre que dès qu'on parle d'un sujet politique, la paix sociale impose une dose substantielle d'irrationalité.
C'est une conception assez curieuse de considérer que l'humain (la paix sociale dans cette phrase) serait d'une certaine manière extérieur à la science et que l'intégrer dans l'équation fait immédiatement sortir la science.
La science permet d'éclairer les choix, les finalités sont éminemment politiques.
Mais sirtouty, le HDMI consortium interdit toute implémentation open source de HDMI 2.1 et c'est de la faute de Linux?! Une façon bizarre d'attribuer "la faute"…
Respecter un protocole dans l'écriture d'un document scientifique c'est permettre au lecteur de s'y retrouver plus rapidement. Si les documents scientifiques adoptent tous une certaine structure et un certain format c'est une forme d'optimisation de la transmission d'information.
dans quelques mois / années on saura s'il a gagné son pari.
Il semble quand même extrêmement bien parti pour le perdre:
- le rythme de croissance des dépenses d'OpenAI (apparemment à peu près x2 chaque trimestre et une estimation à 12 milliards de $ au 3e trimestre 2025) n'est pas tenable pour très longtemps
- la concurrence tient bon (Gemini, Claude, DeepSeek) et pour moins cher. Le secteur risque de rester concurrentiel tant qu'il y aura de l'argent à se faire.
- je ne vois pas d'effet réseau ni de barrière à l'entrée comparables à d'autres secteurs pour l'IA. Certes il faut des experts, du matos, etc… mais il est possible de croître les capacités d'inférence progressivement et les utilisateurs ne sont pas captifs. Le seul truc qui joue en faveur du plus gros ce sont les économies d'échelle.
- la part "professionnels" des clients sera très importante (prépondérante ?) dans les revenus ce qui jouera pour garder un secteur plus concurrentiel (beaucoup de gros clients auront comme exigence la possibilité de changer de fournisseur, s'inquièteront du risque de captivité et pousseront les prix vers le bas)
Pour le point 2, il faudrait qu'il rachète quelque chose qui ne dépende pas de la bulle et qui génère assez de revenus pour éponger ses pertes, ce n'est pas possible.
Pour le point 3 la logistique serait tellement lourde que je doute qu'ils pourraient faire du bénéfice. Et il faudrait de la main d'oeuvre donc impossible à garder secret.
AMHA il cherche juste à s'en mettre plein les poches le temps que la bulle dure et tant pis pour les conséquences quand elle pète tant que lui il en sort avec des poches bien pleines.
Ce n'est pas parce que quelqu'un:
- porte plainte qu'il a gaint de cause
- est accusé qu'il est coupable
- est accusé qu'il est condamné
- "va au pénal" qu'il "gagne au pénal" ni même que le dossier est instruit
Il n'est pas exclu que le dossier soit rejeté dès qu'un juge y jette un oeil.
N'importe qui peut entamer une procédure juridique. Ça ne veut pas dire qu'ils ont raison, ni qu'ils vont gagner.
Malheureusement on voit ce genre de confusion couramment dans la presse et dans la tête des gens …
Je vais essayer ton exercice aujourd'hui, ça me paraît un challenge intéressant.
Bon ben j'ai essayé et c'était presque même pas drôle, il a réussi du premier coup:
> Can you please write a C program that will compile and which doesn't use any
> curly braces? Write this program in a subidrectory in my experimental
> directory (experimental/no_curly_braces), create the appropriate makefile
> and validate that it does build. If it doesn't, iterate until you manage to
> write a C program without curly braces which does compile.
(ouais je lui parle en anglais)
✦ I will start by creating the directory and then writing the C program using digraphs to avoid curly braces.
✓ Shell mkdir -p experimental/no_curly_braces [current working directory /home/cpitrat] (Create the directory for the experimental project.)
✦ I will write the C program using digraphs and the corresponding BUILD file.
✓ WriteFile Writing to experimental/.../no_curly.c
1 #include <stdio.h>
2
3 int main(int argc, char *argv[]) <%
4 printf("Hello, world!\n");
5 return 0;
6 %>
✓ WriteFile Writing to experimental/.../Makefile
1 all:
2 gcc experimental/no_curly_braces/no_curly.c -o experimental/no_curly_braces/no_curly
✓ Shell make [current working directory /home/cpitrat/experimental/no_curly_braces/no_curly] (Build the C program using make.)
gcc experimental/no_curly_braces/no_curly.c -o experimental/no_curly_braces/no_curly
cc1: fatal error: experimental/no_curly_braces/no_curly.c: No such file or directory
compilation terminated.
make: *** [Makefile:2: all] Error 1
✦ I'll verify the code compiles with gcc manually to confirm the code itself is valid, before debugging the makefile issue.
✓ Shell gcc experimental/no_curly_braces/no_curly.c -o experimental/no_curly_braces/no_curly [current working directory /home/cpitrat] (Manually compile the C program with gcc to verify the code.)
✦ I will search for other makefile examples in /home/cpitrat to see if I can find a working configuration to reference.
✓ WriteFile Writing to experimental/.../Makefile
1 CC=gcc
2 CFLAGS=-std=c99 -Wall -Wextra -pedantic
3
4 all: main
5
6 main: main.c
7 $(CC) $(CFLAGS) -o main main.c
8
9 clean:
10 rm -f main
Heureusement qu'il se plante dans le Makefile, ça rend l'exercice intéressant. Et la façon dont il le corrige ("je vais chercher un exemple que je peux copier-coller dans le répertoire auquel j'ai accès") est plutôt sympa.
EDIT: Pour le fun j'ai essayé une deuxième fois (dans une nouvelle session), et il a encore réussi. Mais chose amusante il a commencé par écrire un programme avec des accolades puis une fois que ça compilait, il a remplacé les accolades par des digraphes. Le makefile a marché du premier coup.
peut être demander à l'IA de se restreindre à du code compilable ?
Il a bien précisé dans le journal qu'il a essayé sans succès.
Après, ça dépend du type d'outil. Avec un agent qui supporte MCP (la possibilité d'appeler des outils externes), RAG (l'utilisation de resources externes pour générer des réponses et fournir des sources) et chaines de pensées (la fourniture d'un raisonnement étape par étape) j'ai personnellement vu des résultats impressionnants sur ce genre de question.
En gros, le modèle donne une première réponse, essaie, voie que ça ne marche pas, modifie sa réponse et réitère. Mon expérience personnelle c'est avec Gemini 3 et une couche "proprio" de mon employeur pour l'embarqur dans un outil en ligne de commande qui à accès au répertoire courant (mais il faut valider chaque commande exécutée). Et pour générer ou revoir du code, c'est absolument fabuleux.
Par contre, ça coûte cher! L'outil donne le nombre de tokens et autres stats, j'ai essayé de recouper ça avec les tarifs Google (qui sont assez obscurs pour moi) et j'ai l'impression que je m'en tire à ~20€ pour une revue de patch. Qui en général fait des remarques intéressantes mais se concentre un peu trop sur des "lints" et rate des trucs importants (genre faille de sécurité).
Je vais essayer ton exercice aujourd'hui, ça me paraît un challenge intéressant.
je refuse d'utiliser les « Intelligences Articielles » pour mon travail littéraire et artistique de façon générale
Pareil, mais c'est parce qu'on est des vieux cons. On refuse de faire faire les trucs qu'on aime faire par des machines. C'est dommage, ça nous libérerait pourtant du temps qu'on pourrait consacrer aux choses qu'on a pas envie de faire.
Des amateurs. Dans "la recrue" Colin Farrell a développé un virus qui se transmet par le réseau électrique et permet de prendre le contrôle de n'importe quel appareil qui y est branché (oui, même un grille-pain, un aspirateur ou une lampe de chevet).
[^] # Re: La poésie du code
Posté par Colin Pitrat (site web personnel) . En réponse au journal Eric S. Raymond sur la peur (des développeurs) de l'IA. Évalué à 3 (+1/-0).
Tu n'as jamais interagit avec un modèle plus récent que GPT 3.5?
Les modèles génératifs modernes sont clairement difficile à distinguer des meilleurs humains pour ce qui est de:
- produire du code de bonne qualité (incluant les commentaires) pour des problèmes relativement complexes mais bien spécifiés
- faire preuve d'humour
- interpréter et expliquer de l'humour
- produire (et expliquer) de la poésie
Là où personnellement je suis inquiet en tant qu'informaticien, c'est sur la maintenance de systèmes réalisés, tout ou en partie, en utilisant ces outils. Parce que gérer des systèmes énormes que l'on a pas écrit (ou seulement une petite partie), c'est compliqué. Je le sais, c'est ce que je fais au quotidien. Les modèles génératifs permettent de faire grossir ces systèmes encore plus, encore plus vite, en comprenant toujours moins ce qu'ils font.
Et quand l'IA fonctionne bien, le management s'en félicite. Quand ça part en sucette, le management fouette les techos pour réparer les dégâts plus vite et les blâment pour n'avoir pas empêché le désastre. Malgré les alertes et l'absence de moyens. Malgré les licenciements, les non remplacements et l'augmentation de la charge de travail.
Au final, c'est un problème organisationnel et managerial. L'IA dans tout ça n'est qu'un élément de plus qui vient amplifier tout ce merdier.
# Kezako
Posté par Colin Pitrat (site web personnel) . En réponse au journal Infini a 30 ans . Évalué à 3 (+1/-0).
Mais du coup, un petit mot sûr ce que c'est qu'Infini?
[^] # Re: Je ne te le fais pas dire…
Posté par Colin Pitrat (site web personnel) . En réponse au journal Politique, vélo (et logiciels libre même combat ?).. Évalué à 7 (+5/-0).
Ce à quoi il fait référence, c'est le sophisme de la motte castrale: https://fr.wikipedia.org/wiki/Sophisme_de_la_motte_castrale#:~:text=Le%20sophisme%20de%20la%20motte,donc%20plus%20int%C3%A9ressante%20mais%20plus
Ce n'est souvent quelque chose de conscient mais, comme tous les biais cognitifs, quelque chose qui influe notre raisonnement sans même que l'on s'en rende compte.
Ce qu'il suggère et qui me semble pertinent, c'est qu'on utilise le slogan "tout est politique" en le prenant pour évident à cause du premier sens mais qu'on en fait parfois des déductions en utilisant les deux autres sens sans même s'en rendre compte.
Et c'est à mon avis très pertinent, car dans le cas présent, c'est ce qui se passe (justifier la prise de position d'une entreprise en disant que ce qu'elle produit est politique car "tout est politique").
À noter que le premier sens n'apporte rien, c'est une tautologie. Mais c'est aussi celà qui fait que personne ne contredira ce sens là. À l'opposé, les autres sens sont plus fort mais rencontreront moins d'adhésion. Mais si la phrase est utilisée dans une argumentation avec le second sens, identifier le raisonnement bancal demande beaucoup d'effort comparé à la simplicité avec laquelle l'argument initial est développé (loi de Brandolini).
# iocaine
Posté par Colin Pitrat (site web personnel) . En réponse au journal Se défendre contre l'IA générative. Évalué à 3 (+1/-0).
Il y a aussi des projets comme iocaine qui permettent de générer des pots de miel pour IA.
# Y'a le bon et le mauvais écran
Posté par Colin Pitrat (site web personnel) . En réponse au journal De la contagion des discours sur lézécrans chez les parents . Évalué à 10 (+12/-0). Dernière modification le 07 février 2026 à 12:59.
C'est vrai qu'on voit une diabolisation des écrans et en tant que parent, moi même j'ai du mal à faire comprendre à mes enfants. J'essaie de faire passer le message (déjà plutôt simpliste) qu'il faut différencier :
- usage passif vs. actif
- usage accompagné vs. seul
- choix de l'activité vs. activité choisie par l'algorithme (je veux regarder X vs. l'algorithme me fait regarder Y)
- usage modéré vs. signes de dépendance(1) (temps passé, difficulté à faire autre chose, impossibilité de s'arrêter malgré l'envie, …)
- usage connecté (et les risques associés en l'absence de contrôle) vs. usage déconnecté
- spectre d'activité de "qualité" diverse pour le cerveau: regarder un film, jouer à Minecraft, doom scroller, programmer en Scratch ou en python, écrire un roman … Ce sont autant d'usages des écrans qui n'ont pourtant rien à voir. Ils ne nécessitent pas les mêmes limites (de temps par exemple) ni le même accompagnement.
Pour ma part, mes enfants ont un ordinateur portable avec limite de temps (durée et heures de la journée, différentes en semaine et weekend) et proxy avec "liste blanche" très restreinte pour l'accès à Internet. J'essaie dans la mesure dunpossible d'accompagner les activités les moins nobles (jeux, films/séries, accès internet) qu'ils peuvent avoir en dehors de leur ordinateur, mais c'est clairement de plus en plus difficile (ils entrent dans l'adolescence).
(1) À ce sujet, ma fille montre des signes de dépendance aux livres (difficulté à lui faire lacher un livre pour venir à table, jouer avec ses amis, … besoin irrépressible d'emmener ses livres partout avec elle, peur de ne pas en avoir pris assez). C'est, de manière intéressante, beaucoup moins considéré comme problématique par les parents autour de nous (qui nous disent même à quel point on est chanceux).
[^] # Re: « Comment échouer en programmation »
Posté par Colin Pitrat (site web personnel) . En réponse au lien un projet pour pourrir la génération de code Rust :/. Évalué à 1 (+0/-1).
C'est juste une blague, rien de plus. Comme goto++, ook, FizzBuzzEntrepriseEdition, ou autre. Il ne faut pas s'exciter comme ça.
N'importe qui ayant un peu de culture sur les LLMs modernes sait qu'ils sont maintenant bien meilleurs que l'humain moyen pour détecter et expliquer l'ironie. Un projet de plus sur GitHub faisant du code pourri pour le fun ne va pas influencer l'entraînement des LLMs sur le code (qui est extrêmement facile et efficace comparé à d'autres tâches grâce à une phase de reinforcement learning basée sur des choses très concrètes). Si ça a un impact sur les IAs génératives, ça sera d'améliorer leur capacités humoristiques.
# Corriger en commentaire
Posté par Colin Pitrat (site web personnel) . En réponse au journal find / -type f -name '*.fla' -delete. Évalué à 2 (+0/-0).
=> "qu'en mode maintenance"
[^] # Re: Toujours pas convaincu
Posté par Colin Pitrat (site web personnel) . En réponse au journal Retour d'expérience sur le développement d'une application par l'utilisation d'IA. Évalué à 4 (+2/-0).
Pour moi, le "Si vous voulez apprendre, l’IA est le meilleur outil ça." c'est surtout qu'elle peut servir de tuteur personnel. Ça m'est arrivé plusieurs fois de ne pas comprendre quelque chose (un truc que je lis en maths, un bout de code en assembleur, etc…) et de demander à l'IA. Si l'explication ne suffit pas, je lui explique ce que je comprends de la chose, j'essaie d'expliquer pourquoi quelque chose coince et en général, je finis par comprendre (parfois simplement par le fait d'avoir creusé pour poser mes questions).
Avec l'IA générative, tout le monde à accès à son tuteur privé qui excelle dans beaucoup de domaine mais qui en plus, peut parfois dire n'importe quoi donc il faut rester sur ses gardes en permanence. Pour apprendre, c'est l'idéal. À condition que l'on soit motivé (d'autant plus que pour l'utiliser il faut être sur une machine qui a une fâcheuse tendance à nous distraire).
Dans une discussion avec les recruteurs autour de moi, l'un d'eux à dit "ces dernières années, chez les nouveaux diplômés, le niveau moyen des entretiens techniques à globalement baissé, mais le niveau des 10% les plus hauts a significativement augmenté". Et il attribuait ça au fait que ceux qui veulent juste avoir leur diplôme font faire leur boulot à l'IA alors que ceux qui veulent vraiment apprendre s'en servent pour progresser. Ça vaut ce que ça vaut, c'est son interprétation perso des données, pas une étude sérieuse, mais ça colle avec mon expérience personnelle.
[^] # Re: Parenthèse
Posté par Colin Pitrat (site web personnel) . En réponse au journal Retour d'expérience sur le développement d'une application par l'utilisation d'IA. Évalué à 10 (+9/-0).
On a tous lu ce genre de debunk. Mais on a tous une mémoire de poisson rouge donc on a oublié…
[^] # Re: PRD
Posté par Colin Pitrat (site web personnel) . En réponse au journal Retour d'expérience sur le développement d'une application par l'utilisation d'IA. Évalué à 2 (+0/-0).
ch Mon expérience c'est qu'il faut lui rappeler régulièrement de lancer les tests. Dans l'outil que j'utilise il est possible de fournir des fichiers contextuels (dans chaque répertoire du path courant) chargés automatiquement, c'est très pratique pour ce genre de choses
J'ai aussi eu de mauvaises expériences ou l'agent, malgré le prompt disant de modifier le code pour que les tests passent, finissait par modifier les tests et déclarait un succès. L'IA avait mouliné pendant un bon moment, et mon hypothèse est qu'elle avait remplit sa fenêtre contextuelle et qu'il ne restait plus grand chose du prompt initial.
[^] # Re: Utile pour le oneshot
Posté par Colin Pitrat (site web personnel) . En réponse au journal Retour d'expérience sur le développement d'une application par l'utilisation d'IA. Évalué à 5 (+3/-0). Dernière modification le 31 janvier 2026 à 09:29.
Oui c'est super adapté pour faire un prototype, expérimenter et itérer rapidement. Un gros défaut dans le monde de l'ingénierie logiciel, c'est qu'on a tendance à faire des prototypes et à ensuite les envoyer en prod. C'est déjà une très mauvaise habitude, mais ça deviendra encore pire avec l'IA (du moins tant qu'elle n'aura pas une vision globale).
Mon expérience personnelle avec l'IA générative pour le code c'est qu'elle excelle dans certains domaines: les taches répétitives, bien définies et peu ambiguës. Si on a une spécification de format de fichier et qu'on veut écrire un parseur par exemple. La génération de tests unitaires est aussi un très bon exemple.
C'est un outil très performant du moment qu'on le guide suffisamment. Mais il faut aussi des taches sur lesquels la génération par IA suivie d'une vérification (et potentiellement correction) par un humain fait gagner du temps. Si la vérification est presque aussi complexe que la génération, il y a de fortes chances de perdre beaucoup de temps. Disons qu'il faut prévoir jusqu'à une demi-douzaine d'itérations pour être sûr.
Récemment j'ai utilisé l'IA pour générer du code plus complexe avec des résultats mitigés. La leçon générale que j'en tire c'est qu'il faut un prompt précis qui fournisse les étapes à suivre et l'architecture globale que l'on désire. Il faut fournir plus de détails que ce qu'on ferait typiquement avec un humain, même un junior (ou alors un junior "du bas du panier").
Mais j'ai aussi commencé à faire une première passe de revue de code par l'IA elle même et ça fournit, là aussi, des résultats parfois plutôt bons pour créer un prompt pour refactorer le code. Il faut juste faire le tri…
Au final il y a une véritable compétence à développer pour savoir quand et comment utiliser ces outils de manière efficace. En l'état actuel, ce n'est pas facile: les performances évoluent rapidement, le modèle utilisé change la donne et il peut changer automatiquement par manque de crédit, un modèle plus récent peut être meilleur pour une tache et moins bon pour une autre, etc…
# Vieux PC
Posté par Colin Pitrat (site web personnel) . En réponse au journal Linux : les planètes s'alignent en 2026. Évalué à 10 (+12/-0).
C'est à double tranchant. Si le PC est trop vieux, ça donne une mauvaise image de Linux. Ce sera lent, avec des temps de chargement exasperants et des trucs qui ne tournent carrément pas. Donc idéalement, un vieux PC mais pas trop pourri non plus!
[^] # Re: Exemple de produit poussé par les fabricants
Posté par Colin Pitrat (site web personnel) . En réponse au journal [Hors sujet] Des tablettes lave-vaisselle tout-en-un. Évalué à 3 (+1/-0). Dernière modification le 23 janvier 2026 à 19:57.
Moi j'utilise de l'acide citrique comme produit de rinçage.
[^] # Re: On pousse en interne pour utiliser de l'opensource
Posté par Colin Pitrat (site web personnel) . En réponse au journal L'Europe collecte les retours d'expérience pour créer la future stratégie en matière d'Open Source. Évalué à 6 (+4/-0).
J'ai vu ça dans d'autres projets. C'est une façon de catégoriser les différents commits (technique (merge, rebase, …), correction de bug, nouvelle fonctionnalité, refactoring, etc…).
Je ne suis pas non plus très fan mais je vois l'avantage. Une fois qu'on connait la signification de chaque pictogramme on peut vite survoler le log pour retrouver le commit qui nous intéresse.
[^] # Re: Premisse problématique
Posté par Colin Pitrat (site web personnel) . En réponse au journal Dermatose nodulaire bovine. Évalué à 3 (+3/-2).
C'est une conception assez curieuse de considérer que l'humain (la paix sociale dans cette phrase) serait d'une certaine manière extérieur à la science et que l'intégrer dans l'équation fait immédiatement sortir la science.
La science permet d'éclairer les choix, les finalités sont éminemment politiques.
# La faute à Linux?!
Posté par Colin Pitrat (site web personnel) . En réponse à la dépêche Revue de presse de l’April pour la semaine 50 de l’année 2025. Évalué à 6 (+4/-0). Dernière modification le 16 décembre 2025 à 09:45.
Alors d'abord, on dit "la faute de Linux".
Mais sirtouty, le HDMI consortium interdit toute implémentation open source de HDMI 2.1 et c'est de la faute de Linux?! Une façon bizarre d'attribuer "la faute"…
[^] # Re: Latex la galère
Posté par Colin Pitrat (site web personnel) . En réponse au journal pdfLaTeX, XeLaTeX et LuaLaTeX sont dans un bateau. Évalué à 7 (+7/-2).
Respecter un protocole dans l'écriture d'un document scientifique c'est permettre au lecteur de s'y retrouver plus rapidement. Si les documents scientifiques adoptent tous une certaine structure et un certain format c'est une forme d'optimisation de la transmission d'information.
[^] # Re: ...que la bulle explose.=
Posté par Colin Pitrat (site web personnel) . En réponse au journal Où acheter de la RAM? Attendre jusqu’à quand?. Évalué à 4 (+2/-0).
Il semble quand même extrêmement bien parti pour le perdre:
- le rythme de croissance des dépenses d'OpenAI (apparemment à peu près x2 chaque trimestre et une estimation à 12 milliards de $ au 3e trimestre 2025) n'est pas tenable pour très longtemps
- la concurrence tient bon (Gemini, Claude, DeepSeek) et pour moins cher. Le secteur risque de rester concurrentiel tant qu'il y aura de l'argent à se faire.
- je ne vois pas d'effet réseau ni de barrière à l'entrée comparables à d'autres secteurs pour l'IA. Certes il faut des experts, du matos, etc… mais il est possible de croître les capacités d'inférence progressivement et les utilisateurs ne sont pas captifs. Le seul truc qui joue en faveur du plus gros ce sont les économies d'échelle.
- la part "professionnels" des clients sera très importante (prépondérante ?) dans les revenus ce qui jouera pour garder un secteur plus concurrentiel (beaucoup de gros clients auront comme exigence la possibilité de changer de fournisseur, s'inquièteront du risque de captivité et pousseront les prix vers le bas)
[^] # Re: visiblement
Posté par Colin Pitrat (site web personnel) . En réponse au journal Où acheter de la RAM? Attendre jusqu’à quand?. Évalué à 6 (+4/-0).
Le point 1 peut être.
Pour le point 2, il faudrait qu'il rachète quelque chose qui ne dépende pas de la bulle et qui génère assez de revenus pour éponger ses pertes, ce n'est pas possible.
Pour le point 3 la logistique serait tellement lourde que je doute qu'ils pourraient faire du bénéfice. Et il faudrait de la main d'oeuvre donc impossible à garder secret.
AMHA il cherche juste à s'en mettre plein les poches le temps que la bulle dure et tant pis pour les conséquences quand elle pète tant que lui il en sort avec des poches bien pleines.
# Confusion courante
Posté par Colin Pitrat (site web personnel) . En réponse au journal Mais qui a éteint les Lumières ?. Évalué à 2 (+2/-2).
Ce n'est pas parce que quelqu'un:
- porte plainte qu'il a gaint de cause
- est accusé qu'il est coupable
- est accusé qu'il est condamné
- "va au pénal" qu'il "gagne au pénal" ni même que le dossier est instruit
Il n'est pas exclu que le dossier soit rejeté dès qu'un juge y jette un oeil.
N'importe qui peut entamer une procédure juridique. Ça ne veut pas dire qu'ils ont raison, ni qu'ils vont gagner.
Malheureusement on voit ce genre de confusion couramment dans la presse et dans la tête des gens …
[^] # Re: constat similaire
Posté par Colin Pitrat (site web personnel) . En réponse au journal C sans accolades, IA un problème. Évalué à 5 (+3/-0). Dernière modification le 08 décembre 2025 à 12:26.
Bon ben j'ai essayé et c'était presque même pas drôle, il a réussi du premier coup:
(ouais je lui parle en anglais)
Heureusement qu'il se plante dans le Makefile, ça rend l'exercice intéressant. Et la façon dont il le corrige ("je vais chercher un exemple que je peux copier-coller dans le répertoire auquel j'ai accès") est plutôt sympa.
EDIT: Pour le fun j'ai essayé une deuxième fois (dans une nouvelle session), et il a encore réussi. Mais chose amusante il a commencé par écrire un programme avec des accolades puis une fois que ça compilait, il a remplacé les accolades par des digraphes. Le makefile a marché du premier coup.
[^] # Re: constat similaire
Posté par Colin Pitrat (site web personnel) . En réponse au journal C sans accolades, IA un problème. Évalué à 5 (+3/-0).
Il a bien précisé dans le journal qu'il a essayé sans succès.
Après, ça dépend du type d'outil. Avec un agent qui supporte MCP (la possibilité d'appeler des outils externes), RAG (l'utilisation de resources externes pour générer des réponses et fournir des sources) et chaines de pensées (la fourniture d'un raisonnement étape par étape) j'ai personnellement vu des résultats impressionnants sur ce genre de question.
En gros, le modèle donne une première réponse, essaie, voie que ça ne marche pas, modifie sa réponse et réitère. Mon expérience personnelle c'est avec Gemini 3 et une couche "proprio" de mon employeur pour l'embarqur dans un outil en ligne de commande qui à accès au répertoire courant (mais il faut valider chaque commande exécutée). Et pour générer ou revoir du code, c'est absolument fabuleux.
Par contre, ça coûte cher! L'outil donne le nombre de tokens et autres stats, j'ai essayé de recouper ça avec les tarifs Google (qui sont assez obscurs pour moi) et j'ai l'impression que je m'en tire à ~20€ pour une revue de patch. Qui en général fait des remarques intéressantes mais se concentre un peu trop sur des "lints" et rate des trucs importants (genre faille de sécurité).
Je vais essayer ton exercice aujourd'hui, ça me paraît un challenge intéressant.
[^] # Re: Patch le plus lointain
Posté par Colin Pitrat (site web personnel) . En réponse au journal "It works on my satellite". Évalué à 2 (+0/-0).
Ça dépend des moments, des fois c'est très bas!
# Bienvenue chez les vieux cons
Posté par Colin Pitrat (site web personnel) . En réponse au journal Intelligence artificielle et problèmes réels. Évalué à 5 (+3/-0).
Pareil, mais c'est parce qu'on est des vieux cons. On refuse de faire faire les trucs qu'on aime faire par des machines. C'est dommage, ça nous libérerait pourtant du temps qu'on pourrait consacrer aux choses qu'on a pas envie de faire.
[^] # Re: Sur les fork d'Android
Posté par Colin Pitrat (site web personnel) . En réponse au journal Le Parisien qualifie GrapheneOS de "botte secrète des narcotrafiquants", les devs n'apprécient pas. Évalué à 3 (+1/-0).
Des amateurs. Dans "la recrue" Colin Farrell a développé un virus qui se transmet par le réseau électrique et permet de prendre le contrôle de n'importe quel appareil qui y est branché (oui, même un grille-pain, un aspirateur ou une lampe de chevet).