À ta place, j'aurais présenté le bouquin ici, tu n'aurais pas été le seul à le faire.
Tout à fait.
Personnellement, j'écris un livre de math libre, ce qui est un marché de niche. La seule pub que j'en fais est un article par an sur linuxfr. Et pourtant je suis quasiment certain que toutes les personnes en France qui ont besoin de savoir que ce bouquin existe, le savent.
Bon. Évidemment, mon bouquin est publié sous licence FDL, je ne fais pas de bénéfices sur les ventes, le pdf est en ligne, et les sources LaTeX sont publiées. Tout ça aide à avoir une légitimité à publier sur Linuxfr.
Si ton bouquin fait partie de ceux sur lesquels il est écrit «toute reproduction interdite et blablabla que le photocopiage tue le livre», alors publier un extrait pour faire sa pub sur linuxfr demandera plus de contorsions pour être bien accueilli.
Bof. On peut y voir une politique de la terreur. Pour montrer à ceux qui blasphèment le prophète que ça ne restera pas nécessairement impuni.
Oui, et c'est pour ça que le mot «terrorisme» est trop flou. Si il fallait qualifier de terrorisme tout ce qui est de la vengeance tintée d'intimidation, ça devient très large.
Personnellement, «terrorisme» fait partie de ces mots que j'ai arrêté d'utiliser parce qu'il y a trop d'acceptations différentes.
C'est dommage parce qu'il n'existe plus aujourd'hui de mot pour désigner le fait très spécifique de taper sur un innocent pour faire pression sur une tierce personne.
Faire exploser une bombe dans un marché pour faire valoir une demande politique est quand même très différent comme démarche que d'assassiner quelqu'un qui ne me plaît pas pour me faire respecter.
Parce que l'enjeu n'est pas soit tout le monde meurt soit personne ne meurt.
L'enjeu est soit des gens meurent, soit plus de gens meurent.
Pour reprendre l'analogie du silo; disons qu'on est 100 dedans et qu'il y a de quoi nourrir 100 personnes. On a déjà détruit 30 rations. Ok; 30 personnes vont mourir. Est-ce une raison pour détruire les 70 autres ?
Accessoirement, et moins théoriquement, on peut se motiver à s'acharner pour sauver notre retraite. Les mecs qui feront les lois en 2050 ne vont pas donner de retraites aux vioches pour qui arrêter l'avion en 2020 était déjà trop demander.
l'éco-terrorisme ce sont les politiques de droite, de Macron à Le Pen.
Dans la droite ligne de ce que j'ai écrit plus haut, toutes ces actions sont destructrices de nos environnements, vont causer des morts, et saloper nos territoires pour très longtemps.
Je ne vais pas essayer de donner une définition du mot «terrorisme», mais juste le fait qu'une action provoque des morts ne va pas être suffisant pour être qualifié de terrorisme.
Il y a très longtemps, quand il n'y avait pas de définition légale de terrorisme, Amnesty International disait que ce qui fait la spécificité du terrorisme est le raisonnement suivant :
J'ai un problème avec X (X est typiquement un gouvernement)
Je suis trop faible pour taper directement sur X
Donc je vais taper sur Y qui n'a rien à voir avec le problème.
Je compte sur le fait que X, ayant pour devoir de protéger les innocents, devra céder.
Dans ce cadre, Charlie l'Hebdo n'est pas du terrorisme parce que les gens qui ont été tués sont exactement les personnes avec qui les assassins avaient un problème. Charlie l'Hebdo était plutôt un règlement de compte.
Dans cette optique, je ne vois pas pourquoi la politique environnementale de Macron serait du terrorisme.
À la limite si il disait « votez la loi sur les retraites ou je fait passer la loi Duplomb et des agriculteurs vont mourir », alors ce serait du terrorisme.
Bref, je pense que le mot «terrorisme» est tellement polysémique et tellement chargé de tout et n'importe quoi qu'il vaut mieux ne juste pas l'utiliser du tout.
Tu es du genre à tuer quelqu'un qui te confie avoir des envies de suicide?
Je ne suis pas très sûr de comprendre ce commentaire, mais je ne serais pas d'accord avec « dire que je prends l'avion est annoncer une envie de suicide ».
Quitte à prendre des grands mots, je dirais que prendre l'avion est plus de l'ordre du meurtre que du suicide : les gens assez aisés pour prendre l'avion ne sont probablement pas les premiers sur la liste des victimes du réchauffement climatique … sauf si une bombe explose dans un aéroport.
puisqu'on est parti pour détruire la planète, je n'hésite pas à prendre l'avion pour voir le monde avant qu'il disparaisse), soit vers la radicalisation :-(
Je m'étais fait une analogie dont je ne sais pas si elle est vraiment correcte. Je vous la livre.
Supposons que Alice est en randonnée avec Bob qu'Alice sait pertinemment bien avoir un très fort vertige. Alice, par jeu, amène Bob plus ou moins de force juste au bord d'une falaise.
Pris de panique, Bob pousse Alice. Peut-on vraiment considérer ça comme un meurtre ?
Ici ma question est d'ordre moral, pas d'ordre légal. (ni d'ordre médical; mon point n'est pas de discuter si le vertige peut effectivement entraîner ce type de réactions)
Bon. Maintenant tu viens de balancer que tu prends tranquilou l'avion sur internet où des centaines, milliers ou millions de personnes écoangoissées peuvent te lire …
Dans le même ordre d'idée, je crois qu'un argument sous-estimé en faveur d'une taxe Zucman est de protéger les riches.
Et le plus dangereux dans cette affaire est qu'on a tendance, quand quelqu'un a une demande raisonnable revendiquée de façon violente, à ne pas accéder à la demande sous des arguments fallacieux tels que « ce serait une prime à la violence, etc. ».
Donc quand l'éco-violence commencera, ça deviendra encore plus difficile de prendre les bonnes décisions.
Pour moi (et Wikipédia), le déterminant d'une application linéaire est par définition le déterminant de sa matrice dans une base quelconque (mais la même au départ et à l'arrivée). On vérifie que ça ne dépend pas de la base.
Ah oui évidemment ! Si l'espace de départ et d'arrivée sont identiques (ce qui est mon cas), y'a ça qui marche.
J'ajoute ça, merci.
je n'ai pas compris le lien que tu fais entre mesure et compacité.
Moi pas. C'était un exemple de délire qu'on pouvait lire chez chatGPT il y a un an ou deux.
De toutes façon, à partir du moment où on balance que la mesure de est 1, ce qu'on raconte après n'a plus tellement d'importance :)
En développant juste le déterminant comme somme sur les permutations, ça marche, non ?
Je ne suis pas super convaincu.
Dans le définition de transvection, il est dit qu'il existe une base adaptée dans laquelle la matrice a une forme bien particulière dont le déterminant est clairement 1.
Mais comme je n'aime pas parler de matrice et préfère parler d'application linéaires, tout devient plus confus.
Pour autant que je le sache, la notion de déterminant d'une application linéaire est bien définie uniquement dans le cas particulier où l'espace est de la forme ; et dans ce cas le déterminant est celui de la matrice dans la base canonique.
Je ne vois pas très bien pourquoi la «base adaptée» dont on parle dans la définition de transvection devrait être liée à la base canonique.
L'avantage des maths, c'est que les théorèmes, ça se démontre. J'imagine donc, que quand on a le bagage nécessaire, on arrive à vérifier ce qui vient de sortir du LLM (on me dira peut être que: "c'est pareil pour la sociologie ou l'économie ou l'informatique". Ok, on peut le dire si on veut).
À mon avis c'est un cas particulier de la règle à toujours suivre avec un LLM : c'est bien quand vérifier une information est plus facile que de trouver l'information.
C'est pour ça qu'en math, ça passe bien pour les démonstrations mais que je ne ferais pas confiance pour les définitions.
Ptet même plus qu'entre confrères (un peu troll là ;) ?
En fait non. C'est même assez fatiguant de parler de math à chatGPT, parce que je sais qu'il peut à tout moment me glisser une peau de banane sous le pieds.
Et il y a sa manière de toujours dire «ah ! vous avez parfaitement raison de m'indiquer que j'ai été imprécis, blabalabla». Et vazy que je te lèche les pieds et te caresse dans le sens du poil.
Dans Cursor aussi d'ailleurs, Claude passe sa vie à me dire que je suis un informaticien génial, que mes suggestions vont permettre de rendre le code plus sûr, plus lisible. Que mes modifications respectent tellement bien toutes les PEP et blablabla…
Je ne considère effectivement pas chatGPT comme un moteur de recherche.
Je tente de lever le malentendu en deux parties : une non-technique qui explique mon flux de travail et une sur ce que je penses qu'il se passe sous le capot.
Au-dessus du capot
Le flux de travail est :
Je dis à chatGPT : "Démontre que XXXXX".
Je vois apparaître à l'écran quelque chose qui ressemble à une démonstration de XXXXX.
Je lis attentivement en prenant des notes sur mon papier de brouillon, comme je le fais pour n'importe quelle "source". Ce faisant, je détaille les calculs et m'assure que les théorèmes utilisés sont déjà dans le Frido (sinon je fais plus de recherche pour trouver un énoncé correct de ce que chatGPT semble utiliser comme résultat intermédiaire).
Quand tout est bon, je rédige en LaTeX depuis mes feuilles de brouillon.
Comme tout le monde il m'arrive de faire des erreurs; je suis assez transparent sur le sujet. Pour l'instant je n'ai pas encore trouvé d'erreur dans le Frido qui serait dûe à une erreur de chatGPT qui m'aurait échappée. Quand ça arrivera, ce sera noté.
Premier message : il n'y a aucun copier-collé de chatGPT vers le Frido, ni d'ailleurs d'aucune sources vers le Frido. Il y a toujours au moins deux rédactions intermédiaires : une à la main de l'écran vers mon papier de brouillon et une au clavier du papier de brouillon vers LaTeX.
Deuxième message : je ne demande pas de définitions à chatGPT, parce si définition ne peut pas être intrinsèquement fausse, elle peut induire méchamment en erreur si elle n'est pas celle acceptée par tout le monde.
Exemple : la définition de la limite d'une fonction en un point par chatGPT : .
Je ne compte pas troller là-dessus aujourd'hui, mais il faut faire gaffe. En France, ça peut d'ailleurs être utilisé comme détecteur de fraude contre les étudiants :)
Sous le capot
Comment peut faire chatGPT pour pondre une démonstration correcte que je n'ai pas pu trouver sur internet ?
Vu que je n'en sais pas plus que ce que j'ai appris de 3Blue1Brown, je ne peux que spéculer. Je vois deux manières.
Le coup des livres privateurs
La démonstration que je cherche a été publiée dans plein de livres privateurs que je ne possède pas et qui ne sont pas réellement trouvables sur internet.
OpenAI se procure un pdf de ces livres d'une façon ou d'une autre.
Ces livres sont dans le corpus.
chatGPT peut fournir une démonstration.
C'est un peu ce que je disais à propos des machines à laver. Il y a donc parfaitement moyen que chatGPT ait dans sa base d’entraînement des choses qui ne sont pas disponibles sur internet. Et c'est d’ailleurs même certain que c'est le cas.
Invention pure et simple
Si la démonstration n'apparaît pas dans le corpus d’entraînement, chatGPT sera en roue libre. Il fournira un texte qui ressemble à une preuve et qui pourrait même être correct plus ou moins par chance contrôlée.
Comme moi, chatGPT «sait» que si j'ai une matrice symétrique, il faut presque certainement prendre une base de diagonalisation; si on a une équation différentielle du premier ordre, il faut voir si Cauchy-Lipchitz est vérifié, etc.
Sur ce point, chatGPT peut en savoir plus que moi. Par exemple je ne voyais pas comment démontrer qu'une transvection est de déterminant 1. C'est chatGPT qui m'a mis sur la piste du lemme des déterminants que je ne connaissais pas.
Attention qu'ici on parle très spécifiquement d'erreurs dans des démonstrations mathématique. Une moyenne de 40% ne veut rien dire sur les domaines particulier. Et la démonstration mathématique est un domaine très particulier.
Cela dit : oui. Quand je demande des démonstrations à chatGPT, la démonstration donnée contient souvent des erreurs. Et, plus intéressant, quand je lui signale et lui demande de corriger, il n'y parvient jamais.
Dès que chatGPT dit quelque chose de faux en math, c'est irrécupérable.
Par contre, dans mon expérience, le taux de bonne réponse est clairement en hausse avec les années.
MAIS : les erreurs se font de plus en plus subtiles. Il y a deux ans, il balançait sans sourciller que la mesure de Lebesgue de était 1. Donc c'est compact et yolo on fait ce qu'on veut !
Maintenant, les erreurs deviennent indétectables à qui ne lit pas la démonstration ligne par ligne en faisant gaffe à chaque détail.
Il ne faut donc surtout pas se fier à chatGPT si on veut avoir une vue globale d'une démonstration. L'approche qu'il donne est souvent complètement fausse à cause d'un détail qui ne peut pas être remarqué sans une lecture attentive.
Pour des démonstrations de Math exigeant la compréhension fine de nombreux concepts, je me demande bien comment l'on peut être sûr de pouvoir valider par soi-même une démonstration sans passer par l'approche de la revue par des pairs reconnus comme experts dans leur domaine.
D'abord ce commentaire n'est pas spécifique à une démonstration lue sur chatgpt.com. Quand j'écris dans le Frido, je prends les démonstrations de là où je les trouve et je fais gaffe.
Au niveau du Frido c'est parfaitement possible de ne pas trop se planter. C'est pas de niveau recherche.
Mais effectivement, il y a des erreurs qui se glissent. Pour l'instant, je n'ai pas encore d'entrées dans l'erratum qui seraient dues à moi n'ayant pas remarqué une erreur de chatGPT.
Enfin, le Frido est tout de même relu. Il y a du monde qui m'écrit pour me donner des corrections.
Je parlais das le cas discuté. Disons que le LLM sort : E27 panne d'éclairage. Est il en capacité de lister la source de son savoir et la déduction qui montre que ce savoir est applicable au cas demandé ?
Ah ok. J'imagine que la réponse est «non» alors.
Mais il y a beaucoup de cas dans lesquels ce n'est pas important.
Si je démine un explosif et qu'il me dit que je dois couper le fil rouge, effectivement je demanderais d'où il le sait pour pouvoir vérifier (et je ne lui ferais confiance qu'après avoir retrouvé la source).
Mais si le conseil est de dévisser la plaque à droite, vider le filtre et le remettre ben… Autant essayer. Il y a une probabilité 0.9 de résoudre le problème et 0.1 de remarquer qu'il n'y a même pas de plaque à droite.
Les LLM sont très intéressants pour les cas où vérifier une information est beaucoup plus simple (et sans danger) que de trouver l'information.
Est-ce que le LLM en question sait expliquer comment il parvient à ce résultat ?
Ça dépend ce que signifie la question.
Si la question est : «comment je sais que le résultat énoncé par le LLM est vrai ?», la réponse est : parce que j'ai lu la démonstration donnée par le LLM, et elle est correcte.
Si la question est «Quel cheminement mental il a suivi pour découvrir la démonstration ?», alors la réponse est comme pour n'importe quel mathématicien qui donne une démonstration d'un fait connu : «parce que je la connais» ou «parce que je connais plein de démonstrations dans des cas similaires, et j'ai pu adapter».
Cela dit, «adapter» dans le cas d'un LLM a une signification très différente de «adapter» dans le cas d'un humain.
Le cheminement fait par le LLM pour faire une simple addition est assez impressionnant.
TL;DR de la vidéo :
- Si on demande 14+18, il répond 32 (correct)
- Si on lui demande comment il y est arrivé, il dit qu'il a fait 4+8 (=12 c'est à dire 2 avec un report de 1) puis il a fait 1+1 (=2) et le report.
- Mais si on regarde quels sont les neurones effectivement activés lorsqu'il répons 14+18=32, à aucun moment il n'a effectivement activé les neurones correspondant à 12. Ni à aucune des étapes intermédiaires de report ou de quoi que ce soit de ce genre.
soit l'info existait quelque part, le LLM l'a trouvée pour toi mais tu aurais pu en faire autant avec un bon vieux moteur
Oui : c'est mieux de d'abord chercher le manuel du modèle exact sur le site du constructeur. Si il existe et qu'il mentionne le problème, alors c'est certainement la première piste à suivre.
Après, le LLM peut très bien tenir sa solution du livre «Réparer sa machine à laver pour les nuls» qui se vend un multillion d'euros et qui n'est d'ailleurs plus en vente depuis 10 ans. Mais comme OpenAI a pu se procurer ce livre et le mettre dans la base d’entraînement, ben le LLM est capable d'en sortir de l'information.
Exemple dans un autre domaine : une question de math à laquelle je n'ai pas trouvé de réponse sur internet. Pourtant en la posant à chatGPT, il a pu me donner une réponse avec une démonstration correcte.
Il ne fait que peu de doutes pour moi que la question a été traitée dans plein de livres privateurs dont une bonne parties ne sont même plus en vente. Mais que ces livres sont dans la base d'entrainement de chatGPT.
Comme dit précédemment, le LLM a servi un peu comme un dictionnaire de rimes. Il permet de balancer plein de propositions. À charge de l'auteur de saisir les bonnes au vol. J'ai par exemple bien aimée celle-ci :
tous les goûts sont inscrits en nous comme autant de lois secrètes, et les violer serait pire que d’assassiner.
que j'ai modifiée en
tous les goûts sont inscrits en nous comme autant de lois secrètes, et les violer serait pire que de les assouvir.
Le premier est un contre-sens par rapport au discours, tandis que je trouve que le second est très bien tourné. Dans les deux cas, ce sont des phrases tellement typiques de ce que l'on peut trouver sous la plume du marquis que ça me convient parfaitement.
Pour avoir de l'empirisme
Ça fait plusieurs jours qu'on parle, mais ça reste théorique. Je voulais voir si vraiment ma créativité serait bridée par l'outil. Personnellement, je réponds : non. J'ai obtenu quelque chose d'assez conforme à ce que je voulais.
Ce qui serait formidable, c'est que tu puisse dire : «les idées sont géniales, il y aurait eu moyen de faire un récit palpitant, mais clairement, l'outil LLM a tout cassé». Et si tu pouvais ajouter un élément très spécifique pour justifier, ce serait parfait.
Sinon, ben désolé si le récit que je voulais raconter ne te plaise pas.
il s'agit d'une oeuvre de l'esprit, unique, personnelle, avec toutes ses failles qui font le charme d'une création. ET c'est là où le bât blesse concernant l'IA qui ne fera que reproduire un mix ce qui est le plus à la mode sur la planète, cela se nomme "conformisme" et c'est incompatible avec ce que l'on appelle "art" en ce 21° siècle.
Je l'avais déjà mentionnée dans d'autres commentaires : mais il me semble que cette nouvelle vérifie les propriétés suivantes :
c'est une œuvre de l'esprit
c'est unique (bien que je ne sois surement pas le premier a avoir eu l'idée de la chute)
personnel
il y a des failles bien de ma faute
ce n'est pas un mix de ce qui est le plus à la mode
je ne pense pas que ce soit conformiste
Cela dit, tu as bien le droit de dire que cette nouvelle n'a pas été écrite pas une IA. En effet, c'est moi qui
ait eu l'idée du scénario
ait donné le canevas des dialogues
ait eu l'idée du discours à double-sens au milieu; c'est moi qui ait donné les arguments à utiliser (tous les arguments classiques des méchants de Sade ne fonctionnent pas); c'est d'ailleurs une partie avec pas mal de modifications à la main parce que l'IA avait pondu quelque contre-sens.
ait eu l'idée de mettre un contraste entre les adjectif accolés au nom de «Juliette» au début et de «Hélène» à la fin.
ait eu l'idée de la dernière perversion avec laquelle Juliette tue Olympe (je crois que c'est une perversion qui n'est pas dans le catalogue du marquis)
J'ai également corrigé pas mal de mots à la main.
Bref, l'IA a eu un rôle assez secondaire dans la création de cette œuvre. À peine plus que le rôle d'un dictionnaire de rimes dans une poésie.
En fait on est sans doute d'accord sur l'essentiel : l'IA peut être utilisée comme un outils comme un autre pour produire une œuvre qui reproduit fidèlement les idées du créateur.
Ça serait vrai si les créateurs et les créatrices (les femmes aussi ont des capacités créatrices) avaient une idée pleine, et entière du résultat final. Ce qui est souvent assez peu le cas.
Ça reste vrai même si l'auteur n'a pas une idée entière du résultat final. On fait pondre un texte de départ, on repense aux développements, on change, etc.
Certes j'avais déjà au départ une idée claire du scénario et de la chute. Mais j'ai inventé des parties en écrivant le prompt de départ, puis en refaisant des passages au fur et à mesure.
Je crois que c'est ce que Nicolas Boulay voulait dire dès le premier commentaire en disant que c'est un processus incrémental.
En tant que créateur (et là je suis sûr de parler au nom de beaucoup de créateurs), cette façon de créer ne m’intéresse pas. C’est pas mes mots, ces pas mes tournures de phrases, c’est à peine mes idées, c’est pas mon style (au sens de « style d’écriture »). C’est un travail de relecture et de correction, qui fait partie de la création, mais en est la partie la plus fastidieuse. Ce point n’est pas un détail : c’est le cœur du billet.
J'ai tenté l'expérience.
Le mieux serait évidemment de faire lire ce type de texte mélangés avec des textes du même genre écrits par des écrivains pro. Expérience en double aveugle, toussa.
J'écrirai un billet de blog plus long, mais en tant qu'auteur je suis assez satisfait. Mon style naturel d'écriture, c'est la démonstration mathématique[1]. Là j'ai pu écrire un texte que j'avais en tête depuis très longtemps, dans un style totalement différent.
La psychologie des personnages est la mienne, le scénario est le mien, certains mots les plus importants sont les miens. Bref, il s'agit bien de mon texte et de mes intentions. Je trouve que ce que j'avais en tête est bien rendu.
Si j'avais voulu écrire moi-même, j'airais sans doute dû passer des centaines d'heures pour améliorer mon style—en particulier l'imitation de Sade. Le résultat aurait-il été meilleur ?
D'un point de vue purement stylistique, oui.
Mais globalement je ne suis pas sûr : le fait de créer avec chatGPT a été une contrainte loulipotique qui a réellement amélioré le résultat final par rapport à ce que j'avais en tête avant de commencer. J'ai du mieux penser certains passages, et détailler certains aspects
Par exemple, j'ai pensé à mettre un contraste entre l'effet que font les prénoms «Juliette» et «Hélène» sur le personnage principal en écrivant un prompt demandant à chatGPT de refaire la fin du texte.
[1] D'ailleurs je trouve que tout la partie «remerciements» est nulle et très mal écrite.
[^] # Re: Coq ?
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 2 (+0/-0).
Personnellement je ne vais pas le faire (en tout cas pas dans un avenir prévisible) parce que ma liste des choses à faire est déjà bien longue.
Par contre, une telle contribution serait facilement acceptée :)
[^] # Re: Aucun intérêt
Posté par LaurentClaessens (site web personnel) . En réponse au journal Créer un compte facebook sous Linux, une sinécure !?!. Évalué à 4 (+2/-0).
Tout à fait.
Personnellement, j'écris un livre de math libre, ce qui est un marché de niche. La seule pub que j'en fais est un article par an sur linuxfr. Et pourtant je suis quasiment certain que toutes les personnes en France qui ont besoin de savoir que ce bouquin existe, le savent.
Bon. Évidemment, mon bouquin est publié sous licence FDL, je ne fais pas de bénéfices sur les ventes, le pdf est en ligne, et les sources LaTeX sont publiées. Tout ça aide à avoir une légitimité à publier sur Linuxfr.
Si ton bouquin fait partie de ceux sur lesquels il est écrit «toute reproduction interdite et blablabla que le photocopiage tue le livre», alors publier un extrait pour faire sa pub sur linuxfr demandera plus de contorsions pour être bien accueilli.
[^] # Re: Les écolos sont bien gentils
Posté par LaurentClaessens (site web personnel) . En réponse au lien Loi Duplomb : elles critiquent une députée, et se retrouvent au commissariat. Évalué à 1 (+0/-1).
<mode ironique>
Ah zut déso. J'avais pas noté qu'il y avait eu plus de 200 morts à Charlie l'Hebdo.
Dans mon imaginaire, les gars étaient allés dans la salle de rédaction et avaient tués tout le monde.
C'était sans doute une très grande réunion de rédaction.
</mode ironique>
Exact. Et c'est pour ça que je trouve dommage d'utiliser le même mot pour :
Pour moi 1, 2 et 3 sont des types d'assassinat très différents. Qui mériteraient 3 mots différents.
Quant à 4 …
[^] # Re: Les écolos sont bien gentils
Posté par LaurentClaessens (site web personnel) . En réponse au lien Loi Duplomb : elles critiquent une députée, et se retrouvent au commissariat. Évalué à 2 (+0/-0).
Oui, et c'est pour ça que le mot «terrorisme» est trop flou. Si il fallait qualifier de terrorisme tout ce qui est de la vengeance tintée d'intimidation, ça devient très large.
Personnellement, «terrorisme» fait partie de ces mots que j'ai arrêté d'utiliser parce qu'il y a trop d'acceptations différentes.
C'est dommage parce qu'il n'existe plus aujourd'hui de mot pour désigner le fait très spécifique de taper sur un innocent pour faire pression sur une tierce personne.
Faire exploser une bombe dans un marché pour faire valoir une demande politique est quand même très différent comme démarche que d'assassiner quelqu'un qui ne me plaît pas pour me faire respecter.
[^] # Re: Les écolos sont bien gentils
Posté par LaurentClaessens (site web personnel) . En réponse au lien Loi Duplomb : elles critiquent une députée, et se retrouvent au commissariat. Évalué à 3 (+1/-0).
Parce que l'enjeu n'est pas soit tout le monde meurt soit personne ne meurt.
L'enjeu est soit des gens meurent, soit plus de gens meurent.
Pour reprendre l'analogie du silo; disons qu'on est 100 dedans et qu'il y a de quoi nourrir 100 personnes. On a déjà détruit 30 rations. Ok; 30 personnes vont mourir. Est-ce une raison pour détruire les 70 autres ?
Accessoirement, et moins théoriquement, on peut se motiver à s'acharner pour sauver notre retraite. Les mecs qui feront les lois en 2050 ne vont pas donner de retraites aux vioches pour qui arrêter l'avion en 2020 était déjà trop demander.
[^] # Re: Les écolos sont bien gentils
Posté par LaurentClaessens (site web personnel) . En réponse au lien Loi Duplomb : elles critiquent une députée, et se retrouvent au commissariat. Évalué à 1 (+0/-1).
Je ne vais pas essayer de donner une définition du mot «terrorisme», mais juste le fait qu'une action provoque des morts ne va pas être suffisant pour être qualifié de terrorisme.
Il y a très longtemps, quand il n'y avait pas de définition légale de terrorisme, Amnesty International disait que ce qui fait la spécificité du terrorisme est le raisonnement suivant :
Dans ce cadre, Charlie l'Hebdo n'est pas du terrorisme parce que les gens qui ont été tués sont exactement les personnes avec qui les assassins avaient un problème. Charlie l'Hebdo était plutôt un règlement de compte.
Dans cette optique, je ne vois pas pourquoi la politique environnementale de Macron serait du terrorisme.
À la limite si il disait « votez la loi sur les retraites ou je fait passer la loi Duplomb et des agriculteurs vont mourir », alors ce serait du terrorisme.
Bref, je pense que le mot «terrorisme» est tellement polysémique et tellement chargé de tout et n'importe quoi qu'il vaut mieux ne juste pas l'utiliser du tout.
[^] # Re: Les écolos sont bien gentils
Posté par LaurentClaessens (site web personnel) . En réponse au lien Loi Duplomb : elles critiquent une députée, et se retrouvent au commissariat. Évalué à 2 (+0/-0).
Je ne suis pas très sûr de comprendre ce commentaire, mais je ne serais pas d'accord avec « dire que je prends l'avion est annoncer une envie de suicide ».
Quitte à prendre des grands mots, je dirais que prendre l'avion est plus de l'ordre du meurtre que du suicide : les gens assez aisés pour prendre l'avion ne sont probablement pas les premiers sur la liste des victimes du réchauffement climatique … sauf si une bombe explose dans un aéroport.
[^] # Re: Les écolos sont bien gentils
Posté par LaurentClaessens (site web personnel) . En réponse au lien Loi Duplomb : elles critiquent une députée, et se retrouvent au commissariat. Évalué à 4 (+2/-0).
Je m'étais fait une analogie dont je ne sais pas si elle est vraiment correcte. Je vous la livre.
Supposons que Alice est en randonnée avec Bob qu'Alice sait pertinemment bien avoir un très fort vertige. Alice, par jeu, amène Bob plus ou moins de force juste au bord d'une falaise.
Pris de panique, Bob pousse Alice. Peut-on vraiment considérer ça comme un meurtre ?
Ici ma question est d'ordre moral, pas d'ordre légal. (ni d'ordre médical; mon point n'est pas de discuter si le vertige peut effectivement entraîner ce type de réactions)
Bon. Maintenant tu viens de balancer que tu prends tranquilou l'avion sur internet où des centaines, milliers ou millions de personnes écoangoissées peuvent te lire …
Dans le même ordre d'idée, je crois qu'un argument sous-estimé en faveur d'une taxe Zucman est de protéger les riches.
Et le plus dangereux dans cette affaire est qu'on a tendance, quand quelqu'un a une demande raisonnable revendiquée de façon violente, à ne pas accéder à la demande sous des arguments fallacieux tels que « ce serait une prime à la violence, etc. ».
Donc quand l'éco-violence commencera, ça deviendra encore plus difficile de prendre les bonnes décisions.
[^] # Re: Sur la Dedekind-finitude
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 4 (+2/-0). Dernière modification le 24 septembre 2025 à 22:35.
En première lecture (17 pages A5 à la main, mais j'écris grand) ça me semble très correct.
merci !
[^] # Re: Le cas particulier ChatGPT
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 3 (+1/-0).
Ah oui évidemment ! Si l'espace de départ et d'arrivée sont identiques (ce qui est mon cas), y'a ça qui marche.
J'ajoute ça, merci.
[^] # Re: Le cas particulier ChatGPT
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 4 (+2/-0).
Moi pas. C'était un exemple de délire qu'on pouvait lire chez chatGPT il y a un an ou deux.
est 1, ce qu'on raconte après n'a plus tellement d'importance :)
De toutes façon, à partir du moment où on balance que la mesure de
[^] # Re: Le cas particulier ChatGPT
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 3 (+1/-0).
Je ne suis pas super convaincu.
Dans le définition de transvection, il est dit qu'il existe une base adaptée dans laquelle la matrice a une forme bien particulière dont le déterminant est clairement 1.
Mais comme je n'aime pas parler de matrice et préfère parler d'application linéaires, tout devient plus confus.
Pour autant que je le sache, la notion de déterminant d'une application linéaire est bien définie uniquement dans le cas particulier où l'espace est de la forme
; et dans ce cas le déterminant est celui de la matrice dans la base canonique.
Je ne vois pas très bien pourquoi la «base adaptée» dont on parle dans la définition de transvection devrait être liée à la base canonique.
[^] # Re: Le cas particulier ChatGPT
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 7 (+5/-0).
À mon avis c'est un cas particulier de la règle à toujours suivre avec un LLM : c'est bien quand vérifier une information est plus facile que de trouver l'information.
C'est pour ça qu'en math, ça passe bien pour les démonstrations mais que je ne ferais pas confiance pour les définitions.
[^] # Re: Le cas particulier ChatGPT
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 8 (+6/-0).
En fait non. C'est même assez fatiguant de parler de math à chatGPT, parce que je sais qu'il peut à tout moment me glisser une peau de banane sous le pieds.
Et il y a sa manière de toujours dire «ah ! vous avez parfaitement raison de m'indiquer que j'ai été imprécis, blabalabla». Et vazy que je te lèche les pieds et te caresse dans le sens du poil.
Dans Cursor aussi d'ailleurs, Claude passe sa vie à me dire que je suis un informaticien génial, que mes suggestions vont permettre de rendre le code plus sûr, plus lisible. Que mes modifications respectent tellement bien toutes les PEP et blablabla…
Insupportable.
[^] # Re: Le cas particulier ChatGPT
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 10 (+8/-0).
Je ne considère effectivement pas chatGPT comme un moteur de recherche.
Je tente de lever le malentendu en deux parties : une non-technique qui explique mon flux de travail et une sur ce que je penses qu'il se passe sous le capot.
Au-dessus du capot
Le flux de travail est :
Comme tout le monde il m'arrive de faire des erreurs; je suis assez transparent sur le sujet. Pour l'instant je n'ai pas encore trouvé d'erreur dans le Frido qui serait dûe à une erreur de chatGPT qui m'aurait échappée. Quand ça arrivera, ce sera noté.
Premier message : il n'y a aucun copier-collé de chatGPT vers le Frido, ni d'ailleurs d'aucune sources vers le Frido. Il y a toujours au moins deux rédactions intermédiaires : une à la main de l'écran vers mon papier de brouillon et une au clavier du papier de brouillon vers LaTeX.
Deuxième message : je ne demande pas de définitions à chatGPT, parce si définition ne peut pas être intrinsèquement fausse, elle peut induire méchamment en erreur si elle n'est pas celle acceptée par tout le monde.
Exemple : la définition de la limite d'une fonction en un point par chatGPT :
.
Je ne compte pas troller là-dessus aujourd'hui, mais il faut faire gaffe. En France, ça peut d'ailleurs être utilisé comme détecteur de fraude contre les étudiants :)
Sous le capot
Comment peut faire chatGPT pour pondre une démonstration correcte que je n'ai pas pu trouver sur internet ?
Vu que je n'en sais pas plus que ce que j'ai appris de 3Blue1Brown, je ne peux que spéculer. Je vois deux manières.
Le coup des livres privateurs
C'est un peu ce que je disais à propos des machines à laver. Il y a donc parfaitement moyen que chatGPT ait dans sa base d’entraînement des choses qui ne sont pas disponibles sur internet. Et c'est d’ailleurs même certain que c'est le cas.
Invention pure et simple
Si la démonstration n'apparaît pas dans le corpus d’entraînement, chatGPT sera en roue libre. Il fournira un texte qui ressemble à une preuve et qui pourrait même être correct plus ou moins par chance contrôlée.
Comme moi, chatGPT «sait» que si j'ai une matrice symétrique, il faut presque certainement prendre une base de diagonalisation; si on a une équation différentielle du premier ordre, il faut voir si Cauchy-Lipchitz est vérifié, etc.
Sur ce point, chatGPT peut en savoir plus que moi. Par exemple je ne voyais pas comment démontrer qu'une transvection est de déterminant 1. C'est chatGPT qui m'a mis sur la piste du lemme des déterminants que je ne connaissais pas.
[^] # Re: Le cas particulier ChatGPT
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 8 (+6/-0).
Attention qu'ici on parle très spécifiquement d'erreurs dans des démonstrations mathématique. Une moyenne de 40% ne veut rien dire sur les domaines particulier. Et la démonstration mathématique est un domaine très particulier.
Cela dit : oui. Quand je demande des démonstrations à chatGPT, la démonstration donnée contient souvent des erreurs. Et, plus intéressant, quand je lui signale et lui demande de corriger, il n'y parvient jamais.
Dès que chatGPT dit quelque chose de faux en math, c'est irrécupérable.
Par contre, dans mon expérience, le taux de bonne réponse est clairement en hausse avec les années.
MAIS : les erreurs se font de plus en plus subtiles. Il y a deux ans, il balançait sans sourciller que la mesure de Lebesgue de
était 1. Donc c'est compact et yolo on fait ce qu'on veut !
Maintenant, les erreurs deviennent indétectables à qui ne lit pas la démonstration ligne par ligne en faisant gaffe à chaque détail.
Il ne faut donc surtout pas se fier à chatGPT si on veut avoir une vue globale d'une démonstration. L'approche qu'il donne est souvent complètement fausse à cause d'un détail qui ne peut pas être remarqué sans une lecture attentive.
[^] # Re: Le cas particulier ChatGPT
Posté par LaurentClaessens (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 8 (+6/-0).
D'abord ce commentaire n'est pas spécifique à une démonstration lue sur
chatgpt.com
. Quand j'écris dans le Frido, je prends les démonstrations de là où je les trouve et je fais gaffe.Au niveau du Frido c'est parfaitement possible de ne pas trop se planter. C'est pas de niveau recherche.
Mais effectivement, il y a des erreurs qui se glissent. Pour l'instant, je n'ai pas encore d'entrées dans l'erratum qui seraient dues à moi n'ayant pas remarqué une erreur de chatGPT.
Enfin, le Frido est tout de même relu. Il y a du monde qui m'écrit pour me donner des corrections.
[^] # Re: Je me demande
Posté par LaurentClaessens (site web personnel) . En réponse au journal npm et badaboum. Évalué à 2 (+1/-1).
Ah ok. J'imagine que la réponse est «non» alors.
Mais il y a beaucoup de cas dans lesquels ce n'est pas important.
Si je démine un explosif et qu'il me dit que je dois couper le fil rouge, effectivement je demanderais d'où il le sait pour pouvoir vérifier (et je ne lui ferais confiance qu'après avoir retrouvé la source).
Mais si le conseil est de dévisser la plaque à droite, vider le filtre et le remettre ben… Autant essayer. Il y a une probabilité 0.9 de résoudre le problème et 0.1 de remarquer qu'il n'y a même pas de plaque à droite.
Les LLM sont très intéressants pour les cas où vérifier une information est beaucoup plus simple (et sans danger) que de trouver l'information.
[^] # Re: Je me demande
Posté par LaurentClaessens (site web personnel) . En réponse au journal npm et badaboum. Évalué à 3 (+1/-0).
Ça dépend ce que signifie la question.
Si la question est : «comment je sais que le résultat énoncé par le LLM est vrai ?», la réponse est : parce que j'ai lu la démonstration donnée par le LLM, et elle est correcte.
Si la question est «Quel cheminement mental il a suivi pour découvrir la démonstration ?», alors la réponse est comme pour n'importe quel mathématicien qui donne une démonstration d'un fait connu : «parce que je la connais» ou «parce que je connais plein de démonstrations dans des cas similaires, et j'ai pu adapter».
Cela dit, «adapter» dans le cas d'un LLM a une signification très différente de «adapter» dans le cas d'un humain.
Le cheminement fait par le LLM pour faire une simple addition est assez impressionnant.
TL;DR de la vidéo :
- Si on demande 14+18, il répond 32 (correct)
- Si on lui demande comment il y est arrivé, il dit qu'il a fait 4+8 (=12 c'est à dire 2 avec un report de 1) puis il a fait 1+1 (=2) et le report.
- Mais si on regarde quels sont les neurones effectivement activés lorsqu'il répons 14+18=32, à aucun moment il n'a effectivement activé les neurones correspondant à 12. Ni à aucune des étapes intermédiaires de report ou de quoi que ce soit de ce genre.
[^] # Re: Je me demande
Posté par LaurentClaessens (site web personnel) . En réponse au journal npm et badaboum. Évalué à 5 (+3/-0).
Oui : c'est mieux de d'abord chercher le manuel du modèle exact sur le site du constructeur. Si il existe et qu'il mentionne le problème, alors c'est certainement la première piste à suivre.
Après, le LLM peut très bien tenir sa solution du livre «Réparer sa machine à laver pour les nuls» qui se vend un multillion d'euros et qui n'est d'ailleurs plus en vente depuis 10 ans. Mais comme OpenAI a pu se procurer ce livre et le mettre dans la base d’entraînement, ben le LLM est capable d'en sortir de l'information.
Exemple dans un autre domaine : une question de math à laquelle je n'ai pas trouvé de réponse sur internet. Pourtant en la posant à chatGPT, il a pu me donner une réponse avec une démonstration correcte.
Il ne fait que peu de doutes pour moi que la question a été traitée dans plein de livres privateurs dont une bonne parties ne sont même plus en vente. Mais que ces livres sont dans la base d'entrainement de chatGPT.
[^] # Re: bof
Posté par LaurentClaessens (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 3 (+1/-0).
J'ai pas réfléchi; je voulais que la fin soit très courte.
Au choix :
[^] # Re: bof
Posté par LaurentClaessens (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 3 (+1/-0).
Pourquoi avoir utilisé un LLM ?
Il y a plusieurs raisons.
comme un dictionnaire de rimes
Comme dit précédemment, le LLM a servi un peu comme un dictionnaire de rimes. Il permet de balancer plein de propositions. À charge de l'auteur de saisir les bonnes au vol. J'ai par exemple bien aimée celle-ci :
que j'ai modifiée en
Le premier est un contre-sens par rapport au discours, tandis que je trouve que le second est très bien tourné. Dans les deux cas, ce sont des phrases tellement typiques de ce que l'on peut trouver sous la plume du marquis que ça me convient parfaitement.
Pour avoir de l'empirisme
Ça fait plusieurs jours qu'on parle, mais ça reste théorique. Je voulais voir si vraiment ma créativité serait bridée par l'outil. Personnellement, je réponds : non. J'ai obtenu quelque chose d'assez conforme à ce que je voulais.
Réponse longue
ici
Mon texte est ennuyeux ?
Ce qui serait formidable, c'est que tu puisse dire : «les idées sont géniales, il y aurait eu moyen de faire un récit palpitant, mais clairement, l'outil LLM a tout cassé». Et si tu pouvais ajouter un élément très spécifique pour justifier, ce serait parfait.
Sinon, ben désolé si le récit que je voulais raconter ne te plaise pas.
[^] # Re: bof
Posté par LaurentClaessens (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 2 (+2/-2).
Je l'avais déjà mentionnée dans d'autres commentaires : mais il me semble que cette nouvelle vérifie les propriétés suivantes :
Cela dit, tu as bien le droit de dire que cette nouvelle n'a pas été écrite pas une IA. En effet, c'est moi qui
J'ai également corrigé pas mal de mots à la main.
Bref, l'IA a eu un rôle assez secondaire dans la création de cette œuvre. À peine plus que le rôle d'un dictionnaire de rimes dans une poésie.
[^] # Re: controle sur le résultat : côté AI
Posté par LaurentClaessens (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 3 (+1/-0).
Ça reste vrai même si l'auteur n'a pas une idée entière du résultat final. On fait pondre un texte de départ, on repense aux développements, on change, etc.
Dans une large mesure, l'IA sert de canard en plastique.
Pour écrire ma nouvelle, j'ai tapé presque 1000 lignes de prompts. J'ai fait 15 échanges avec l'IA, sur plusieurs jours.
Certes j'avais déjà au départ une idée claire du scénario et de la chute. Mais j'ai inventé des parties en écrivant le prompt de départ, puis en refaisant des passages au fur et à mesure.
Je crois que c'est ce que Nicolas Boulay voulait dire dès le premier commentaire en disant que c'est un processus incrémental.
[^] # Re: controle sur le résultat : côté AI
Posté par LaurentClaessens (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 2 (+0/-0).
J'ai tenté l'expérience.
Le mieux serait évidemment de faire lire ce type de texte mélangés avec des textes du même genre écrits par des écrivains pro. Expérience en double aveugle, toussa.
J'écrirai un billet de blog plus long, mais en tant qu'auteur je suis assez satisfait. Mon style naturel d'écriture, c'est la démonstration mathématique[1]. Là j'ai pu écrire un texte que j'avais en tête depuis très longtemps, dans un style totalement différent.
La psychologie des personnages est la mienne, le scénario est le mien, certains mots les plus importants sont les miens. Bref, il s'agit bien de mon texte et de mes intentions. Je trouve que ce que j'avais en tête est bien rendu.
Si j'avais voulu écrire moi-même, j'airais sans doute dû passer des centaines d'heures pour améliorer mon style—en particulier l'imitation de Sade. Le résultat aurait-il été meilleur ?
D'un point de vue purement stylistique, oui.
Mais globalement je ne suis pas sûr : le fait de créer avec chatGPT a été une contrainte loulipotique qui a réellement amélioré le résultat final par rapport à ce que j'avais en tête avant de commencer. J'ai du mieux penser certains passages, et détailler certains aspects
Par exemple, j'ai pensé à mettre un contraste entre l'effet que font les prénoms «Juliette» et «Hélène» sur le personnage principal en écrivant un prompt demandant à chatGPT de refaire la fin du texte.
[1] D'ailleurs je trouve que tout la partie «remerciements» est nulle et très mal écrite.