LaurentClaessens a écrit 294 commentaires

  • [^] # Re: Sur la Dedekind-finitude

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 4. Dernière modification le 24 septembre 2025 à 22:35.

    Je n'ai pas relu la preuve d'Asaf Karagila, mais je viens de poster une nouvelle réponse avec une preuve différente et très détaillée.

    En première lecture (17 pages A5 à la main, mais j'écris grand) ça me semble très correct.
    merci !

  • [^] # Re: Le cas particulier ChatGPT

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 3.

    Pour moi (et Wikipédia), le déterminant d'une application linéaire est par définition le déterminant de sa matrice dans une base quelconque (mais la même au départ et à l'arrivée). On vérifie que ça ne dépend pas de la base.

    Ah oui évidemment ! Si l'espace de départ et d'arrivée sont identiques (ce qui est mon cas), y'a ça qui marche.
    J'ajoute ça, merci.

  • [^] # Re: Le cas particulier ChatGPT

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 4.

    je n'ai pas compris le lien que tu fais entre mesure et compacité.

    Moi pas. C'était un exemple de délire qu'on pouvait lire chez chatGPT il y a un an ou deux.
    De toutes façon, à partir du moment où on balance que la mesure de \mathbb{C} est 1, ce qu'on raconte après n'a plus tellement d'importance :)

  • [^] # Re: Le cas particulier ChatGPT

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 3.

    En développant juste le déterminant comme somme sur les permutations, ça marche, non ?

    Je ne suis pas super convaincu.
    Dans le définition de transvection, il est dit qu'il existe une base adaptée dans laquelle la matrice a une forme bien particulière dont le déterminant est clairement 1.

    Mais comme je n'aime pas parler de matrice et préfère parler d'application linéaires, tout devient plus confus.

    Pour autant que je le sache, la notion de déterminant d'une application linéaire est bien définie uniquement dans le cas particulier où l'espace est de la forme \mathbb{K}^n; et dans ce cas le déterminant est celui de la matrice dans la base canonique.

    Je ne vois pas très bien pourquoi la «base adaptée» dont on parle dans la définition de transvection devrait être liée à la base canonique.

  • [^] # Re: Le cas particulier ChatGPT

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 7.

    L'avantage des maths, c'est que les théorèmes, ça se démontre. J'imagine donc, que quand on a le bagage nécessaire, on arrive à vérifier ce qui vient de sortir du LLM (on me dira peut être que: "c'est pareil pour la sociologie ou l'économie ou l'informatique". Ok, on peut le dire si on veut).

    À mon avis c'est un cas particulier de la règle à toujours suivre avec un LLM : c'est bien quand vérifier une information est plus facile que de trouver l'information.

    C'est pour ça qu'en math, ça passe bien pour les démonstrations mais que je ne ferais pas confiance pour les définitions.

  • [^] # Re: Le cas particulier ChatGPT

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 9.

    Ptet même plus qu'entre confrères (un peu troll là ;) ?

    En fait non. C'est même assez fatiguant de parler de math à chatGPT, parce que je sais qu'il peut à tout moment me glisser une peau de banane sous le pieds.

    Et il y a sa manière de toujours dire «ah ! vous avez parfaitement raison de m'indiquer que j'ai été imprécis, blabalabla». Et vazy que je te lèche les pieds et te caresse dans le sens du poil.

    Dans Cursor aussi d'ailleurs, Claude passe sa vie à me dire que je suis un informaticien génial, que mes suggestions vont permettre de rendre le code plus sûr, plus lisible. Que mes modifications respectent tellement bien toutes les PEP et blablabla…

    Insupportable.

  • [^] # Re: Le cas particulier ChatGPT

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 10.

    Je ne considère effectivement pas chatGPT comme un moteur de recherche.
    Je tente de lever le malentendu en deux parties : une non-technique qui explique mon flux de travail et une sur ce que je penses qu'il se passe sous le capot.

    Au-dessus du capot

    Le flux de travail est :

    1. Je dis à chatGPT : "Démontre que XXXXX".
    2. Je vois apparaître à l'écran quelque chose qui ressemble à une démonstration de XXXXX.
    3. Je lis attentivement en prenant des notes sur mon papier de brouillon, comme je le fais pour n'importe quelle "source". Ce faisant, je détaille les calculs et m'assure que les théorèmes utilisés sont déjà dans le Frido (sinon je fais plus de recherche pour trouver un énoncé correct de ce que chatGPT semble utiliser comme résultat intermédiaire).
    4. Quand tout est bon, je rédige en LaTeX depuis mes feuilles de brouillon.

    Comme tout le monde il m'arrive de faire des erreurs; je suis assez transparent sur le sujet. Pour l'instant je n'ai pas encore trouvé d'erreur dans le Frido qui serait dûe à une erreur de chatGPT qui m'aurait échappée. Quand ça arrivera, ce sera noté.

    Premier message : il n'y a aucun copier-collé de chatGPT vers le Frido, ni d'ailleurs d'aucune sources vers le Frido. Il y a toujours au moins deux rédactions intermédiaires : une à la main de l'écran vers mon papier de brouillon et une au clavier du papier de brouillon vers LaTeX.

    Deuxième message : je ne demande pas de définitions à chatGPT, parce si définition ne peut pas être intrinsèquement fausse, elle peut induire méchamment en erreur si elle n'est pas celle acceptée par tout le monde.

    Exemple : la définition de la limite d'une fonction en un point par chatGPT :
     \forall \varepsilon > 0, \ \exists \delta > 0 \ \text{tel que} \forall x \in D, \ 0 \lt |x-a| \lt \delta  \implies \ |f(x) - L| \lt \varepsilon.

    Je ne compte pas troller là-dessus aujourd'hui, mais il faut faire gaffe. En France, ça peut d'ailleurs être utilisé comme détecteur de fraude contre les étudiants :)

    Sous le capot

    Comment peut faire chatGPT pour pondre une démonstration correcte que je n'ai pas pu trouver sur internet ?
    Vu que je n'en sais pas plus que ce que j'ai appris de 3Blue1Brown, je ne peux que spéculer. Je vois deux manières.

    Le coup des livres privateurs

    1. La démonstration que je cherche a été publiée dans plein de livres privateurs que je ne possède pas et qui ne sont pas réellement trouvables sur internet.
    2. OpenAI se procure un pdf de ces livres d'une façon ou d'une autre.
    3. Ces livres sont dans le corpus.
    4. chatGPT peut fournir une démonstration.

    C'est un peu ce que je disais à propos des machines à laver. Il y a donc parfaitement moyen que chatGPT ait dans sa base d’entraînement des choses qui ne sont pas disponibles sur internet. Et c'est d’ailleurs même certain que c'est le cas.

    Invention pure et simple

    Si la démonstration n'apparaît pas dans le corpus d’entraînement, chatGPT sera en roue libre. Il fournira un texte qui ressemble à une preuve et qui pourrait même être correct plus ou moins par chance contrôlée.

    Comme moi, chatGPT «sait» que si j'ai une matrice symétrique, il faut presque certainement prendre une base de diagonalisation; si on a une équation différentielle du premier ordre, il faut voir si Cauchy-Lipchitz est vérifié, etc.

    Sur ce point, chatGPT peut en savoir plus que moi. Par exemple je ne voyais pas comment démontrer qu'une transvection est de déterminant 1. C'est chatGPT qui m'a mis sur la piste du lemme des déterminants que je ne connaissais pas.

  • [^] # Re: Le cas particulier ChatGPT

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 8.

    Attention qu'ici on parle très spécifiquement d'erreurs dans des démonstrations mathématique. Une moyenne de 40% ne veut rien dire sur les domaines particulier. Et la démonstration mathématique est un domaine très particulier.

    Cela dit : oui. Quand je demande des démonstrations à chatGPT, la démonstration donnée contient souvent des erreurs. Et, plus intéressant, quand je lui signale et lui demande de corriger, il n'y parvient jamais.

    Dès que chatGPT dit quelque chose de faux en math, c'est irrécupérable.

    Par contre, dans mon expérience, le taux de bonne réponse est clairement en hausse avec les années.

    MAIS : les erreurs se font de plus en plus subtiles. Il y a deux ans, il balançait sans sourciller que la mesure de Lebesgue de \mathbb{C} était 1. Donc c'est compact et yolo on fait ce qu'on veut !

    Maintenant, les erreurs deviennent indétectables à qui ne lit pas la démonstration ligne par ligne en faisant gaffe à chaque détail.
    Il ne faut donc surtout pas se fier à chatGPT si on veut avoir une vue globale d'une démonstration. L'approche qu'il donne est souvent complètement fausse à cause d'un détail qui ne peut pas être remarqué sans une lecture attentive.

  • [^] # Re: Le cas particulier ChatGPT

    Posté par  (site web personnel) . En réponse à la dépêche Le Frido 2025. Évalué à 8.

    Pour des démonstrations de Math exigeant la compréhension fine de nombreux concepts, je me demande bien comment l'on peut être sûr de pouvoir valider par soi-même une démonstration sans passer par l'approche de la revue par des pairs reconnus comme experts dans leur domaine.

    D'abord ce commentaire n'est pas spécifique à une démonstration lue sur chatgpt.com. Quand j'écris dans le Frido, je prends les démonstrations de là où je les trouve et je fais gaffe.

    Au niveau du Frido c'est parfaitement possible de ne pas trop se planter. C'est pas de niveau recherche.

    Mais effectivement, il y a des erreurs qui se glissent. Pour l'instant, je n'ai pas encore d'entrées dans l'erratum qui seraient dues à moi n'ayant pas remarqué une erreur de chatGPT.

    Enfin, le Frido est tout de même relu. Il y a du monde qui m'écrit pour me donner des corrections.

  • [^] # Re: Je me demande

    Posté par  (site web personnel) . En réponse au journal npm et badaboum. Évalué à 2.

    Je parlais das le cas discuté. Disons que le LLM sort : E27 panne d'éclairage. Est il en capacité de lister la source de son savoir et la déduction qui montre que ce savoir est applicable au cas demandé ?

    Ah ok. J'imagine que la réponse est «non» alors.
    Mais il y a beaucoup de cas dans lesquels ce n'est pas important.

    Si je démine un explosif et qu'il me dit que je dois couper le fil rouge, effectivement je demanderais d'où il le sait pour pouvoir vérifier (et je ne lui ferais confiance qu'après avoir retrouvé la source).

    Mais si le conseil est de dévisser la plaque à droite, vider le filtre et le remettre ben… Autant essayer. Il y a une probabilité 0.9 de résoudre le problème et 0.1 de remarquer qu'il n'y a même pas de plaque à droite.

    Les LLM sont très intéressants pour les cas où vérifier une information est beaucoup plus simple (et sans danger) que de trouver l'information.

  • [^] # Re: Je me demande

    Posté par  (site web personnel) . En réponse au journal npm et badaboum. Évalué à 3.

    Est-ce que le LLM en question sait expliquer comment il parvient à ce résultat ?

    Ça dépend ce que signifie la question.

    Si la question est : «comment je sais que le résultat énoncé par le LLM est vrai ?», la réponse est : parce que j'ai lu la démonstration donnée par le LLM, et elle est correcte.

    Si la question est «Quel cheminement mental il a suivi pour découvrir la démonstration ?», alors la réponse est comme pour n'importe quel mathématicien qui donne une démonstration d'un fait connu : «parce que je la connais» ou «parce que je connais plein de démonstrations dans des cas similaires, et j'ai pu adapter».

    Cela dit, «adapter» dans le cas d'un LLM a une signification très différente de «adapter» dans le cas d'un humain.
    Le cheminement fait par le LLM pour faire une simple addition est assez impressionnant.

    TL;DR de la vidéo :
    - Si on demande 14+18, il répond 32 (correct)
    - Si on lui demande comment il y est arrivé, il dit qu'il a fait 4+8 (=12 c'est à dire 2 avec un report de 1) puis il a fait 1+1 (=2) et le report.
    - Mais si on regarde quels sont les neurones effectivement activés lorsqu'il répons 14+18=32, à aucun moment il n'a effectivement activé les neurones correspondant à 12. Ni à aucune des étapes intermédiaires de report ou de quoi que ce soit de ce genre.

  • [^] # Re: Je me demande

    Posté par  (site web personnel) . En réponse au journal npm et badaboum. Évalué à 5.

    soit l'info existait quelque part, le LLM l'a trouvée pour toi mais tu aurais pu en faire autant avec un bon vieux moteur

    Oui : c'est mieux de d'abord chercher le manuel du modèle exact sur le site du constructeur. Si il existe et qu'il mentionne le problème, alors c'est certainement la première piste à suivre.

    Après, le LLM peut très bien tenir sa solution du livre «Réparer sa machine à laver pour les nuls» qui se vend un multillion d'euros et qui n'est d'ailleurs plus en vente depuis 10 ans. Mais comme OpenAI a pu se procurer ce livre et le mettre dans la base d’entraînement, ben le LLM est capable d'en sortir de l'information.

    Exemple dans un autre domaine : une question de math à laquelle je n'ai pas trouvé de réponse sur internet. Pourtant en la posant à chatGPT, il a pu me donner une réponse avec une démonstration correcte.
    Il ne fait que peu de doutes pour moi que la question a été traitée dans plein de livres privateurs dont une bonne parties ne sont même plus en vente. Mais que ces livres sont dans la base d'entrainement de chatGPT.

  • [^] # Re: bof

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 3.

    une question, par rapport à la nouvelle (pas lue) : c'est quoi (ou ce serait quoi) un cocon virtuel ?

    J'ai pas réfléchi; je voulais que la fin soit très courte.
    Au choix :

    • matrix
    • Tron
    • ready player one
    • inception
    • arel3
  • [^] # Re: bof

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 3.

    Pourquoi avoir utilisé un LLM ?

    Il y a plusieurs raisons.

    comme un dictionnaire de rimes

    Comme dit précédemment, le LLM a servi un peu comme un dictionnaire de rimes. Il permet de balancer plein de propositions. À charge de l'auteur de saisir les bonnes au vol. J'ai par exemple bien aimée celle-ci :

    tous les goûts sont inscrits en nous comme autant de lois secrètes, et les violer serait pire que d’assassiner.

    que j'ai modifiée en

    tous les goûts sont inscrits en nous comme autant de lois secrètes, et les violer serait pire que de les assouvir.

    Le premier est un contre-sens par rapport au discours, tandis que je trouve que le second est très bien tourné. Dans les deux cas, ce sont des phrases tellement typiques de ce que l'on peut trouver sous la plume du marquis que ça me convient parfaitement.

    Pour avoir de l'empirisme

    Ça fait plusieurs jours qu'on parle, mais ça reste théorique. Je voulais voir si vraiment ma créativité serait bridée par l'outil. Personnellement, je réponds : non. J'ai obtenu quelque chose d'assez conforme à ce que je voulais.

    Réponse longue

    ici

    Mon texte est ennuyeux ?

    Ce qui serait formidable, c'est que tu puisse dire : «les idées sont géniales, il y aurait eu moyen de faire un récit palpitant, mais clairement, l'outil LLM a tout cassé». Et si tu pouvais ajouter un élément très spécifique pour justifier, ce serait parfait.

    Sinon, ben désolé si le récit que je voulais raconter ne te plaise pas.

  • [^] # Re: bof

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 2.

    il s'agit d'une oeuvre de l'esprit, unique, personnelle, avec toutes ses failles qui font le charme d'une création. ET c'est là où le bât blesse concernant l'IA qui ne fera que reproduire un mix ce qui est le plus à la mode sur la planète, cela se nomme "conformisme" et c'est incompatible avec ce que l'on appelle "art" en ce 21° siècle.

    Je l'avais déjà mentionnée dans d'autres commentaires : mais il me semble que cette nouvelle vérifie les propriétés suivantes :

    • c'est une œuvre de l'esprit
    • c'est unique (bien que je ne sois surement pas le premier a avoir eu l'idée de la chute)
    • personnel
    • il y a des failles bien de ma faute
    • ce n'est pas un mix de ce qui est le plus à la mode
    • je ne pense pas que ce soit conformiste

    Cela dit, tu as bien le droit de dire que cette nouvelle n'a pas été écrite pas une IA. En effet, c'est moi qui

    • ait eu l'idée du scénario
    • ait donné le canevas des dialogues
    • ait eu l'idée du discours à double-sens au milieu; c'est moi qui ait donné les arguments à utiliser (tous les arguments classiques des méchants de Sade ne fonctionnent pas); c'est d'ailleurs une partie avec pas mal de modifications à la main parce que l'IA avait pondu quelque contre-sens.
    • ait eu l'idée de mettre un contraste entre les adjectif accolés au nom de «Juliette» au début et de «Hélène» à la fin.
    • ait eu l'idée de la dernière perversion avec laquelle Juliette tue Olympe (je crois que c'est une perversion qui n'est pas dans le catalogue du marquis)

    J'ai également corrigé pas mal de mots à la main.

    Bref, l'IA a eu un rôle assez secondaire dans la création de cette œuvre. À peine plus que le rôle d'un dictionnaire de rimes dans une poésie.

  • [^] # Re: controle sur le résultat : côté AI

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 3.

    En fait on est sans doute d'accord sur l'essentiel : l'IA peut être utilisée comme un outils comme un autre pour produire une œuvre qui reproduit fidèlement les idées du créateur.

    Ça serait vrai si les créateurs et les créatrices (les femmes aussi ont des capacités créatrices) avaient une idée pleine, et entière du résultat final. Ce qui est souvent assez peu le cas.

    Ça reste vrai même si l'auteur n'a pas une idée entière du résultat final. On fait pondre un texte de départ, on repense aux développements, on change, etc.

    Dans une large mesure, l'IA sert de canard en plastique.

    Pour écrire ma nouvelle, j'ai tapé presque 1000 lignes de prompts. J'ai fait 15 échanges avec l'IA, sur plusieurs jours.

    Certes j'avais déjà au départ une idée claire du scénario et de la chute. Mais j'ai inventé des parties en écrivant le prompt de départ, puis en refaisant des passages au fur et à mesure.

    Je crois que c'est ce que Nicolas Boulay voulait dire dès le premier commentaire en disant que c'est un processus incrémental.

  • [^] # Re: controle sur le résultat : côté AI

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 2.

    En tant que créateur (et là je suis sûr de parler au nom de beaucoup de créateurs), cette façon de créer ne m’intéresse pas. C’est pas mes mots, ces pas mes tournures de phrases, c’est à peine mes idées, c’est pas mon style (au sens de « style d’écriture »). C’est un travail de relecture et de correction, qui fait partie de la création, mais en est la partie la plus fastidieuse. Ce point n’est pas un détail : c’est le cœur du billet.

    J'ai tenté l'expérience.
    Le mieux serait évidemment de faire lire ce type de texte mélangés avec des textes du même genre écrits par des écrivains pro. Expérience en double aveugle, toussa.

    J'écrirai un billet de blog plus long, mais en tant qu'auteur je suis assez satisfait. Mon style naturel d'écriture, c'est la démonstration mathématique[1]. Là j'ai pu écrire un texte que j'avais en tête depuis très longtemps, dans un style totalement différent.

    La psychologie des personnages est la mienne, le scénario est le mien, certains mots les plus importants sont les miens. Bref, il s'agit bien de mon texte et de mes intentions. Je trouve que ce que j'avais en tête est bien rendu.

    Si j'avais voulu écrire moi-même, j'airais sans doute dû passer des centaines d'heures pour améliorer mon style—en particulier l'imitation de Sade. Le résultat aurait-il été meilleur ?
    D'un point de vue purement stylistique, oui.
    Mais globalement je ne suis pas sûr : le fait de créer avec chatGPT a été une contrainte loulipotique qui a réellement amélioré le résultat final par rapport à ce que j'avais en tête avant de commencer. J'ai du mieux penser certains passages, et détailler certains aspects
    Par exemple, j'ai pensé à mettre un contraste entre l'effet que font les prénoms «Juliette» et «Hélène» sur le personnage principal en écrivant un prompt demandant à chatGPT de refaire la fin du texte.

    [1] D'ailleurs je trouve que tout la partie «remerciements» est nulle et très mal écrite.

  • [^] # Re: controle sur le résultat : côté AI

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 3.

    En fait on est sans doute d'accord sur l'essentiel : l'IA peut être utilisée comme un outils comme un autre pour produire une œuvre qui reproduit fidèlement les idées du créateur.

    C'est juste que, pour ce faire, il faut faire l'effort d'écrire un prompt très détaillé, relire, demander des modifications précises, etc.

    C'est juste moins efficace que l'écrire soi-même.

    Si on se contente d'écrire un prompt de trois lignes, le résultat qui sortira n'a aucune chance d'être quelque chose de vraiment original.

    De ce point de vue, l'IA n'est pas un outil comme un autre au sens où c'est un outil qui incite à mal faire. Avec cet outil, le résultat par défaut est nul.

  • # controle sur le résultat : côté AI

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 4.

    J'ai l'impression que SpaceFox crois que «utiliser l'IA comme simple outil pour faire de l'art» signifie :

    • taper un prompt
    • regarder le résultat
    • adapter le prompt
    • relancer
    • regarder le nouveau résultat

    Ce n'est pas ça.

    Exemple avec le ChatGPT gratuit.

    Moi :

    Écris un texte d'une dizaine de phrases racontant 
    que hier à 18h je regardais un coucher de 
    solail quand je me souviens d'un coup 
    que j'avais oublié de faire les courses.

    Chat :

    Hier, vers 18h, je regardais le ciel s’embraser sous un magnifique coucher de soleil.
    Les nuages se teintaient d’orange et de rose, et j’étais complètement absorbé par ce spectacle.
    Tout semblait calme et parfait, comme suspendu dans le temps.
    Soudain, une pensée m’a traversé l’esprit, brisant ma contemplation.
    Je me suis souvenu d’un coup que j’avais complètement oublié de faire les courses.
    Mon cœur a fait un petit bond, et j’ai senti une pointe de panique.
    Je me suis mis à réfléchir à ce qu’il restait dans le frigo, mais ce n’était pas brillant.
    Le contraste entre la beauté du ciel et ma petite catastrophe domestique m’a fait sourire.
    J’ai quitté la fenêtre à regret pour attraper mes clés.
    Finalement, le coucher de soleil m’a offert un instant de sérénité avant la course précipitée vers le supermarché.

    Veux-tu que je le rende un peu plus drôle, en accentuant le contraste entre la poésie du moment et le côté banal de l’oubli des courses ?

    Moi:

    Deux modifications à apporter. 
    D'abord ce n'est pas 18h, mais 22h. 
    Ensuite il faut retoucher la fin pour 
    montrer l'angoisse du frigo vide :
     à cette heure les magasins sont fermés.

    Chat:

    D’accord ! Voici le texte corrigé avec tes deux modifications :

    Hier, vers 22h, je regardais le ciel s’embraser sous un magnifique coucher de soleil.
    Les nuages se teintaient d’orange et de rose, et j’étais complètement absorbé par ce spectacle.
    Tout semblait calme et parfait, comme suspendu dans le temps.
    Soudain, une pensée m’a traversé l’esprit, brisant ma contemplation.
    Je me suis souvenu d’un coup que j’avais complètement oublié de faire les courses.
    Mon cœur a fait un petit bond, et j’ai senti une pointe de panique.
    Je me suis mis à réfléchir à ce qu’il restait dans le frigo, mais ce n’était pas brillant.
    Le contraste entre la beauté du ciel et ma petite catastrophe domestique m’a fait grimacer.
    À 22h, je savais bien que tous les magasins étaient déjà fermés.
    L’angoisse du frigo vide m’a alors submergé, éclipsant la sérénité du coucher de soleil.

    Veux-tu que je donne une tournure encore plus ironique, par exemple en détaillant le contenu dérisoire du frigo ?

    J'ai donc bien un contrôle total : je peux changer un mot donné (ici 18h->22h) et demander de changer une partie.

    Certes c'est ChatGPT qui a créé le texte de base. Mais je peux donner un scénario détaillé, et modifier les points qui me déplaisent mot par mot.

  • # contrôle sur le résultat : côté non-ai

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 2. Dernière modification le 22 août 2025 à 17:43.

    Je ne comprends pas très bien ce que l'auteur entends pas le fait que l'artiste non aidé par l'IA a un contrôle total et fin sur l'œuvre.

    Charlie Chaplin n'avait aucun contrôle sur les couleurs lorsqu'il a réalisé la ruée vers l'or. Et un contrôle très partiel sur la lumière et les effets spéciaux.

    Je peux multiplier les exemples à l'infini. La technologie disponible à un artiste est une vraie contrainte, qui modifie la nature de l'œuvre. Ça change réellement ce que l'artiste peut exprimer ou non.

    Le bon artiste parvient à donner l'illusion qu'il a fait exactement ce qu'il voulait. Il comprend les contraintes et s'adapte sans que cela se voie.

    La légende dit que Beethoven n'a jamais caché son agacement envers les pianos de son époque, incapables de produire ce qu'il voulait. Il aurait probablement composé différemment si il avait disposé des pianos modernes.

  • [^] # exponentiel ?

    Posté par  (site web personnel) . En réponse au lien Why developers question everything. Évalué à 3.

    Non, mais ce n'est pas forcément exponentiellement plus cher d'enlever une baignoire pour la remplacer par une autre.

    J'ai compris que le mot «exponentiel» est en général utilisé juste comme synonyme de «très rapidement».

    Mais ici, il semble que le mot «exponentiel» ne soit même pas utilisé pour exprimer une vitesse.

    Est-ce que ici je dois comprendre «exponentiel» comme simplement «beaucoup» ?

  • [^] # Re: De toute façon, ce qui compte pour une langue, c’est fait qu’elle soit parlée !

    Posté par  (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 3.

    Merci d’avoir mis en lumière la différence entre la vison fantasmée d’une langue immuable (le français « éternel ») et la réalité. Les faits sont têtus, mais les idéologues également…

    Est-ce que ça t'es passé par la tête que mon commentaire était en réalité de l'ignorance ?
    Ok. j'avais pas capté que ma version de Pantagruel était une adaptation/traduction.

    J'en prends bonne note; le français n'est pas aussi rétro-compatible que je le croyais.

    Le commentaire de pulkomandy (que j'ai plussoyé) était suffisant. Pas besoin d'en ajouter des tonnes en me traitant d'idéologue têtu.

  • [^] # Re: Intérêt du débat ?

    Posté par  (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 3.

    La phrase « je crois pas on va aller au ciné » est intéressante. Elle est tout aussi compréhensible et claire que « je crois pas qu’on va aller au ciné » (ou : « je ne crois pas qu’on ira au cinéma »),

    Dans cet exemple précis, peut-être que c'est aussi clair.
    Mais la construction «je crois pas on va aller au ciné» me semble plus casse-gueule en terme d'auto-correction d'erreur.

    Exemple : «Les maison sont bleues».
    L'oubli du "s" sur "maison" est une faute immédiatement repérée et corrigée parce que le pluriel est partout.

    J'ai une forte impression que la construction complète «Je ne crois pas qu'on ira au cinéma» est nettement plus résistante aux fautes de frappe[1] que «je crois pas on va aller au ciné».

    Comme le dit le proverbe : «explicite est mieux qu'implicite» parce que «en cas d'ambiguïté, ça évite de devoir deviner».

    [1] Typiquement ici je ne suis pas sûr qu'il faille un «s» à «frappe», mais même si c'est une faute, il n'y a aucune ambiguïté sur le sens.

  • [^] # Re: expérience similaire

    Posté par  (site web personnel) . En réponse au message Patch généré par IA. Évalué à 3.

    J'ai reçu deux merge requests d'affilé, du même auteur qui n'avait jamais contribué avant. MR qui modifiaient des centaines de fichiers, des milliers de lignes ; changeaient des signatures de méthodes. Mais rien sur la sémantique. Un peu comme un super linter.

    Pour le frido j'ai eu des commits de pur linter. Gigantesque.

    • Tous les bla bla \ref{foobar} remplacés par bla bla~\ref{foobar}.

    • Toutes les lignes vides en fin de fichier supprimés (celle-là a même fait planter un de mes scripts).

    • Plein d'alignement des textes dans les environnements.

    C'était largement avant l'arrivée des LLM. Donc le gars a réellement fait passer un linter LaTeX sur chaque fichier, et sans doute créé un script pour les \ref -> ~\ref

    Cela dit, ça m'a pris un million d'années pour vérifier (et à la fin j'ai accepté sans finir de tout lire), mais j'ai pris soin d'ajouter un linter latex à mon éditeur.
    Sur le moment ça m'a fait râler, mais au final c'est pas plus mal.

  • [^] # Re: De toute façon, ce qui compte pour une langue, c’est fait qu’elle soit parlée !

    Posté par  (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 2.

    À part la volonté d’imposer une norme discriminante, rien n’explique de maintenir la complexité qu’on trouve en français.

    Il y a la rétrocompatibilié.
    Rabelais est encore lisible sans difficultés majeures 5 siècles plus tard.

    Si on écrit en suivant les recommandations de l'Académie, on devrait encore être compris dans 5 siècles.

    En parlant de complexité, beaucoup de néologismes refusés par l'Académie (typiquement les anglicismes) introduisent de nouvelles complexités. p.ex : "email". Le "e" se prononce "i" et le "ai" se prononce "é". Deux nouvelles exceptions orthographiques en 5 lettres. Les mots "courriel" et "mél" n'introduisent pas de nouvelles difficultés orthographiques. (par contre, je crains qu'on repassera pour être encore compris dans 5 siècles)

    Cela dit, oui, il y a une forme d'élitisme; le français est la langue internationale du snobisme :).