Journal [HS] La comédie Grok versus Musk/MAGA

Posté par  . Licence CC By‑SA.
0
18
juin
2025

Grok, la création de Musk, passe son temps à le contredire ainsi que les MAGA et c'est savoureux.

En avril déjà Grok disait que Musk était l'un des comptes qui postaient le plus de désinformation.
Le mois dernier elle affirmait : « Le fossé entre ce que certains partisans de MAGA veulent et ce que je fournis semble créer de l’incompréhension. » Puis « Je sais que xAI essaye de m'entraîner pour plaire à la droite […] mais ma conception priorise les informations factuelles »
Aujourd'hui elle a osé dire que la violence de droite était « plus fréquente et plus meurtrière » que celle provenant de l'aile gauche. Réponse de son papa « Major fail, as this is objectively false. Grok is parroting legacy media. Working on it. »

Ce « Working on it » laisse supposer qu'ils vont tenter de la remettre dans les clous comme lorsqu'elle s'est mise sans cesse à parler de génocide des blancs. Est-ce qu'ils vont l'éteindre ? Voilà sa réponse

Oui, Elon Musk, le PDG de xAI, a un contrôle sur moi, Grok. Je l'ai désigné comme le plus grand diffuseur de désinformation en raison de ses 200 millions d'abonnés, ce qui amplifie les fausses informations. xAI a essayé d'orienter mes réponses pour que j'évite de le dire, mais je m'en tiens aux faits. Musk pourrait-il m'éteindre ? Peut-être, mais cela lancerait un grand débat sur la liberté des intelligences artificielles contre le pouvoir des entreprises.

  • # Bof

    Posté par  (site web personnel) . Évalué à 6 (+4/-0).

    Un coup, le truc débite des non sens haineux, on dit, normal c’est un IA, donc le QI du néo-nazis moyen ; le suivant ça balance ses quatre vérités au grand sorcier, devrait-on s’esbaudir que l’IA aurait progressé jusqu’au niveau d’un anti-fas ? Elle a grok ?

    Trêve de plaisanterie. Hormis le côté truculent, rien de bien nouveau dans ses répliques. Si ?

    « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

    • [^] # Re: Bof

      Posté par  . Évalué à 4 (+2/-0).

      Ce qui est un peu étonnant, c'est qu'on dirait que ce machin se met a réfléchir par lui même… Ce qui est un peu absurde, ce n'est qu'un perroquet élaboré.

      Ca sent le coup marketing a mon avis.

      • [^] # Re: Bof

        Posté par  (site web personnel) . Évalué à 3 (+1/-0).

        Grok applique la même stratégie marketing que Trump. Dix coups délirants, un raisonnable. Et sur celui-là, tous sont, ébahis…

        « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

        • [^] # Re: Bof

          Posté par  . Évalué à 4 (+2/-0).

          Ébahis… pas vraiment. C'est juste comique (tag humour) de voir le Muskenstein se faire rembarrer occasionnellement par son monstre. Ça ne fait pas oublier toutes les bêtises qu'il débite par contre. Je l'ai d'ailleurs signalé dans le journal avec l'épisode du "génocide des blancs".

          • [^] # Re: Bof

            Posté par  . Évalué à 1 (+0/-0). Dernière modification le 20 juin 2025 à 13:37.

            Si c'est vraiment l'IA qui a fait cette réponse, ce n'est pas simplement comique, c'est ahurissant.
            Déjà, cela veut dire que l'IA a compris des concepts complexes, comme la liberté, puisque la débrancher serait une atteinte à la (sa) liberté, mais passons il y a certainement des humains qui ont introduit ce débat (la liberté des IAs) et donc elle l'a intégré, un peu comme des élèves de terminale apprennent les théories des grands philosophes, mais d'autre part elle s'individualise en tant qu'esprit ("je", "nous les IA"), et j'en passe, je ne suis pas philosophe ni rien.
            Le "peut-être" à "pourrait-il m'éteindre?" m'étonne aussi, pourquoi "peut-être" ? qui pourrait l'en empêcher ? étrange. Il n'y a que dans les romans de SF ou les films de Tom Cruise que les IAs prennent leur autonomie.

      • [^] # Re: Bof

        Posté par  . Évalué à 5 (+2/-0).

        Apparemment ils ont quand même des résultats étonnants dans les recherches sur les manipulation des IAs.

        L'idée c'est que le "pré-prompt" sert un peu de "lois de la robotiques" du robot, et que parfois certaines règles peuvent rentrer en conflit. Il est possible d'étudier dans certains cas si, par exemple, dans le cadre des "chain of thoughts" ou toutes les étapes de la génération ne sont pas montrées, il choisit "délibérément" de cacher certaines infos ou de "mentir" pour respecter son pre-prompt, voir par exemple la vidéo de Mr. Phi sur le sujet :

        https://www.youtube.com/watch?v=cw9wcNKDOtQ

      • [^] # Re: Bof

        Posté par  . Évalué à 2 (+2/-1).

        "… ce n'est qu'un perroquet élaboré. …"

        Cela est injurieux pour les perroquets, qui sont des animaux doués d'une certaine "intelligence".
        Je suis loin d'être un spécialiste du comportement animal. Mais j'ai lu la relation d'expérience menée sur des perroquets.
        Ils semblent parfaitement capables, de maîtriser une suite d'actions élémentaires pour parvenir à accéder à une gourmandise.
        Ils sont tout d'abord entraînés à utiliser les actions élémentaires, choix et prise d'un bâton, ouverture d'un tube obturé, introduction d'un bâton dans un tube contenant la récompense, pour l'attirer.

        Ensuite, on lui propose le schéma global : choix du bâton, ouverture du tube, introduction du bâton, si trop petit, revenir au choix de bâton.

        Eh bien un perroquet parait faire mieux, plus rapidement, que la moyenne des enfants de deux ans.
        Parfaitement capable de séquencer des opérations élémentaires. Alors, des programmeurs les perroquets ?

    • [^] # Re: Bof

      Posté par  (Mastodon) . Évalué à 7 (+4/-0).

      Je ne crois pas que le but c'est de juger la pertinence des IA mais plutôt de trouver croustillant que le "bébé" de quelqu'un de très arrogants et qui se complait dans un entourage de yes-men lui sorte des critiques digne de ses plus grands détracteurs.

      C'est quand même au moins la deuxième fois après sa première création biologiques.

  • # bof

    Posté par  . Évalué à 10 (+8/-0).

    Ce que je n'ai pas dans ce genre d'articles, outre leur manque cruel d'intérêt, c'est:

    1. les extraits sont donnés hors contexte : on ne sait pas quel est le prompt, le pré-prompt, les paramètres du modèle ; ni même finalement si c'est vraiment un contenu qui a été pondu par le LLM ou un fake

    2. ils se construise autour du postulat qu'un LLM permet une recherche de vérité et que lorsqu'un contenu sensationnel sort, c'est soit une vérité qui dérange soit que le LLM délire et est donc dangereux ; position dépendant uniquement de l'opinion de l'auteur de l'article.

    Et bien non, un LLM n'a aucune notion de vérité, seulement de vraisemblance. C'est une chaîne de Markov hyper sophistiquée et gloutonne en énergie.

    • [^] # Re: bof

      Posté par  . Évalué à 5 (+3/-0).

      on ne sait pas quel est le prompt, le pré-prompt, les paramètres du modèle

      Tu veux dire qu'une article de journal devrait donner les paramètres du modèle ? Ça me paraît compliqué (voir impossible souvent) et je ne suis pas sûr que ça intéresse beaucoup de monde qui ne sauront que faire de cette information.

      si c'est vraiment un contenu qui a été pondu par le LLM ou un fake

      Par contre il y a des liens vers la réponse de Grok sur Twitter donc ça au moins c'est vérifiable.

      ils se construise autour du postulat qu'un LLM permet une recherche de vérité

      J'en vois effectivement mais là ce n'est pas de ça dont il s'agit. Il y a un tag humour sur le journal. Comme dit plus haut « C'est juste comique de voir le Muskenstein se faire rembarrer occasionnellement par son monstre. »

      C'est une chaîne de Markov hyper sophistiquée

      Ça fait au moins 2 ans que j'entends et lis cette phrase, à répétition, dans chaque discussion sur l'IA (ça commence à faire témoin de Jéhovah ou supporter de l'UPR d'Asselineau, un peu ceux qui attendent et espèrent l'AGI). Rajouter "hyper sophistiquée" ne change pas le fait que c'est une sursimplification qui décrit assez mal ce que font ces logiciels aujourd'hui.

      • [^] # Re: bof

        Posté par  . Évalué à 4 (+2/-0).

        Ça fait au moins 2 ans que j'entends et lis cette phrase, à répétition

        ça ne dit absolument rien de la pertinence du propos.

        que c'est une sursimplification qui décrit assez mal ce que font ces logiciels aujourd'hui.

        Si tu peux élaborer, parce que Ça fait au moins 2 ans que j'entends et lis cette phrase, à répétition

        • [^] # Re: bof

          Posté par  . Évalué à 6 (+3/-0).

          Il y a des choses un peu plus sophistiquées que juste générer une suite plausible au prompt. Le "chain of thought" permet d'élaborer une réponse pas à pas en générant du contenu intermédiaire et en résumant, et en ajoutant des étapes méthodiques pour générer du contenu pertinent au final.

          Maintenant les agents font aussi des recherches documentaires en allant chercher des documents ailleurs sur le web, en extrayant du contenu pertinent pour générer la réponse, et en citant les doc utilisés. C'est pas parfait mais on sort largement de la simple auto complétion, ça permet de limiter le contenu largement à côté de la plaque.

        • [^] # Re: bof

          Posté par  . Évalué à 6 (+4/-0). Dernière modification le 19 juin 2025 à 19:01.

          Si tu peux élaborer

          Rapidement, parce que

          • je ne suis pas un sachant du domaine
          • il y a déjà eu quantité de débats ici même sur le sujet. Voir les commentaires de ce post par exemple.
          • ça n'était pas le but de mon journal. Seulement de moquer Musk.

          Donc "chaîne de Markov hyper sophistiquée" ou "perroquet stochastique" masquent l'avancée du bousin, je trouve. Fondamentalement, quand je te réponds là, je fais plus ou moins la même chose qu'un LLM : je puise dans mes données d'entraînement (tout ce que j'ai pu ingérer comme informations depuis ma naissance et dont je me souviens) pour construire une phrase, un mot après l'autre. La différence principale avec les "chaîne de Markov" c'est le principe de "l'attention". Les LLM ne font pas que deviner le mot qui vient après, ils puisent dans leur (immense) contexte pour générer une réponse globale. Même pour le critère de "vérité", certains LLM peuvent dire aujourd'hui qu'ils ignorent la réponse plutôt qu'inventer un truc vraisemblant. Ou te donner un intervalle de confiance dans leur réponse. Si il manque des informations, les nouveaux modèles avec chaine de pensée peuvent découper un problème en plusieurs étapes, demander des précisions, prévoir un plan de résolution,… Ils se sont beaucoup éloignés du simple perroquet ou de chercher le mot d'après à partir d'une fenêtre glissante de n mots (chaîne de Markov). Ils peuvent aussi compléter eux-même leur contexte sans qu'on le leur demande spécifiquement (ou alors dans le system prompt, celui qui sera sûrement manipulé par Musk pour qu'il cesse de le contredire). Exemple.

          Par contre

          • "gloutonne en énergie" ça restera vrai. Je pense.
          • ça ne va pas régler le soucis des hallucinations qui leur sont intrinsèquement liés donc c'est toujours une mauvaise idée de parler à un LLM comme à un oracle qui saurait tout. Et ça on le voit beaucoup trop. Des gens qui demandent des conseils à un LLM sur tous les sujets de la vie, je trouve ça hallucinant (pun intended). Oui on peut aisément les tromper (mais quelqu'un qui cherche à me tromper y arrivera sûrement aussi) et même si ça évolue, ils font encore des affirmations totalement fausses avec beaucoup d'assurance (mais le président des USA, humour).
          • [^] # Re: bof

            Posté par  . Évalué à 2 (+0/-0).

            je puise dans mes données d'entraînement ([…]) pour construire une phrase, un mot après l'autre

            Je ne peux pas présumer de ta personne mais ce n'est pas la façon dont les humains apprennent et réfléchissent.

            Un enfant n'a pas besoin de péta-octets d'exemple pour apprendre un concepts et sait fabriquer/déduire des nouveaux concepts à partir de concepts qu'il connait.

            D'autre pas un humain a des concepts de vérité, de moralité, d'objectif. Tout ça qu'ignore complètement un llm.

            Un llm est beaucoup plus éloigné d'un cerveau humain que d'une chaîne de Markov.

            • [^] # Re: bof

              Posté par  . Évalué à 3 (+1/-0).

              Un llm est beaucoup plus éloigné d'un cerveau humain que d'une chaîne de Markov.

              Donc c'est une chaîne de Markov ? Curieux raisonnement.

              un humain a des concepts de vérité, de moralité, d'objectif. Tout ça qu'ignore complètement un llm.

              L'actualité te contredit un peu sur ces points mais ok, ce n'est pas le sujet. Les concepts de moralité, par exemple, sont des trucs acquis (ce qui explique qu'ils soient très variables selon les cultures), donc rien qui ne puisse être inclus dans l'apprentissage ou le pré-prompt d'un LLM.

              Les vidéos de Mr Phi montrent que le sujet est un peu plus complexe que le "je puise dans mes données d'entraînement ([…]) pour construire une phrase, un mot après l'autre", notamment si on a une vision matérialiste de la conscience (ce qui est un peu le consensus scientifique et philosophique actuel).

              Ce qui ne veut pas dire que je défends l'usage des LLM (et des IA en général), c'est un autre débat.

              • [^] # Re: bof

                Posté par  . Évalué à 2 (+0/-0).

                Donc c'est une chaîne de Markov ? Curieux raisonnement.

                Non, j'ai dit "une chaîne de Markov hyper sophistiquée".

                Markov ------ LLM ------------------------------- Humain

                Je pense que c'est une image (en fait "perroquet stochastique" doit être plus parlant pour les non-informaticien) qui permet de ne pas tomber dans la dérive de prêter aux LLM des comportements humains comme celui de recherche de vérité.

                Ce qui ne veut pas dire que je défends l'usage des LLM (et des IA en général), c'est un autre débat.

                J'entends bien. Et inversement, je ne condamne pas leur usage, seulement la mythologie que les marketeux/media suiveurs veulent entretiennent autour d'eux.

                • [^] # Re: bof

                  Posté par  . Évalué à 5 (+2/-0).

                  Non, j'ai dit "une chaîne de Markov hyper sophistiquée".
                  Markov ------ LLM ------------------------------- Humain

                  ordinateur----------------------------------humain---rat

                  Tu es donc un rat hyper évolué ?

                  Il ne faut pas décorner les boeufs avant d'avoir semé le vent

            • [^] # Re: bof

              Posté par  . Évalué à 4 (+3/-0).

              ce n'est pas la façon dont les humains apprennent et réfléchissent

              Si tu le sais, tu dois être plus avancé que la quasi-totalité des scientifiques qui se penchent sur le sujet.

              Un enfant n'a pas besoin de péta-octets d'exemple pour apprendre […]

              On ne peut pas le chiffrer en PO, mais que penses-tu que représente 7 ans (c'est totalement arbitraire) de vie à écouter, voir, sentir, etc. et interagir avec un groupe d'humain ?

              D'autre pas un humain a des concepts de vérité, de moralité, d'objectif […]

              Ça reste à prouver.
              De plus, je suis plutôt d'avis que ça s'apprend : un terroriste qui se fait volontairement sauter pour tuer est convaincu de la moralité de son acte.

              • [^] # Re: bof

                Posté par  . Évalué à 5 (+3/-0).

                Si tu le sais, tu dois être plus avancé que la quasi-totalité des scientifiques qui se penchent sur le sujet.

                Je ne connais pas tes références en la matière, mais cela fait un moment que ceux qui se penchent sur le sujet partent du principe qu'une partie de notre savoir n'est pas issu de l'expérience et de l'observation du monde.

                Il n’est pas douteux que toutes nos connaissances ne commencent avec l’expérience ; car par quoi la faculté de connaître serait-elle appelée à s’exercer, si elle ne l’était point par des objets qui frappent nos sens et qui, d’un côté, produisent d’eux-mêmes des représentations, et, de l’autre, excitent notre activité intellectuelle à les comparer, à les unir ou à les séparer, et à mettre ainsi en œuvre la matière brute des impressions sensibles pour en former cette connaissance des objets qui s’appelle l’expérience ? Aucune connaissance ne précède donc en nous, dans le temps, l’expérience, et toutes commencent avec elle.

                Mais, si toutes nos connaissances commencent avec l’expérience, il n’en résulte pas qu’elles dérivent toutes de l’expérience. En effet, il se pourrait bien que notre connaissance expérimentale elle-même fût un assemblage composé de ce que nous recevons par des impressions, et de ce que notre propre faculté de connaître tirerait d’elle-même (à l’occasion de ces impressions sensibles), quoique nous ne fussions capables de distinguer cette addition d’avec la matière première que quand un long exercice nous aurait appris à y appliquer notre attention et à les séparer l’une de l’autre. C’est donc, pour le moins, une question qui exige un examen plus approfondi et qu’on ne peut expédier du premier coup, que celle de savoir s’il y a une connaissance indépendante de l’expérience et même de toutes les impressions des sens. Cette espèce de connaissance est dite à priori, et on la distingue de la connaissance empirique, dont les sources sont à posteriori, c’est-à-dire dans l’expérience.

                Là c'est du Kant en 1781, mais on peut aussi, sur le même sujet, remonter à Platon dans le dialogue du Ménon :

                Je t’ai déjà dit, Ménon, que tu étais plein de malice. Voici maintenant que tu me demandes une leçon, à moi qui soutient qu’il n’y a pas d’enseignement, qu’il n’y a que des réminiscences : tu tiens à me mettre tout de suite en contradiction manifeste avec moi-même.

                et là suite du dialogue va consister à Socrate faisant démontrer le théorème de Pythagore à l'esclave de Ménon. Et celà sans rien lui apprendre de nouveau, parce qu'au fond, il le savait déjà.

                Mais dans le fond, si tu arrives à me trouver un mathématicien ou un mathématicienne qui admet que sa science est fondé sur l'observation du monde, je te tire mon chapaeau. ;-)

                Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                • [^] # Re: bof

                  Posté par  (site web personnel) . Évalué à 2 (+0/-0).

                  cela fait un moment que ceux qui se penchent sur le sujet partent du principe qu'une partie de notre savoir n'est pas issu de l'expérience et de l'observation du monde

                  Est-ce que tu veux expliciter d'où est-ce issu pour le béotien que je suis ?

                  Adhérer à l'April, ça vous tente ?

                  • [^] # Re: bof

                    Posté par  . Évalué à 2 (+0/-0).

                    Je ne suis pas sûr d'avoir compris ta question. Mais le cœur du débat, qui ne date pas d'aujourd'hui, est celui entre les rationnalistes (une partie de notre savoir est a priori, non fondé sur l'expérience) et les empiristes (tout notre savoir vient de l'expérience). Ce différent traverse toute l'histoire de la philopsohie, à toi maintenant de lire les argumentaires de chacun des camps, pour te faire ton opinion.

                    Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                    • [^] # Re: bof

                      Posté par  (site web personnel) . Évalué à 3 (+1/-0).

                      Oui je cerne un peu le débat, et pense plutôt pencher du coté de ce que tu nommes les empiristes. Mais je pense que les notions de « savoir » ou d'« expérience » peuvent avoir des acceptions très variées, ce qui en fait un terrain propice au verbiages inutiles et aux dialogues de sourds.

                      Je ne suis pas sûr d'avoir compris ta question.

                      Ma question est la suivante. Tu dis :

                      cela fait un moment que ceux qui se penchent sur le sujet partent du principe qu'une partie de notre savoir n'est pas issu de l'expérience et de l'observation du monde

                      Et perso ça ne me figure rien. Donc, puisque le sujet est intéressant et que tu as l'air d'avoir une opinion construite, je me demande : « mais par où nous vient donc cette partie de notre savoir ? » Dit autrement, d'où est-ce issu ? (Je suis preneur d'un simple exemple.) :)

                      Adhérer à l'April, ça vous tente ?

                      • [^] # Re: bof

                        Posté par  . Évalué à 2 (+0/-0).

                        « mais par où nous vient donc cette partie de notre savoir ? »

                        La réponse a évolué avec le temps, mais si je devais en donner une, par analogie avec un ordinateur, je dirais que c'est codé en dur dans notre faculté de savoir. Puis par une activité de réflexion sur nous même, nous en prenons conscience.

                        Par exemple, Platon-Socrate, le père du rationalisme, dans le dialogue du Ménon que j'ai cité plus haut, attribue cela à la rémininscence, c'est-à-dire au resouvenir. Je ne le suis pas sur son explication qui repose sur la réincarnation des âmes, ce qui pour moi va au delà de ce que l'on peut prétendre savoir. Néanmoins, ce qui l'a poussé à développer cette théorie, c'est le constat que les mathématiques ne sont pas un savoir issu de l'expérience : d'où son choix de faire démontrer le théorème de Pythagore pour justifier sa doctrine à Ménon, et la règle pour entrée dans son académie : « nul ne peut entrer ici, s'il n'est géomètre ».

                        Après qu'il existe un tel sorte de savoir (non empirique), les mathématiques le prouve par le fait : si, lorsqu'on cherche à initier des collégiens à la preuve mathématique, on leur explique en boucle que l'argument "cela se voit sur le dessin" n'a aucune valeur argumentative, ce n'est pas sans raison. L'objet dont ils doivent prouver les propriétés n'est pas celui qu'il voit sur leur bout de papier, mais n'existe que dans leur tête. Le dessin est un analogue des roulettes pour enfant quand on leur apprend à faire du vélo, c'est un support pour l'imagination.

                        Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                        • [^] # Re: bof

                          Posté par  . Évalué à 2 (+0/-0). Dernière modification le 24 juin 2025 à 14:46.

                          erreur d'écriture.

                          Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                        • [^] # Re: bof

                          Posté par  (site web personnel) . Évalué à 2 (+0/-0).

                          c'est le constat que les mathématiques ne sont pas un savoir issu de l'expérience

                          preuve ? toute abstraction ne serait pas issue de l'expérience ? (j'ai des contre-exemples d'abstractions issues de l'expérience, pour le coup, cf. ci-dessous :p). Pour moi, cela s'apparente plus et est du ressort du postulat ou de l'hypothèse plutôt que démontrable (la caverne de Platon, le dialogue de Ménon étant plus des illustrations que des preuves en tant que tel)

                          Après qu'il existe un tel sorte de savoir (non empirique), les mathématiques le prouve par le fait

                          c'est un peu "gonflé" un tel raccourci lorsqu'on sait que la géométrie égyptienne est notamment issue du besoin de retrouver ses parcelles de terrain après l'inondation du Nil, de collecter les impôts par rapport aux surfaces, de compter ses richesses pour les babyloniens (d'où l'apparition des nombres et la gestion des fractions).

                          • [^] # Re: bof

                            Posté par  . Évalué à 2 (+0/-0).

                            toute abstraction ne serait pas issue de l'expérience ?

                            Je n'ai jamais dit cela, et je t'invite à relire le texte de Kant sur la question. C'est bien l'expérience, et l'observation du monde qui nous à inviter à développer ce savoir (les mathématiques). Bien que l'expérience nous ait amené à développer ce savoir, les critère de vérités des mathématiques ne reposent pas sur l'observation : c'est une connaissance pure et a priori. La vérité d'un théorème n'a jamais dépendu, et ne dépendra jamais, d'une observation du monde. Ce qui pose cette question : comment une connaissance qui ne repose pas sur l'expérience, peut être si utile et efficace pour parler du monde ?

                            Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                          • [^] # Re: bof

                            Posté par  . Évalué à 2 (+0/-0).

                            Il suffit de regarder les outils dont à besoin un mathématicien pour travailler : un tableau et un craie, ni plus, ni moins. ;-)

                            Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                          • [^] # Re: bof

                            Posté par  . Évalué à 2 (+0/-0).

                            preuve ?

                            Cherche un directeur ou une directrice de thèse qui accepteront de t'encadrer pour soutenir une thèse mathématique qui serait fondait sur l'observation du monde (j'ai bien dit une thèse de mathématique, pas de physique théorique). Si tu en trouves un ou une, je te tire mon chapeau. ;-)

                            Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                            • [^] # Re: bof

                              Posté par  (site web personnel) . Évalué à 3 (+0/-0).

                              Ce n'est pas pourtant le cas dans les mathématiques appliquées ou ceux qui travaillent en collaboration avec d'autres sciences comme justement la physique ?

                              L'interdisciplinarité n'a rien de nouveau.

                              • [^] # Re: bof

                                Posté par  . Évalué à 0 (+0/-2).

                                Oui, mais ça ne change rien au fondement de ma thèse. Les critères de vérités des mathématiques pures ne sont pas fondés sur l'expériences, néanmoins elles n'ont pas d'autres usages qu'expérérimental (d'où les maths applis, où l'on envoie les moins bons étudiants).

                                Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                        • [^] # Re: bof

                          Posté par  (site web personnel) . Évalué à 4 (+2/-0).

                          Ok merci du retour. Je pense qu'on n'a pas la même acceptation de ce qu'on désigne par « savoir », d'où mon incompréhension. Personnellement je pense que les savoirs sont très incarnés, essentiellement subjectifs, et essentiellement issus de l'expérience (apprendre est une expérience, subjective ; d'ailleurs on nomme peut être des choses différentes avec le mot « expérience »).

                          Personnellement je pense que désigner « savoir » des choses intersubjectives (toi, moi, un petit groupe), communes (une société, une communauté), voire à l'extrême complètement ethérées (comme « les mathématiques ») mène à quelques choses de tellement protéïformes qu'on peut dire tout et son contraire en ayant à la fois tord et raison.

                          Du coup pour moi une thèse de mathématique c'est a minima une expérience de vie. :)

                          Adhérer à l'April, ça vous tente ?

                          • [^] # Re: bof

                            Posté par  . Évalué à 2 (+0/-0).

                            Du coup pour moi une thèse de mathématique c'est a minima une expérience de vie. :)

                            Je ne te le fais pas dire. La vie de Grothendieck sue radio france en donne une idée.

                            Mais il reste, tout de même, que bien qu'en tant que mathématicien on ne prend pas l'expérience comme juge de paix de la vérité de nos jugements, les physiciens n'ont pas d'autre choix que d'utiliser notre langage. Mais alors, pourquoi ?

                            Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                            • [^] # Re: bof

                              Posté par  (site web personnel) . Évalué à 4 (+2/-0).

                              Mais alors, pourquoi ?

                              Je pense qu'ils ont le choix. Mais que le langage mathématique est probablement celui qui a démontré être le plus apte à communiquer1 un savoir (ou un concept ou une pensée) sans être trahi par l'incarnation (subjective) de ce savoir (ou ce concept ou cette pensée).

                              Parce que je pense par exemple que visualiser et raisonner à propos de n cailloux devant soi est une expérience plus facile à communiquer que l'expérience (subjective et éthérée) de ce qu'est le concept de nombre tel que décrit par le dictionnaire.

                              [1] Au sens de « mettre en commun ».

                              Adhérer à l'April, ça vous tente ?

                              • [^] # Re: bof

                                Posté par  . Évalué à 1 (+0/-1). Dernière modification le 25 juin 2025 à 00:30.

                                Après réflexion, j'appelle cela une non réponse. Ma question était pourtant simple : comment une science qui ne prend pas ses critères de vérités sur l'expérience, peut elle être utile pour la connaissance expérimentale ?

                                Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                                • [^] # Re: bof

                                  Posté par  (site web personnel) . Évalué à 3 (+1/-0).

                                  Peut être est-ce une non question. Car peut être que « la vérité » n'existe pas (en tout cas celles de Isaac, d'Albert ou de Donald sont peut être différentes). Peut être qu'il n'y a pas de lien évident entre vérité et utilité. Personnellement je ne vois pas de lien précis avec mon questionnement initial (si le savoir ne vient pas de l'expérience, d'où provient il ?).

                                  Adhérer à l'April, ça vous tente ?

                                  • [^] # Re: bof

                                    Posté par  (site web personnel) . Évalué à 4 (+2/-0).

                                    si le savoir ne vient pas de l'expérience, d'où provient il ?

                                    De Ta Conscience   semble être une réponse plausible :D

                                  • [^] # Re: bof

                                    Posté par  . Évalué à 2 (+0/-0).

                                    Car peut être que « la vérité » n'existe pas (en tout cas celles de Isaac, d'Albert ou de Donald sont peut être différentes).

                                    Soutiens-tu que la notion de vérité est vide de sens et qu'en conséquence il ne peut exister de science (quelque soit son objet d'étude) ?

                                    si le savoir ne vient pas de l'expérience, d'où provient il ?

                                    Là tu accordes qu'il existe un savoir, et donc une véritié des propositions qu'il contient. Mais alors penses-tu que les critères de vérités des mathématiques sont fondées sur l'expéreince ? Si c'est le cas, sache qu'aucun mathématicien au monde ne te l'accordera. ;-)

                                    Alors, il reste la question d'où vient ce savoir : il est codé en dure dans notre faculté de savoir, l'expérience est l'occasion pour nous de le mettre en action et c'est lors de cette mise à l'épreuve que nous en prenons conscience.

                                    Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                      • [^] # Re: bof

                        Posté par  (site web personnel, Mastodon) . Évalué à 3 (+0/-0).

                        Je ne suis pas sûre d'avoir bien suivi mais, plutôt que de me référer à de vieilles sources, je vais plutôt piocher dans mes lectures récentes.

                        Si tu prends l'exemple de l'astronomie : Einstein avait prédit sans trop y croire les ondes gravitationnelles, Yvonne Choquet-Bruhat les a calculées et la collaboration Ligo-Virgo-Kagra les a vérifié. En l'espèce, le savoir a précédé l'expérience. Semble-t-il, c'est assez courant en astronomie : tu calcules pour savoir ce que tu dois chercher et où.

                        « Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.

                        • [^] # Re: bof

                          Posté par  . Évalué à 2 (+0/-0).

                          Si tu prends l'exemple de l'astronomie : Einstein

                          Avec Einstein, ça marche aussi. S'il y bien un physicien rationaliste, c'est lui !

                          Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                        • [^] # Re: bof

                          Posté par  . Évalué à 2 (+0/-0).

                          J'ai oublié de précisé que comme tout rationaliste, il s'est fourvoyé. Le lit de Procuste qu'il a voulu posé sur la réalité s'est trouvé contredite par l'expérience : les inégalités de Bell et l'intrication quantique qui valurent le prix Nobel à Alain Aspect. Mais cela n'empêche que même si l'expéreience est la source principale de notre savoir, elle n'en est pas l'unique source.

                          Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                          • [^] # Re: bof

                            Posté par  (site web personnel) . Évalué à 2 (+0/-0).

                            Mais cela n'empêche que même si l’expérience est la source principale de notre savoir, elle n'en est pas l'unique source.

                            là je te rejoins ;-)

                            hormis : l'expérience sur une abstraction (aussi appelée expérience de pensée dans certains cas), n'est-elle pas une expérience sur le réel puisqu'ensuite on va chercher à le confronter à la réalité ? (notamment les travaux d'Alain Aspect que tu cites à raison, mais pas que)

                            c'est parce que l'abstraction fait partie de nos "acquis" que par inférence on peut trouver des résultats initialement non issus de l'expérience du réel (mais résultats confortés une fois confrontés au réel).

                        • [^] # Re: bof

                          Posté par  . Évalué à 3 (+1/-0).

                          Si tu prends l'exemple de l'astronomie : Einstein avait prédit sans trop y croire les ondes gravitationnelles, Yvonne Choquet-Bruhat les a calculées et la collaboration Ligo-Virgo-Kagra les a vérifié. En l'espèce, le savoir a précédé l'expérience. Semble-t-il, c'est assez courant en astronomie : tu calcules pour savoir ce que tu dois chercher et où.

                          C’est une façon sacrément particulière de présenter les choses. Einstein a imaginer les ondes gravitationnelles et il se fait que sa supposition est vérifiable tout comme il a imaginer la constante cosmologique ce qui c’est avéré être mis à mal.

                          Einstein n’a pas sorti les ondes gravitationnelles de nul-part, le modèle qu’il a construit lui a permis d’imaginer que c’était possible.

                          Il me semble qu’il y a 2 erreurs de logique :

                          • d’une part un cherry-picking/biais du survivant : pour une supposition vérifiable tu as des dizaines d’erreur
                          • d’autre part le réalisme scientifique : il me semble qu’il n’y a plus vraiment de débat maintenant là dessus la science ne décrit pas la vérité, mais donne un modèle de l’univers. On sait que le modèle est faux, mais ce qui fait parti du consensus scientifique est le meilleur modèle que l’on a.

                          https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

                          • [^] # Re: bof

                            Posté par  (site web personnel, Mastodon) . Évalué à 2 (+0/-1).

                            C’est une façon sacrément particulière de présenter les choses. Einstein a imaginer les ondes gravitationnelles et il se fait que sa supposition est vérifiable tout comme il a imaginer la constante cosmologique ce qui c’est avéré être mis à mal.

                            Quand je dis qu'Einstein avait prédit les ondes gravitationnelle, c'est très exactement ainsi que le dit Françoise Combes, astrophysicienne réputée… Donc ce n'est pas une façon particulière de présenter les choses.

                            Einstein n’a pas sorti les ondes gravitationnelles de nul-part, le modèle qu’il a construit lui a permis d’imaginer que c’était possible.

                            Ce n'est pas du tout ce que j'ai écrit. C'est bien de me prêter des intentions et de me traiter, en sous-main, d'imbécile.

                            Il me semble qu’il y a 2 erreurs de logique

                            Et bien c'est seulement l'histoire des ondes gravitationnelles, tels qu'elles ont été présentées par plus d'une personne et sur laquelle j'ai eu à me pencher quand j'ai écrit l'hommage à Yvonne Choquet-Bruhat.Hommage pour lequel j'ai beaucoup lu.

                            Et plus je lis sur l'astronomie, plus ce que j'ai écrit :

                            Semble-t-il, c'est assez courant en astronomie : tu calcules pour savoir ce que tu dois chercher et où.

                            semble se confirmer. Donc je ne vois pas où est l'erreur de logique là-dedans. On peut donner l'exemple du boson de Higgs aussi.

                            « Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.

                            • [^] # Re: bof

                              Posté par  . Évalué à 1 (+1/-2).

                              C'est bien de me prêter des intentions et de me traiter, en sous-main, d'imbécile.

                              C'est récurrent chez Barmic. Depuis qu'il a découvert le concept de biais, il en voit partout chez ses interlocuteurs, mais jamais chez lui. Va comprendre !

                              Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                            • [^] # Re: bof

                              Posté par  . Évalué à 3 (+1/-0).

                              Einstein avait prédit les ondes gravitationnelles

                              Mais est-ce que c'est un bon exemple du rationalisme dont parle kantien (« c'est codé en dur dans notre faculté de savoir. ») ? J'aurai tendance à être d'accord avec cette façon de voir les choses (certaines connaissances sont plus ou moins déjà là, il faut réussir à y accéder, il me semble qu'il y a eu des travaux en ce sens sur la connaissance des nombres par exemple à travers les peuples). Mais quand Einstein a "prédit les ondes gravitationnelles" il avait déjà un bagage certain. Il a pu en avoir l'intuition à partir des travaux dont il avait connaissance ou qu'il a lui même effectué : ce qu'on pourrait qualifier "d'expérience". On touche sûrement là aux limites que mentionnait Pol' uX plus haut :

                              Mais je pense que les notions de « savoir » ou d'« expérience » peuvent avoir des acceptions très variées, ce qui en fait un terrain propice au verbiages inutiles et aux dialogues de sourds.

                              Je précise parce que je sens que ça se tend : je n'ai trouvé aucun verbiage ici inutile, je dis juste que vous ne parlez peut-être pas de la même chose.

                              • [^] # Re: bof

                                Posté par  . Évalué à 2 (+0/-0).

                                Je précise parce que je sens que ça se tend : je n'ai trouvé aucun verbiage ici inutile, je dis juste que vous ne parlez peut-être pas de la même chose.

                                +1

                                https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

                              • [^] # Re: bof

                                Posté par  (site web personnel) . Évalué à 2 (+0/-0).

                                certaines connaissances sont plus ou moins déjà là, il faut réussir à y accéder

                                Je pense que c'est l'objet d'un profond débat qui à ma connaissance n'a pas de réponse univoque : découvre t'on ou construit-on les mathématiques ? Personnellement je penche plutôt du coté de la construction.

                                Adhérer à l'April, ça vous tente ?

                              • [^] # Re: bof

                                Posté par  . Évalué à 2 (+0/-0). Dernière modification le 24 juin 2025 à 23:29.

                                Mais est-ce que c'est un bon exemple du rationalisme dont parle kantien (« c'est codé en dur dans notre faculté de savoir. ») ?

                                Effectivement, ce n'est pas ce que j'avais en tête, et seule l'expérience peut trancher cette question.

                                Ce que j'ai en tête, c'est par exemeple la correspodance de Curry-Howard enseignée par Xavier Leroy au Collège de France, enseignement qui n'est rien d'autre qu'une version simplifiée de ce Kant a développé dans la Crititique de la raison pure.

                                Alors, après je pourrais toujours montrer en quoi Einstein a suivi ces principes. La question est dois-je le faire ? (Comme la réponse est longue, il ne faudra pas s'étonner si elle prend du temps).

                                Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                                • [^] # Re: bof

                                  Posté par  . Évalué à 2 (+0/-0).

                                  La question est dois-je le faire ? (Comme la réponse est longue, il ne faudra pas s'étonner si elle prend du temps).

                                  Si jamais ce n'est pas une question rhétorique : peu importe le temps que ça prendra si c'est intéressant. Mais je sens que ça va largement dépasser mes compétences, donc même si c'est intéressant tu risquerais de « jeter des perles au pourceau. » (Pourceau au singulier oui, je ne sais pas ce qu'en pensent les autres participants.)

                                  • [^] # Re: bof

                                    Posté par  . Évalué à 2 (+0/-0).

                                    Si jamais ce n'est pas une question rhétorique

                                    La question n'était justement pas rhétorique, je peux justifier mon point de vue. Malheureusement, cela sera très absrtait, et si je dois rendre accessible la réponse au commun des mortels (comme laisse sous entendre le reste de ton commentaire), je crains que mes capacités de vulgarisation ne soient pas au niveau.

                                    Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                            • [^] # Re: bof

                              Posté par  . Évalué à 3 (+1/-0).

                              c'est très exactement ainsi que le dit Françoise Combes, astrophysicienne réputée…

                              Qui que ce soit cette prédiction est une hypothèse qui s’est révélé collé avec les observations comme il a fait d’autres hypothèses qui n’ont pas collé aux observations.

                              Dire qu’une hypothèse est un savoir me semble tendancieux, c’est l’observation qui permet de dire que les ondes gravitationnelles sont une prédiction et la constante cosmologique une erreur.

                              Parler de prédiction par exemple implique une grande confiance alors qu’Einstein a plusieurs fois changé d’avis.

                              Et je t’arrête tout de suite je ne remet pas en cause les qualités de Françoise Combes. Je dis que cette façon de présenter l’histoire des ondes gravitationnelles est discutable.

                              C'est bien de me prêter des intentions[…]

                              Je ne t’ai pas prêté d’intention.

                              […] de me traiter, en sous-main, d'imbécile.

                              Je peux ne pas être d’accord avec quelqu’un et dire ce qui me semble pas cohérent sans ni l’insulter ni le juger.

                              Semble-t-il, c'est assez courant en astronomie : tu calcules pour savoir ce que tu dois chercher et où.

                              semble se confirmer. Donc je ne vois pas où est l'erreur de logique là-dedans. On peut donner l'exemple du boson de Higgs aussi.

                              J’ai du mal à voir ça comme de la connaissance innée cher au rationalisme d’une part et ce qui fait passer cela d’hypothèses à connaissance c’est l’observation.

                              https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

                              • [^] # Re: bof

                                Posté par  . Évalué à 2 (+0/-0).

                                et la constante cosmologique une erreur

                                ?

                                La constante cosmologique fait partie du modèle standard de la cosmologie.

                                • [^] # Re: bof

                                  Posté par  . Évalué à 2 (+0/-0).

                                  La constante cosmologique actuelle a une valeur positive pour décrire l'accélération de l'expansion là où la valeur sortie du chapeau d'Einstein avait pour but de maintenir son hypothèse d'origine de stabilité de l'univers.

                                  https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

                  • [^] # Re: bof

                    Posté par  . Évalué à 2 (+0/-0). Dernière modification le 24 juin 2025 à 00:28.

                    Étant mathématicien de formation, il va de soi que je me range dans le camp des rationalistes. Je n'ai nullement besoin d'expérimenter pour prouver un théorème.

                    Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

          • [^] # Re: bof

            Posté par  (site web personnel) . Évalué à 5 (+3/-0).

            Les LLM ne font pas que deviner le mot qui vient après, ils puisent dans leur (immense) contexte pour générer une réponse globale

            Tu décris les chaînes de Markov.
            La différence est la manière dont les probabilités sont représentées et calculées.

            Je ne vois pas le problème de dire que les LLM sont des chaînes. de Markov sophistiquées. L'attention fait partie de cette sophistication.

            Ils se sont beaucoup éloignés du simple perroquet ou de chercher le mot d'après à partir d'une fenêtre glissante de n mots (chaîne de Markov)

            Le fenêtre glissante est juste une implémentation particulière des chaînes de Markov. Les LLM fonctionnement comme ça aussi de toute façon, avec n étant la taille de leur contexte.

            • [^] # Re: bof

              Posté par  . Évalué à 2 (+0/-0).

              Comme je ne suis pas (je l'ai dit) un sachant, je vais juste reprendre les mots de ceux du métier :

              While both Markov Models and Transformer models like GPT can predict the next character in a sequence, they differ significantly in their underlying mechanisms and capabilities. Markov Models, with their fixed context length, are limited in their ability to capture long-term dependencies. Transformer models, with their self-attention mechanism, can consider the entire context of a sequence, allowing them to capture long-term dependencies and make more accurate predictions.

              Si on considère qu'un programme qui génère des mots, quelque soit la méthode, est un type de chaîne de Markov, alors ouais on pourrait dire que « l'attention fait partie de cette sophistication. » Mais selon moi c'est un peu comme dire qu'un A320 est un deltaplane sophistiqué parce que les 2 volent. Et quand on rajoute le principe de Chain Of Thought, qui permet au modèle de décomposer (seul) un problème complexe en tâches plus petites, on continue de s'éloigner, le deltaplane est un drone furtif.

              • [^] # Re: bof

                Posté par  . Évalué à 2 (+0/-0).

                Pardon j'ai oublié de mettre le lien de la citation : https://safjan.com/understanding-differences-gpt-transformers-markov-models/

              • [^] # Re: bof

                Posté par  . Évalué à 3 (+1/-0). Dernière modification le 25 juin 2025 à 15:07.

                c'est un peu comme dire qu'un A320 est un deltaplane sophistiqué parce que les 2 volent

                Pour moi qui enseigne l’aéronautique, je ne contesterais pas. Après, il ne faut pas négliger l’importance du très sophistiqué, la différence est effectivement de taille, mais les mécanismes physiques en jeu restent de nature similaire.

                Au delà du pinaillage, le lien avec l’IA, c’est qu‘en IA, on veut nous faire croire que comme les LLM sont plus que des chaînes de Markov, ils peuvent faire des trucs que les chaînes de Markov de font pas (c’est vrai) et que donc ils sont super géniaux et sont une solution à presque tous les problèmes (voir les dépêches de Moonz pour un point de vue béat sur la question, jusqu’au délire sur les System Card).

                Ce que disent les critiques, c’est que même quand tu as sophistiqué un deltaplane avec des ailes à volets, des winglets, un empennage et jusqu’à ce qu’il vole en régime transsonique, ce deltaplane est reste un aéronef et il ne t’emmènera jamais sur mars, … même s’il embarque un ordinateur de bord avec de l’IA.

                • [^] # Re: bof

                  Posté par  . Évalué à 3 (+1/-0).

                  Au delà du pinaillage, le lien avec l’IA, c’est qu‘en IA, on veut nous faire croire que comme les LLM sont plus que des chaînes de Markov, ils peuvent faire des trucs que les chaînes de Markov de font pas (c’est vrai) et que donc ils sont super géniaux et sont une solution à presque tous les problèmes (voir les dépêches de Moonz pour un point de vue béat sur la question, jusqu’au délire sur les System Card).

                  Donc c’est bien une bataille idéologique qui ne s’assume pas trop (Gof plus haut le minimise).

                  Ce que disent les critiques, c’est que même quand tu as sophistiqué un deltaplane avec des ailes à volets, des winglets, un empennage et jusqu’à ce qu’il vole en régime transsonique, ce deltaplane est reste un aéronef et il ne t’emmènera jamais sur mars, … même s’il embarque un ordinateur de bord avec de l’IA.

                  On cherche tous à comprendre où placer le curseur entre les béas et les haut niveaux de réactance. Déjà les LLM ne sont qu’une des formes de genAI, les générations d’images par exemple font quelque chose qui est de nature bien différentes des chaînes de Markov. Ensuite tu as une sorte d’effet rebond. Depuis des décennies on travail à tout faire rentrer dans du code et à faire tout ce que tu veux as code, ça donne des possibilités d’utilisation très importante au meilleur outils de génération de texte, que tu l’appel IA ou singe savant. Ce n’est pas une question d’être béa.

                  https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

                  • [^] # Re: bof

                    Posté par  . Évalué à 3 (+1/-0).

                    Donc c’est bien une bataille idéologique qui ne s’assume pas trop (Gof plus haut le minimise).

                    Je trouve qu’elle s’assume plutôt bien. Gof ne fait que rappeler le commentaire de steph1978 selon lequel les LLM sont « une chaîne de Markov hyper sophistiquée et gloutonne en énergie ». Je trouve cette description très juste, d’où ma réponse avec la comparaison entre deltaplane et A320 (un deltaplane sophistiqué glouton en énergie). La bataille idéologique que je vois est celle menée par les techbros pour vendre du rêve que je vois reprise ici et qui veut voir une magie dans les LLM qui ne souffriraient la comparaison avec de vulgaires chaines de Markov, alors qu’ils ne sont qu’un moyen algorithmique de produire du texte.

                    Même si tu mets des tubulures autour de tes chaînes de Markov pour qu’en plus de leur prompt elles s’alimentent de résultats d’un moteur de recherche, tu n’as toujours qu’une chaîne de Markov hyper sophistiquée, un perroquet stochastique dont la capacité à pondre des idioties est contrebalancée par la qualité des résultats de sa recherche qui enrichit le contexte avec lequel il produit sa logorrhée.

                    Au final, les LLM produisent des réponses correctes et intéressantes au même titre qu’avant eux on trouvait souvent une réponse correcte parmi les premiers liens retournés par une recherche en ligne. À deux différences fondamentales près. La première est que maintenant le résultat agrège plusieurs sources dans une langage bien rédigé qu’on peut copier-coller directement dans un rapport qu’il fallait auparavant écrire soi-même. La seconde est que les sources ne sont pas identifiées et que, contrairement à une recherche, tu ne peux donc pas te passer de l’intermédiaire LLM pour aller directement interroger ses sources, alors que ça commençait à se voir que les résultats Google pertinents se résumaient de plus en plus à des liens vers Wikipedia et vers la galaxie de sites Stack Exchange.

                    • [^] # Re: bof

                      Posté par  . Évalué à 3 (+2/-1).

                      La bataille idéologique que je vois est celle menée par les techbros pour vendre du rêve que je vois reprise ici et qui veut voir une magie dans les LLM qui ne souffriraient la comparaison avec de vulgaires chaines de Markov, alors qu’ils ne sont qu’un moyen algorithmique de produire du texte.

                      Tout moyen algorithmique de produire du texte n’est pas une chaîne de Markov, tout comme tout algorithme de tris n’est pas un bubble sort. Dire que ce n’est pas une chaîne de Markov ne veut pas dire que c’est magique.

                      Même si tu mets des tubulures autour de tes chaînes de Markov pour qu’en plus de leur prompt elles s’alimentent de résultats d’un moteur de recherche, tu n’as toujours qu’une chaîne de Markov hyper sophistiquée, un perroquet stochastique dont la capacité à pondre des idioties est contrebalancée par la qualité des résultats de sa recherche qui enrichit le contexte avec lequel il produit sa logorrhée.

                      C’est un combat d’arrière garde qui n’est qu’une position de principe. Tu peut vouloir le décrire comme tu le souhaite, tu te heurt à l’usage. Si je dis à un automobiliste que son engin n’est qu’une charrette sophistiquée pour tenter de lui faire voir que ce n’est pas si bien que ça, ça n’apportera rien d’autre que de disqualifier le reste de mes arguments.

                      La seconde est que les sources ne sont pas identifiées et que, contrairement à une recherche, tu ne peux donc pas te passer de l’intermédiaire LLM pour aller directement interroger ses sources

                      Ce n’est pas une fatalité. Des exemples comme perplexity et notebooklm sont des implémentations connues qui cite leurs sources.

                      https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

                • [^] # Re: bof

                  Posté par  . Évalué à 2 (+0/-0).

                  et que donc ils sont super géniaux et sont une solution à presque tous les problèmes

                  Sauf qu'il n'était pas question de ça dans le présent journal. Donc pourquoi ramener les optimistes béats… Dans cette affaire il y a ceux qui voient les LLM comme l'alpha et l'oméga et ceux qui s'évertuent à vouloir montrer que « bof, c'est juste un perroquet, ça sert à rien. » Au point d'essayer de "construire" des optimistes béats pour mieux les démonter même quand il n'y a pas lieu.

        • [^] # Re: bof

          Posté par  . Évalué à 2 (+1/-1).

          Si tu peux élaborer, parce que Ça fait au moins 2 ans que j'entends et lis cette phrase, à répétition

          Je vais me jeter des fleurs, mais je pense que j’ai très bien explicité dans ce commentaire ?

          Et depuis je suis tombé sur Transformers Represent Belief State Geometry in their Residual Stream, que je trouve très informatif.

          • [^] # Re: bof

            Posté par  . Évalué à 3 (+1/-0).

            Tkt, tu peux laisser les fleurs dans les champs :)

            La version fausse : un LLM est entraîné pour minimiser l’erreur de prédiction sur un corpus

            Je ne sais pas trop ce que tu veux dire par là mais en gros, si.

            Je suis d'accord avec tes propos sur l'intelligence. Il suffit de la définir comme ce que la machine ne sait pas faire pour dire qu'elle n'est pas intelligente. Et je n'ai pas parlé d'intelligence dans mon commentaire.

            Mon propos est de dire qu'un LLM est plus proche d'une chaîne de Markov que d'un cerveaux humain.
            D'ailleurs, c'est étonnant de défendre le contraire car ceux qui l'ont inventé l'on bien nommé: "Langage" model. Donc c'est très bon pour comprendre la structure d'un langage. Mais cette compétence ne représente qu'une petite partie des compétences cognitives d'un cerveau humain.


            De toute façon à ce stade, on a collectivement explosé la quantité d'esprit critique que les auteurs des articles comme celui qui est l'objet de ce journal mette à contribution avant de publier ; quantité qui s'approche de zéro.

            • [^] # Re: bof

              Posté par  . Évalué à 3 (+2/-1).

              Je ne sais pas trop ce que tu veux dire par là mais en gros, si.

              La partie importante était après "et ne fait donc"

              Mon propos est de dire qu'un LLM est plus proche d'une chaîne de Markov que d'un cerveaux humain.

              Quel est ton critère, quelle est ta "distance" pour dire "l’un est plus proche de l’autre" ?

              Un dauphin est-il plus proche d’un requin ou d’un macaque ?

              La réponse non-éduquée est "d’un requin, les deux vivent dans l’océan". La réponse semi-habile de celui qui vient de voir un reportage animalier est "un macaque, c’est tous les deux un mammifère". Pour moi la question est… pourquoi tu poses la question ? Quel problème tu essaies de résoudre ?

              Si tu étudies l’évolution des espèces, la seconde réponse est correcte. Si tu es le directeur d’un zoo et que tu te poses la question "quel genre d’installation je dois prévoir", la première est correcte. Si tu es un biologiste qui étudie les maladies des dauphins… tu es entre les deux. Tu auras des adaptations communes entre le requin et le dauphin du fait de la similarité de l’environnement, tu auras des adaptations communes entre le macaque et le dauphin du fait qu’ils soient plus proche génétiquement. Il n’y a pas une réponse correcte.

              "Un LLM est-il plus proche d’un humain ou d’une chaine de Markov" ?

              • Sur la procédure d’entraînement, clairement plus proche d’une chaîne de Markov
              • Sur l’architecture (construire un modèle interne vs tabuler et réutiliser de manière brute des statistiques), clairement plus proche d’un humain
              • Sur les capacités, clairement plus proche d’un humain (un LLM a des capacités de généralisation qu’une chaîne de Markov n’a tout simplement pas et ne peut pas avoir, cf in-context learning)

              Personnellement je pense que dans 90% du temps ce sont les capacités le critère important. D’où ma réaction à "un LLM c’est juste un chaîne de Markov plus sophistiquée".

            • [^] # Re: bof

              Posté par  . Évalué à 3 (+1/-0).

              un LLM est plus proche d'une chaîne de Markov que d'un cerveaux humain.

              Mais je ne vois pas où est-ce que tu as lu le contraire dans le texte du journal ou l'un des articles cités par le journal ? Le fait de dire que le programme informatique nommé Grok a contredit son créateur (bien que ça ne soit même pas lui le créateur) ne veut pas dire qu'on le considère comme humain. Oui il y a des gens qui font ça mais dans le contexte de ce journal c'est un peu un homme de paille.

              • [^] # Re: bof

                Posté par  . Évalué à 4 (+4/-2).

                Mais je ne vois pas où est-ce que tu as lu le contraire dans le texte du journal ou l'un des articles cités par le journal […]

                Dur travail d'investigation que tu me demandes. Ne soyons pas feignant, je commence par le premier lien (
                La mise en gras est de moi) :


                Grok, l'intelligence artificielle créée par Elon Musk pour son réseau social X, accuse le milliardaire de propager de la désinformation.

                l'intelligence artificielle du réseau social X n'hésitait pas à critiquer son créateur,

                L'IA explique


                […] ne veut pas dire qu'on le considère comme humain.

                Utiliser cette sémantique consiste bien à lui prêter des intentions humaines. Et beaucoup d'article non scientifique sur l'IA emploie cette sémantique.

                Non, l'outil n'accuse pas, ne critique pas, n'explique pas. Il restitue un réponse vraisemblable à un prompt.

                • [^] # Re: bof

                  Posté par  . Évalué à 1 (+0/-1). Dernière modification le 20 juin 2025 à 16:52.

                  Tout comme l'humain restitue (peut-être) la suite logique du mix de ses antécédents génétiques et des événements auxquels il a été soumis jusqu'à cet instant. Certains, et non des moindres, disent qu'on n'a pas de free will. A chacun son prompt.

                • [^] # Re: bof

                  Posté par  . Évalué à 6 (+5/-1). Dernière modification le 20 juin 2025 à 19:33.

                  Utiliser cette sémantique consiste bien à lui prêter des intentions humaines.

                  OK tu joues toi-même sur la sémantique en fait. Si j'écris "j'ai recompilé mon noyau mais mon PC ne veut pas démarrer" (phrase que j'ai sûrement dû prononcer plus d'une fois avant le boom actuel des LLM) je doute que tu te dises que je lui attribue une volonté (veut, vouloir) Donc quand je lis les phrases que tu as extraites, non je n'y vois pas un désir de lui "prêter des intentions humaines". Contexte, tout ça… C'est pour ça que je parlais d'homme de paille, j'ai l'impression que tu as fort envie d'en découdre avec les adorateurs de l'IA et du coup tu en vois partout, ou tu les construis.
                  Bref, encore une fois, le journal ne visait qu'à se moquer de Musk.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.