Journal Le Rationalisme

Posté par  . Licence CC By‑SA.
Étiquettes : aucune
-33
3
fév.
2025

J’aimerais vous présenter le mouvement/la sphère dite "rationaliste".

Pourquoi ? Deux raisons :

  1. C’est probablement l’élément le plus important/structurant de la personne que je suis actuellement ; autrement dit : sans les Séquences, je serai probablement quelqu’un d’autre, et très certainement pour le pire (y compris du point de vue du moi contrefactuel, qui préférerai être le moi actuel). Je sais également que le moi pré-Séquences aimerait être introduit aux Séquences ; et que sociologiquement, il est très probable qu’il y ait des lecteurs sur ce site très proches du moi-pré-Séquences. Ma timidité naturelle m’a empêché jusqu’ici de partager quelque chose que je considère aussi personnel, mais je considère de plus en plus cette timidité comme de la lâcheté.

  2. Au delà de ces considérations personnelles, des débats importants vont bientôt arriver à vos oreilles concernant l’IA (enfin, espérons le du moins). Plus précisément, la conjonction de deux choses : les plus grands acteurs du domaine (OpenAI, Anthropic et DeepMind) s’attendent à atteindre une IA de niveau humain d’ici 2 à 5 ans (source), et il existe de grandes inquiétudes que les risques associés soient catastrophiques (“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war” / « L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale, au même titre que d'autres risques à l'échelle de la société comme les pandémies et la guerre nucléaire. » source). Ceci n’est pas en soi le sujet de ce journal, mais il est à noter que le mouvement rationaliste est historiquement central sur cette prise de position : Eliezer Yudkowsky a principalement cet objectif en tête (expliquer les risques existentiels liés à l’IA) lorsqu’il écrit les Séquences. Si cette dernière phrase vous semble cryptique ("hein ? qui a écrit quoi ? je suis censé comprendre ?"), ne vous inquiétez pas : l’objectif de ce journal est justement (entre autre) d’expliquer ce qui, ce quoi, ainsi que quand et où.

Avant d’entrer dans le sujet, je vais me permettre de mettre mes (auto-censuré) sur la table et de renommer le mouvement. Pourquoi ? Parce le terme "rationalisme" est objectivement mal choisi, la quasi-totalité des rationalistes anglophones se lamentent que le terme est mal choisi, Yudkowsky se lamente que le terme est mal choisi, mais qu’il est trop tard pour changer. Vu à quel point le terme est méconnu en France, il n’est pas trop tard pour nous francophones ! Je vais donc suggérer ce terme pour désigner le mouvement et la philosophie : Ukemisme Cognitif/Mental/Intellectuel (je ne suis pas encore bien fixé sur le suffixe, mais comme je ne compte pas l’utiliser, ce n’est pas important), les pratiquants étant des Ukemistes.

Pour l’introduction, je vais citer Eric Raymond, normalement bien connu en ces lieux, dans son article décrivant la préhistoire du mouvement Ukemiste aux Ukemistes :

I was a bright geeky kid in the 1960s and 1970s, immersed in a lot of obscure topics often with an implicit common theme: intelligence can save us! Learning how to think more clearly can make us better! But at the beginning I was groping as if in a dense fog, unclear about how to turn that belief into actionable advice.

J’étais un enfant brillant et geek dans les années 1960 et 1970, plongé dans de nombreux sujets obscurs qui avaient souvent un thème commun implicite : l'intelligence peut nous sauver ! Apprendre à penser plus clairement peut nous rendre meilleurs ! Mais au début, je tâtonnais comme dans un épais brouillard, ne sachant pas comment transformer cette conviction en conseils pratiques.

Qui, en deux phrases, combine les bases sociologiques et philosophique importantes de l’Ukemisme :

  • La recherche de la vérité en tant qu’objectif personnel, la quête des philosophes depuis l’antiquité.

  • Implicite dans cette citation, mais extrêmement importante : une clarté nouvellement gagnée dans cette quête.

Quelles sont les bases de cette nouvelle clarté ? Essentiellement, l’intégration de deux éléments relativement récents en tant qu’outils de cette quête multimillénaire :

  1. La recherche en psychologie sur les Biais Cognitifs (deux noms incontournables: Tversky et Kahneman). Quels biais affectent négativement mon raisonnement ? Comment m’affectent-ils ? Puis-je développer des techniques, des habitudes, pour les identifier et les corriger ?

  2. La Théorie des Probabilités en tant que base fondamentale de l’épistémologie. De la même manière que le moteur idéalisé qu’est le moteur de Carnot et par extension la Thermodynamique ont fourni un mètre-étalon extrêmement précieux pour une génération d’inventeurs et d’ingénieurs lors de la Révolution Industrielle, la théorie bayésienne des probabilités nous donne un mètre-étalon de ce qu’est un raisonneur idéal, pour cette nouvelle génération d’Ukemistes. Les noms qui reviennent ici sont E. T. Jaynes et Richard Cox. Si Les Séquences sont le Nouveau Testament de l’Ukemisme, alors Probability Theory : The Logic of Science est clairement l’Ancien Testament.

Les ingrédients sont ici, la scène est posée : de nouveaux outils sont apparus pour une très ancienne tâche, et ont l’air a priori très prometteurs. Tout est prêt pour la synthèse. C’est Eliezer Yudkowsky qui se retrousse les manches et s’en charge. L’aventure commence sur le blog d’un physicien-reconverti-économiste, Robin Hanson, sur lequel Yudokwsky commence en tant qu’invité à populariser la recherche sur les biais cognitifs, et les implications épistémologiques. Le projet suscite rapidement de l’intérêt (principalement parmi des étudiants curieux) et se détache du blog personnel de Robin Hanson, pour fonder LessWrong.

Les mois et années suivantes, Yudkowsky s’acharne à mettre sur papier (virtuel) les fondements du projet. Le résultat direct ? Aujourd’hui, pas loin du millier de blog posts. Un premier travail de réarrangement, réorganisation, et de coupes légères donne Les Séquences ; un second travail avec des coupes bien plus franches donne Rationality: From AI to Zombies (non, je ne m’essaierai pas à traduire ce titre, déjà trop piteusement choisi en version originelle à mon goût). Yudkowsky se lance ensuite dans la vulgarisation sous la forme d’une fanfiction Harry Potter, Harry Potter et les Méthodes de de la Rationalité, qui rencontre un certain succès (et son lot de moqueries : Harry Potter ? N’est-ce pas embarrassant ?). Parallèlement, de nombreux contributeurs ajoutent leur pierre à l’édifice, citons par exemple :

Très bien. Nous avons vu le pourquoi, le qui, le quand. Quel est le résultat ? Eric Raymond dans l’introduction sous-entend, et j’explicite, une clarté nouvellement gagnée. Pourquoi ? Comment ? Essentiellement, pour la raison pour laquelle j’ai choisi le terme Ukemi. Pour ceux n’ayant pas suivi l’article Wikipedia, il s’agit, au judo, de la pratique d’apprendre à tomber. Et l’Ukemisme est essentiellement un très bon parallèle à cette pratique dans le domaine philosophique/épistémologique.

L’Ukemi, au judo, dit : "Vous allez tomber. Apprenez à le faire avec grâce et technique, et faites-en une force". L’Ukemisme dit la même chose : "Vous allez vous tromper. Préparez-vous et entraînez vous à reconnaître et gérer ces erreurs."

L’Ukemisme n’est pas un ensemble de conclusion philosophiques comme pourrait l’être, par exemple, le Kantisme. Il s’agit d’un ensemble de techniques, d’outils, d’approches et d’attitudes au service de la recherche philosophique. Sur tous les sujets, il existe une grande variété d’opinion différentes parmi les Ukemistes (excepté sur l’Épistémologie, où il existe clairement et fermement une position Ukemiste). C’est normal : la clarté revendiquée par l’Ukemisme n’est pas "nous avons enfin atteint la Vérité Certaine sur Tous les Sujets" ; c’est plutôt : "ces nouveaux outils tiennent leurs promesses, et sont d’une aide extrêmement précieuse".

Quels sont ces outils ? Il n’existe malheureusement pas à ma connaissance de compilation explicite, pas d’ouvrage de référence "L’Ukemisme en Pratique". Les pratiques sont partagées principalement implicitement, par l’exemple, au travers de débats et de discussions. Laissez-moi faire une liste certainement non-exhaustive :

  • De Yudkowsky : The Fundamental Question of Rationality is: "Why do you believe what you believe?", or alternatively, "What do you think you know, and how do you think you know it?". En Français : La Question Fondamentale de l’Ukemisme est : « Pourquoi croyez-vous ce que vous croyez ? », ou alternativement, « Que pensez-vous savoir, et comment pensez-vous le savoir ? ». Ré-évaluez régulièrement ce que vous croyez vrai.
  1. Vous pouvez avoir changé d’avis sur les raisons qui vous ont conduit en certaines croyances, sans pour autant avoir changé ces croyances. Voyez ça comme un ménage de printemps.

  2. De manière plus importante, si vous vous êtes amélioré sur d’autres techniques, avez appris à mieux reconnaître et contrer certains biais, réévaluer régulièrement vos croyances vous permet de bénéficier de ces gains.

  • "Les preuves me forcent-elles à croire X ?" "Les preuves m’interdisent-elles de croire X ?". Apprenez à reconnaître quand votre pensée atteint ces motifs, et reconnaissez que c’est une erreur. La question correcte est : dans quelle direction penchent les preuves ? Ne privilégiez pas a priori un des deux côtés de la question.

  • En débat/discussion : prenez régulièrement littéralement deux secondes pour vous demander "est-ce que je crois réellement ce que je viens de dire, ou me suis-je laissé entraîner par le courant naturel de la conversation ?". J’ai été personnellement surpris du nombre de fois où ces deux secondes se concluent par : "non, je ne le crois pas réellement, je me suis laissé emporter par le courant naturel de la conversation dans une direction qui ne reflète pas mes réelles croyances". Évidemment, cela marche également à l’écrit, même s’il est déjà plus naturel de s’auto-relire et corriger dans ce cas-ci.

  • Identifiez votre Objection Réelle. Si vous croyez en non-X/ne croyez pas en X, posez vous la question : quel fait dans le monde réel serait suffisant pour vous faire changer d’avis ? Utile dans un contexte personnel, vital dans un contexte de discussion : identifier ces points cruciaux de désaccord. Il est bien trop aisé de tomber dans le piège de focaliser son énergie sur des points secondaires.

  • Lorsque vous abordez une question qui se prête à l’analyse statistique, avant de rechercher et regarder le moindre chiffre, posez vous ces questions : "Idéalement, quelles mesures, quels indicateurs sont les plus représentatifs de la question que je me pose ? Si ceux-ci ne sont pas disponibles, quel est mon second choix ? Pour chaque hypothèse, quel chiffre je m’attend à voir ?". Et après seulement faire la recherche. Le dernier point en particulier est important : ne partez pas de "les chiffres disent X, donc j’en conclus Y" ; partez de "SI les chiffres disent X, ALORS j’en conclurai Y", puis regardez les chiffres !

  • Lorsque vous abordez une question plus abstraite, posez vous la question : « qu’est-ce que je m’attends à voir dans un monde où l’hypothèse A est vraie, dans un monde où l’hypothèse A est fausse ? Quelles sont les conséquences pratiques réelles de A ou non-A ? » Concentrez-vous sur ce qui est aisément vérifiable mais dont vous ne connaissez pas encore la réponse. Puis cherchez la réponse.

  • Pour chacune de vos positions, visez à être capable de passer un Test de Turing Idéologique pour cette position. Vous passez le test si vous êtes capable de présenter la position opposée d’une manière qu’un observateur objectif et impartial est incapable de donner votre position réelle (ou alternativement : si un observateur ayant une position opposée à vous approuve et cautionne votre explication).

  • Pour chacune de vos positions, cherchez les arguments les plus forts opposés à celle-ci — il est extrêmement naturel de construire des hommes de pailles facile à démonter pour justifier vos positions. Résistez à cette inclinaison naturelle.

  • Technique avancée : exercices de calibration. Essayez de faire des prédictions chiffrées ("à 80% sûr", "à 60% sûr"). Votre objectif est, si vous avez 100 prédictions "à 60% certaines", de se retrouver avec ~60 prédictions correctes. Vous pouvez utiliser par exemple Manifold.

Une Technique Interdite, que je déconseille fortement à toute personne qui n’est pas entièrement dévouée à la Vérité, rien que la Vérité, toute la Vérité, qui nous vient d’Eric Raymond : "Kill the Buddha". “Find the premise, or belief, or piece of received knowledge that is most important to you right at this moment, and kill it”. En Français : « Trouvez la prémisse, ou la croyance, ou le fragment de savoir reçu qui est le plus cher pour vous en ce moment même, et tuez-le ». Si ce savoir vous est effectivement cher, cela signifie que vous êtes probablement extrêmement biaisé en sa faveur. Pour compenser, faites tout pour vous convaincre qu’il est faux. Technique dangereuse, car si vous êtes trop efficace, vous risquez de vous retrouver sans plus rien de cher.

Pour conclure, revenons a la phrase que je vous ai promis que vous comprendriez à la fin de ce journal : « Eliezer Yudkowsky a principalement cet objectif en tête (expliquer les risques existentiels liés à l’IA) lorsqu’il écrit les Séquences ».

Vous savez maintenant qui est Yudkowsky, quel est son projet, et dans les grandes lignes en quoi consistent les Séquences. Reste un détail étrange qui vous a peut être interpellé : « Pourquoi diable Yudkowsky a-t-il considéré comme nécessaire de commencer par développer l’Ukemisme pour pouvoir expliquer les risques existentiels liés à l’IA ? » La réponse se trouve dans le dernier concept que je vais vous expliquer : celui de Distance Inférentielle. Intuitivement parlant, vous ne pouvez pas prendre Euclide et lui expliquer la géométrie algébrique en deux heures. Il existe énormément d’étapes et de concepts intermédiaires dont il n’a aucune connaissance. Si, brutalement, vous vous contentez de lui introduire les axiomes de la géométrie algébrique et dérouler les théorèmes, le seul résultat sera que vous passerez pour un fou. Le résultat est le même si, comme Yudkowsky, vous tentez de présenter directement sans introduction en 2005 la position « l’IA présente un clair risque d’extinction pour l’espèce humaine. »

Pour expliquer sa position, il doit détailler, en particulier, en quoi plus exactement consiste ce I de IA (quelles sont les différences et similarités avec l’intelligence humaine ?). Ce qui nécessite de clarifier d’autres concepts, comme celui de Vérité, de Réalité, de Savoir, de Croyance, de Preuve. Ce qui nécessite essentiellement… d’expliquer la synthèse des trois ingrédients de l’Ukemisme.

P.S.: je vous saurais gré de vous retenir de déraper immédiatement sur des sujets politiques, je n’ai vraiment, vraiment pas envie de me lancer sur ces questions maintenant.

  • # Interopérabilité

    Posté par  . Évalué à 10 (+16/-2).

    Est ce que c'est interopérable avec Zino ?

  • # Kill the Buddha

    Posté par  (site web personnel) . Évalué à 6 (+4/-0).

    Je te recommande de commencer avec les majuscules et les idées concernées. Par exemple la « Vérité », si tant est que ça existe ou que ça ait un sens, est possiblement inaccessible.

    Adhérer à l'April, ça vous tente ?

    • [^] # Re: Kill the Buddha

      Posté par  . Évalué à 2 (+1/-1).

      Il y a confusion : mon but est de présenter de loin le mouvement, pas de réécrire les Séquences en un journal, ce qui est probablement impossible même pour un écrivain surdoué (et je suis un écrivain sous-doué).

      Par exemple la « Vérité », si tant est que ça existe ou que ça ait un sens, est possiblement inaccessible.

      En un mot ? Ça dépend par "inaccessible" ? Si c’est "il est impossible de tirer la moindre information de la réalité", c’est évidemment faux. Les bactéries y parviennent. Si c’est "accéder parfaitement et totalement à l’entièreté de la réalité" ? C’est presque certainement vrai.

      Et c’est incidemment une bonne intuition de pourquoi la théorie des probabilités est le fondement correct de l’épistémologie : la question n’est pas "commence accéder à la Vérité ?", mais "comment construire un modèle de la réalité à partir d’observations, et quel degré de confiance puis-je avoir dans ces modèles ?".

    • [^] # Re: Kill the Buddha

      Posté par  (site web personnel) . Évalué à 0 (+1/-3).

      La problématique de ces philosophes, récurente en occident, c'est qa'ils essayent de comprendre la réalité avec leur mental (leur égo-mental plus précisément), ce qui est idiot et structurellement voué à l'échec.

      Quand au blabla sur le bouddhisme : c'est une pratique, pas une philosophie. On en tire une philosophie, mais la pratique intensive au moins une fois dans sa vie est cruciale. On apprend à doir ses émotions derrière le mentale.
      Tout ceux qui ont pratiqué Vipassana au moins une fois peuvent le comprendre.

      « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

  • # Rationalisme

    Posté par  (site web personnel) . Évalué à 3 (+1/-0).

    En France, il me semble me rappeler qu'il existe une « Union rationaliste ». Un lien avec l'Ukemisme ?
    Moi dont s'était la grande spécialité au cours de milliers d'heures de pratique des arts martiaux, je trouve le mot éminemment sympathique. L'idée de s'intéresser à l'épistémologie séduit forcément quelqu'un qui fait métier de sciences naturelles, et passé le XIXe, qui oserait ne pas intégrer à une réflexion philosophique la problématique des biais cognitifs ? Ceci dit sur le fond, votre texte ne m'a pas paru des plus limpides. L'idée d'assassiner Bouda m'évoque vaguement le nihilisme, Schopenhauer et la pensée Nietzschéenne. Sans m'y connaître en philosophe, je trouve ça un peu paradoxal vis-à-vis des prémices : un ambitieux projet de reconstruction intégrale de la pensée et des croyances basé sur un double constat de faiblesse absolue (apprendre à échouer, et la reconnaissance de biais systémiques dans notre raison). Je suis moins ambitieux. Bon courage à vous.

    « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

    • [^] # Re: Rationalisme

      Posté par  . Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 11:06.

      En France, il me semble me rappeler qu'il existe une « Union rationaliste ».

      Absolument pas, et c’est une des raisons pour lesquelles le terme de "Rationalisme" est désastreux :

      • le terme est déjà extrêmement surchargé
      • une de ses utilisations est juste une idée très générale "d’utiliser sa raison plutôt que son intuition/ses émotions brutes" (ce qui semble correspondre à "l’Union rationaliste")
      • une autre de ses utilisations est en philosophie pour désigner le débat pendant les lumières entre le Rationalisme (Descartes) l’Empirisme (Hume)
      • l’Ukemisme ne correspond à aucune de ces utilisations

      Ceci dit sur le fond, votre texte ne m'a pas paru des plus limpides

      Désolé, j’ai fait de mon mieux, qui n’est je le reconnais pas très bon. Pour ma défense : difficile de concilier en un post : un résumé historique, sociologique et pratique d’un mouvement philosophique qui a maintenant presque 20 ans.

      Je suis ceci dit curieux sur ce qui a échoué : j’ai tenté de donner les grandes lignes, de loin, et de ne pas rentrer dans les détails pour justement éviter ce souci. Est-ce que même avec cet objectif, j’ai été trop loin dans les détails, ou est-ce que j’ai mis une image de trop loin ?

    • [^] # Re: Rationalisme

      Posté par  . Évalué à 2 (+0/-0).

      En France, il me semble me rappeler qu'il existe une « Union rationaliste ».

      Je voulais rebondir là dessus, mais j’ai oublié.

      Il existe effectivement en France des rassemblements périodiques de la communauté (à ma connaissance, il y a des groupes à Paris, Bordeaux, Grenoble, Lyon et Marseille). Si cela intéresse quelqu’un d’être averti des prochains (j’en doute, vu la note du journal, mais sait-on jamais), vous pouvez m’envoyer un MP pour que je vous prévienne quand ça arrivera (le prochain devrait "gros" événement devrait être fin mars je pense ?)

  • # Julia Galef

    Posté par  (site web personnel) . Évalué à 6 (+3/-0).

    Il n’existe malheureusement pas à ma connaissance de compilation explicite, pas d’ouvrage de référence "L’Ukemisme en Pratique".

    Ce n'est pas à proprement parler la compilation ou l'ouvrage de référence sur le sujet mais j'ai trouvé que le livre "The Scout Mindset" de Julia Galef était une excellente introduction. C'est facile à lire et ça présente bien les principales idées du mouvement dit "rationaliste".

    Je colle une partie du quatrième de couverture :

    When it comes to what we believe, humans see what they want to see. In other words, we have what Julia Galef calls a "soldier" mindset. From tribalism and wishful thinking, to rationalizing in our personal lives and everything in between, we are driven to defend the ideas we most want to believe—and shoot down those we don't.

    But if we want to get things right more often, argues Galef, we should train ourselves to have a "scout" mindset. Unlike the soldier, a scout's goal isn't to defend one side over the other. It's to go out, survey the territory, and come back with as accurate a map as possible. Regardless of what they hope to be the case, above all, the scout wants to know what's actually true.

  • # Verbiage…

    Posté par  (site web personnel) . Évalué à 10 (+17/-0).

    La sexualité des libristes, le rationalisme… Qu'est-ce qui se passe, vous faites des concours de verbiage et de charabia ou quoi ? C'est des tests d'écriture automatique sous IA ?

    • [^] # Re: Verbiage…

      Posté par  . Évalué à 3 (+2/-1).

      C'est une forme de « test de Voight-Kampff », sauf que là, on essaie de repérer les derniers biologiques … reste tranquille, la brigade des "bald bikers" va venir te chercher.

    • [^] # Re: Verbiage…

      Posté par  . Évalué à 2 (+1/-1).

      Concernant ce journal, c'est un blabla pondu par une IA Troll

      • [^] # Re: Verbiage…

        Posté par  . Évalué à 3 (+0/-0).

        Je doute qu'une IA puisse générer un tel gloubiboulga. En général, le texte généré par les IA est sans saveur, mais il est clair et structuré.

        • [^] # Re: Verbiage…

          Posté par  . Évalué à 1 (+0/-1).

          En général, le texte généré par les IA est sans saveur, mais il est clair et structuré

          Suffit de déstructurer, assembler/modifier différents résultats de recherche, pour brouiller les pistes :)

    • [^] # Re: Verbiage…

      Posté par  . Évalué à 6 (+6/-2). Dernière modification le 03 février 2025 à 13:34.

      Mhm, oui. J'ai eu tant de mal à suivre ces deux journaux que j'ai abandonné.

      J'ai essayé de comprendre pourquoi sur ce journal, et je pense que :

      • ça manque de structure (avec des sections qui ont des titres, un plan)
      • ça manque de ligne directrice (d'où on part et vers où on souhaite amener les lecteurs et les lectrices)
      • ça manque de définitions avant usage des termes
      • le texte a été frappé par la malédiction de la connaissance
      • la manière de progresser ne me correspond pas. Un symptôme de cette manière de progresser est la présence de motifs du style "[A]. Pourquoi ? [B]". En réalité, B est arrivé avant A, du coup si on veut partir du début et arriver à la fin, potentiellement B devrait être présenté avant A. De fait, ça peut totalement inverser le sens du texte. Autrement dit, pour saisir qu'il y a un problème à résoudre, on devrait déjà être mis au courant de B, et ensuite A devient une implication présentée après. Évidemment, un texte très bien rédigé pourra transgresser cette règle çà et là pour un peu de dynamisme et ne pas faire mourir les gens d'ennui.

      Je note une motivation présentée au début, ça aide bien. Mais je n'ai pas le contexte pour la comprendre : le terme "Séquences" en majuscule est utilisé mais je ne sais pas à quoi ça fait référence.

      Ce journal propose par exemple de renommer un concept qui n'est alors pas encore présenté. Donc on sent qu'il y a un problème et qu'on essaie de lui couper l'herbe sur le pied (on n'a pas encore le problème dans le monde francophone), mais on ne comprend pas les tenants et les aboutissants. On comprend que le terme initial n'est pas approprié du point de vue de certaines personne, mais on ne saisit pas pourquoi.

      Une manière qui marche bien pour s'adresser à moi avec un long texte :

      • présenter clairement un problème qu'il faut résoudre et proposer une solution
        • décrire le problème à l'aide de concepts définis au préalable
        • décrire une solution à l'aide de concepts définis au préalable
      • Si on propose un changement, faire un état des lieux bien défini, présenter les problèmes de l'existant, et introduire la proposition.

      Et après, ce qu'on voit en philosophie ou en littérature au lycée marche plutôt bien :
      - intro
      - un poil de contexte, avec une motivation
      - présenter le sujet / l'objet / le problème de façon concise
      - définir les termes du sujet
      - on peut sauter la présentation verbeuse textuel du plan et la remplacer par des liens ficelés entre les parties
      - parties et sous partie qu'on titre et qu'on lie entre elles (ouais, contrairement à certaines consignes de ne surtout pas mettre des titres explicites aux sections mais d'en faire des premières phrases de paragraphe, on pourra présenter un plan clair)
      - conclusion

      D'autres schémas marchent probablement bien, l'important soit qu'en tant qu'ignorant total du sujet, je sache à tout moment d'où on part et où on va, que je comprenne les termes centraux utilisés (et donc qu'ils soient définis avant leur utilisation, ou juste à côté), et pourquoi je devrais continuer à lire. Surtout au début.

      Le contexte étant que j'ai une lecture relativement lente et pénible, et une concentration du st… oh un oiseau ! D'ailleurs le précédent journal joue un peu avec ça volontairement xD. Et j'ai une mémoire de travail très courte. Donc je suis vite perdu en lisant un truc. D'ailleurs, pour cette raison, un max de concision est très appréciée.

      Le sujet partait avec un avantage : les biais cognitifs, ça m'intéresse, des bons raisonnements, ça m'intéresse, je veux en savoir plus :-)

      Un bon exemple de sujet compliqué et un peu long qui est bien passé hier malgré la fatigue complète dans laquelle j'étais à cause de FOSDEM et du boulot intense ces derniers mois : https://www.ralfj.de/blog/2020/12/14/provenance.html

      Voilà, j'espère que ce commentaire trouvera son utilité, il est là pour suggérer plus que pour donner des leçons, j'espère d'ailleurs qu'il sera perçu comme tel. Je présente bien mon rapport personnel avec les textes, on sait très bien qu'un même style d'écriture accroche très bien une personne et très mal une autre, et que chacun·e a le sien. Je pense que je suis très scolaire, de ce point de vu.

      (bien sûr, je trouvais les règles des dissertations au lycée très pénibles et rigides, mais je vois maintenant très bien pourquoi elles existent)

      • [^] # Re: Verbiage…

        Posté par  . Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 14:26.

        ça manque de structure (avec des sections qui ont des titres, un plan)

        Je… ne comprend pas ? Je suis parti d’une structure, certes non-explicitée en titres, mais clairement (pour moi) présente :

        1. Introduction : Présenter "quoi ?" le mouvement rationaliste. Pourquoi ? mes deux raisons.

        2. Introduction rapide d’ESR, point de vue "sociologique" (quel genre de personne ce mouvement attire)

        3. Quelles sont les idées fondatrices (Biais cognitifs + Théorie des probas en tant que fondation de l’épistémologie)

        4. Le qui (les grands noms) et le quand (bref historique) du mouvement

        5. Les leçons pratiques

        6. La conclusion

        Je me relis et ce plan est… transparent pour moi ? Même pas subtil (non, je n’ai pas cherché à être subtil) ? Je suis curieux de pourquoi ce n’est transparent que pour moi.

        ça manque de ligne directrice (d'où on part et vers où on souhaite amener les lecteurs et les lectrices)

        Je plaide coupable qu’il n’y en a pour le coup pas réellement (j’ai essayé d’en introduire une artificiellement avec le "Eliezer Yudkowsky a principalement cet objectif en tête lorsqu’il écrit les Séquences" de l’introduction). Le but est un résumé en largeur, pas en profondeur, de toucher un maximum de points plutôt que de se concentrer sur un aspect.

        Voilà, j'espère que ce commentaire trouvera son utilité, il est là pour suggérer plus que pour donner des leçons, j'espère d'ailleurs qu'il sera perçu comme tel

        Oui, c'est apprécié, merci.

        • [^] # Re: Verbiage…

          Posté par  . Évalué à 2 (+0/-0).

          Je suis curieux de pourquoi ce n’est transparent que pour moi.

          C'est peut-être juste moi aussi, ce n'est pas exclus xD

          • [^] # Re: Verbiage…

            Posté par  . Évalué à 4 (+1/-0).

            Je ne sais pas si on peut faire des statistiques, mais je n'ai absolument rien compris non plus. Les Séquences, les probabilités Bayesiennes, l'ukemisme, "vous avez maintenant compris ce qu'étaient les Séquences" (bah non), et c'est tout. Le problème, c'est que la cohérence du texte est le seul moyen quand on n'est pas spécialiste de différentier les propos jargonnants de la pseudoscience. Là, comme le texte n'a pas de cohérence (il va à droite ou à gauche au fil de l'eau, il y a des 1) et des 2) qui ne correspondent pas entre eux…), c'est logique de penser que c'est peut-être du bullshit.

            Ensuite on peut vérifier par exemple que Google ne connait pas une seule occurence de "Ukemisme", ça commence à faire un peu peur (travail original?).

            En tout cas, si quelqu'un peut être convaincu par ce genre de documents, il faudrait qu'il m'explique son raisonnement, parce que son cerveau ne fonctionne pas du tout de la même manière que le mien.

            • [^] # Re: Verbiage…

              Posté par  . Évalué à 0 (+0/-2). Dernière modification le 03 février 2025 à 15:25.

              Ukemisme est le seul terme original introduit dans mon texte, et j’ai expliqué à mon sens clairement pourquoi ? Je m’auto-cite :

              le terme "rationalisme" est objectivement mal choisi, la quasi-totalité des rationalistes anglophones se lamentent que le terme est mal choisi, Yudkowsky se lamente que le terme est mal choisi, mais qu’il est trop tard pour changer. Vu à quel point le terme est méconnu en France, il n’est pas trop tard pour nous francophones

              .

              "vous avez maintenant compris ce qu'étaient les Séquences" (bah non)

              Je me re-cite :

              Yudkowsky s’acharne à mettre sur papier (virtuel) les fondements du projet. Le résultat direct ? Aujourd’hui, pas loin du millier de blog posts. Un premier travail de réarrangement, réorganisation, et de coupes légères donne Les Séquences

              Vraiment, en quoi n’est-ce pas clair ?

              En tout cas, si quelqu'un peut être convaincu par ce genre de documents,

              Le but n’est pas de convaincre, il est de présenter rapidement et de donner des pointeurs.

              • [^] # Re: Verbiage…

                Posté par  . Évalué à 4 (+1/-0).

                De convaincre qu'il est intéressant de cliquer sur les pointeurs ?

                • [^] # Re: Verbiage…

                  Posté par  . Évalué à 1 (+0/-1).

                  C’était l’objectif des exemples de techniques développées, donner envie de développer en cliquant sur les pointeurs.

                  Si l’accusation est que je suis un piètre commercial : coupable votre honneur.

        • [^] # Re: Verbiage…

          Posté par  . Évalué à 4 (+1/-0).

          C'est maigre. La théorie des probas certes, mais pour faire quoi ? L'objectif c'est d'enrayer la chute du vivant avec l'IPBES ? De conquérir l'univers avec Musk et les longtermistes en négligeant le bonheur des personnes actuelles parce qu'elles ne comptent pour que pouique devant la grandeur d'un projet d'avoir un bonheur gigantesque de l'humanité parce que l'univers c'est très grand donc il y a la place pour plein de bonheur dans un futur fantasmé (et on peut inventer les probas qu'on veut pour mettre un poids la dessus, parce que c'est loin donc très brumeux)

          • [^] # Re: Verbiage…

            Posté par  . Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 14:49.

            Je ne suis pas sur que multiplier par 10 la taille du journal pour entrer dans les détails soit d’une grande aide ?

            (et même si ça aidait, je ne pense pas être prêt à faire un tel effort, je suis un écrivain médiocre et donc peu efficace)

            Encore une fois le but n’est pas de réécrire les Séquences en un journal.

            • [^] # Re: Verbiage…

              Posté par  . Évalué à 3 (+0/-0).

              Ça devrait être possible d'exprimer clairement les objectifs en quelques mots, sinon perso ça va être compliqué de me motiver à lire un texte long.

              Les probas, c'est un outil, utilisé par exemple en sciences par des gens qui connaissent bien leur discipline et qui savent pourquoi et comment les employer. Ici si c'est pas un projet scientifique (les scientifiques n'ont a priori pas de leçons à recevoir sur comment faire leur boulot) c'est quoi, un projet politique ? Si c'est un projet politique, dire en fondement "théorie des probas" n'est pas satisfaisant, et si il y a pas de TL;DR ou de contraste par rapport aux autres projets existants (et c'est pas parce comme si on manquait de courant et projets politiques qu'on connaît un peu) … c'est pas motivant.

              • [^] # Re: Verbiage…

                Posté par  . Évalué à 4 (+1/-0).

                J'ai un peu l'impression que c'est une manière très très obscure d'appeler à une approche scientifique (ou scientiste) de la société, un peu à la manière des mouvements "zététiques".

                En gros, quand tu penses qu'un truc est peut-être vrai (par exemple, "l'immigration est bonne pour l'économie"), tu le prends en point de départ, tu vas chercher les chiffres, tu lis les arguments de ceux qui pensent le contraire, et tu finis sur une position plus "savante", du style "dans certaines conditions, un certain type d'immigration a un effet bénéfique sur l'économie, mais dans d'autres conditions l'effet peut être négatif", et tu as avancé dans ta compréhension du monde. Et quand tu ne trouves pas de données, tu quantifies ton incertitude en acceptant de traiter une incertitude comme une probabilité (d'où la référence aux statistiques Bayesiennes).

                Mais bon, comme ça part sur des prémisses douteuses (notamment sur la nature du raisonnement scientifique), tu risques de finir sur des truismes (du style "je ne sais rien donc je n'ai d'opinion sur rien") ou sur la réalité des sciences sociales (du style "la science dit que j'ai raison donc fuck la démocratie").

                • [^] # Re: Verbiage…

                  Posté par  . Évalué à 5 (+2/-0).

                  En supposant qu'à la base on soit d'accord pour dire ce que veut dire "bon pour l'économie" ce qui n'a déjà rien de garantit :)

                  Ça me rappelle un rationaliste sur Wikipedia qui disait qu'un bot comme chatgpt, en tant qu'entité statistique par conception pourrait pondre des articles "neutres" sans intervention humaine (pour représenter statistiquement les points de vue en proportion de leur importance. Le vieux rêve rationaliste d'une gestion entièrement par les chiffres qui attendrait donc une forme d'objectivité. Totalement dépolitisant en l'occurrence, comme projet. En principe, parce qu'en pratique ça permet simplement de faire passer pour objectif des choses en masquant totalement les projets idéologiques sous jascents (la "neutralité" au sens de Wikipédia par exemple, qui n'est pas la seule manière ni de concevoir la neutralité, ni forcément la meilleure manière de transmettre la connaissance)

                  • [^] # Re: Verbiage…

                    Posté par  (site web personnel) . Évalué à 4 (+1/-0).

                    Et chatgpt n'est pas neutre (la technique est politique tout ça) : il est la somme de biais de conception, de biais d'apprentissage, de biais de corrections post-apprentissage par des humains biaisés, et de biais d'utilisation (et j'en oublie sans doute).

                    Quitte à avoir un vieux rêve rationaliste, il faudrait viser une encyclopédie prouvée mathématiquement genre par un langage à preuve formelle… (ce qui même théoriquement ne doit pas vouloir dire grand chose). Bref il suffit de numériser objectivement l'humanité et son histoire, vous avez 4h.

                • [^] # Re: Verbiage…

                  Posté par  . Évalué à 2 (+1/-1). Dernière modification le 03 février 2025 à 15:52.

                  J'ai un peu l'impression que c'est une manière très très obscure d'appeler à une approche scientifique (ou scientiste) de la société, un peu à la manière des mouvements "zététiques".

                  Non, il n’y a pas vraiment d’approche politique/sociale. Le plus proche est le mouvement EA, que je n’ai volontairement pas abordé dans le journal.

                  Faisons rapidement un peu de philosophie.

                  J’observe que le soleil se lève à l’est tous les matins depuis que je suis en vie — et j’ai le témoignage de mes parents et grand-parents que c’est le cas depuis qu’ils sont en vie.

                  À quel point la conclusion : "demain le soleil se lèvera à l’est" découle de cette observation ?

                  C’est grosso-modo le point d’entrée de ce qu’on appelle l’épistémologie : qu’est-ce que la connaissance ? le savoir ? La question précédente (sur la validité de la conclusion "le soleil se lèvera à l’est") s’appelle "Le Problème de l’Induction".

                  C’est le genre de problème auquel l’Ukemisme s’intéresse. Si on veut vraiment simplifier : c’est une nouvelle école de pensée sur la question de l’épistémologie.

                  La théorie des probabilités semble te faire ticker. Pourquoi est-ce considéré comme un pilier ? Prenons le Rasoir d’Ockham. Le rasoir d’Ockham est une heuristique prisée des philosophes, mais qui fait tout de même débat (Heinlein a un bon mot là dessus). Peut-on faire mieux ?

                  Oui, on peut. On peut formaliser le rasoir d’Ockham dans le contexte de l’apprentissage PAC.

                  Pourquoi fait on tellement confiance à la théorie des probabilités ?

                  Parce que Richard Cox a montré que la théorie des probabilités découle nécessairement d’un nombre minimal de desideratas de tout processus de raisonnement cohérent. Ce n’est pas juste une théorie parlant de lancers de dés et de dénombrement et de distributions normales. C’est une théorie qui décrit la cohérence d’un système de savoir/croyances, et comment ce système doit évoluer lors de l’obtention de nouvelles informations.

                  • [^] # Re: Verbiage…

                    Posté par  . Évalué à 3 (+0/-0).

                    Et tu trouveras des philosophes des sciences et des scientifiques qui te diront qu'en pratique le rasoir d'Ockham est rarement un principe effectif. Quand on tranche entre théories, c'est qu'elles font des prédictions différentes, en règle générale. Quine, Kuhn dans le camps des philosophes par exemple.

                    J'imagine que dans un cadre de théorie approximativement correct on préfèrera la théorie de Newton niveau gravité à la théorie de la relativité générale parce que plus simple et que faut aller chercher pour trouver des observations qui nécessitent la théorie de la relativité générale pour être expliquées ?

                    • [^] # Re: Verbiage…

                      Posté par  . Évalué à 4 (+2/-0). Dernière modification le 03 février 2025 à 17:04.

                      [il] faut aller chercher pour trouver des observations qui nécessitent la théorie de la relativité générale pour être expliquées ?

                      Il me semble que pour le bon fonctionnement du système GPS il est nécessaire de prendre en compte l'influence du champ de gravitation sur la marche des horloges (le temps ne s'écoule pas de la même façon pour le satellite et le récepteur sur terre).

                      Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                    • [^] # Re: Verbiage…

                      Posté par  . Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 17:36.

                      Quand on tranche entre théories, c'est qu'elles font des prédictions différentes, en règle générale

                      Le rasoir d’Ockham permet de trancher entre Géocentrisme + Épicycles et Héliocentrisme par exemple. Le problème des épicycles n’a jamais été leur incapacité à reproduire les prédictions du géocentrisme.

                      (oui, muni de nos théories cosmologique modernes, la question est moins intéressante, j’en convient)

                      J'imagine que dans un cadre de théorie approximativement correct on préfèrera la théorie de Newton niveau gravité à la théorie de la relativité générale parce que plus simple et que faut aller chercher pour trouver des observations qui nécessitent la théorie de la relativité générale pour être expliquées ?

                      Dans l’idée oui. Aucune idée de si quelqu’un a essayé en pratique de faire rentrer Newton vs RG dans ce cadre. Intuitivement, ça me semble excessivement complexe.

                  • [^] # Re: Verbiage…

                    Posté par  . Évalué à 5 (+2/-0).

                    C’est le genre de problème auquel l’Ukemisme s’intéresse. Si on veut vraiment simplifier : c’est une nouvelle école de pensée sur la question de l’épistémologie.

                    Du coup, l'Ukemisme (un néologisme créé pour ce journal) est une nouvelle école de pensée sur les fondements de l'induction?

                    Par exemple, quand on apprend que le soleil ne se lève approximativement à l'Est que deux fois par an aux équinoxes, c'est comme quand on tombe au judo sans se faire mal?

                    Prenons le Rasoir d’Ockham. Le rasoir d’Ockham est une heuristique prisée des philosophes, mais qui fait tout de même débat (Heinlein a un bon mot là dessus). Peut-on faire mieux ?

                    Mieux que quoi? Tu veux déterminer des implications de la théorie de l'information en épistémologie?

                    Le problème, c'est que tu risques de tomber de haut quand tu réaliseras que le processus scientifique, au niveau opérationnel, ne fait jamais appel aux concepts épistémologiques. L'épistémologie décrit le comportement et les prises de décision des scientifiques comme les entomologistes décrivent le comportement des fourmis, mais les fourmis ne lisent pas plus les articles des entomologistes que les scientifiques ne lisent les articles d'épistémologie :-) Ce que je trouve paradoxal, c'est que les mouvements zététique-like poussent pour une intégration du "raisonnement scientifique" dans d'autres domaines de la société, sans forcément réaliser que les scientifiques n'organisent pas du tout leur raisonnement selon les théories épistémologiques dont ils ne connaissent même pas l'existence, puisque c'est le contraire (l'épistémologie décrit la manière dont les scientifiques raisonnent).

                  • [^] # Re: Verbiage…

                    Posté par  . Évalué à 4 (+2/-0).

                    Faisons rapidement un peu de philosophie.

                    Cela me semble être de la philosophie douteuse.

                    Déjà, comme dit dans un autre commentaire, ce que tu décris n'a absolument rien à voir avec le projet de Kant dans sa Critique de la raison pure. Si tu veux connaître son avis sur les probabilités, l'induction et le rasoir d'Ockham, ça se trouve dans son traité sur la Logique.

                    Nous avons observé plus haut, touchant la probabilité, qu’elle n’est qu’une simple approximation de la certitude. — Tel est aussi, et en particulier, le cas avec les hypothèses, au moyen desquelles nous ne pouvons jamais parvenir, dans notre connaissance, à une certitude apodictique, mais toujours seulement à un degré de probabilité tantôt plus grand, tantôt moindre.

                    Une hypothèse est une croyance du jugement touchant la vérité d’un principe, eu égard à la
                    suffisance des conséquences ; ou, plus brièvement, la croyance d’une supposition comme principe.

                    Toute croyance se fonde donc sur une hypothèse, en ce sens que la supposition, comme principe, est suffisante pour expliquer par là d’autres connaissances comme conséquences ; car on conclut ici de la vérité de la conséquence à la vérité du principe. Mais cette espèce de conclusion ne donne pas un critérium suffisant de la vérité, et ne peut conduire à une certitude apodictique qu’autant que toutes les conséquences possibles d’un principe admis sont vraies ; d’où il suit que, comme nous ne pouvons jamais déterminer toutes les conséquences possibles, les hypothèses restent toujours des hypothèses, c’est-à-dire des suppositions, à la pleine certitude desquelles nous ne pouvons jamais atteindre. — Cependant, la vraisemblance d’une hypothèse peut croître et s’élever, et la foi que nous lui accordons, devenir analogue à celle que nous donnons à la certitude, lorsque toutes les conséquences qui se sont présentées à nous jusqu’ici peuvent s’expliquer par le principe supposé ; car alors il n’y a pas de raison pour que nous ne devions pas admettre que toutes les conséquences possibles qui en dérivent peuvent également s’expliquer. Nous regardons alors l’hypothèse comme très certaine, quoiqu’elle ne le soit que par induction.

                    Quelque chose cependant doit être certain apodictiquement dans toute hypothèse, savoir :

                    1 ° La possibilité de la supposition même.

                    Si, par exemple, pour expliquer les tremblements de terre et les volcans, on admet un feu souterrain, cette sorte de feu doit être possible, ne brûlât-il pas comme un corps enflammé. Mais, lorsqu’à l’aide de certains autres phénomènes, on veut faire de la terre un animal dans lequel la circulation d’un liquide intérieur produit la chaleur, c’est une pure fiction, et non une hypothèse ; car les réalités s’imaginent bien, mais non les possibilités : elles doivent être certaines.

                    2° La conséquence.

                    Les conséquences doivent découler légitimement du principe admis, autrement l’hypothèse n’aurait enfanté qu’une chimère.

                    3° L’unité.

                    Une chose essentielle pour une hypothèse, c’est qu’elle soit une, et qu’elle n’ait pas be-
                    soin d’hypothèses auxiliaires pour la soutenir. Si une hypothèse ne pouvait subsister par elle-même, elle perdrait par ce fait beaucoup de sa probabilité; car, plus une hypothèse est féconde en conséquences, plus elle est probable, et réciproquement. C’est ainsi que l’hypothèse principale de Ticho-Brahé ne suffisait pas pour expliquer beaucoup de phénomènes, ce qui rendait nécessaires plusieurs autres hypothèses secondaires. On pouvait déjà présumer par là que l’hypothèse adoptée n’était pas un principe légitime. Au contraire, le système de Copernic est une hypothèse qui explique tout ce qu’elle doit expliquer, tous les grands phénomènes cosmiques qui se sont présentés à nous jusqu’ici ; nous n’avons pas besoin d’hypothèses subsidiaires.

                    Il est des sciences qui ne permettent aucune hypothèse, par exemple les mathématiques et la métaphysique. Mais en physique elles sont utiles et indispensables.

                    Kant, Logique.

                    Lorsqu'il dit que nous concluons de la vérité des conséquences (faits observés) à la vérité du principe, il dit que nous concluons par abduction ce qui n'est pas un principe logique valide, mais acceptable, voire nécessaire, dans la connaissance expérimentale et c'est sur cela que repose l'induction. Ce qui n'exclue pas la nécessité d'une certaine certitude, d'où les trois critères qui suivent : le premier visant à limiter les délires de l'imagination, le second exigeant que la majeur du raisonnement abductive soit certaine, et enfin le troisième n'étant que le rasoir d'Ockham (chez qui peut-il faire débat ?).

                    Texte où l'on voit encore une fois que ce dont tu parles n'a rien à voir avec la Critique de la raison pure, son objectif dans cet livre étant de mettre la métaphysique sur le chemin sûr de la science, et, comme il le rappelle, la métaphysique n'admet aucune hypothèse tout comme les mathématiques (autant vouloir fonder les mathématiques sur des conjectures).

                    Après, si, de ce que je comprends, l'ukémisme-rationnailsme vise à développer ce qui est ici synthétiquement exposé, vous réinventez la roue (carrée ?). Ensuite vouloir mettre des probabilités dans tous les problèmes rencontrés au cours d'une vie relève d'une maladie que j'appellerai la mesurite aigu. Le callul des probabilités permet de développer une logique modale dans laquelle le possible est quantifié par un nombre réel. Mais il n'est pas nécessaire de mesurer le degré de possibilité pour raisonner modalement, et c'est même bien souvent impossible. Ce qui réduit grandement le champ d'extension d'une telle méthodologie pour atteindre la vérité.

                    Dernière remarque en passant. Ce que tu nommes la « technique interdite Kill the Buddha », j'appelle cela tout simplement le doute radicale cartésien. Dans ses Méditations métaphysiques, Descartes commence par mettre en doute la totalité de ce qu'il pense savoir: il se trouve alors dans un état où il n'est sûr de rien. Puis, pour sortir de cet état de doute radical, il cherche un point d'appui pour douter de son doute : comme il doute de tout, et donc également de sa propre existence, il réalise qu'il doit bien exister puisqu'il faut que ce qui doute existe : les pensées qui l'occupent doivent être les pensées de quelque chose qui existe. D'où son fameux cogito ergo sum, « je pense donc je suis ». À ce stade, il est assuré d'une seule chose : il existe; mais il se pourrait bien que ce qu'il appelait réalité, antérieurement à son Kill the Buddha, n'existe point et ne soit que le fruit de son imagination. Et là on a l'argument cartésien ultime qui lui permet de sortir de son solipsisme, argument qu'à mon avis ignorent beaucoup de ceux qui se disent cartésien et rationnaliste (je ne parle pas d'ukémisme, mais de son acception philosphique par opposition à l'empirisme) : pour pouvoir se convaincre de l'existence de la réalité, il passe par une preuve de l'existence de Dieu qui dans sa grande bonté ne peut être trompeur, d'où il déduira que la réalité existe. Si c'est pas beau tout ça ! On est encore loin, et bien en aval dans la chaîne des raisons, de se poser la question de savoir comment déterminer cette réalité via l'induction et le calcul des probabilités. Tu devrais Kill the Buddha sur l'ukémisme lui même. ;-)

                    Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                    • [^] # Re: Verbiage…

                      Posté par  . Évalué à 1 (+0/-1). Dernière modification le 04 février 2025 à 20:14.

                      Je ne veux pas me lancer dans l’exégèse de Kant ; je connais très mal le sujet, ma seule intention dans l’invocation du nom est de donner un exemple de théorie épistémologique, pas de me prétendre expert sur le sujet (ou d’en invoquer un).

                      Je vais juste rebondir sur quelques points qui me semblent intéressants :

                      Lorsqu'il dit que nous concluons de la vérité des conséquences (faits observés) à la vérité du principe, il dit que nous concluons par abduction ce qui n'est pas un principe logique valide, mais acceptable, voire nécessaire, dans la connaissance expérimentale et c'est sur cela que repose l'induction.

                      C’est une très bonne illustration de comment la théorie des probabilités est utilisée dans le projet ukemiste :

                      A => B signifie P(B | A) = 1

                      P(A | B) = P(B | A) P(A) / P(B) = P(A) / P(B) > P(A), autrement dit l’observation de B est un indice en faveur de A : l’abduction (pour le coup tu m’apprends le terme, même si je connaissais cette loi dans sa forme bayésienne) "bayésienne" est un principe valide.

                      (et le formalisme bayésien montre également clairement que P(A | B) = P(A) si P(B) = 1, autrement dit l’abduction n’est pas valide si B est une tautologie)

                      Ce que tu nommes la « technique interdite Kill the Buddha », j'appelle cela tout simplement le doute radicale cartésien

                      Non, non, le mot important et central dans la technique est cher. C’est l’observation très bête que quand tu es investi émotionnellement dans une hypothèse, c’est là que les biais importants se manifesteront le plus fortement, et qu’il va falloir être particulièrement impitoyable sur les justifications.

                      Je n’ai jamais été attiré par le genre de questionnement radical "est-ce que la réalité existe vraiment ?"

                      (chez qui peut-il faire débat ?)

                      Pas chez moi, mais pour me faire l’avocat du diable : comment définis-tu "simplicité" ? Je note que dans la formulation sur la page wikipedia on parle "d’entités" (je suppose d’entités ontologiques ?), et que ton extrait parle "d’hypothèses auxiliaires". Les deux ne sont pas équivalents. Quelle version est correcte ? Pourquoi ?

                      (si tu veux une approche ukemiste de cette question : https://www.lesswrong.com/posts/EL4HNa92Z95FKL9R2/a-semitechnical-introductory-dialogue-on-solomonoff-1 ; qui est également je pense un bon représentant de ce qu’est le projet ukemiste, à la relecture)

                      Ensuite vouloir mettre des probabilités dans tous les problèmes rencontrés au cours d'une vie relève d'une maladie que j'appellerai la mesurite aigu.

                      Ce n’est pas vraiment le but. Le but c’est des choses comme… l’exemple plus haut. Un raisonneur idéal (dans le sens de Cox) possède-t-il un principe d’abduction, ou est-ce une étape de raisonnement totalement invalide ? Peut on étudier plus en détails ce principe ? Est-ce utilisable en pratique, dans quelles conditions, et à quoi faut-il faire attention quand on l’utilise ?

                      Tu devrais Kill the Buddha sur l'ukémisme lui même. ;-)

                      L’ukemisme ne m’est pas tellement cher en vérité. C’est juste un outil. Je suis loin d’être à 100% satisfait par le pilier "théorie bayésienne des probabilités", le problème est que formaliser mes insatisfactions et arriver où elles mènent est largement au dessus de mes capacités mathématiques (actuelles ? soyons optimistes ?).

                      • [^] # Re: Verbiage…

                        Posté par  . Évalué à 4 (+2/-0).

                        Je ne veux pas me lancer dans l’exégèse de Kant ; je connais très mal le sujet, ma seule intention dans l’invocation du nom est de donner un exemple de théorie épistémologique, pas de me prétendre expert sur le sujet (ou d’en invoquer un).

                        Alors pourquoi en parles-tu ? D'où t'es venu l'idée de mentionner Kant comme projet similaire à ce que tu cherches à présenter ? Et non ! la Critique de la raison pure n'est pas une théorie épistémologique. D'où sors-tu cette idée ? Si la question de la possibilité de la connaissance expérimentale est aborder de façon secondaire dans l'œuvre, c'est loin d'être sa préoccupation fondamentale.

                        C’est une très bonne illustration de comment la théorie des probabilités est utilisée dans le projet ukemiste

                        Je le sais bien, c'est à peu près la seule chose que j'avais réussi à comprendre dans ton texte qui manque franchement de clarté (mais d'autres t'ont déjà expliqué le pourquoi du comment sur le sujet).

                        Mais tu as loupé le point important dans ce que j'avais écrit, je le remet en graissant ce qui compte :

                        Le calcul des probabilités permet de développer une logique modale dans laquelle le possible est quantifié par un nombre réel. Mais il n'est pas nécessaire de mesurer le degré de possibilité pour raisonner modalement, et c'est même bien souvent impossible. Ce qui réduit grandement le champ d'extension d'une telle méthodologie pour atteindre la vérité.

                        Le raisonnement abductif est valide en logique modale si l'on considére comme apodictique la majeure, assertorique la mineure et problématique la conclusion.

                        Ce que je dis c'est que étant donné une distribution de problabilité, elle détermine une logique modale sur un ensemble d'énoncés (ceux sur qui porte la distribution). Néanmoins, la réciproque est fausse. Toute logique modale ne dérive pas nécessairement d'une distribution de probabilité.

                        Conséquemment, présenter le calcul de probabilités et la loi de Bayes comme l'alpha et l'oméga d'une épistémologie révolutionnaire, comme si on avait trouvé là une panacée au problème de la vérité et la pierre philosopohale, ça me fait mourir de rire. C'est une thèse d'un ridicule profond.

                        si tu veux une approche ukemiste de cette question : https://www.lesswrong.com/posts/EL4HNa92Z95FKL9R2/a-semitechnical-introductory-dialogue-on-solomonoff-1 ; qui est également je pense un bon représentant de ce qu’est le projet ukemiste, à la relecture

                        Ce texte est ridicule, je n'ai pas pu aller jusqu'au bout. Je me suis arrêté ici :

                        Fairness requires that I congratulate you on having come further in formalizing 'do good epistemology' as a sequence prediction problem than I previously thought you might.

                        L'honnêteté m'oblige à dire que c'est de l'épistémologie bonne à jeter à la poubelle. La page wikipédia sur l'inférence inductive de Solomonoff précise pourtant :

                        For this equation to make sense, the quantities P [ D | T ] and P [D|A] must be well-defined for all theories T and A. In other words, any theory must define a probability distribution over observable data D. Solomonoff's induction essentially boils down to demanding that all such probability distributions be computable.

                        Peux-tu en toute bonne foi me définir une distribution de probabilité sur des événements comme « le Canada envahit les Étas-Unis » (qui devrait plutôt être mis à jour son sa forme converse « les États-Unis envahissent le Canada »), et qui plus est une distribution qui soit calculable sur machine ?

                        Je rappelle la première règle de bon usage des hyptohèses :

                        1 ° La possibilité de la supposition même.

                        Si, par exemple, pour expliquer les tremblements de terre et les volcans, on admet un feu souterrain, cette sorte de feu doit être possible, ne brûlât-il pas comme un corps enflammé. Mais, lorsqu’à l’aide de certains autres phénomènes, on veut faire de la terre un animal dans lequel la circulation d’un liquide intérieur produit la chaleur, c’est une pure fiction, et non une hypothèse ; car les réalités s’imaginent bien, mais non les possibilités : elles doivent être certaines.

                        règle qui a pour but de contenir les délires de l'imagination.

                        De plus, présenter la théorie de Solomonoff sous la forme d'une dialogue Platonicien où Socrate est joué par le personnage Blaine, je ne sais pas si je dois rire ou pleurer. Quand on réfléchit au problème que Blaine prétant pouvoir résoudre via cette théorie et au contenu de l'alégorie de la caverne, ça me donne plutôt envie de rire.

                        C’est l’observation très bête que quand tu es investi émotionnellement dans une hypothèse, c’est là que les biais importants se manifesteront le plus fortement, et qu’il va falloir être particulièrement impitoyable sur les justifications.

                        Drôle de technique interdite. Je préfère l'approche philosophique kantienne : dans le doute je m'abstiens de juger définitivement, si j'affirme c'est que j'ai été impitoyable sur les justifications. Autrement dit : ne jamais asserter sans examen approfondi des raisons qui mènent à la conclusion, pour tout le reste rester au stade problématique sur le plan de la modalité (sans recourir aux calcul des probabilités là où il n'est pas applicable ;-). Et loin d'être interdite, cette technique est le degré zéro de ce que l'on peut appeler rigueur intellectuelle.

                        Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                        • [^] # Re: Verbiage…

                          Posté par  . Évalué à 1 (+0/-1).

                          Tu aurais pu écrire "tl;dr", ça nous aurait épargné à tous les deux des efforts.

                          Conséquemment, présenter le calcul de probabilités et la loi de Bayes comme l'alpha et l'oméga d'une épistémologie révolutionnaire, comme si on avait trouvé là une panacée au problème de la vérité et la pierre philosopohale, ça me fait mourir de rire. C'est une thèse d'un ridicule profond.

                          Tu surinterprètes (mais je suis prêt à prendre une part de responsabilité là dessus). Un nouvel outil qui donne de nouveaux éclairages, pas la panacée. Je crois que j’ai écrit plusieurs fois ce terme maintenant : "outil".

                          Peux-tu en toute bonne foi me définir une distribution de probabilité sur des événements comme « le Canada envahit les Étas-Unis » (qui devrait plutôt être mis à jour son sa forme converse « les États-Unis envahissent le Canada »), et qui plus est une distribution qui soit calculable sur machine ?

                          C’est explicité. Plus loin. Je vais faire un petit effort et te citer le passage exact, même si vu le ton de ta réponse, je pense que c’est peine perdue.

                          A single hypothesis inside the Solomonoff mixture would be a computer program that took in a series of video frames, and assigned a probability to each possible next video frame. Or for greater simplicity and elegance, imagine a program that took in a sequence of bits, ones and zeroes, and output a rational number for the probability of the next bit being '1'. We can readily go back and forth between a program like that, and a probability distribution over sequences.

                          .

                          De plus, présenter la théorie de Solomonoff sous la forme d'une dialogue Platonicien où Socrate est joué par le personnage Blaine, je ne sais pas si je dois rire ou pleurer

                          Vraiment, tu ne peux pas imaginer à quel point cette phrase me chagrine.

                          Que tu sois d’accord ou non sur la conclusion finale, le sujet abordé me semble extrêmement intéressant pour le genre de personne qui s’intéresse à ces questions. Dont j’ai l’impression que tu fais partie. J’ai écrit en grande partie de journal pour atteindre ce genre de personne, en mode "hey : il y a des choses intéressantes et nouvelles à regarder là bas".

                          Le -30 sur le journal ne me choque pas tellement. Il est visiblement mal écrit (ma faute), mal expliqué (ma faute), sur un sujet relativement ésotérique (je savais ça en avance, mais j’ai considéré que ça valait tout de même le coup d’essayer). Je ne peux m’en prendre qu’à moi-même.

                          Par contre m’intéresse, avoir comme réaction "le sujet mais j’aime pas la forme donc tl;dr"… comment dire… ça me met pour le coup vraiment le moral dans les chaussettes.

                          • [^] # Re: Verbiage…

                            Posté par  . Évalué à 3 (+1/-0).

                            Je vais faire un petit effort et te citer le passage exact, même si vu le ton de ta réponse, je pense que c’est peine perdue.

                            C'est effectivement peine perdue. ;-) Vous considérez sérieusement cela comme une définition d'une distribution de probabilité sur une famille d'événements du type « le Canada envahit les États-Unis » ? À ce stade, il faut songer à consulter ! Les bras m'en tombent /o\

                            C'est du même acabit que l'approche « économiste » que tu décris dans ton autre commentaire :

                            Les économistes ont rencontré ce problème : si les préférences sont de la forme (je préfère A à B), quelle est la validité de les représenter par des nombres réels (fonction d’utilité) ?

                            La réponse est: si on se limite aux agents rationnels (entre autre: dont les préférences forment un ordre total), les deux sont équivalents.

                            Ce genre d'énoncé contient bien plus d'informations sur celui qui l'énonce que sur la réalité qu'il cherche à modéliser. Je suis étonné que Von Neumann se soit fourvoyé dans ce genre de chose.

                            Ensuite le résultat n'est pas si surprenant : si je présuppose des probabilités à l'entrée (voir la liste des axiomes) alors j'ai des probabilités à la sortie. On n'est pas loin de la tautologie. Le problème étant de quel droit puis-je poser l'axiome 3 ? Sur le plan mathématique, on peut poser les axiomes que l'on veut tant que l'on évite la contradiction. Mais lorsque l'on prétend l'appliquer à la réalité, je pose la question typiquement kantienne : Quid juris ? De quel droit ? Où se trouve la déduction transcendentale qui m'autorise à appliquer cette connaissance pure et a priori à la réalité expérimentale ? Et là on quitte le champ des mathématiques, pour celui de la philosophie.

                            Que tu sois d’accord ou non sur la conclusion finale, le sujet abordé me semble extrêmement intéressant pour le genre de personne qui s’intéresse à ces questions. Dont j’ai l’impression que tu fais partie. J’ai écrit en grande partie de journal pour atteindre ce genre de personne, en mode "hey : il y a des choses intéressantes et nouvelles à regarder là bas".

                            Oui j'en fait partie, ce sont des interrogations typiquement philosophique. Seulement, sur l'usage des probabilités, il n'y a rien de neuf sous le soleil si ce n'est une extension de l'usage qui est à la limite de me glacer le sang et qui me semble anti-philosophique au plus haut point.

                            Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                            • [^] # Re: Verbiage…

                              Posté par  . Évalué à 1 (+0/-1).

                              À ce stade, il faut songer à consulter ! Les bras m'en tombent /o\

                              Quel argumentaire puissant. Je ne peux plus que m’avouer vaincu, je suppose.

                              Ce genre d'énoncé contient bien plus d'informations sur celui qui l'énonce que sur la réalité qu'il cherche à modéliser. Je suis étonné que Von Neumann se soit fourvoyé dans ce genre de chose.

                              Ha, on progresse vers "von Neumann s’est fourvoyé", sans justification.

                              Je vais être méchant, mais je pense que pour le coup c’est mérité : quand vous dites "von Neumann s’est fourvoyé" sans justification et "Ray Solomonoff s’est fourvoyé" sans justification (et je suppose que je peux ajouter Jaynes, Cox et de Finetti à la liste, même si ça n’a jamais été dit explicitement ?), d’un seul coup l’argument "Yudkowsky, je ne l’ai pas lu jusqu’au bout, mais il se fourvoie" me semble d’un seul coup… quelque peu… bref, disons qu’il se retrouve en bonne compagnie.

                              Ensuite le résultat n'est pas si surprenant : si je présuppose des probabilités à l'entrée (voir la liste des axiomes) alors j'ai des probabilités à la sortie. On n'est pas loin de la tautologie.

                              L’introduction des probabilités n’est pas faite à l’axiome 3, mais dans la définition d’une lotterie, plus haut. Et le but de l’axiome 3 n’est pas d’avoir "des probabilités à la sortie". Ce n’est pas non plus le but, ou le résultat du théorème.

                              Oui, le théorème assume que la théorie des probabilités est correcte, dans le sens où la démonstration du théorème se base dessus, mais c’est utilisé en tant qu’étape intermédiaire, pas "en tant que tautologie". C’est l’étape suivante ? "Toute théorie faisant usage de la théorie des probabilités est invalide" ? Encore une fois, je crains qu’avec une telle règle que les "théories invalides" se retrouvent en bonne compagnie.

                              il n'y a rien de neuf sous le soleil

                              Par pitié, rassurez-moi. Dites moi que je vous ai terriblement mal interprété.

                              Parce que mon interprétation de tout ça c'est : utiliser Kant (mort en 1804), pour dire que les résultats de von Neumann (1947), Cox (1946), Jaynes (je ne trouve pas la date, disons 1960), et Solomonoff (1964) sont "fourvoyés, les pauvres".

                              Sans chercher à les comprendre (parce que "j’aime pas le style"), juste a priori ?

                              Qu’est-ce qu’il y a de philosophique dans cette attitude, exactement ?

                        • [^] # Re: Verbiage…

                          Posté par  . Évalué à 0 (+0/-2). Dernière modification le 05 février 2025 à 18:02.

                          Zut, j’ai oublié de répondre à un point technique intéressant :

                          Le calcul des probabilités permet de développer une logique modale dans laquelle le possible est quantifié par un nombre réel. Mais il n'est pas nécessaire de mesurer le degré de possibilité pour raisonner modalement, et c'est même bien souvent impossible. Ce qui réduit grandement le champ d'extension d'une telle méthodologie pour atteindre la vérité.

                          Les économistes ont rencontré ce problème : si les préférences sont de la forme (je préfère A à B), quelle est la validité de les représenter par des nombres réels (fonction d’utilité) ?

                          La réponse est: si on se limite aux agents rationnels (entre autre: dont les préférences forment un ordre total), les deux sont équivalents.

                          Jaynes présente un résultat similaire (dans l’idée), annexe A3 de Probability Theory.

              • [^] # Re: Verbiage…

                Posté par  . Évalué à 1 (+0/-1).

                Ça devrait être possible d'exprimer clairement les objectifs en quelques mots, sinon perso ça va être compliqué de me motiver à lire un texte long.

                Essayons de parler informaticien : Identifier les "bugs" dans les modes de raisonnements "naturels" des êtres humains. Trouver des workaround. Deux bases pour identifier ces bugs : la psychologie (biais cognitifs) et la théorie des probabilités (usage plus avancé, mais par exemple : https://www.lesswrong.com/tag/conservation-of-expected-evidence).

                Ici si c'est pas un projet scientifique (les scientifiques n'ont a priori pas de leçons à recevoir sur comment faire leur boulot) c'est quoi, un projet politique ?

                Essentiellement philosophique, plus précisément une épistémologique.

                Le projet que Kant avait en écrivant sa "Critique de la Raison Pure", grosso-modo.

                • [^] # Re: Verbiage…

                  Posté par  . Évalué à 4 (+1/-0).

                  Identifier les "bugs" dans les modes de raisonnements "naturels" des êtres humains.

                  Ça ressemble à un programme de recherche, ça.

                  Essentiellement philosophique, plus précisément une épistémologique.

                  Du coup, ça n'est donc pas un programme de recherche :-)

                  Je ne suis pas bien plus avancé.

                • [^] # Re: Verbiage…

                  Posté par  (site web personnel, Mastodon) . Évalué à 3 (+0/-0).

                  Le projet que Kant avait en écrivant sa "Critique de la Raison Pure", grosso-modo.

                  Que tu as lu entièrement j'imagine et compris.

                  « Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.

                  • [^] # Re: Verbiage…

                    Posté par  . Évalué à 4 (+2/-0).

                    J'en doute fortement. Après une lecture régulière et approfondie de l'ouvrage depuis plus de 25 ans, je pense pouvoir affirmer que je l'ai compris. Compréhension que ne semble pas posséder l'auteur du journal. Quiconque a lu le livre sait pertinemment que tout recours à la psychologie ou au probabilité, pour aborder les problèmes qu'il y traite, doit être considéré comme nul et non avenu d'un point de vue méthodologique. Kant ne pouvait être on ne peut plus explicite là-dessus dans sa préface à la première édition :

                    Pour ce qui est de la certitude, voici la loi que je me suis imposée à moi-même : dans cet ordre de considérations, l’opinion est absolument proscrite, et tout ce qui ressemble à une hypothèse est une marchandise prohibée qui ne doit être mise en vente à aucun prix, mais qu’on doit saisir dès qu’on la découvre. En effet, toute connaissance qui a un fondement à priori est marquée de ce caractère, qu’elle veut être tenue pour absolument nécessaire ; à plus forte raison en doit-il être ainsi d’une détermination de toutes les connaissances pures à priori qui doit servir elle-même de mesure et d’exemple à toute certitude apodictique (philosophique).

                    Kant, Critique de la Raison Pure

                    Autrement dit, toute proposition dont la mesure de probabilité n'est pas égale à l'unité (certitude apodictique) doit être proscrite dans toute entreprise de cette sorte.

                    J'avais pour projet, au départ, de faire une commentaire plus long après la lecture du journal pour réagir sur ce qu'il y dit sur Kant :

                    L’Ukemisme n’est pas un ensemble de conclusion philosophiques comme pourrait l’être, par exemple, le Kantisme.

                    Le kantisme est plus une méthode d'investigation philosophique qu'un ensemble de conclusions (bien qu'il y ait, dans l'ensemble de l'œuvre critique, des solutions que Kant considérait comme définitives à des problèmes métaphysiques légués par la tradition). Je verrai si je trouve le temps de développer le sujet, tout en le mettant en rapport avec le problème de l'arrêt, l'IA et l'analyse formelle de code informatique (preuves assistées par ordinateur, type checking, raisonnement automatique…) pour traiter de sujets plus familiés au lectorat du site.

                    Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                • [^] # Re: Verbiage…

                  Posté par  . Évalué à 3 (+0/-0).

                  Et dans quel cadre tu veux appliquer cette loi ? Ta vie personnelle ou tu modélises une décisions en mettant un poids motivé sur chacune des variables ? La décision politique avec genre un "bureau de l'attribution des probabilité à un ensemble de variables", genre l'INSEE ? Les protocoles scientifiques ? Les cabinets de conseil, l'assemblée ?

                  Pour quel projet politique, juste comme but en soi d'appliquer ces loi statistiques (valables dans un cadre mathématique précis) ?

                  • [^] # Re: Verbiage…

                    Posté par  . Évalué à 1 (+0/-1).

                    Et dans quel cadre tu veux appliquer cette loi ? Ta vie personnelle ou tu modélises une décisions en mettant un poids motivé sur chacune des variables ?

                    Dans ma vie personnelle, évidemment. Principalement dans les exercices de calibration.

                    • [^] # Re: Verbiage…

                      Posté par  . Évalué à 3 (+0/-0).

                      Exemple ?

                    • [^] # Re: Verbiage…

                      Posté par  . Évalué à 3 (+0/-0).

                      (pardon je répond une deuxième fois) dans la vie perso, sachant que le cerveau est parfois considéré comme une machine à prédire Bayésienne (en tout cas c'est une piste intéressante des neuroscience actuelle https://www.sorbonne-universite.fr/actualites/lesprit-est-il-une-machine-predictive-introduction-la-theorie-du-cerveau-bayesien par exemple), les biais induits … sont également des conséquences des limites de ce type d'approche ?

                      Ce serait donc un peu étrange d'essayer d'éliminer les biais … par le même type d'approche qui les produisent. Surtout dans le cadre de sa vie personnelle ou la quantité d'informations qu'on peut ingurgiter à titre personnel n'est pas nécessairement très importante, et donc l'espoir de corriger ses propres biais n'est pas énorme. Il faut d'autres approches pour intégrer des données à large échelle pour réduire les erreurs …

                      • [^] # Re: Verbiage…

                        Posté par  . Évalué à 1 (+0/-1).

                        Le problème de l’inférence Bayésienne est NP-complet. Même si le cerveau était grosso-modo une machine Bayésienne (ce qui me semble extrêmement douteux, mais je ne suis pas neuroscientiste), il ne pourrait l’être qu’approximativement.

                        Ce serait donc un peu étrange d'essayer d'éliminer les biais … par le même type d'approche qui les produisent.

                        Ce serait extrêmement surprenant. Cox's Theorem. La plupart des biais cognitifs violent la troisième condition “If the plausibility of a proposition can be derived in many ways, all the results must be equal”.

                        Pas impossible je suppose, on est jamais à l’abri de découvrir une contradiction dans la théorie des probabilités après tout. Mais extrêmement surprenant.

                        D’où le choix de la théorie des probabilités comme un des deux piliers.

                        • [^] # Re: Verbiage…

                          Posté par  . Évalué à 3 (+0/-0).

                          Je sais pas trop ce que veux dire formellement exactement "le problème de l'inférence Bayesienne est NP-complet", mais en tout cas je ne vois pas en quoi en quoi ça voudrait dire qu'en pratique on peut faire mieux, méthodologiquement et humainement, que d'approcher la solution, sauf sur des problèmes excessivement petit et en mettant une puissance de calcul phénoménale sur la table pour les problèmes de taille un peu conséquente.

                          Autrement dit, quoi qu'on fasse c'est difficile d'échapper au fait que la rationalité est de fait limitée (quoi qu'on mette derrière ce mot d'ailleurs) et que donc c'est rarement possible d'aborder le problème de manière exacte. Autrement dit, des "biais" (encore une fois quoi qu'on mette derrière ce mot) viennent simplement du fait que la rationalité est limitée et qu'on ne va pas réfléchir indéfiniment et exhaustivement à tous les problèmes.

                          • [^] # Re: Verbiage…

                            Posté par  . Évalué à 2 (+0/-0).

                            Je sais pas trop ce que veux dire formellement exactement "le problème de l'inférence Bayesienne est NP-complet"

                            https://bayesian-programming.cnrs.fr/computational-complexity-of-bayesian-inference/

                            Autrement dit, quoi qu'on fasse c'est difficile d'échapper au fait que la rationalité est de fait limitée

                            Tout à fait. Je répondais uniquement au point "si les biais viennent de la théorie bayésienne des probabilités, il y a peu d’espoir d’utiliser la théorie bayésienne des probabilités comme guide pour lutter contre".

                            Les biais viennent très probablement des approximations nécessaires.

                            • [^] # Re: Verbiage…

                              Posté par  . Évalué à 3 (+0/-0).

                              Les biais viennent très probablement des approximations nécessaires.

                              J'aurai tendance à penser que si un raccourcis est efficace dans une approximation d'inférence bayésienne, il sera efficace dans d'autres cas également, et que le même type d'apprentissage est largement susceptible de générer le même type de biais. Après ça peut être un point de départ (on part d'un modèle qui n'est pas vierge, qui peut être différent suivant la méthode, c'est vrai) mais le point de départ est "a priori" choisit pour être efficace en terme de prédiction dans les cas qu'on est susceptibles de rencontrer communément.

                              • [^] # Re: Verbiage…

                                Posté par  . Évalué à 1 (+0/-0).

                                Dès qu'on est pas en situation relativiste on utilise Newton. On ne connaît déjà pas de solution analytique au-delà de 2 corps dans ce cadre… les calculs en RG sont infâmes et on ne connaît que très peu de solutions (pas même avec 2 corps, c'est balo pour une théorie de la gravitation).

                                Pour le reste je me garderai bien de commenter le journal. Ça va ruer dans les brancards si je m'y amuse.

                                • [^] # Re: Verbiage…

                                  Posté par  . Évalué à 1 (+0/-0).

                                  Oups je réponds au mauvais commentaire…

                                • [^] # Re: Verbiage…

                                  Posté par  . Évalué à 3 (+0/-0).

                                  On ne connaît déjà pas de solution analytique au-delà de 2 corps dans ce cadre…

                                  Mais c'est "juste" un problème de maths. C'est très embêtant, mais ça n'est pas lié au processus scientifique… enfin, pas directement. C'est plus pratique et élégant d'avoir des solutions analytiques, mais ça ne devrait pas (trop) conditionner le choix du modèle.

                                  En pratique, il est parfois possible de bricoler des solutions analytiques avec des fonctions "spéciales", donc la limite entre analytique et non-analytique est souvent floue.

                                  • [^] # Re: Verbiage…

                                    Posté par  . Évalué à -1 (+0/-2).

                                    C'est totalement lié au process scientifique. Pas de prédiction des trous noirs sans métrique de Schwartzild.

                                    Navier-Stockes est un problème du millénaire au même titre que Yang-Mills. 2 problèmes analytiques, et très abstrait même pour le second. Ce qui se joue dans les deux cas c'est très directement la légitimité scientifique des équations qui est en jeu (la moindre des choses étant qu'elles acceptent des solutions si elles veulent prétendre décrire le réel).

                                    Mais ça vaut aussi pour des simulations numériques. On s'amuse pas à mettre de la RG là où la mécanique newtonienne est largement suffisante. Sauf que les simus numériques ça à aussi de grosse limite (pour dire de manière très schématique on s'éloigne encore plus de la théorie sous-jacente, par ajout de nouvelles hypothèses et donc ça peut poser pas mal de problèmes épisto - sur-détermination du modèle, impact des hypothèses, conformité à la réalité).

                                    Après c'est sûr que si tu fondes ton épisto. en fonction de ce qui t'arranges et que tu rejettes tout ce qui rentre pas dans tes cases…

                                    • [^] # Re: Verbiage…

                                      Posté par  . Évalué à 2 (+1/-2). Dernière modification le 04 février 2025 à 18:39.

                                      C'est totalement lié au process scientifique. Pas de prédiction des trous noirs sans métrique de Schwartzild.

                                      Mais ça n'a rien à voir avec le développement analytique. Les intégrales quelconques de Gaussiennes n'ont pas de solutions analytiques, et pourtant les statistiques se sont construites sur les approximations numériques et sur la définition de fonctions spéciales. D'ailleurs, les statistiques sont blindées de fonctions spéciales (gamma, erf, etc), et tu ne peux pas raisonnablement prétendre que les statistiques manquent de légitimité scientifique!

                                      De manière plus générale, je connais très peu de modèles "modernes" (sujets actuels de recherche) qui admettent des solutions analytiques. Au mieux, diverses techniques peuvent amener à proposer des approximations analytiques qui sont parfois utiles pour calculer une solution approximative ou étudier les propriétés du modèle, mais la résolution du modèle est fondamentalement numérique. D'ailleurs, de nombreux modèles qui ont une solution analytique sont en fait résolus numériquement, parce que la solution analytique fait appel à une construction difficilement calculable (suite infinie, rapport de fonctions qui deviennent très petites ou très grandes, etc). Au final, de toutes manières, toute application d'une formule analytique fait appel à une approximation numérique, prétendre que le statut de sqrt(2) et de gamma(2) est fondamentalement différent est assez pédant, non?

                                      • [^] # Re: Verbiage…

                                        Posté par  . Évalué à -1 (+1/-3). Dernière modification le 04 février 2025 à 19:34.

                                        Oulaaaaaaa y'a quelques lacunes mathématiques qui traînent là. On sort pas des fonctions analytiques du chapeau, il y a des preuves d'existence derrière tout ça¹ (et pas que).

                                        Pour le reste, je confirme : 《 [tu] connais très peu… 》. Encore une fois si tu te restreins… à la recherche appliquée…

                                        Sur YouTube tu as l'espace de sciences de Rennes, entracte sciences, Scientia Egregia (juste pour voir un peu ça peut être de la recherche fondamentale en physique, ça pique sévère), le musée de l'homme, et j'en passe et des meilleurs. Faut un peu s'ouvrir l'esprit. T'as qu'est-ce que la science de Chalmers pour une introduction correcte à la sciences (très loin des imposteurs qui pullulent ce journal, il en existe une lecture critique sur YouTube mais c'est pas fait pour tout le monde…). Après quand je vois le rayon rachitique consacré aux sciences à la Fnac, je suis pas surpris. On vit quand même dans une drôle d'époque. Alors que la connaissance n'a jamais été aussi accessible et n'a jamais eu autant d'importance (sciences et pouvoir de Stengers).

                                        -‐-
                                        ¹ si jamais un jour t'exhibes une densité de probabilité non intégrable à un mathématicien, tu risques de recevoir en retour quelques légers quolibets ;)

                                        • [^] # Re: Verbiage…

                                          Posté par  . Évalué à 4 (+2/-1).

                                          Oulaaaaaaa y'a quelques lacunes mathématiques qui traînent là.

                                          Le problème fondamental avec a discussion par forum interposé est que tu peux mal calibrer tes interlocuteurs. Par exemple, je pensais que tu étais enthousiaste mais un peu flou sur les concepts, mais je ne m'attendais pas à ce que tombes dans la cuistrerie.

                                          Faut un peu s'ouvrir l'esprit.

                                          … et imaginer qu'on puisse par hasard sur un forum de linuxfr tomber sur des gens qui s'y connaissent un peu en modélisation et en recherche fondamentale?

                                          On sort pas des fonctions analytiques du chapeau, il y a des preuves d'existence derrière tout ça

                                          En fait, je pense que tu n'utilises pas correctement le concept de "solution analytique". Quand tu prends le modèle Newtonien à deux corps réduit, tu poses tes équations qui décrivent le mouvement de tes corps (enfin de ton petit corps qui gravite autour du gros), et tu peux résoudre analytiquement le modèle, c'est à dire que tu peux trouver une expression mathématique qui te donne x(t) comme une fonction de t qui n'utilise qu'une liste restreinte de fonctions mathématiques "usuelles". Quand on dit que le problème à deux corps général (ou à trois corps) n'a pas de solution analytique, c'est qu'on pose les équations de la même manière, mais on ne peut pas exprimer x(t) avec des fonctions mathématiques. Mais x(t) peut évidemment être calculé, c'est juste que le calcul fait appel à une procédure numérique.

                                          Ça ne pose pas de problème particulier, c'est juste que tu ne peux pas écrire la solution, et qu'il faut utiliser des méthodes un peu différentes pour la décrire.

                                          très loin des imposteurs qui pullulent ce journal

                                          Plutôt que de parler d'imposture, qui est une notion vraiment agressive, distinguer déja les amateurs pourrait être intéressant. Un peu pareil qu'en programmation, il y a des gens qui s'y intéressent sur leur temps libre, et des gens qu'on paye pour leurs compétences dans ce domaine; il y a donc de fortes chances pour que les employeurs pas complètement débiles préfèrent payer des gens qui s'y connaissent réellement, plutôt que des gens qui pensent s'y connaitre. Pour la science, c'est la même chose, il y a des gens qui sont payés pour en faire, et des gens qui regardent des vidéos Youtube parce que ça les intéresse.

                                          Pour faire un parallèle un peu osé, la science c'est un peu comme le sexe. C'est pas parce que tu as lu plein de bouquins ou vu plein de vidéos sur Youtube que tu as la moindre idée de ce que c'est en vrai. Donc, tu fais des études, un master, une thèse, tu portes des programmes de recherche, publies, présentes tes travaux à des conférences internationales, et après, tu peux dire que tu sais en pratique comment tout ça fonctionne (ou plutôt, tu peux évaluer à quel point c'est différent de ce qu'il y a écrit dans les livres). Et si tu n'as pas fait ça, tu peux éviter d'utiliser le terme d'"imposteur", parce que c'est le genre de mots qui peuvent facilement te revenir dans les dents plus vite que tu n'avais prévu.

                                          si jamais un jour t'exhibes une densité de probabilité non intégrable à un mathématicien, tu risques de recevoir en retour quelques légers quolibets

                                          Parler de statistiques à un mathématicien? Tu en as marre de la vie?

                                          Sur le fond: "de solution analytique". Évidemment qu'une densité de probabilité est intégrable, mais elle n'est pas forcément intégrable analytiquement. Il n'existe pas de formule mathématique ne faisant pas intervenir de fonctions spéciales pour exprimer l'intégrale de exp(-x2) entre a et b, avec a et b quelconques. Ça ne pose pas de problème, c'est juste que tu devras te contenter d'une fonction spéciale pour intégrer des Gaussiennes tronquées.

                                          Au risque de te faire faire des cauchemars, il n'existe pas non plus de formule analytique pour le périmètre d'une ellipse!

                                          Donc je pense que tu n'utilises pas le mot "analytique" comme il faut.

                                          • [^] # Re: Verbiage…

                                            Posté par  . Évalué à -1 (+0/-2). Dernière modification le 05 février 2025 à 22:43.

                                            Surtout n'hésites pas à donner ta définition précise de solution analytique avec les sources qui vont bien pour confirmer ton usage.

                                            Quant au reste de ton charabia. Rien compris.

                                            (enfin de ton petit corps qui gravite autour du gros)

                                            Ahah. Bon ok je comprends mieux… (mais c'est moi qu'est flou hein…)

                                            • [^] # Re: Verbiage…

                                              Posté par  . Évalué à 3 (+1/-0).

                                              "Pas de solution analytique" est parfois utilisé informellement comme raccourci pour "n’est pas exprimable en termes de fonctions élémentaires". Je pense que c'est de ça dont parle arnaudus.

                                              • [^] # Re: Verbiage…

                                                Posté par  . Évalué à 4 (+1/-0).

                                                Faire croire qu'on a des divergences sur le vocabulaire est un moyen comme un autre de se sortir d'une discussion scientifique vs pseudo-scientifique, mais il n'a jamais existé aucune autre signification de "solution analytique" (en sciences dures hein, parce que dans le milieu des RH/consulting ça veut dire autre chose—en fait, pas grand chose, mais ça fait classe de singer le jargon scientifique).

                                                Après, wikipédia redirige "solution élémentaire" vers "expression de forme fermée", qui me semble être un calque maladroit de l'anglais "closed-form expression", qui est pour le coup la manière dont je traduirais "solution analytique". Mais on s'en fout un peu, on parle de la même chose, il n'y a aucune ambiguité dans le contexte de la discussion.

                                                En fait, la seule discussion qu'on peut avoir, c'est sur la notion de fonction élémentaire, parce que ça n'est pas évident au premier abord pourquoi le logarithme est considéré comme une fonction élémentaire alors qu'il s'exprime par une intégrale. L'article de la wikipédia anglaise https://en.wikipedia.org/wiki/Closed-form_expression a un tableau intéressant qui explicite des nuances entre "closed-form", "analytic", et "mathematical expression", en fonction de si tu acceptes les sommes infinies, les fonctions spéciales, etc. Mais je ne suis même pas sûr que ça représente bien l'usage, puisqu'il est suggéré qu'une solution faisant intervenir une fonction spéciale est "analytic" mais pas "closed-form", ce qui me semble fondamentalement problématique: les fonctions spéciales sont "juste" des intégrales compliquées qui reviennent souvent et dont l'usage a fixé le nom, mais rien de les distingue d'une intégrale sans solution "élémentaire" que tu définirais toi-même. Du coup, le tableau ne me semble pas très cohérent, il a en fait trop de colonnes (ou bien la ligne "integral" n'est pas bien remplie).

                                                Bon, bref, pour remettre les choses dans l'ordre, Nicolas affirme que le modèle général à 2 corps n'a pas de solution analytique, prend tout le monde de haut, affirme que la discussion est pourrie par des imposteurs, conseille de regarder des vidéos de vulgarisation scientifique sur Youtube, et on finit par se rendre compte qu'il n'avait absolument aucune idée de ce que pouvait bien vouloir dire "solution analytique" dans le contexte même qu'il a évoqué. Dans quelle mesure une telle discussion peut être constructive?

                                                • [^] # Re: Verbiage…

                                                  Posté par  . Évalué à 3 (+2/-0).

                                                  je traduirais "solution analytique"

                                                  Toujours pas de sources sur l’usage en cours (pas toi, ta petite personne, ta traduction). C’est le seul truc qui m’intéresse, c’est le seul truc sur lequel je te demande des sources. Si je te demande des sources, c’est bien parce que je suis prêt à me remettre en cause.

                                                  Si je fais une simple recherche et que je regarde un peu ce qu’il en est :

                                                  https://lite.duckduckgo.com/lite/search?kd=-1&kg=g&k1=-1&q=analytical+solution

                                                  Et en admettant ta définition de solution analytique (ce qui n’est pas du tout acquis), sur ton lien wikipedia :

                                                  However, the set of basic functions depends on the context.

                                                  However, the class of expressions considered to be analytic expressions tends to be wider than that for closed-form expressions. In particular, special functions such as the Bessel functions and the gamma function are usually allowed, and often so are infinite series and continued fractions. On the other hand, limits in general, and integrals in particular, are typically excluded. [citation needed]

                                                  Ce qui est balo.

                                                  Pour le reste, je m’en contrebalance. Tu peux bien penser que je te prends de haut, mais désolé pour ton égo, il y a une hiérarchie du savoir. J’ai donné quelques exemples incontestables et liens pour ceux qui sont curieux de savoir ce qu’est la science moderne et l’importance du raisonnement qualitatif en recherche, très loin de toute application/solution numérique. Ce qui était ma thèse de départ. Ce qui avait été dit m’avait choqué, je répondais juste sur ce point (et pas sur le journal, cf. infra) en prenant exemple dans mon domaine de compétence précis (et pourtant j’en ai bouffé de la simulation numérique, suffisament pour avoir un recul critique là-dessus) et des domaines connexes (la physique moderne pioche largement dans l’algèbre moderne, ou algèbre générale, la topologie différentielle, etc. ce qui la place à un niveau d’abstraction supplémentaire, nécessaire si on veut faire de la recherche fondamentale de manière sérieuse).

                                                  Tu dis :

                                                  [J’]affirme que la discussion est pourrie par des imposteurs

                                                  Non, tu m’as compris de travers, je parle pourtant bien du journal, pas des commentateurs. Quand tu vas voir le pedigree des gens qui sont référencés dans le journal, ça fait peur. On est plus sur de l’autoproclamé chercheur, le “toutoulogue” qui saute du Covid à l'IA (tout ce qui peut amener de l’audience…), peu d’institutions sérieuses (universités, labos), essentiellement du post de blog, des “instituts”, privés, et ainsi de suite. Tous les redflags s’allument, ça pue à 1000km à la ronde. C’est sûr qu’avec ça on part sur de mauvaises bases, mais les commentateurs sont plutôt sceptiques…

                                                  Maintenant, si on part de présupposés épistémologique qui sont juste complètement dépassés (empirisme, primauté du quantitatif sur le qualitatif, idéalisme philosophique), je vois assez bien comment on aboutit à ce genre de dérive. D’où l’importance déjà de savoir ce qui se fait dans le domaine, en se sourçant auprès de gens un minimum (re)connus.

                                                  • [^] # Re: Verbiage…

                                                    Posté par  . Évalué à 3 (+1/-0). Dernière modification le 06 février 2025 à 15:24.

                                                    Non, tu m’as compris de travers, je parle pourtant bien du journal, pas des commentateurs. Quand tu vas voir le pedigree des gens qui sont référencés dans le journal, ça fait peur. On est plus sur de l’autoproclamé chercheur, le “toutoulogue” qui saute du Covid à l'IA (tout ce qui peut amener de l’audience…), peu d’institutions sérieuses (universités, labos), essentiellement du post de blog, des “instituts”, privés, et ainsi de suite. Tous les redflags s’allument, ça pue à 1000km à la ronde

                                                    Je vois beaucoup de mépris, bien peu de substance. Essayons de répondre tout de même, même si ce message me donne bien peu de points d’accroche pour discuter calmement et objectivement.

                                                    1. Oui, je cite principalement un travail de vulgarisation (lesswrong). Yudkowsky et les Séquences plutôt que "tapez vous Jaynes et Solomonoff et Tversky et Kahneman" (et tous les autres, il n’y a pas que ces quatre noms). Je ne vois pas en quoi c’est problématique.

                                                    2. Je trouve le mépris pour l’amateurisme assez déplacé. Il n’y a pas besoin d’avoir un permis pour apprendre, réfléchir et partager ses résultats. C’est même un des grands cadeaux d’internet. La communauté open-source est fondée là dessus — il ne viendrait à personne l’idée de dire "pour contribuer, il va falloir que vous me présentiez votre diplôme d’ingénieur". La communauté scientifique a eu son lot de contributions "d’amateurs". Et ça continue, d’ailleurs (BB(5), Marjorie Rice, pour ne citer que les plus connus).

                                                    (empirisme, primauté du quantitatif sur le qualitatif, idéalisme philosophique)

                                                    Tu es bien le premier à émettre la critique "trop d’empirisme". En un sens ça fait franchement plaisir, mais je crois que tu vas un peut trop loin dans la flatterie — je pense que la critique inverse, pas assez d’empirisme malgré les aspirations à plus d’empirisme est plus correct.

                                                    Et je vois mal comment tu peux conjuguer "trop d’emphase à la fois sur l’idéalisme d’un côté, et sur l’empirisme et le quantitatif de l’autre". Ça me semble quelque peu antinomique. Mais j’ai possiblement mal compris ton propose.

                                                    Et de plus : qu’as-tu lu exactement pour de permettre de juger aussi rapidement du contenu ? Parce que si c’est juste mon journal, je crois qu’il est assez clair à présent qu’il est mal écrit, mal expliqué, et que se baser uniquement dessus pour se faire une idée globale des choses est pour le moins malavisé.

                                                    Pour conclure : pour moi, l’esprit critique, ça demande en premier lieu d’essayer de comprendre ce qu’on veut critiquer, pas rejeter réflexivement. Tu es tout à fait dans ton droit de dire : "ça ne m’inspire pas confiance, je ne vais pas perdre mon temps là dessus", et je serai le premier à comprendre (voire approuver ; le temps est précieux). Par contre, "ça ne m’inspire pas confiance, donc c’est des charlatans" me semble aller un peu vite en besogne. Une variante du Bulvérisme.

                                                    (et je dispute pas vraiment l’aspect "ça ne m’inspire pas confiance", pour être clair, que je peux comprendre, mis à part l’attitude "montrez votre permis ?")

                                                    • [^] # Re: Verbiage…

                                                      Posté par  . Évalué à 3 (+0/-0). Dernière modification le 06 février 2025 à 18:18.

                                                      Ce qui peut être critiqué, probablement et en particulier si c'est en partie de l'amateurisme, c'est si il n'y a pas vraiment de publication académique qui confronte à des épistémologues universitaires qui pourraient en faire une lecture pertinente.

                                                      J'ai un peu l'impression que ce genre de débat ont repris de la vigueur quand on a commencé à parler de "big data" dans les années 2000. Là on a eu des promesses "grâce aux données on va pouvoir faire des modèles prédictifs" sans pour autant un énorme pouvoir explicatif vu qu'on est souvent incapable de faire parler par exemple des réseaux de neurones pour voir ce qu'ils ont sous le chapeau, en court-circuitant la recherche scientifique quelque part.

                                                      Corrige moi si je me trompe mais là on en est toujours là avec la promesse qu'on va avoir assez de données à refiler à un technique d'apprentissage automatique, avec une classe de modèle "universels", avec aussi la promesse que les modèles seront super simples et qu'ils vont être compréhensibles par des humains ?

                                                      C'est tellement hors sol que je pense que c'est pas vraiment entendable, ni par les scientifiques en général ni par les épistémologues. C'est publié dans des revues d'épistémologie ou c'est plus des rêves d'informaticiens / statisticiens ?

                                                      • [^] # Re: Verbiage…

                                                        Posté par  . Évalué à 3 (+0/-0).

                                                        et, en plus (sans doute un peu pour troller) avec cette tendance que peuvent avoir certains rationalistes à dire "si ça ne respecte pas nos critères épistémique, ça ne vaut rien c'est pas de la science".

                                                      • [^] # Re: Verbiage…

                                                        Posté par  . Évalué à 2 (+0/-0). Dernière modification le 06 février 2025 à 19:56.

                                                        Ce qui peut être critiqué, probablement et en particulier si c'est en partie de l'amateurisme, c'est si il n'y a pas vraiment de publication académique qui confronte à des épistémologues universitaires qui pourraient en faire une lecture pertinente.

                                                        Tout à fait, je trouve ça regrettable également. Ceci dit on peut difficilement mettre un pistolet sur la tempe des philosophes du monde académique et leur dire : "maintenant vous lisez les Séquences et vous faites une critique complète et réfléchie".

                                                        La communauté est ouverte à tous. Il n’y a pas de questionnaire "êtes vous un philosophe universitaire ?" qu vous bannisse à vie si vous répondez oui. La communauté reconnaît très largement l’importance des Séquences, ce qui signifie qu’un philosophe académique qui veut s’y intéresser et critiquer sait exactement quel matériel engager, sans tomber dans un risque que la communauté réagisse en mode "OK vous avez bien critiqué les points centraux des Séquences, mais ce n’est pas vraiment ce qu’on pensait réellement en fait, nananère".

                                                        Après, comme cité ailleurs dans un autre commentaire, il y a tout de même Bayesian Epistemology sur Stanford Encyclopedia of Philosophy. C’est un début. Trop peu, très tard à mon goût, mais un début.

                                                        Corrige moi si je me trompe mais là on en est toujours là avec la promesse qu'on va avoir assez de données à refiler à un technique d'apprentissage automatique, avec une classe de modèle "universels", avec aussi la promesse que les modèles seront super simples et qu'ils vont être compréhensibles par des humains ?

                                                        Tu te trompes, le projet est principalement "tirer des leçons, des outils, et des heuristiques" pour des humains (il y aurait potentiellement une digression à faire sur l’IA ici, mais ne complexifions pas les choses ?)

                                                        Je pense que tu as sur-interprété la tentative de discussion sur l’induction de Solomonoff ? Le but n’est pas de dire : "nous allons en 5 ans développer une version pratique de l’induction de Solomonoff, un Raisonneur Universel quasiment parfait", le but est d’en tirer des leçons pratiques comme "le rasoir d’Occam est-il justifiable, et si oui, parmi les multiples variantes qui ont été proposées, une est-elle meilleure ? Laquelle ?"

                                                        et, en plus (sans doute un peu pour troller) avec cette tendance que peuvent avoir certains rationalistes à dire "si ça ne respecte pas nos critères épistémique, ça ne vaut rien c'est pas de la science".

                                                        Du tout non, nos principes nous autorisent à manger à tous les rateliers :)

                                                        (avec prudence tout de même)

                                                        • [^] # Re: Verbiage…

                                                          Posté par  . Évalué à 3 (+0/-0).

                                                          Il ne tient qu'à vous d'essayer de publier ! Si c'est vous qui avez une théorie à porter et que les épistémologue ne sont pas convaincus, ça va être difficile de leur demander d'aller sur votre terrain. Si on prétend faire de la science / philosophie, il faut aller sur le terrain ou ça se joue sérieusement.

                                                          Sinon c'est un peu comme n'importe quel charlatan qui prétend avoir une théorie révolutionnaire et de grosses prétentions mais reconnus que par lui même, vous comprenez le monde scientifique n'est pas prêt à reconnaitre son génie trop disruptif, alors qu'ils devraient vraiment regarder ce qu'il fait (spoiler, si il a essayé de publier il a pas réussi). Alors bon s'adresser à "la communauté" c'est plus simple :p

                                                          • [^] # Re: Verbiage…

                                                            Posté par  . Évalué à 2 (+0/-0).

                                                            Je comprend parfaitement le point de vue. Ceci dit… c’est plus symétrique qu’il n’y paraît.

                                                            Parlons en termes de VoI (Value of Information). C’est essentiellement ce que tu sous-entend, en somme "la vie est trop courte pour écouter tous les charlatans". C’est un excellent angle d’analyse je trouve. Le monde universitaire considère tout ce qui est extérieur comme a priori bas en VoI, et n’a aucune intention de dépenser énormément d’énergie pour ça. C’est une stratégie compréhensible.

                                                            Mais dans l’autre sens, pour un individu à peu près convaincu par le framework rationaliste, tu proposes qu’il dédie une partie significative de sa vie à suivre les rites d’initiation occultes pour entrer dans le cercle sacré des Philosophes Universitaires et pouvoir débattre avec eux pour soit les convaincre ou trouver quelques erreurs. Le prix est élevé.

                                                            Il y a un effet de sélection ici : si tu penses tellement plausible qu’une partie significative du framework rationaliste est faux que la VoI gagnée vaut un tel sacrifice… tu n’est en fait pas rationaliste, et tu ne fais pas ces efforts ?

                                                            Plus clairement, si je prend 10 ans de ma vie, que je tente ce plan, et que j’y arrive (impossible pour moi, il faut savoir écrire :)), qu’est-ce que je gagne au final ? Le droit de gagner instantanément un débat sur DLFP ? Votre honneur, je préfère garder mes dix ans de ma vie.

                                                            Prenons l’exemple de Yudkowsky. Il aurait pu après avoir écrit ses Séquences décider de suivre ce chemin. Pourquoi est-ce qu’il ne l’a pas fait ? Parce qu’il a considéré beaucoup plus important et utile de travailler sur d’autres sujets, principalement sur ce que je pensais être sa marotte bizarre du moment, l’IA. Rétrospectivement, difficile de lui donner tort sur le sens des priorités (même si les résultats ne sont pas là).

                                                            Ton point de vue est "les universitaires ne doivent rien aux rationalistes". Je suis d’accord.

                                                            Je dirai également que "les rationalistes ne doivent rien aux universitaires" est tout aussi correct. Tu vas dire "ne vous plaignez pas de ne pas être pris au sérieux par les universitaires". Je répondrai: "c’est fâcheux, mais je dois bien l’accepter".

                                                            Pour moi la question plus intéressante est : est-ce qu’un de ces deux groupes doit quelque chose au public ?

                                                            Et pour moi oui, ici, il y a une certaine asymétrie dans les devoirs. C’est le rôle des universitaires de faire ce travail d’analyse des idées importantes, non pas pour le bien et le profit des rationalistes, mais pour le public et la société. Le devoir des rationalistes envers la société est largement moindre.

                                                            J’ai glissé un mot simple qui influe fortement la conclusion dans mon dernier paragraphe : "importantes". C’est quelque chose que je n’ai pas abordé dans le journal. Ce n’est pas juste un type bizarre (Yudkowsky) sur un blog sur internet. C’est un mouvement de plus en plus important qui a une influence certaine sur des sujets importants (IA, Effective Altruism). Du côté obscur: voir SBF (l’affiliation n’est pas directe, mais l’honnêteté oblige à reconnaître une affiliation indirect). Rien que Astral Codex Ten (aka Yvain aka Scott Alexander), c'est 78000 abonnés payants (pour un blog gratuit), des rencontres communautaires dans plus de 50 pays et 170 villes (https://www.astralcodexten.com/p/spring-meetups-everywhere-2024). Sur, rappelons-le, ce qui est essentiellement un sujet essentiellement philosophique, totalement hors du centre d’intérêt de la vaste majorité des individus.

                                                            Ça fait un peu broche publicitaire, mais ce n’est pas l’objectif, l’objectif est de remarquer qu’on est au-delà du charlatan isolé, et de demander si on ne commencerait pas à entrer dans le domaine de "devoir moral des universitaires d’informer le public et la société" ? Si ce sont des charlatans, ce n’est pas le genre de charlatans à ignorer, mais le genre de charlatans à réfuter, pour le bien du public, non ?

                                                            • [^] # Re: Verbiage…

                                                              Posté par  . Évalué à 3 (+0/-0). Dernière modification le 06 février 2025 à 21:37.

                                                              L'effective altruism c'est un mouvement utilitariste, il me semble, et du débat philosophiques tu peux en avoir par exemple sur les fondements même du principe de l'utilitarisme en tant que tel, donc tu as toute une batterie de critique existantes qui s'appliquent de base. De ce point de vue le mouvement a sans doute bel et bien à répondre à ces critiques qui viennent de différents horizons.

                                                              Il semble également qu'il y ait en pratique pas mal de critiques d'universitaires sur les fondements de ces mouvements également.

                                                              Tu sembles aussi évoquer les conséquences sociales, avec certaines entreprises du mouvement crypto notamment. On peut tout à fait considérer que ces entreprises ont plus d'échecs sur bien des objectifs qu'on peut considérer désirables que fait de bien globalement.

                                                              De ce point de vue, a-t-on réellement besoin de regarder les "idées importantes" pour ne pas être convaincus que ces idées mènent à des actes désirables, et que bien d'autres approches auraient pu voir venir la chose ?

                                                              • [^] # Re: Verbiage…

                                                                Posté par  . Évalué à 2 (+0/-0).

                                                                Tu sembles aussi évoquer les conséquences sociales, avec certaines entreprises du mouvement crypto notamment. On peut tout à fait considérer que ces entreprises ont plus d'échecs sur bien des objectifs qu'on peut considérer désirables que fait de bien globalement.

                                                                J’ai bien écrit "côté obscur" : FTX (géré par SBF) est l’Enron de la crypto. "plus d’échecs que de bien" est manière bien optimiste de présenter les choses :)

                                                                Ce que je veux dire par tout ça, c’est qu’il y a une affiliation directe entre LessWrong et EA, et directe entre EA et SBF. Et une illustration qu’il commence à y avoir des ramifications dans le monde réel, hors de blogs sur internet.

                                                                De ce point de vue, a-t-on réellement besoin de regarder les "idées importantes" pour ne pas être convaincus que ces idées mènent à des actes désirables, et que bien d'autres approches auraient pu voir venir la chose ?

                                                                "Besoin" ? Probablement pas. Ça reste un axe d’analyse intéressant, pertinent, sur des sujets qui gagnent en importance.

                                                                • [^] # Re: Verbiage…

                                                                  Posté par  . Évalué à 3 (+0/-0).

                                                                  C'est assez moche pour des idées supposées maximiser le bonheur, conséquentialistes qui plus est, de n'avoir comme conséquence principalement des exemples facheux.

                                                                  Ça montre que, en supposant les idées épistémique ment correctes elles ne sont pas applicables correctement. Ce qui est un peu une auto-réfutation de l'intérêt épistémique, une prétention à atteindre la vérité, en fait.

                                                                  Un des problème évidemment c'est que la volonté de tout quantifier induit la volonté de trouver une métrique, financière parce que ça permet d'agréger tout et n'importe quoi (dans un gloubiboulga informe). Finalement ça ne fonctionne pas, parce que ce n'est pas une bonne métrique pour plein de raison dans pleins de cas. Ça illustre très bien l’impossibilité pratique, même avec des théorèmes mathématiques corrects, de mettre des poids sur les variables statistiques dans un cadre à prétention aussi générale. Et mettre des poids sur les variables statistiques (qui sont à identifier aussi, gros problème) est un des fondements de la théorie.

                                                • [^] # Re: Verbiage…

                                                  Posté par  . Évalué à 3 (+1/-0). Dernière modification le 06 février 2025 à 13:44.

                                                  Wikipedia anglais redirige "Analytic solution" vers "Closed-form expression", sans mentionner le mot "analytic" dans le début de la page en tant que synonyme. Je remarque également que les usages de "analytic" sont annotés "vague" et "citation needed". C’est pour ça que je dis "usage informel".

                                                  Mais oui sur le fond je suis entièrement d’accord : l’usage informel est répandu et parfaitement clair, je ne vois mal un contexte où il serait raisonnable de s’en effaroucher, encore moins ici.

                                                  Mais je ne suis même pas sûr que ça représente bien l'usage, puisqu'il est suggéré qu'une solution faisant intervenir une fonction spéciale est "analytic" mais pas "closed-form", ce qui me semble fondamentalement problématique: les fonctions spéciales sont "juste" des intégrales compliquées qui reviennent souvent et dont l'usage a fixé le nom, mais rien de les distingue d'une intégrale sans solution "élémentaire" que tu définirais toi-même. Du coup, le tableau ne me semble pas très cohérent, il a en fait trop de colonnes (ou bien la ligne "integral" n'est pas bien remplie).

                                                  Je pense (en réfléchissant 5 minutes, source: mon cerveau, donc je peux très bien m’être planté) que la distinction "closed-form expression"/"analytic expression"/"analytic function" est que "analytic expression" essaie de formaliser un entre-deux (entre analytic function et closed-form expression). La case qui me semble importante est "convergent infinite series" : on se rapproche de l’idée des fonctions analytiques, tout en restant dans le domaine des expressions énumérables, à l’opposé de l’ensemble des fonctions analytiques qui est non-énumérable.

                                                  • [^] # Re: Verbiage…

                                                    Posté par  . Évalué à 3 (+0/-0).

                                                    "analytic expression" essaie de formaliser un entre-deux

                                                    Je comprends bien, mais du coup on ne parle pas d'une distinction fondamentale, mais plutôt d'un découpage pragmatique, du style "en utilisant une bibliothèque scientifique, je peux taper la formule sur mon ordinateur et j'aurai le résultat" vs "il fa valloir que je code une fonction pour calculer mes intégrales avant d'avoir mon résultat". Je suis d'accord qu'en pratique, ça fait une différence, ça n'est pas le même investissement d'appeller bessel(x) que de calculer numériquement une intégrale. Par contre, mathématiquement, c'est quand même exactement la même chose.

                                            • [^] # Re: Verbiage…

                                              Posté par  . Évalué à 4 (+1/-0).

                                              Surtout n'hésites pas à donner ta définition précise de solution analytique

                                              "Qui peut être exprimé à l'aide de fonction élémentaires". En fait, c'est pas "ma" définition, c'est "la" définition, je n'ai jamais vu d'autres sens en sciences dures.

                                              avec les sources qui vont bien

                                              Premier hit Google: https://fr.statisticseasily.com/glossaire/qu%27est-ce-que-la-solution-analytique/

                                              Wikipédia: https://fr.wikipedia.org/wiki/Solution_analytique

                                              Premier hit Google en anglais: https://math.stackexchange.com/questions/935405/what-s-the-difference-between-analytical-and-numerical-approaches-to-problems

                                              En physique: https://physics.stackexchange.com/questions/633494/what-do-we-exactly-mean-when-we-say-that-a-problem-has-an-analytical-solution

                                              Quant au reste de ton charabia. Rien compris.

                                              Peut-être parce que tu es parti dans une discussion où tu voulais épater la galerie et que tu t'es trouvé coincé parce qu'au hasard des interactions sur un forum tu t'es fais démasquer. Je ne suis pas là pour t'aider à sauver les apparences, surtout parce que ta stratégie de sauvetage est hyper-agressive et insultante envers tes interlocuteurs.

                                              Globalement, je trouve que ton historique d'interventions sur la programmation est censé, mais le reste (politique, épistémologie) est un peu délirant. Regarde juste comment les lecteurs évalue la pertinence de tes commentaires, et tu verras que tu es crédible sur les sujets que tu connais, mais que tu surévalues manifestement la pertinence de tes interventions sur les autres.

                        • [^] # Re: Verbiage…

                          Posté par  . Évalué à 3 (+0/-0).

                          ce qui me semble extrêmement douteux, mais je ne suis pas neuroscientiste

                          Je vois pas comment tu peux écrire ça après avoir fait le parallèle plus haut avec l'apprentissage automatique, alors que ça fait bien longtemps qu'on a fait le parralèle par exemple entre l'apprentissage du cerveau et les réseau de neurone par la [règle de Hebb], qui a inspiré les réseaux de neurones artificiels (cf. [[Réseau_de_neurones_artificiels#Premiers_réseaux]]) depuis l'origine. L'algorithme de rétropropagation du gradient calcule une forme de règle de Hebb, pour les réseaux artificiels.

                          Vu comme ça le lien est évident, et en plus l'apprentissage humain consiste bien souvent à essayer de prédire un résultat et à corriger le tir si on a faux, en s'améliorant petit à petit. Le parallèle avec le Bayésianisme est évident … Il semble qu'il ait été montré que la règle de Hebb était tout à fait capable de faire de l'inférence Bayesienne optimale, cf. cet article : https://papers.nips.cc/paper_files/paper/2008/hash/07cdfd23373b17c6b337251c22b7ea57-Abstract.html mais si tu veux plus d'infos le cours que j'ai proposé (j'ai déjà du en parler ici d'ailleurs, coincidence ?) donne plus de détails. Il explique (si c'est celui dont je me souviens) comment on peut prédire des rythmes complexes comme une combinaison de rythmes simples "empilés" dans des couches simples les unes au dessus des autres, avec l'erreur de prédiction qui remonte à la couche du dessus (Si on a un motif sur 3 temps style "[tac tac blanc] [tac tac blanc] [tac tac blanc]" la première couche va prédire "[tac tac tac]*", la différence de prédiction sur le troisième temps va remonter à la couche du dessus, qui elle va prédire du "blanc blanc blanc" 3 fois plus lent (dans l'idée), on a deux combinaisons de rythme uniforme qui prévoient un rythme qui ne l'est pas.

                          D'une manière générale l'objectif du cerveau serait d'anticiper un max de choses, ce qui est intéressant c'est ce qui n'est pas anticipé (et digne d'attention) qui remonterait à des couches supérieure, voire à la conscience, c'est ce qui est le plus dur à prédire et qui nécessite de réfléchir un peu/consacrer un peu de ressources.

                          • [^] # Re: Verbiage…

                            Posté par  . Évalué à 2 (+0/-0). Dernière modification le 03 février 2025 à 19:16.

                            Il semble qu'il ait été montré que la règle de Hebb était tout à fait capable de faire de l'inférence Bayesienne optimale

                            Il me semblait avoir lu l’inverse, d’où mes doutes (essentiellement que pas de bras pas de chocolatpas de backprop pas de convergence globale vers l’optimal dans le cadre de l’inférence bayésienne).

                            Après recherche, il semble que j’aie halluciné comme un bon vieux ChatGPT : impossible de retrouver mes références, et tout ce que je trouve va dans ton sens, en particulier https://arxiv.org/pdf/2006.04182.

                            My bad donc.

        • [^] # Re: Verbiage…

          Posté par  (Mastodon) . Évalué à 8 (+5/-0). Dernière modification le 04 février 2025 à 07:47.

          Je… ne comprend pas ? Je suis parti d’une structure, certes non-explicitée en titres, mais clairement (pour moi) présente :

          Introduction : Présenter "quoi ?" le mouvement rationaliste. Pourquoi ? mes deux raisons.

          Introduction rapide d’ESR, point de vue "sociologique" (quel genre de personne ce mouvement attire)

          Quelles sont les idées fondatrices (Biais cognitifs + Théorie des probas en tant que fondation de l’épistémologie)

          Le qui (les grands noms) et le quand (bref historique) du mouvement

          Les leçons pratiques

          La conclusion

          Dès ton intro tu parles de rationalisme, de séquences et je ne sais plus quoi d'autres sans les définir, c'est déjà mal parti. Et avant même de définir le premier ni l'introduire tu commences par un charabia sur ta volonté propre de le renommer.

          Là à ce stade tu as déjà perdu 97.34% (oui c'est précis) de tes lecteurs.

          C'est comme si j'allais dans un forum sur le crochet et que je commençais à faire un traité sur les avantages du format de boîtier de pédalier T47, en décidant de le renommer jeu à filetage m47x1, sur les boitiers de pédaliers filetés traditionnels et les roulements pressés sans introduire au préalable que je vais parler de bicyclette, définir les parties principales du vélo, ni ce qu'est un boîtier de pédalier et à quoi il sert.

  • # J'ai rien compris au film

    Posté par  . Évalué à 4 (+3/-0). Dernière modification le 03 février 2025 à 14:45.

    Tu as l'air d'être extrêmement convaincu de l'importance du mouvement rationaliste-ukemiste que tu nous décris. J'ai l'impression en te lisant que cela t'as beaucoup apporté, et c'est très bien. Par contre, je ne suis pas certain d'avoir compris quoi que ce soit d'autre.

    Sans vouloir paraître trop critique (j'ai le sentiment de n'avoir pas bien assimilé ce dont on parle ici, et je ne me sens donc pas de trop mettre à mal l'idée présentée), cette mouvance me semble être assemblage d'idées abstraites monté par un groupe d'ingénieurs qui se sentent capacité de tenir un discours auto-qualifié de "philosophique".

    En lisant ton texte et en survolant les sources citées, j'ai plutôt l'impression que tout ceci est une sorte de méthode de développement personnel de niche. Si j'étais méchant, je dirais que ça me fait presque penser à la résurgence du stoïcisme en version allégée et déformée qu'on trouve un peu partout dans le monde de la "tech".

    Ce qui me fait avancer cette notion de "méthode de développement personnel", c'est un mélange que je retrouve dans tes écrits, et en filigrane aussi dans les différents liens que tu cites. Ce mélange est composé de postulats un peu flous (et un peu faux), de propositions absolues et non nuancées, et de méthodes.

    Développement personnel : le flou, les propositions absolues, et les méthodes

    Exemple de proposition floue :

    La recherche de la vérité en tant qu’objectif personnel, la quête des philosophes depuis l’antiquité.

    Croire pouvoir résumer ainsi la "quête" des "philosophes" sur plusieurs milliers d'années d'histoire de la pensée, c'est soit extrêmement naïf, soit volontairement biaisé. Surtout avec une proposition qui ne semble pas pouvoir coexister avec une bonne partie des définitions connues de la philosophie.

    Un exemple position absolue :

    La rationalité est une voie distincte pour comprendre comment fonctionne le monde. Sans elle, notre cerveau n'est qu'un système de solutions de fortune qui donnent généralement des réponses acceptables. […] Pour devenir tout ce que nous pouvons être, il faut démanteler et jeter de grandes parties du code source et recommencer. Ce n'est pas une solution rapide. C'est ce que fait la rationalité.

    Commencer à avancer que "ma méthode" est meilleure que celles que tout le monde utilise depuis toujours de manière aussi catégorique n'a qu'un seul effet : me donner envie de fuir très loin et très vite. Par ailleurs, le but avancé, "devenir tout ce que nous pouvons être", est aussi un marqueur assez fort des pratiques de développement personnel.

    Un exemple de méthode :

    Put me and five random liberal social science Ph.D.s in a chat room. Let liberal readers ask questions for an hour, then vote on who isn't really a liberal. Then put [economist Paul] Krugman and five random libertarian social science Ph.D.s in a chat room. Let libertarian readers ask questions for an hour, then vote on who isn't really a libertarian. Simple as that.

    Ça paraît être sensé, une bonne méthode pour analyser sa propre compréhension des idées avec lesquelles on est en désaccord. Néanmoins, ça n'est qu'un exercice imaginaire : en réalité, il me semble à peu près impossible de réunir les conditions permettant de créer cette situation. L'autre description du "test de turing" en question n'est pas meilleure :

    The Ideological Turing Test is an exercise where you try to pretend to hold an opposing ideology convincingly enough that outside observers can't reliably distinguish you from a true believer.

    Si l'on prend la chose au sérieux, il s'agit principalement de réussir à s'auto-convaincre qu'on pourrait passer pour quelqu'un qui tiendrait honnêtement un discours opposé à sa pensée. À moins de mentir volontairement à des inconnus et d'observer leur réaction face à nos discours (éthiquement parlant, ça me semble douteux), j'ai l'impression qu'il s'agit principalement d'une méthode permettant, grâce à son imagination, de se sentir intelligent, neutre, et au dessus (ou à côté ? ou en dehors ?) des idéologies.

    Comment comprendre ?

    Comme je le disais, je ne suis pas certain de comprendre exactement cette mouvance et sa pensée.

    Je viens de lire la moitié de la fanfiction Harry Potter, c'est assez rigolo et ça pourrait (avec un poil plus d'effort littéraire) être de la très bonne science-fantasy, qui pose des questions intéressantes dans un cadre divertissant. Je vais continuer de lire, c'est plutôt agréable.

    En contrepartie, j'ai survolé "From AI to Zombies", et j'ai par contre là l'impression d'être pris pour un demeuré par quelqu'un qui se sent très intelligent. C'est écrit de manière très assertive, et ça avance des visions simplistes (voire fausses) de concepts assez communs (notamment… les zombies philosophiques, qui sont dans le titre même de son livre).

    Tu cites un paquet d'autres personnes du mouvement rationaliste-ukemiste. J'ai du mal à m'y retrouver, et à voir par quel bout prendre la chose.

    Néanmoins, parce que j'ai entre autre trouvé fun la lecture de la fanfic Harry Potter, et que j'ai l'impression que cette pensée apporte réellement des choses à plein de gens, j'aimerai en savoir plus.

    En gros, ma question, c'est : est-ce qu'il existe quelque part une introduction sérieuse à tout ça ? Si possible écrite par quelqu'un qui n'est pas intégralement immergé dans ce milieu, qui préserve et présente au mieux la pensée des gens qui en sont partie intégrante, tout en cherchant à expliquer la structure, les origines, et les influences ?

    • [^] # Re: J'ai rien compris au film

      Posté par  . Évalué à 5 (+6/-2).

      Peut-être qu'il n'y a pas grand chose à comprendre et que c'est juste un mouvement sectaire de plus qui enrobe des concepts abscons dans un gloubi-boulga de pseudo-science.

    • [^] # Re: J'ai rien compris au film

      Posté par  . Évalué à 2 (+1/-1). Dernière modification le 03 février 2025 à 16:59.

      cette mouvance me semble être assemblage d'idées abstraites monté par un groupe d'ingénieurs qui se sentent capacité de tenir un discours auto-qualifié de "philosophique".

      Et je te rejoint largement là dessus. Je n’aime pas du tout utiliser le champ lexical de la philosophie. Il y a culturellement quelques échanges entre le monde académique de la philosophie et la communauté ukemiste, mais prétendre qu’ils ne font qu’un ou seraient en parfait accord serait un mensonge.

      Mais quand le centre de du projet est d’aborder des questions qui sont en parallèle avec celles posées par l’épistémologie, je ne vois pas bien comment l’éviter.

      Je pourrai ajouter le préfixe trans- devant. Trans-epistémologie. Ce pourrait être rigolo, mais je doute que ce soit très utile.

      j'ai plutôt l'impression que tout ceci est une sorte de méthode de développement personnel de niche

      C’est une manière totalement valide de voir les choses.

      Croire pouvoir résumer ainsi la "quête" des "philosophes" sur plusieurs milliers d'années d'histoire de la pensée, c'est soit extrêmement naïf, soit volontairement biaisé. Surtout avec une proposition qui ne semble pas pouvoir coexister avec une bonne partie des définitions connues de la philosophie.

      C’est plus un description anthropologique/sociologique/psychologique (comme la mention qui te parle le mieux) désignant un certain type de personnes qui écrivent beaucoup de mots sur des questions que la vaste majorité de la population trouve ennuyeuse.

      C’est flou et volontairement flou. Tout comme les termes "geek" et "nerd" le sont ; l’intention est la même, de pointer vers un archétype (dont les contours sont, effectivement, flous).

      Commencer à avancer que "ma méthode" est meilleure que celles que tout le monde utilise depuis toujours de manière aussi catégorique n'a qu'un seul effet : me donner envie de fuir très loin et très vite. Par ailleurs, le but avancé, "devenir tout ce que nous pouvons être", est aussi un marqueur assez fort des pratiques de développement personnel.

      C’est une différence avec les philosophes académiques : nous nous autorisons les analogies poétiques, surtout dans les échanges informels.

      La question est : meilleure par rapport à quoi ? La réponse est simple : meilleure comparée à la baseline qui ne prend pas en compte l’existence de biais cognitifs et ne met pas en place de contre-mesures.

      J’ai du mal à imaginer la position contrefactuelle : apprendre à reconnaître et contrer les biais cognitifs n’apporte aucune amélioration sur la qualité de la réflexion ?

      Ça paraît être sensé, une bonne méthode pour analyser sa propre compréhension des idées avec lesquelles on est en désaccord. Néanmoins, ça n'est qu'un exercice imaginaire : en réalité, il me semble à peu près impossible de réunir les conditions permettant de créer cette situation.

      Ça s’est fait sur internet. Mais oui, le faire pour de vrai nécessite de le faire en communauté, pas chacun dans son coin.

      j'ai l'impression qu'il s'agit principalement d'une méthode permettant, grâce à son imagination, de se sentir intelligent, neutre, et au dessus (ou à côté ? ou en dehors ?) des idéologies.

      Non, vraiment, l’objectif tu l’as entièrement compris dans ton message précédent : "viser à avoir une bonne compréhension des idées avec lesquelles on est en désaccord".

      L’objectif reste d’avoir une opinion et d’arriver à une conclusion.

      Simplement, parfois l’opinion et la conclusion peuvent changer après cet exercice.

      Tu cites un paquet d'autres personnes du mouvement rationaliste-ukemiste. J'ai du mal à m'y retrouver, et à voir par quel bout prendre la chose.

      Scout Mindset me semble un excellent début. Scott Alexander Yes, we have noticed the Skulls pourrait répondre à certaines interrogations. Pour la suite, c’est plus compliqué.

      Si le style de Yudkowsky t’insupporte (et, je te rassure, tu es loin d’être le seul, c’est une critique récurrente), il va falloir soit serrer les dents, soit abandonner l’idée de se plonger dans les détails. Il n’y a pas d’autre compilation que les Séquences et la version écourtée.

      De quelqu’un d’extérieur, sur la partie plus technique, tu as Bayesian Epistemology et les deux premiers chapitres de Probability Theory : The Logic of Science — mais les deux font l’impasse sur le pilier "biais cognitifs". Sur la partie historique, cité dans mon journal, je pointerai principalement sur Rationalism before the Sequences (c’est publié sur LessWrong, mais ESR se considère comme extérieur au mouvement).

  • # J'ai rien compris...

    Posté par  . Évalué à 2 (+1/-0).

    … mais c'était beau ! (Charlélie Couture, "Pochette Surprise").

  • # Attention au rationalisme

    Posté par  (site web personnel) . Évalué à 3 (+2/-0).

    Pour une vision plus critique du rationalisme (ou de l'ukemisme), je renvoie les curieuses et curieux au texte The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence de Timnit Gebru et Emilio P Torres.

    En très très très résumé :

    • un ensemble d'idéologies plus ou moins proches ont émergé ces 30 dernières années (Transhumanisme, Extropianism, Cosmism, Rationalism, Effective Altruism, Longtermism)
    • ces idéologies ont une filiation idéologique et conceptuelle avec l'eugénisme (y compris dans ses dimensions racistes)
    • elles reposent en partie sur une eschatologie autour de l'IA (vision de fin du monde tel que nous le connaissons, pour le meilleur ou pour le pire)
    • depuis 10 ans, des milliards sont investis par ces gens pour créer une "IA Générale" (capable de faire n'importe quelle tâche) pour faire advenir le bonheur de l'humanité. On retrouve ainsi ces croyants à la tête d'OpenAI et d'Anthropic et les concepts développés par les TESCREALs au cœur de la stratégie de Meta en matière d'IA

    En gros, les idées ne flottent pas en l'air. Elles ont une histoire, un contexte, une situation d'énonciation, des soutiens matériels et financiers et des effets sur le monde réel.

    Je note que, dans le package TESCREAL, le rationalisme/l'ukemisme et l'effective altruisme sons sans doute les moins bizarres, ou du moins ceux dans lesquels on peut trouver des idées intéressantes (mais, à mon avis, très étrangement formulées et tirées beaucoup trop loin).

    • [^] # Re: Attention au rationalisme

      Posté par  (site web personnel) . Évalué à 2 (+1/-0).

      J'ajoute que je remercie l'auteur du journal d'avoir fait l'effort de tenter d'expliciter sa pensée Ukemiste avec ses mots, ici (i.e. en-dehors du cercle des personnes qui pensent avec ces outils). En tant que personne qui essaie de comprendre ces modes de pensée, ça m'est très utile.

  • # Q’est-ce que l’Humanité ?

    Posté par  . Évalué à 3 (+2/-2).

    « l’IA présente un clair risque d’extinction pour l’espèce humaine. »

    Ou possiblement sa seule et unique chance de subsister « longtemps » … pas le temps d’expliquer ce propos, je le ferai peut-être plus tard, s’il n’est pas deviné voire d’évidence pour nombre d’entre-nous (humains).

    s’attendent à atteindre une IA de niveau humain d’ici 2 à 5 ans

    Suffit de mettre un petit coup d’œil dans le rétroviseur pour observer ce à quoi les gens s’attendaient lorsque les premiers ordinateurs sont apparus au milieu du siècle dernier. Je ne vois strictement aucune raison que nous ne soyons plus sujets aux mêmes fantasmes aujourd’hui.

    AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war”

    Étrange de ne pas évoquer le risque climatique, même si les pandémies y sont étroitement liées. Car la bombe nucléaire, on peut « décider » de ne pas la construire, du moins pas la déclencher, parce qu’elle est déjà construite de toute évidence. Les pandémies on peut déjà imaginer quelques contre-mesures possible : diminution des flux, changement sociétaux divers. Alors que le dérèglement climatique, étant donné l’ampleur du phénomène, il n’y a actuellement aucun début de vision sur comment on (en tant qu’espèce) évitera d’être dans la prochaine charrette d’extinction de masse.

    Sur les biais cognitifs je suis d’accord avec toi que c’est fondamental d’en avoir conscience et une connaissance minimum. Je considère pour ma part que j’ai réalisé leurs existence bien tard dans ma vie intellectuelle (et cette assertion ne doit d’ailleurs pas être exempt de biais cognitif ! ^^). Je ne comprends pas pourquoi ça ne fait pas parti du cursus scolaire d’absolument tous les enfants dès qu’ils sont en mesure de les comprendre. Comment raisonner sainement sur quelque sujet que ce soit sans avoir conscience de ce que sont ces biais. Pas besoin de faire des cours magistraux et académique pour expliquer ce qu’est le biais de confirmation ou autre, vers douze ou treize, peut-être même six ou sept, on est en âge de comprendre. Cela pourrais être enseigné progressivement, de manière de plus en plus précise et poussé comme n’importe quelle matière actuellement enseignée.

    • [^] # Re: Q’est-ce que l’Humanité ?

      Posté par  . Évalué à 6 (+3/-0).

      Les biais cognitifs sont en effet fascinants, mais est-ce si important de les enseigner comme une connaissance de base? C'est juste une particularité du fonctionnement du cerveau humain, mais comme le cerveau humain n'est pas très rationnel à la base, c'est juste une raison de plus pour expliquer la capacité des humains à prendre des décisions sous-optimales…

      Tu peux expliquer rapidement aux enfants le fonctionnement de la publicité par exemple ("ils essayent de te faire croire que tu as besoin de cette chose, mais réfléchis à ce que tu pourrais avoir de mieux à la place") sans enseigner techniquement les biais que le marketting exploite.

      Au final, si tu dois manipuler quelqu'un, tu ne vas exploiter ses biais cognitifs que marginalement. C'est bien plus efficace d'exploiter les faiblesses habituelles (cupidité, recherche de confort, chantage, faveurs sexuelles…) que d'exploiter les failles de rationalité. Quand tu vois que tu vends plus de voitures si elles sont présentées par des femmes en maillot de bain, ou que tu peux tromper facilement les gens avec "l'année dernière on a augmenté de 5% mais cette année on a baissé les prix de 5%, donc vous ne perdez rien", tu n'as pas besoin d'exploiter les biais cognitifs…

      Et pour certains biais, le fait de les connaitre ne les annulle pas. Par exemple, le biais des coûts irrécupérables me semble très puissant, et même identifié, il faut vraiment se faire déraisonnablement violence pour ne pas y succomber.

      On peut faire un parallèle avec les raisonnements fallacieux par exemple. On peut les connaitre et en parler, mais à part nuire à tes relations sociales ou te dégoûter de la totalité des discours politiques, à quoi peut bien servir d'identifier par leur nom les fallacies dans l'argumentation d'autrui? Le fait d'avoir envie de crier "homme de paille!" ou "fausse alternative!" à chaque réunion ne me permet pas de me concentrer sur le fond ou d'améliorer mes relations avec mes collègues…

      • [^] # Re: Q’est-ce que l’Humanité ?

        Posté par  . Évalué à 2 (+0/-0).

        Le fait d'avoir envie de crier "homme de paille!" ou "fausse alternative!" à chaque réunion ne me permet pas de me concentrer sur le fond ou d'améliorer mes relations avec mes collègues…

        Très vrai. D'ailleurs, passer pour un pédant IRL c'est l'un des effets de bord de ma consultation intensive de LinuxFR… Aujourd'hui j'essaye de me soigner et d'apprendre à me taire. Mais ça aide quand même à ne pas moins se faire avoir. Disons que quand on me sort un faux-dilemme, c'est un indice qu'il faut sûrement arrêter la discussion là. Parce que soit je le fais remarquer et on me prend pour un pédant, soit je ne dis rien mais avec l'impression en tâche de fond qu'on me prend pour un con.

        C'est bien plus efficace d'exploiter les faiblesses habituelles (cupidité, recherche de confort, chantage, faveurs sexuelles…) que d'exploiter les failles de rationalité.

        Il y a certains domaines où les moisissures argumentatives sont plus fréquentes que d'autres. Bon pour les débats politiques avec le tonton relou c'est systématique mais on peut aisément faire fi. Pour les discours de politiques ou les choix professionnels par contre ça peut faire une vraie différence de détecter les plus grosses erreurs de raisonnement. Le biais des coûts irrécupérables est un bon exemple, j'ai vu une boîte quasi couler parce que le PDG persistait dans la mauvaise direction sous prétexte que trop de ressources avaient déjà été détournées pour ce projet bancal donc il fallait aller au bout. Les associés ont sorti le PDG, stoppé le projet, et essayent maintenant de retrouver une activité normale.

        • [^] # Re: Q’est-ce que l’Humanité ?

          Posté par  . Évalué à 3 (+0/-0).

          Mais ça aide quand même à ne pas moins se faire avoir.

          À la limite, ça sert peut-être à argumenter sur les alternatives. Dans le style "Tu as présenté les choix A et B comme les deux solutions envisagées, mais je me demande s'il ne serait pas possible de …".

          Mais il ne faut pas tourner trop autour du pot, l'application principale de la connaissance des moisissures argumentatives c'est de les utiliser soi-même. Outre le fait que la plupart des gens apprécient de "gagner" une argumentation, dans la vie de tous les jours on est le plus souvent confrontés à des situations où on se fiche complètement d'avoir raison sur le fond ou non : quand on négocie le prix d'un canapé ou une augmentation, quand on essaye de décaler un RDV, quand on discute avec le type de la fourrière qui est sur le point de charger sa bagnole, ou quand on dit aux enfants qu'ils sont punis et que ça n'est pas négociable, la solidité des arguments n'est pas notre préoccupation principale…

          j'ai vu une boîte quasi couler parce que le PDG persistait dans la mauvaise direction sous prétexte que trop de ressources avaient déjà été détournées pour ce projet bancal

          Je pense que même le fait que les entreprises peuvent couler à cause de ce biais montre sa puissance… Normalement, quand du pognon est en jeu, les gens essayent d'être aussi rationnels que possible.

          Je me demande quand même s'il n'y a pas des raisons biologiques profondes à notre aversion à l'abandon des coûts irrécupérables, mais ça ne me semble pas évident. Quel peut bien être l'intérêt de revenir au camp sans barbaque au milieu de la nuit parce qu'on a suivi la piste du cerf qui s'était taillé hors de portée par fierté plutôt que de rentrer avec des mûres et des champignons?

          Après, je trouve que les coûts irrécupérables sont souvent intégrés dans l'évaluation des politiques, ce qui fait qu'il devient rationnel pour celui qui est évalué de les prendre en compte. Typiquement, une ligne du style "Projet A: investissement 1M€, CA 0€" sera systématiquement considérée comme une erreur, même si on a des projets B et C qui sont bénéficiaires à côté. Mon expérience, c'est que pour arrêter une logique de coûts irrécupérables en milieu professionnel, il faut changer les personnes, et "sacrifier" l'équipe qui a mis en place le projet, parce que jamais l'auto-sacrifice ne pourra être considéré comme une preuve de sagesse.

          • [^] # Re: Q’est-ce que l’Humanité ?

            Posté par  . Évalué à 2 (+0/-0).

            Je me demande quand même s'il n'y a pas des raisons biologiques profondes à notre aversion à l'abandon des coûts irrécupérables, mais ça ne me semble pas évident.

            Dans certaines situations ignorer les coûts irrécupérables est la solution correcte.

            Suppose que tu lances un projet d’investissement de 100k€, avec un CA attendu de 200k€ (bénéfice attendu 100k€).

            Mauvaise nouvelle: à 80% du projet (~80k investis) de bien meilleurs prédictions donnent un CA attendu de 30k.

            On peut continuer le projet, dépenser 20k de plus, pour un bénéfice total de -70k, et marginal de 10k.

            Ou l’arrêter, pour un bénéfice total de -100k, et marginal de 0k.

            Je pense (sans aucune preuve) que ce biais vient de là, une tentative de l’évolution d’intégrer le marginalisme dans le cerveau humain.

            • [^] # Re: Q’est-ce que l’Humanité ?

              Posté par  . Évalué à 4 (+1/-0).

              Certes, mais s'il y a un gain marginal, on n'est plus vraiment dans le biais des coûts irrécupérables. Comme tu l'expliques, la décision de continuer ou non ne dépend pas de la somme déja investie, et c'est ça qui est problématique : on a une intuition très forte que cet investissement devrait logiquement compter dans notre prise de décision.

              Peut-être un truc avec les probabilités? La description habituelle du coût irrécupérable est déterministe, c'est à dire qu'on est certains que le gain marginal sera négatif. Mais si le gain est incertain, mais que la variance est de l'ordre de la somme investie, alors c'est différent. Par exemple, tu investis 100€ et le retour sur investissement espéré est de 200€ +/- 100€ (donc, disons, entre 100€ et 300€), le projet est rentable. Si à 50% de l'investissement, tu réalises que l'espérance de gain tombe à 40€, mais que l'incertitude est peu changée (par exemple, tu vas gagner entre 0 et 80€), du coup tu n'investis plus 50€ pour en gagner 40 (donc gains de -10€ sans incertitude), tu vas investir 50€ pour en gagner entre 0€ et 80€. Tu arbitres donc entre total -50€ (marginal -10€) certain (si tu arrêtes net le projet) et total -100€ à -20€, et en marginal -60€ à +30€. Le choix de continuer le projet laisse donc une certaine probabilité de gains, alors que l'arrêt fixe la perte. Dans le cas d'une entreprise, si la perte signifie la faillite, alors le choix rationnel reste de continuer.

              C'est un peu brut de décoffrage, je suis presque sûr que le raisonnement propre existe.

              • [^] # Re: Q’est-ce que l’Humanité ?

                Posté par  . Évalué à 1 (+0/-1). Dernière modification le 06 février 2025 à 14:00.

                Oui, évidemment, si tu poses le calcul, l’aspect "biais" disparait rapidement.

                Où je voulais en venir : si tu es l’Evolution, et qu’il se trouve que "agir plus rationnellement" (dans le sens de homo œconomicus) est avantageux, mais que tes humains ne sont pas encore au niveau d’avoir inventé l’économie et les maths (et encore moins la révolution marginaliste), tu veux instiller un peu de raisonnement "marginaliste" dans les raisonnements intuitifs. Il est possible que le prix à payer soit que dans certaines situations l’intuition se mette à ignorer les coûts passés (qui ne rentrent pas dans le raisonnement marginaliste).

                (mais évidemment, tout ceci est hautement spéculatif)

                • [^] # Re: Q’est-ce que l’Humanité ?

                  Posté par  . Évalué à 4 (+1/-0).

                  Il est possible que le prix à payer soit que dans certaines situations l’intuition se mette à ignorer les coûts passés

                  Bah oui mais justement, ça n'est pas exactement l'inverse qu'on observe? Le raisonnement général devrait être marginaliste, mais en fait intuitivement on a l'impression qu'il faut toujours regarder le coût total, ce qui génère le biais des coûts irrécupérables?

                  Et ça, je n'arrive pas à comprendre pourquoi ça serait bien. S'il était avantageux d'être rationnel, on trouverait la prise en compte des coûts irrécupérables complètement absurde (parce qu'elle l'est!). Pourquoi est-ce qu'on est intuitivement attachés à regarder ce qu'on a déja investi?

      • [^] # Re: Q’est-ce que l’Humanité ?

        Posté par  . Évalué à 2 (+0/-0).

        Tu peux expliquer rapidement aux enfants le fonctionnement de la publicité par exemple ("ils essayent de te faire croire que tu as besoin de cette chose, mais réfléchis à ce que tu pourrais avoir de mieux à la place") sans enseigner techniquement les biais que le marketting exploite.

        Ce qui ne généralisera pas à d’autres situations. Donner un poisson vs apprendre à pêcher.

        Et ce qui donne également la fausse impression que les biais cognitifs ne sont un problème que dans un contexte où tu as un adversaire, à ne se méfier que quand tu échanges avec un autrui auquel tu n’as pas confiance.

        On peut faire un parallèle avec les raisonnements fallacieux par exemple. On peut les connaitre et en parler, mais à part nuire à tes relations sociales ou te dégoûter de la totalité des discours politiques, à quoi peut bien servir d'identifier par leur nom les fallacies dans l'argumentation d'autrui? Le fait d'avoir envie de crier "homme de paille!" ou "fausse alternative!" à chaque réunion ne me permet pas de me concentrer sur le fond ou d'améliorer mes relations avec mes collègues…

        Le but est de les reconnaître quand tu les fait toi même.

        C’est à mon sens une grosse erreur d’apprendre les raisonnements fallacieux et les biais cognitifs et d’en déduire : "oh, chic de nouveaux outils pour contrer les arguments de mes ennemis !"

        La leçon importante est que tu es tout autant susceptible de ces raisonnement fallacieux et biais cognitifs que ceux en désaccord avec toi. Le but est d’améliorer ton raisonnement, pas de crier sur les autres.

  • # Pas si pas clair

    Posté par  . Évalué à 3 (+2/-0).

    Merci pour le journal.
    Un peu brouillon, mais moi j'ai bien aimé, ça m'a donné des pistes de lectures sympas et qui résonnent avec mes … interrogations.
    Bravo aussi pour tes réponses mesurées et constructives aux commentaires (enfin au moins au début des fils de discussion, après tu t'énerves un peu plus).

    • [^] # Re: Pas si pas clair

      Posté par  . Évalué à 2 (+0/-0).

      Merci pour les encouragements, j’avoue que j’avais besoin d’un peu de baume au cœur :)

      Je pense ne m’être énervé que sur un interlocuteur, et je ne vois pas comment répondre de manière mesurée et constructive à "j’ai pas lu mais c’est ridicule". Si le message est : j’aurai juste dû ne pas répondre… oui, tu as probablement raison. Mais ce n’est pas toujours facile.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.