J’aimerais vous présenter le mouvement/la sphère dite "rationaliste".
Pourquoi ? Deux raisons :
C’est probablement l’élément le plus important/structurant de la personne que je suis actuellement ; autrement dit : sans les Séquences, je serai probablement quelqu’un d’autre, et très certainement pour le pire (y compris du point de vue du moi contrefactuel, qui préférerai être le moi actuel). Je sais également que le moi pré-Séquences aimerait être introduit aux Séquences ; et que sociologiquement, il est très probable qu’il y ait des lecteurs sur ce site très proches du moi-pré-Séquences. Ma timidité naturelle m’a empêché jusqu’ici de partager quelque chose que je considère aussi personnel, mais je considère de plus en plus cette timidité comme de la lâcheté.
Au delà de ces considérations personnelles, des débats importants vont bientôt arriver à vos oreilles concernant l’IA (enfin, espérons le du moins). Plus précisément, la conjonction de deux choses : les plus grands acteurs du domaine (OpenAI, Anthropic et DeepMind) s’attendent à atteindre une IA de niveau humain d’ici 2 à 5 ans (source), et il existe de grandes inquiétudes que les risques associés soient catastrophiques (“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war” / « L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale, au même titre que d'autres risques à l'échelle de la société comme les pandémies et la guerre nucléaire. » source). Ceci n’est pas en soi le sujet de ce journal, mais il est à noter que le mouvement rationaliste est historiquement central sur cette prise de position : Eliezer Yudkowsky a principalement cet objectif en tête (expliquer les risques existentiels liés à l’IA) lorsqu’il écrit les Séquences. Si cette dernière phrase vous semble cryptique ("hein ? qui a écrit quoi ? je suis censé comprendre ?"), ne vous inquiétez pas : l’objectif de ce journal est justement (entre autre) d’expliquer ce qui, ce quoi, ainsi que quand et où.
Avant d’entrer dans le sujet, je vais me permettre de mettre mes (auto-censuré) sur la table et de renommer le mouvement. Pourquoi ? Parce le terme "rationalisme" est objectivement mal choisi, la quasi-totalité des rationalistes anglophones se lamentent que le terme est mal choisi, Yudkowsky se lamente que le terme est mal choisi, mais qu’il est trop tard pour changer. Vu à quel point le terme est méconnu en France, il n’est pas trop tard pour nous francophones ! Je vais donc suggérer ce terme pour désigner le mouvement et la philosophie : Ukemisme Cognitif/Mental/Intellectuel (je ne suis pas encore bien fixé sur le suffixe, mais comme je ne compte pas l’utiliser, ce n’est pas important), les pratiquants étant des Ukemistes.
Pour l’introduction, je vais citer Eric Raymond, normalement bien connu en ces lieux, dans son article décrivant la préhistoire du mouvement Ukemiste aux Ukemistes :
I was a bright geeky kid in the 1960s and 1970s, immersed in a lot of obscure topics often with an implicit common theme: intelligence can save us! Learning how to think more clearly can make us better! But at the beginning I was groping as if in a dense fog, unclear about how to turn that belief into actionable advice.
J’étais un enfant brillant et geek dans les années 1960 et 1970, plongé dans de nombreux sujets obscurs qui avaient souvent un thème commun implicite : l'intelligence peut nous sauver ! Apprendre à penser plus clairement peut nous rendre meilleurs ! Mais au début, je tâtonnais comme dans un épais brouillard, ne sachant pas comment transformer cette conviction en conseils pratiques.
Qui, en deux phrases, combine les bases sociologiques et philosophique importantes de l’Ukemisme :
La recherche de la vérité en tant qu’objectif personnel, la quête des philosophes depuis l’antiquité.
Implicite dans cette citation, mais extrêmement importante : une clarté nouvellement gagnée dans cette quête.
Quelles sont les bases de cette nouvelle clarté ? Essentiellement, l’intégration de deux éléments relativement récents en tant qu’outils de cette quête multimillénaire :
La recherche en psychologie sur les Biais Cognitifs (deux noms incontournables: Tversky et Kahneman). Quels biais affectent négativement mon raisonnement ? Comment m’affectent-ils ? Puis-je développer des techniques, des habitudes, pour les identifier et les corriger ?
La Théorie des Probabilités en tant que base fondamentale de l’épistémologie. De la même manière que le moteur idéalisé qu’est le moteur de Carnot et par extension la Thermodynamique ont fourni un mètre-étalon extrêmement précieux pour une génération d’inventeurs et d’ingénieurs lors de la Révolution Industrielle, la théorie bayésienne des probabilités nous donne un mètre-étalon de ce qu’est un raisonneur idéal, pour cette nouvelle génération d’Ukemistes. Les noms qui reviennent ici sont E. T. Jaynes et Richard Cox. Si Les Séquences sont le Nouveau Testament de l’Ukemisme, alors Probability Theory : The Logic of Science est clairement l’Ancien Testament.
Les ingrédients sont ici, la scène est posée : de nouveaux outils sont apparus pour une très ancienne tâche, et ont l’air a priori très prometteurs. Tout est prêt pour la synthèse. C’est Eliezer Yudkowsky qui se retrousse les manches et s’en charge. L’aventure commence sur le blog d’un physicien-reconverti-économiste, Robin Hanson, sur lequel Yudokwsky commence en tant qu’invité à populariser la recherche sur les biais cognitifs, et les implications épistémologiques. Le projet suscite rapidement de l’intérêt (principalement parmi des étudiants curieux) et se détache du blog personnel de Robin Hanson, pour fonder LessWrong.
Les mois et années suivantes, Yudkowsky s’acharne à mettre sur papier (virtuel) les fondements du projet. Le résultat direct ? Aujourd’hui, pas loin du millier de blog posts. Un premier travail de réarrangement, réorganisation, et de coupes légères donne Les Séquences ; un second travail avec des coupes bien plus franches donne Rationality: From AI to Zombies (non, je ne m’essaierai pas à traduire ce titre, déjà trop piteusement choisi en version originelle à mon goût). Yudkowsky se lance ensuite dans la vulgarisation sous la forme d’une fanfiction Harry Potter, Harry Potter et les Méthodes de de la Rationalité, qui rencontre un certain succès (et son lot de moqueries : Harry Potter ? N’est-ce pas embarrassant ?). Parallèlement, de nombreux contributeurs ajoutent leur pierre à l’édifice, citons par exemple :
Yvain aka Scott Alexander, qui après ses débuts sur LessWrong lance son propre blog puis, après un certain incident avec le New York Times passe sur Substack. Citons notamment I Can Tolerate Anything Except The Outgroup, In Favor of Niceness, Community, and Civilization, The Control Group is Out of Control et All In All, Another Brick In The Motte (qui a popularisé l'expression "Motte and Baley"). Et je ne peux m'empêcher de vous partager quelques une de ses (nombreuses) œuvres de fiction : Ars Longa, Vita Brevis, Sort By Controversial, Samsara, Clarity didn't work, trying mysterianism et son plus connu Unsong (qui n'est pas ma tasse de thé, j'ai arrêté après deux chapitres ; mais impossible de citer l'auteur sans citer cette œuvre).
Gwern Branwen. Citons entre autre, et principalement pour illustrer la variété de sujets auxquels il s'attaque : The Scaling Hypothesis, Commoditize Your Complement et Why Cats Love Earwax.
Zvi Mowshowitz, qui s'est illustré pour avoir tenu une veille de longue haleine sur le sujet du COVID, puis a récemment pivoté sur l'IA. Why Rationality? donne un bon aperçu de pourquoi l'Ukemisme. Notons également Asymmetric Justice et Simulacra Levels and their Interactions. Permettez moi également de citer sa description de ce qu’est l’Ukemisme, que je trouve très bonne (si l’on sait faire abstraction de son style… unique) : “Rationality is a distinct path for figuring out how the world works. Without it, one’s brain is a system of kludges that mostly get reasonable answers. To improve that on the margin, you add another kludge. Some of those even involve learning Bayes’ Rule, or learning about some of the biases, in ways we have found to work on their own, complete with tricks to get better outcomes. To make ourselves all that we can be, you need to dismantle and throw out large parts of the code base and start again. That is not a fast solution. That is what rationality does.” / « La rationalité est une voie distincte pour comprendre comment fonctionne le monde. Sans elle, notre cerveau n'est qu'un système de solutions de fortune qui donnent généralement des réponses acceptables. Pour l'améliorer à la marge, on ajoute une autre solution de fortune. Certaines impliquent même d'apprendre le théorème de Bayes, ou d'étudier certains biais, d'une manière qui s'est avérée efficace, avec des astuces pour obtenir de meilleurs résultats. Pour devenir tout ce que nous pouvons être, il faut démanteler et jeter de grandes parties du code source et recommencer. Ce n'est pas une solution rapide. C'est ce que fait la rationalité. »
Julia Galef, cofondatrice du CFAR et autrice de The Scout Mindset.
Joe Carlsmith, en particulier pour sa série Otherness and control in the age of AGI.
Et tant d'autres : Status 451, PUTANUMONIT ("Put a Number on It"), Thing of Things, …
Très bien. Nous avons vu le pourquoi, le qui, le quand. Quel est le résultat ? Eric Raymond dans l’introduction sous-entend, et j’explicite, une clarté nouvellement gagnée. Pourquoi ? Comment ? Essentiellement, pour la raison pour laquelle j’ai choisi le terme Ukemi. Pour ceux n’ayant pas suivi l’article Wikipedia, il s’agit, au judo, de la pratique d’apprendre à tomber. Et l’Ukemisme est essentiellement un très bon parallèle à cette pratique dans le domaine philosophique/épistémologique.
L’Ukemi, au judo, dit : "Vous allez tomber. Apprenez à le faire avec grâce et technique, et faites-en une force". L’Ukemisme dit la même chose : "Vous allez vous tromper. Préparez-vous et entraînez vous à reconnaître et gérer ces erreurs."
L’Ukemisme n’est pas un ensemble de conclusion philosophiques comme pourrait l’être, par exemple, le Kantisme. Il s’agit d’un ensemble de techniques, d’outils, d’approches et d’attitudes au service de la recherche philosophique. Sur tous les sujets, il existe une grande variété d’opinion différentes parmi les Ukemistes (excepté sur l’Épistémologie, où il existe clairement et fermement une position Ukemiste). C’est normal : la clarté revendiquée par l’Ukemisme n’est pas "nous avons enfin atteint la Vérité Certaine sur Tous les Sujets" ; c’est plutôt : "ces nouveaux outils tiennent leurs promesses, et sont d’une aide extrêmement précieuse".
Quels sont ces outils ? Il n’existe malheureusement pas à ma connaissance de compilation explicite, pas d’ouvrage de référence "L’Ukemisme en Pratique". Les pratiques sont partagées principalement implicitement, par l’exemple, au travers de débats et de discussions. Laissez-moi faire une liste certainement non-exhaustive :
- De Yudkowsky : The Fundamental Question of Rationality is: "Why do you believe what you believe?", or alternatively, "What do you think you know, and how do you think you know it?". En Français : La Question Fondamentale de l’Ukemisme est : « Pourquoi croyez-vous ce que vous croyez ? », ou alternativement, « Que pensez-vous savoir, et comment pensez-vous le savoir ? ». Ré-évaluez régulièrement ce que vous croyez vrai.
Vous pouvez avoir changé d’avis sur les raisons qui vous ont conduit en certaines croyances, sans pour autant avoir changé ces croyances. Voyez ça comme un ménage de printemps.
De manière plus importante, si vous vous êtes amélioré sur d’autres techniques, avez appris à mieux reconnaître et contrer certains biais, réévaluer régulièrement vos croyances vous permet de bénéficier de ces gains.
"Les preuves me forcent-elles à croire X ?" "Les preuves m’interdisent-elles de croire X ?". Apprenez à reconnaître quand votre pensée atteint ces motifs, et reconnaissez que c’est une erreur. La question correcte est : dans quelle direction penchent les preuves ? Ne privilégiez pas a priori un des deux côtés de la question.
En débat/discussion : prenez régulièrement littéralement deux secondes pour vous demander "est-ce que je crois réellement ce que je viens de dire, ou me suis-je laissé entraîner par le courant naturel de la conversation ?". J’ai été personnellement surpris du nombre de fois où ces deux secondes se concluent par : "non, je ne le crois pas réellement, je me suis laissé emporter par le courant naturel de la conversation dans une direction qui ne reflète pas mes réelles croyances". Évidemment, cela marche également à l’écrit, même s’il est déjà plus naturel de s’auto-relire et corriger dans ce cas-ci.
Identifiez votre Objection Réelle. Si vous croyez en non-X/ne croyez pas en X, posez vous la question : quel fait dans le monde réel serait suffisant pour vous faire changer d’avis ? Utile dans un contexte personnel, vital dans un contexte de discussion : identifier ces points cruciaux de désaccord. Il est bien trop aisé de tomber dans le piège de focaliser son énergie sur des points secondaires.
Lorsque vous abordez une question qui se prête à l’analyse statistique, avant de rechercher et regarder le moindre chiffre, posez vous ces questions : "Idéalement, quelles mesures, quels indicateurs sont les plus représentatifs de la question que je me pose ? Si ceux-ci ne sont pas disponibles, quel est mon second choix ? Pour chaque hypothèse, quel chiffre je m’attend à voir ?". Et après seulement faire la recherche. Le dernier point en particulier est important : ne partez pas de "les chiffres disent X, donc j’en conclus Y" ; partez de "SI les chiffres disent X, ALORS j’en conclurai Y", puis regardez les chiffres !
Lorsque vous abordez une question plus abstraite, posez vous la question : « qu’est-ce que je m’attends à voir dans un monde où l’hypothèse A est vraie, dans un monde où l’hypothèse A est fausse ? Quelles sont les conséquences pratiques réelles de A ou non-A ? » Concentrez-vous sur ce qui est aisément vérifiable mais dont vous ne connaissez pas encore la réponse. Puis cherchez la réponse.
Pour chacune de vos positions, visez à être capable de passer un Test de Turing Idéologique pour cette position. Vous passez le test si vous êtes capable de présenter la position opposée d’une manière qu’un observateur objectif et impartial est incapable de donner votre position réelle (ou alternativement : si un observateur ayant une position opposée à vous approuve et cautionne votre explication).
Pour chacune de vos positions, cherchez les arguments les plus forts opposés à celle-ci — il est extrêmement naturel de construire des hommes de pailles facile à démonter pour justifier vos positions. Résistez à cette inclinaison naturelle.
Technique avancée : exercices de calibration. Essayez de faire des prédictions chiffrées ("à 80% sûr", "à 60% sûr"). Votre objectif est, si vous avez 100 prédictions "à 60% certaines", de se retrouver avec ~60 prédictions correctes. Vous pouvez utiliser par exemple Manifold.
Une Technique Interdite, que je déconseille fortement à toute personne qui n’est pas entièrement dévouée à la Vérité, rien que la Vérité, toute la Vérité, qui nous vient d’Eric Raymond : "Kill the Buddha". “Find the premise, or belief, or piece of received knowledge that is most important to you right at this moment, and kill it”. En Français : « Trouvez la prémisse, ou la croyance, ou le fragment de savoir reçu qui est le plus cher pour vous en ce moment même, et tuez-le ». Si ce savoir vous est effectivement cher, cela signifie que vous êtes probablement extrêmement biaisé en sa faveur. Pour compenser, faites tout pour vous convaincre qu’il est faux. Technique dangereuse, car si vous êtes trop efficace, vous risquez de vous retrouver sans plus rien de cher.
Pour conclure, revenons a la phrase que je vous ai promis que vous comprendriez à la fin de ce journal : « Eliezer Yudkowsky a principalement cet objectif en tête (expliquer les risques existentiels liés à l’IA) lorsqu’il écrit les Séquences ».
Vous savez maintenant qui est Yudkowsky, quel est son projet, et dans les grandes lignes en quoi consistent les Séquences. Reste un détail étrange qui vous a peut être interpellé : « Pourquoi diable Yudkowsky a-t-il considéré comme nécessaire de commencer par développer l’Ukemisme pour pouvoir expliquer les risques existentiels liés à l’IA ? » La réponse se trouve dans le dernier concept que je vais vous expliquer : celui de Distance Inférentielle. Intuitivement parlant, vous ne pouvez pas prendre Euclide et lui expliquer la géométrie algébrique en deux heures. Il existe énormément d’étapes et de concepts intermédiaires dont il n’a aucune connaissance. Si, brutalement, vous vous contentez de lui introduire les axiomes de la géométrie algébrique et dérouler les théorèmes, le seul résultat sera que vous passerez pour un fou. Le résultat est le même si, comme Yudkowsky, vous tentez de présenter directement sans introduction en 2005 la position « l’IA présente un clair risque d’extinction pour l’espèce humaine. »
Pour expliquer sa position, il doit détailler, en particulier, en quoi plus exactement consiste ce I de IA (quelles sont les différences et similarités avec l’intelligence humaine ?). Ce qui nécessite de clarifier d’autres concepts, comme celui de Vérité, de Réalité, de Savoir, de Croyance, de Preuve. Ce qui nécessite essentiellement… d’expliquer la synthèse des trois ingrédients de l’Ukemisme.
P.S.: je vous saurais gré de vous retenir de déraper immédiatement sur des sujets politiques, je n’ai vraiment, vraiment pas envie de me lancer sur ces questions maintenant.
# Interopérabilité
Posté par Enzo Bricolo 🛠⚙🛠 . Évalué à 10 (+17/-2).
Est ce que c'est interopérable avec Zino ?
# Kill the Buddha
Posté par Pol' uX (site web personnel) . Évalué à 7 (+5/-0).
Je te recommande de commencer avec les majuscules et les idées concernées. Par exemple la « Vérité », si tant est que ça existe ou que ça ait un sens, est possiblement inaccessible.
Adhérer à l'April, ça vous tente ?
[^] # Re: Kill the Buddha
Posté par Moonz . Évalué à 2 (+1/-1).
Il y a confusion : mon but est de présenter de loin le mouvement, pas de réécrire les Séquences en un journal, ce qui est probablement impossible même pour un écrivain surdoué (et je suis un écrivain sous-doué).
En un mot ? Ça dépend par "inaccessible" ? Si c’est "il est impossible de tirer la moindre information de la réalité", c’est évidemment faux. Les bactéries y parviennent. Si c’est "accéder parfaitement et totalement à l’entièreté de la réalité" ? C’est presque certainement vrai.
Et c’est incidemment une bonne intuition de pourquoi la théorie des probabilités est le fondement correct de l’épistémologie : la question n’est pas "commence accéder à la Vérité ?", mais "comment construire un modèle de la réalité à partir d’observations, et quel degré de confiance puis-je avoir dans ces modèles ?".
[^] # Re: Kill the Buddha
Posté par Ontologia (site web personnel) . Évalué à 0 (+1/-3).
La problématique de ces philosophes, récurente en occident, c'est qa'ils essayent de comprendre la réalité avec leur mental (leur égo-mental plus précisément), ce qui est idiot et structurellement voué à l'échec.
Quand au blabla sur le bouddhisme : c'est une pratique, pas une philosophie. On en tire une philosophie, mais la pratique intensive au moins une fois dans sa vie est cruciale. On apprend à doir ses émotions derrière le mentale.
Tout ceux qui ont pratiqué Vipassana au moins une fois peuvent le comprendre.
« Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker
# Rationalisme
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 3 (+1/-0).
En France, il me semble me rappeler qu'il existe une « Union rationaliste ». Un lien avec l'Ukemisme ?
Moi dont s'était la grande spécialité au cours de milliers d'heures de pratique des arts martiaux, je trouve le mot éminemment sympathique. L'idée de s'intéresser à l'épistémologie séduit forcément quelqu'un qui fait métier de sciences naturelles, et passé le XIXe, qui oserait ne pas intégrer à une réflexion philosophique la problématique des biais cognitifs ? Ceci dit sur le fond, votre texte ne m'a pas paru des plus limpides. L'idée d'assassiner Bouda m'évoque vaguement le nihilisme, Schopenhauer et la pensée Nietzschéenne. Sans m'y connaître en philosophe, je trouve ça un peu paradoxal vis-à-vis des prémices : un ambitieux projet de reconstruction intégrale de la pensée et des croyances basé sur un double constat de faiblesse absolue (apprendre à échouer, et la reconnaissance de biais systémiques dans notre raison). Je suis moins ambitieux. Bon courage à vous.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: Rationalisme
Posté par Moonz . Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 11:06.
Absolument pas, et c’est une des raisons pour lesquelles le terme de "Rationalisme" est désastreux :
Désolé, j’ai fait de mon mieux, qui n’est je le reconnais pas très bon. Pour ma défense : difficile de concilier en un post : un résumé historique, sociologique et pratique d’un mouvement philosophique qui a maintenant presque 20 ans.
Je suis ceci dit curieux sur ce qui a échoué : j’ai tenté de donner les grandes lignes, de loin, et de ne pas rentrer dans les détails pour justement éviter ce souci. Est-ce que même avec cet objectif, j’ai été trop loin dans les détails, ou est-ce que j’ai mis une image de trop loin ?
[^] # Re: Rationalisme
Posté par Moonz . Évalué à 2 (+0/-0).
Je voulais rebondir là dessus, mais j’ai oublié.
Il existe effectivement en France des rassemblements périodiques de la communauté (à ma connaissance, il y a des groupes à Paris, Bordeaux, Grenoble, Lyon et Marseille). Si cela intéresse quelqu’un d’être averti des prochains (j’en doute, vu la note du journal, mais sait-on jamais), vous pouvez m’envoyer un MP pour que je vous prévienne quand ça arrivera (le prochain devrait "gros" événement devrait être fin mars je pense ?)
# Julia Galef
Posté par patrick_g (site web personnel) . Évalué à 6 (+3/-0).
Ce n'est pas à proprement parler la compilation ou l'ouvrage de référence sur le sujet mais j'ai trouvé que le livre "The Scout Mindset" de Julia Galef était une excellente introduction. C'est facile à lire et ça présente bien les principales idées du mouvement dit "rationaliste".
Je colle une partie du quatrième de couverture :
When it comes to what we believe, humans see what they want to see. In other words, we have what Julia Galef calls a "soldier" mindset. From tribalism and wishful thinking, to rationalizing in our personal lives and everything in between, we are driven to defend the ideas we most want to believe—and shoot down those we don't.
But if we want to get things right more often, argues Galef, we should train ourselves to have a "scout" mindset. Unlike the soldier, a scout's goal isn't to defend one side over the other. It's to go out, survey the territory, and come back with as accurate a map as possible. Regardless of what they hope to be the case, above all, the scout wants to know what's actually true.
# Verbiage…
Posté par Zorro (site web personnel) . Évalué à 10 (+19/-0).
La sexualité des libristes, le rationalisme… Qu'est-ce qui se passe, vous faites des concours de verbiage et de charabia ou quoi ? C'est des tests d'écriture automatique sous IA ?
[^] # Re: Verbiage…
Posté par Enzo Bricolo 🛠⚙🛠 . Évalué à 5 (+4/-1).
C'est une forme de « test de Voight-Kampff », sauf que là, on essaie de repérer les derniers biologiques … reste tranquille, la brigade des "bald bikers" va venir te chercher.
[^] # Re: Verbiage…
Posté par Maderios . Évalué à 2 (+1/-1).
Concernant ce journal, c'est un blabla pondu par une IA Troll
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 3 (+0/-0).
Je doute qu'une IA puisse générer un tel gloubiboulga. En général, le texte généré par les IA est sans saveur, mais il est clair et structuré.
[^] # Re: Verbiage…
Posté par Maderios . Évalué à 1 (+0/-1).
Suffit de déstructurer, assembler/modifier différents résultats de recherche, pour brouiller les pistes :)
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 3 (+0/-0).
Ou alors de lui demander? Je n'ai jamais essayé.
[^] # Re: Verbiage…
Posté par raphj . Évalué à 7 (+7/-2). Dernière modification le 03 février 2025 à 13:34.
Mhm, oui. J'ai eu tant de mal à suivre ces deux journaux que j'ai abandonné.
J'ai essayé de comprendre pourquoi sur ce journal, et je pense que :
Je note une motivation présentée au début, ça aide bien. Mais je n'ai pas le contexte pour la comprendre : le terme "Séquences" en majuscule est utilisé mais je ne sais pas à quoi ça fait référence.
Ce journal propose par exemple de renommer un concept qui n'est alors pas encore présenté. Donc on sent qu'il y a un problème et qu'on essaie de lui couper l'herbe sur le pied (on n'a pas encore le problème dans le monde francophone), mais on ne comprend pas les tenants et les aboutissants. On comprend que le terme initial n'est pas approprié du point de vue de certaines personne, mais on ne saisit pas pourquoi.
Une manière qui marche bien pour s'adresser à moi avec un long texte :
Et après, ce qu'on voit en philosophie ou en littérature au lycée marche plutôt bien :
- intro
- un poil de contexte, avec une motivation
- présenter le sujet / l'objet / le problème de façon concise
- définir les termes du sujet
- on peut sauter la présentation verbeuse textuel du plan et la remplacer par des liens ficelés entre les parties
- parties et sous partie qu'on titre et qu'on lie entre elles (ouais, contrairement à certaines consignes de ne surtout pas mettre des titres explicites aux sections mais d'en faire des premières phrases de paragraphe, on pourra présenter un plan clair)
- conclusion
D'autres schémas marchent probablement bien, l'important soit qu'en tant qu'ignorant total du sujet, je sache à tout moment d'où on part et où on va, que je comprenne les termes centraux utilisés (et donc qu'ils soient définis avant leur utilisation, ou juste à côté), et pourquoi je devrais continuer à lire. Surtout au début.
Le contexte étant que j'ai une lecture relativement lente et pénible, et une concentration du st… oh un oiseau ! D'ailleurs le précédent journal joue un peu avec ça volontairement xD. Et j'ai une mémoire de travail très courte. Donc je suis vite perdu en lisant un truc. D'ailleurs, pour cette raison, un max de concision est très appréciée.
Le sujet partait avec un avantage : les biais cognitifs, ça m'intéresse, des bons raisonnements, ça m'intéresse, je veux en savoir plus :-)
Un bon exemple de sujet compliqué et un peu long qui est bien passé hier malgré la fatigue complète dans laquelle j'étais à cause de FOSDEM et du boulot intense ces derniers mois : https://www.ralfj.de/blog/2020/12/14/provenance.html
Voilà, j'espère que ce commentaire trouvera son utilité, il est là pour suggérer plus que pour donner des leçons, j'espère d'ailleurs qu'il sera perçu comme tel. Je présente bien mon rapport personnel avec les textes, on sait très bien qu'un même style d'écriture accroche très bien une personne et très mal une autre, et que chacun·e a le sien. Je pense que je suis très scolaire, de ce point de vu.
(bien sûr, je trouvais les règles des dissertations au lycée très pénibles et rigides, mais je vois maintenant très bien pourquoi elles existent)
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 14:26.
Je… ne comprend pas ? Je suis parti d’une structure, certes non-explicitée en titres, mais clairement (pour moi) présente :
Introduction : Présenter "quoi ?" le mouvement rationaliste. Pourquoi ? mes deux raisons.
Introduction rapide d’ESR, point de vue "sociologique" (quel genre de personne ce mouvement attire)
Quelles sont les idées fondatrices (Biais cognitifs + Théorie des probas en tant que fondation de l’épistémologie)
Le qui (les grands noms) et le quand (bref historique) du mouvement
Les leçons pratiques
La conclusion
Je me relis et ce plan est… transparent pour moi ? Même pas subtil (non, je n’ai pas cherché à être subtil) ? Je suis curieux de pourquoi ce n’est transparent que pour moi.
Je plaide coupable qu’il n’y en a pour le coup pas réellement (j’ai essayé d’en introduire une artificiellement avec le "Eliezer Yudkowsky a principalement cet objectif en tête lorsqu’il écrit les Séquences" de l’introduction). Le but est un résumé en largeur, pas en profondeur, de toucher un maximum de points plutôt que de se concentrer sur un aspect.
Oui, c'est apprécié, merci.
[^] # Re: Verbiage…
Posté par raphj . Évalué à 2 (+0/-0).
C'est peut-être juste moi aussi, ce n'est pas exclus xD
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 5 (+2/-0).
Je ne sais pas si on peut faire des statistiques, mais je n'ai absolument rien compris non plus. Les Séquences, les probabilités Bayesiennes, l'ukemisme, "vous avez maintenant compris ce qu'étaient les Séquences" (bah non), et c'est tout. Le problème, c'est que la cohérence du texte est le seul moyen quand on n'est pas spécialiste de différentier les propos jargonnants de la pseudoscience. Là, comme le texte n'a pas de cohérence (il va à droite ou à gauche au fil de l'eau, il y a des 1) et des 2) qui ne correspondent pas entre eux…), c'est logique de penser que c'est peut-être du bullshit.
Ensuite on peut vérifier par exemple que Google ne connait pas une seule occurence de "Ukemisme", ça commence à faire un peu peur (travail original?).
En tout cas, si quelqu'un peut être convaincu par ce genre de documents, il faudrait qu'il m'explique son raisonnement, parce que son cerveau ne fonctionne pas du tout de la même manière que le mien.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 0 (+0/-2). Dernière modification le 03 février 2025 à 15:25.
Ukemisme est le seul terme original introduit dans mon texte, et j’ai expliqué à mon sens clairement pourquoi ? Je m’auto-cite :
.
Je me re-cite :
Vraiment, en quoi n’est-ce pas clair ?
Le but n’est pas de convaincre, il est de présenter rapidement et de donner des pointeurs.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 4 (+1/-0).
De convaincre qu'il est intéressant de cliquer sur les pointeurs ?
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1).
C’était l’objectif des exemples de techniques développées, donner envie de développer en cliquant sur les pointeurs.
Si l’accusation est que je suis un piètre commercial : coupable votre honneur.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 5 (+2/-0).
C'est maigre. La théorie des probas certes, mais pour faire quoi ? L'objectif c'est d'enrayer la chute du vivant avec l'IPBES ? De conquérir l'univers avec Musk et les longtermistes en négligeant le bonheur des personnes actuelles parce qu'elles ne comptent pour que pouique devant la grandeur d'un projet d'avoir un bonheur gigantesque de l'humanité parce que l'univers c'est très grand donc il y a la place pour plein de bonheur dans un futur fantasmé (et on peut inventer les probas qu'on veut pour mettre un poids la dessus, parce que c'est loin donc très brumeux)
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 14:49.
Je ne suis pas sur que multiplier par 10 la taille du journal pour entrer dans les détails soit d’une grande aide ?
(et même si ça aidait, je ne pense pas être prêt à faire un tel effort, je suis un écrivain médiocre et donc peu efficace)
Encore une fois le but n’est pas de réécrire les Séquences en un journal.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 4 (+1/-0).
Ça devrait être possible d'exprimer clairement les objectifs en quelques mots, sinon perso ça va être compliqué de me motiver à lire un texte long.
Les probas, c'est un outil, utilisé par exemple en sciences par des gens qui connaissent bien leur discipline et qui savent pourquoi et comment les employer. Ici si c'est pas un projet scientifique (les scientifiques n'ont a priori pas de leçons à recevoir sur comment faire leur boulot) c'est quoi, un projet politique ? Si c'est un projet politique, dire en fondement "théorie des probas" n'est pas satisfaisant, et si il y a pas de TL;DR ou de contraste par rapport aux autres projets existants (et c'est pas parce comme si on manquait de courant et projets politiques qu'on connaît un peu) … c'est pas motivant.
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 5 (+2/-0).
J'ai un peu l'impression que c'est une manière très très obscure d'appeler à une approche scientifique (ou scientiste) de la société, un peu à la manière des mouvements "zététiques".
En gros, quand tu penses qu'un truc est peut-être vrai (par exemple, "l'immigration est bonne pour l'économie"), tu le prends en point de départ, tu vas chercher les chiffres, tu lis les arguments de ceux qui pensent le contraire, et tu finis sur une position plus "savante", du style "dans certaines conditions, un certain type d'immigration a un effet bénéfique sur l'économie, mais dans d'autres conditions l'effet peut être négatif", et tu as avancé dans ta compréhension du monde. Et quand tu ne trouves pas de données, tu quantifies ton incertitude en acceptant de traiter une incertitude comme une probabilité (d'où la référence aux statistiques Bayesiennes).
Mais bon, comme ça part sur des prémisses douteuses (notamment sur la nature du raisonnement scientifique), tu risques de finir sur des truismes (du style "je ne sais rien donc je n'ai d'opinion sur rien") ou sur la réalité des sciences sociales (du style "la science dit que j'ai raison donc fuck la démocratie").
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 6 (+3/-0).
En supposant qu'à la base on soit d'accord pour dire ce que veut dire "bon pour l'économie" ce qui n'a déjà rien de garantit :)
Ça me rappelle un rationaliste sur Wikipedia qui disait qu'un bot comme chatgpt, en tant qu'entité statistique par conception pourrait pondre des articles "neutres" sans intervention humaine (pour représenter statistiquement les points de vue en proportion de leur importance. Le vieux rêve rationaliste d'une gestion entièrement par les chiffres qui attendrait donc une forme d'objectivité. Totalement dépolitisant en l'occurrence, comme projet. En principe, parce qu'en pratique ça permet simplement de faire passer pour objectif des choses en masquant totalement les projets idéologiques sous jascents (la "neutralité" au sens de Wikipédia par exemple, qui n'est pas la seule manière ni de concevoir la neutralité, ni forcément la meilleure manière de transmettre la connaissance)
[^] # Re: Verbiage…
Posté par Benoît Sibaud (site web personnel) . Évalué à 5 (+2/-0).
Et chatgpt n'est pas neutre (la technique est politique tout ça) : il est la somme de biais de conception, de biais d'apprentissage, de biais de corrections post-apprentissage par des humains biaisés, et de biais d'utilisation (et j'en oublie sans doute).
Quitte à avoir un vieux rêve rationaliste, il faudrait viser une encyclopédie prouvée mathématiquement genre par un langage à preuve formelle… (ce qui même théoriquement ne doit pas vouloir dire grand chose). Bref il suffit de numériser objectivement l'humanité et son histoire, vous avez 4h.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 2 (+1/-1). Dernière modification le 03 février 2025 à 15:52.
Non, il n’y a pas vraiment d’approche politique/sociale. Le plus proche est le mouvement EA, que je n’ai volontairement pas abordé dans le journal.
Faisons rapidement un peu de philosophie.
J’observe que le soleil se lève à l’est tous les matins depuis que je suis en vie — et j’ai le témoignage de mes parents et grand-parents que c’est le cas depuis qu’ils sont en vie.
À quel point la conclusion : "demain le soleil se lèvera à l’est" découle de cette observation ?
C’est grosso-modo le point d’entrée de ce qu’on appelle l’épistémologie : qu’est-ce que la connaissance ? le savoir ? La question précédente (sur la validité de la conclusion "le soleil se lèvera à l’est") s’appelle "Le Problème de l’Induction".
C’est le genre de problème auquel l’Ukemisme s’intéresse. Si on veut vraiment simplifier : c’est une nouvelle école de pensée sur la question de l’épistémologie.
La théorie des probabilités semble te faire ticker. Pourquoi est-ce considéré comme un pilier ? Prenons le Rasoir d’Ockham. Le rasoir d’Ockham est une heuristique prisée des philosophes, mais qui fait tout de même débat (Heinlein a un bon mot là dessus). Peut-on faire mieux ?
Oui, on peut. On peut formaliser le rasoir d’Ockham dans le contexte de l’apprentissage PAC.
Pourquoi fait on tellement confiance à la théorie des probabilités ?
Parce que Richard Cox a montré que la théorie des probabilités découle nécessairement d’un nombre minimal de desideratas de tout processus de raisonnement cohérent. Ce n’est pas juste une théorie parlant de lancers de dés et de dénombrement et de distributions normales. C’est une théorie qui décrit la cohérence d’un système de savoir/croyances, et comment ce système doit évoluer lors de l’obtention de nouvelles informations.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 4 (+1/-0).
Et tu trouveras des philosophes des sciences et des scientifiques qui te diront qu'en pratique le rasoir d'Ockham est rarement un principe effectif. Quand on tranche entre théories, c'est qu'elles font des prédictions différentes, en règle générale. Quine, Kuhn dans le camps des philosophes par exemple.
J'imagine que dans un cadre de théorie approximativement correct on préfèrera la théorie de Newton niveau gravité à la théorie de la relativité générale parce que plus simple et que faut aller chercher pour trouver des observations qui nécessitent la théorie de la relativité générale pour être expliquées ?
[^] # Re: Verbiage…
Posté par kantien . Évalué à 5 (+3/-0). Dernière modification le 03 février 2025 à 17:04.
Il me semble que pour le bon fonctionnement du système GPS il est nécessaire de prendre en compte l'influence du champ de gravitation sur la marche des horloges (le temps ne s'écoule pas de la même façon pour le satellite et le récepteur sur terre).
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 17:36.
Le rasoir d’Ockham permet de trancher entre Géocentrisme + Épicycles et Héliocentrisme par exemple. Le problème des épicycles n’a jamais été leur incapacité à reproduire les prédictions du géocentrisme.
(oui, muni de nos théories cosmologique modernes, la question est moins intéressante, j’en convient)
Dans l’idée oui. Aucune idée de si quelqu’un a essayé en pratique de faire rentrer Newton vs RG dans ce cadre. Intuitivement, ça me semble excessivement complexe.
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 6 (+3/-0).
Du coup, l'Ukemisme (un néologisme créé pour ce journal) est une nouvelle école de pensée sur les fondements de l'induction?
Par exemple, quand on apprend que le soleil ne se lève approximativement à l'Est que deux fois par an aux équinoxes, c'est comme quand on tombe au judo sans se faire mal?
Mieux que quoi? Tu veux déterminer des implications de la théorie de l'information en épistémologie?
Le problème, c'est que tu risques de tomber de haut quand tu réaliseras que le processus scientifique, au niveau opérationnel, ne fait jamais appel aux concepts épistémologiques. L'épistémologie décrit le comportement et les prises de décision des scientifiques comme les entomologistes décrivent le comportement des fourmis, mais les fourmis ne lisent pas plus les articles des entomologistes que les scientifiques ne lisent les articles d'épistémologie :-) Ce que je trouve paradoxal, c'est que les mouvements zététique-like poussent pour une intégration du "raisonnement scientifique" dans d'autres domaines de la société, sans forcément réaliser que les scientifiques n'organisent pas du tout leur raisonnement selon les théories épistémologiques dont ils ne connaissent même pas l'existence, puisque c'est le contraire (l'épistémologie décrit la manière dont les scientifiques raisonnent).
[^] # Re: Verbiage…
Posté par kantien . Évalué à 5 (+3/-0).
Cela me semble être de la philosophie douteuse.
Déjà, comme dit dans un autre commentaire, ce que tu décris n'a absolument rien à voir avec le projet de Kant dans sa Critique de la raison pure. Si tu veux connaître son avis sur les probabilités, l'induction et le rasoir d'Ockham, ça se trouve dans son traité sur la Logique.
Lorsqu'il dit que nous concluons de la vérité des conséquences (faits observés) à la vérité du principe, il dit que nous concluons par abduction ce qui n'est pas un principe logique valide, mais acceptable, voire nécessaire, dans la connaissance expérimentale et c'est sur cela que repose l'induction. Ce qui n'exclue pas la nécessité d'une certaine certitude, d'où les trois critères qui suivent : le premier visant à limiter les délires de l'imagination, le second exigeant que la majeur du raisonnement abductive soit certaine, et enfin le troisième n'étant que le rasoir d'Ockham (chez qui peut-il faire débat ?).
Texte où l'on voit encore une fois que ce dont tu parles n'a rien à voir avec la Critique de la raison pure, son objectif dans cet livre étant de mettre la métaphysique sur le chemin sûr de la science, et, comme il le rappelle, la métaphysique n'admet aucune hypothèse tout comme les mathématiques (autant vouloir fonder les mathématiques sur des conjectures).
Après, si, de ce que je comprends, l'ukémisme-rationnailsme vise à développer ce qui est ici synthétiquement exposé, vous réinventez la roue (carrée ?). Ensuite vouloir mettre des probabilités dans tous les problèmes rencontrés au cours d'une vie relève d'une maladie que j'appellerai la mesurite aigu. Le callul des probabilités permet de développer une logique modale dans laquelle le possible est quantifié par un nombre réel. Mais il n'est pas nécessaire de mesurer le degré de possibilité pour raisonner modalement, et c'est même bien souvent impossible. Ce qui réduit grandement le champ d'extension d'une telle méthodologie pour atteindre la vérité.
Dernière remarque en passant. Ce que tu nommes la « technique interdite Kill the Buddha », j'appelle cela tout simplement le doute radicale cartésien. Dans ses Méditations métaphysiques, Descartes commence par mettre en doute la totalité de ce qu'il pense savoir: il se trouve alors dans un état où il n'est sûr de rien. Puis, pour sortir de cet état de doute radical, il cherche un point d'appui pour douter de son doute : comme il doute de tout, et donc également de sa propre existence, il réalise qu'il doit bien exister puisqu'il faut que ce qui doute existe : les pensées qui l'occupent doivent être les pensées de quelque chose qui existe. D'où son fameux cogito ergo sum, « je pense donc je suis ». À ce stade, il est assuré d'une seule chose : il existe; mais il se pourrait bien que ce qu'il appelait réalité, antérieurement à son Kill the Buddha, n'existe point et ne soit que le fruit de son imagination. Et là on a l'argument cartésien ultime qui lui permet de sortir de son solipsisme, argument qu'à mon avis ignorent beaucoup de ceux qui se disent cartésien et rationnaliste (je ne parle pas d'ukémisme, mais de son acception philosphique par opposition à l'empirisme) : pour pouvoir se convaincre de l'existence de la réalité, il passe par une preuve de l'existence de Dieu qui dans sa grande bonté ne peut être trompeur, d'où il déduira que la réalité existe. Si c'est pas beau tout ça ! On est encore loin, et bien en aval dans la chaîne des raisons, de se poser la question de savoir comment déterminer cette réalité via l'induction et le calcul des probabilités. Tu devrais Kill the Buddha sur l'ukémisme lui même. ;-)
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1). Dernière modification le 04 février 2025 à 20:14.
Je ne veux pas me lancer dans l’exégèse de Kant ; je connais très mal le sujet, ma seule intention dans l’invocation du nom est de donner un exemple de théorie épistémologique, pas de me prétendre expert sur le sujet (ou d’en invoquer un).
Je vais juste rebondir sur quelques points qui me semblent intéressants :
C’est une très bonne illustration de comment la théorie des probabilités est utilisée dans le projet ukemiste :
A => B signifie P(B | A) = 1
P(A | B) = P(B | A) P(A) / P(B) = P(A) / P(B) > P(A), autrement dit l’observation de B est un indice en faveur de A : l’abduction (pour le coup tu m’apprends le terme, même si je connaissais cette loi dans sa forme bayésienne) "bayésienne" est un principe valide.
(et le formalisme bayésien montre également clairement que P(A | B) = P(A) si P(B) = 1, autrement dit l’abduction n’est pas valide si B est une tautologie)
Non, non, le mot important et central dans la technique est cher. C’est l’observation très bête que quand tu es investi émotionnellement dans une hypothèse, c’est là que les biais importants se manifesteront le plus fortement, et qu’il va falloir être particulièrement impitoyable sur les justifications.
Je n’ai jamais été attiré par le genre de questionnement radical "est-ce que la réalité existe vraiment ?"
Pas chez moi, mais pour me faire l’avocat du diable : comment définis-tu "simplicité" ? Je note que dans la formulation sur la page wikipedia on parle "d’entités" (je suppose d’entités ontologiques ?), et que ton extrait parle "d’hypothèses auxiliaires". Les deux ne sont pas équivalents. Quelle version est correcte ? Pourquoi ?
(si tu veux une approche ukemiste de cette question : https://www.lesswrong.com/posts/EL4HNa92Z95FKL9R2/a-semitechnical-introductory-dialogue-on-solomonoff-1 ; qui est également je pense un bon représentant de ce qu’est le projet ukemiste, à la relecture)
Ce n’est pas vraiment le but. Le but c’est des choses comme… l’exemple plus haut. Un raisonneur idéal (dans le sens de Cox) possède-t-il un principe d’abduction, ou est-ce une étape de raisonnement totalement invalide ? Peut on étudier plus en détails ce principe ? Est-ce utilisable en pratique, dans quelles conditions, et à quoi faut-il faire attention quand on l’utilise ?
L’ukemisme ne m’est pas tellement cher en vérité. C’est juste un outil. Je suis loin d’être à 100% satisfait par le pilier "théorie bayésienne des probabilités", le problème est que formaliser mes insatisfactions et arriver où elles mènent est largement au dessus de mes capacités mathématiques (actuelles ? soyons optimistes ?).
[^] # Re: Verbiage…
Posté par kantien . Évalué à 5 (+3/-0).
Alors pourquoi en parles-tu ? D'où t'es venu l'idée de mentionner Kant comme projet similaire à ce que tu cherches à présenter ? Et non ! la Critique de la raison pure n'est pas une théorie épistémologique. D'où sors-tu cette idée ? Si la question de la possibilité de la connaissance expérimentale est aborder de façon secondaire dans l'œuvre, c'est loin d'être sa préoccupation fondamentale.
Je le sais bien, c'est à peu près la seule chose que j'avais réussi à comprendre dans ton texte qui manque franchement de clarté (mais d'autres t'ont déjà expliqué le pourquoi du comment sur le sujet).
Mais tu as loupé le point important dans ce que j'avais écrit, je le remet en graissant ce qui compte :
Le raisonnement abductif est valide en logique modale si l'on considére comme apodictique la majeure, assertorique la mineure et problématique la conclusion.
Ce que je dis c'est que étant donné une distribution de problabilité, elle détermine une logique modale sur un ensemble d'énoncés (ceux sur qui porte la distribution). Néanmoins, la réciproque est fausse. Toute logique modale ne dérive pas nécessairement d'une distribution de probabilité.
Conséquemment, présenter le calcul de probabilités et la loi de Bayes comme l'alpha et l'oméga d'une épistémologie révolutionnaire, comme si on avait trouvé là une panacée au problème de la vérité et la pierre philosopohale, ça me fait mourir de rire. C'est une thèse d'un ridicule profond.
Ce texte est ridicule, je n'ai pas pu aller jusqu'au bout. Je me suis arrêté ici :
L'honnêteté m'oblige à dire que c'est de l'épistémologie bonne à jeter à la poubelle. La page wikipédia sur l'inférence inductive de Solomonoff précise pourtant :
Peux-tu en toute bonne foi me définir une distribution de probabilité sur des événements comme « le Canada envahit les Étas-Unis » (qui devrait plutôt être mis à jour son sa forme converse « les États-Unis envahissent le Canada »), et qui plus est une distribution qui soit calculable sur machine ?
Je rappelle la première règle de bon usage des hyptohèses :
règle qui a pour but de contenir les délires de l'imagination.
De plus, présenter la théorie de Solomonoff sous la forme d'une dialogue Platonicien où Socrate est joué par le personnage Blaine, je ne sais pas si je dois rire ou pleurer. Quand on réfléchit au problème que Blaine prétant pouvoir résoudre via cette théorie et au contenu de l'alégorie de la caverne, ça me donne plutôt envie de rire.
Drôle de technique interdite. Je préfère l'approche philosophique kantienne : dans le doute je m'abstiens de juger définitivement, si j'affirme c'est que j'ai été impitoyable sur les justifications. Autrement dit : ne jamais asserter sans examen approfondi des raisons qui mènent à la conclusion, pour tout le reste rester au stade problématique sur le plan de la modalité (sans recourir aux calcul des probabilités là où il n'est pas applicable ;-). Et loin d'être interdite, cette technique est le degré zéro de ce que l'on peut appeler rigueur intellectuelle.
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 2 (+1/-1).
Tu aurais pu écrire "tl;dr", ça nous aurait épargné à tous les deux des efforts.
Tu surinterprètes (mais je suis prêt à prendre une part de responsabilité là dessus). Un nouvel outil qui donne de nouveaux éclairages, pas la panacée. Je crois que j’ai écrit plusieurs fois ce terme maintenant : "outil".
C’est explicité. Plus loin. Je vais faire un petit effort et te citer le passage exact, même si vu le ton de ta réponse, je pense que c’est peine perdue.
.
Vraiment, tu ne peux pas imaginer à quel point cette phrase me chagrine.
Que tu sois d’accord ou non sur la conclusion finale, le sujet abordé me semble extrêmement intéressant pour le genre de personne qui s’intéresse à ces questions. Dont j’ai l’impression que tu fais partie. J’ai écrit en grande partie de journal pour atteindre ce genre de personne, en mode "hey : il y a des choses intéressantes et nouvelles à regarder là bas".
Le -30 sur le journal ne me choque pas tellement. Il est visiblement mal écrit (ma faute), mal expliqué (ma faute), sur un sujet relativement ésotérique (je savais ça en avance, mais j’ai considéré que ça valait tout de même le coup d’essayer). Je ne peux m’en prendre qu’à moi-même.
Par contre m’intéresse, avoir comme réaction "le sujet mais j’aime pas la forme donc tl;dr"… comment dire… ça me met pour le coup vraiment le moral dans les chaussettes.
[^] # Re: Verbiage…
Posté par kantien . Évalué à 3 (+1/-0).
C'est effectivement peine perdue. ;-) Vous considérez sérieusement cela comme une définition d'une distribution de probabilité sur une famille d'événements du type « le Canada envahit les États-Unis » ? À ce stade, il faut songer à consulter ! Les bras m'en tombent /o\
C'est du même acabit que l'approche « économiste » que tu décris dans ton autre commentaire :
Ce genre d'énoncé contient bien plus d'informations sur celui qui l'énonce que sur la réalité qu'il cherche à modéliser. Je suis étonné que Von Neumann se soit fourvoyé dans ce genre de chose.
Ensuite le résultat n'est pas si surprenant : si je présuppose des probabilités à l'entrée (voir la liste des axiomes) alors j'ai des probabilités à la sortie. On n'est pas loin de la tautologie. Le problème étant de quel droit puis-je poser l'axiome 3 ? Sur le plan mathématique, on peut poser les axiomes que l'on veut tant que l'on évite la contradiction. Mais lorsque l'on prétend l'appliquer à la réalité, je pose la question typiquement kantienne : Quid juris ? De quel droit ? Où se trouve la déduction transcendentale qui m'autorise à appliquer cette connaissance pure et a priori à la réalité expérimentale ? Et là on quitte le champ des mathématiques, pour celui de la philosophie.
Oui j'en fait partie, ce sont des interrogations typiquement philosophique. Seulement, sur l'usage des probabilités, il n'y a rien de neuf sous le soleil si ce n'est une extension de l'usage qui est à la limite de me glacer le sang et qui me semble anti-philosophique au plus haut point.
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 2 (+1/-1).
Quel argumentaire puissant. Je ne peux plus que m’avouer vaincu, je suppose.
Ha, on progresse vers "von Neumann s’est fourvoyé", sans justification.
Je vais être méchant, mais je pense que pour le coup c’est mérité : quand vous dites "von Neumann s’est fourvoyé" sans justification et "Ray Solomonoff s’est fourvoyé" sans justification (et je suppose que je peux ajouter Jaynes, Cox et de Finetti à la liste, même si ça n’a jamais été dit explicitement ?), d’un seul coup l’argument "Yudkowsky, je ne l’ai pas lu jusqu’au bout, mais il se fourvoie" me semble d’un seul coup… quelque peu… bref, disons qu’il se retrouve en bonne compagnie.
L’introduction des probabilités n’est pas faite à l’axiome 3, mais dans la définition d’une lotterie, plus haut. Et le but de l’axiome 3 n’est pas d’avoir "des probabilités à la sortie". Ce n’est pas non plus le but, ou le résultat du théorème.
Oui, le théorème assume que la théorie des probabilités est correcte, dans le sens où la démonstration du théorème se base dessus, mais c’est utilisé en tant qu’étape intermédiaire, pas "en tant que tautologie". C’est l’étape suivante ? "Toute théorie faisant usage de la théorie des probabilités est invalide" ? Encore une fois, je crains qu’avec une telle règle que les "théories invalides" se retrouvent en bonne compagnie.
Par pitié, rassurez-moi. Dites moi que je vous ai terriblement mal interprété.
Parce que mon interprétation de tout ça c'est : utiliser Kant (mort en 1804), pour dire que les résultats de von Neumann (1947), Cox (1946), Jaynes (je ne trouve pas la date, disons 1960), et Solomonoff (1964) sont "fourvoyés, les pauvres".
Sans chercher à les comprendre (parce que "j’aime pas le style"), juste a priori ?
Qu’est-ce qu’il y a de philosophique dans cette attitude, exactement ?
[^] # Re: Verbiage…
Posté par kantien . Évalué à 2 (+0/-0).
Alors s'il faut argumenter… Il faut surtout être sérieux deux minutes. Je te demande de me définir une distribution de probabilité sur des événements du type « Le Canada envahit les États-Unis » (le personnage de Blaine affirme que la magie du théorème de Solomonoff permettra de la déterminer) et vous me répondez en substance : considérant que l'univers est un automate à états finis alors on peut déterminer une telle distribution de probabilité, et en plus ça tombe bien on se retrouve dans le cas d'application du théorème. Vous pensez sérieusement que l'univers est un automate à état fini et que, par exemple, le travail des physiciens consistent à déterminer les lois qui régissent ses transitions ? Si c'est le cas, alors oui, il faut consulter. ;-)
Mon problème avec ce texte n'était pas « tl;dr » mais que cette réponse je l'avais vu venir gros comme une maison, et que je n'ai pas de temps à perdre à lire de telles inepties. Votre « good epistemology » c'est quoi ? L'étude des automates à états finis ? Et on peut l'étendre à toutes les formes de savoir humain ?
Comme tu aimes les probabilités : les séquences de bits (0 et 1) calculables par un tel algorithme sont récursivement énumérables. On peut identifier une telle suite à un réel dans le segment [0; 1]. Si on considére la distribution de probabilité uniforme sur cette intervalle, quel est est la probabilité de tomber au hasard sur un nombre calculé par l'algorithme ? Pour de simple raison de cardinalité, cette probabilité est nulle. Certes l'ensemble est dense dans l'intervalle pour sa topologie usuelle, mais il pèse peanuts.
Assurément, tu m'as mal interprété. Pour Von Neumann, j'ai lu trop vite, j'ai cru qu'il appliquait une axiomatique à la réalité empirique sans plus de justification que cela, ce qui, je l'avoue, aurait me faire dire : « attends un peu, tu as du louper un truc ». Et c'est bien le cas :
L'adjectif plausible ajoute bien une marque problématique sur le plan de la modalité (sans pour autant renvoyer à une quelconque distribution de probabilité). Il me faudrait lire plus en détails la source elle même pour me faire une idée son point de vue, mais je n'y ai pas intérêt.
Néanmoins, je justifiais ce que je considère être de la cuistrerie que d'appliquer une axiomatique à la réalité sans justification d'aucune sortes (ce que je perçois chez Yudkowsky). Sur le sujet, voir par exemple l'excellente introduction d'Einstein sur le sujet dans son livre de vulgarisation sur les théories de la relativité.
Enfin, rassure toi pour moi, lorsque l'on discute, même en 2025, des possibilités et limites du calcul on est en très bonne compagnie avec Kant. Je ne vais pas faire un exposé détaillé de l'histoire des idées, mais sache que, pour rependre l'exemple de Yudkowsky, il a occupé une place non négligeable dans l'intervalle qui sépare Poe de Shannon. La clarification de la notion de calculabilité tient, en partie, son origine dans la volonté de Gottlob Frege de réfuter un point de la philosophie kantienne. Finalement, on va aborder la Critique de la raison pure. ;-)
Dans cette ouvrage, où il expose clairement le problème qu'il cherche à traiter, on y trouve au chapitre VI (problème général de la raison pure) de l'introduction ce passage :
Pour comprendre la signification de cette question, il faut lire les chapitres précédents où il détermine avec précision ce qu'il entend par jugement synthétique et jugement a priori.
Cette question générale se subdivise en une question particulière : Comment les mathématiques pure sont-elles possibles ?. En effet, dans le chapitre qui précède (chapitre V), on trouve ce texte :
Et voilà ce que Frege voulait réfuter : il voulait montrer que loin d'être synthétiques, les jugements mathématiques sont tous analytiques. Il mit au point la théorie des ensembles dites de Cantor-Frege, mais elle s'avéra contradictoire. Ce qui créa une crise au sein des mathématiques au tournant des dix-neuvième et vingtième siècles (voir, par exemple, cette article de Poincaré où il prend, à bon droit, la défense de Kant), puis le programme de Hilbert, soldé par l'incomplétude gödelienne et le problème de l'arrêt de Turing. Bilan des courses : Kant avait raison !
L'histoire est racontée, par exemple, dans le livre Les métamorphoses du calcul de Gilles Dowek. M. Dowek a reçu, en 2024, la Médaille Histoire des Sciences et Épistémologie de l'Académie des sciences en 2024. Je te laisse décider si l'Académie des sciences est en mesure de distribuer des gages de « good epistemology ».
Tu pourras lire avec intérêt l'article Analytic and synthetic judgment in type theory de Per Martin-Löf (un théoricien des types). La théorie des types modernes est basé sur le résultat logico-mathématique de la correspondance de Curry-Howard qui est complétement kantienne dans l'esprit. À ce sujet, voir le chapitre de la Critique de la raison pure consacré à la logique transcendentale et la correspondance entre ces deux tables tables des jugements et table des catégories. Un autre théoricien des types, Jean-Yves Girard (auteur, en autre, des sytème F et systèmes F-omega à la base de langage de programmation comme Haskell ou OCaml) s'étonnait d'ailleurs dans l'introduction de son dernier livre, le fantôme de la transparence de l'étonnante actualité de la philosophie kantienne. Tu trouveras sur le site du Collège de France, une présentation de la correspondance de Curry-Howard lors de première année de cours de Xavier Leroy : Programmer = démontrer ? La correspondance de Curry-Howard aujourd'hui. Reste à savoir si le Collège de France fait de la bonne science et de la bonne épistémologie.
Personnellement, j'aime aussi ce texte À propos de la théorie des démonstrations (du programme de Hilbert aux programmes tout court) de Jean-Louis Krivine. M. Krivine fut un de mes professeurs lorsque j'étais encore un jeune étudiant, et c'est lui qui m'initia à la correspondance de Curry-Howard. Fort heureusement pour moi, j'étais, à l'époque, déjà un lecteur de la Critique de la raison pure. Je me suis alors dit : « Ô c'est comme Kant, mais en plus simple », et j'ai eu 20 au module en question. ;-)
Pour conclure, et revenir sur de la bonne epistémologie, je te propose cette conférence vidéo de Gilles Dowek sur le thème La dificile explication des résultats de calculs : des preuves automatiques à l'apprentissage automatique.
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 3 (+1/-0). Dernière modification le 07 février 2025 à 22:29.
Heu… oui ? C’est le but dans une discussion ? Sinon pourquoi prendre la peine ?
Mais encore ? J’ai fait le pitre quelque part ?
Bon, dernier essai. Et c’est bien parce que je suis d’extrêmement bonne humeur. Tout ce que je vais dire est écrit dans le texte. Je vais tout de même, en bon prince, faire l’effort de l’expliquer moi-même (de manière inférieure au texte originel).
L’induction de Solomonoff ne vise pas à définir un agent (note: j’écris agent par réflexe, mais dans ce cadre c’est juste un observateur passif, pas un agent) omniscient et objectif capable d’observer, représenter et prédire l’évolution de l’univers entier. Le but est de modéliser "quelles inférences peut faire un agent à partir de ses observations ?"
La distribution de probabilités en question est une distribution de probabilités sur les séquences des observations de l’observateur considéré. Donc quand tu dis "Je te demande de me définir une distribution de probabilité sur des événements du type « Le Canada envahit les États-Unis »", la réponse est que… personne dans ce contexte n’essaie de faire ça.
Petit détail : on se limite aux séquences finies (pas d’observateur immortel), donc l’ensemble des séquences d’observation est dénombrable. De manière plus centrale, pourquoi diable prendrais tu la distribution uniforme ? Le but de l’induction de Solomonoff est de sortir une distribution de probabilités sur les séquences d’observations, à aucun moment tu n’as besoin de partir de la distribution uniforme.
Je n’ai aucun doute que tu vas trouver de nouvelles "objections" qui sont abordées noir sur blanc dans le texte, donc : je m’engage en avance à ne pas répondre à un autre "gotcha" dont la réponse est trivialement dans le texte. Je ne répondrai que si je vois un réel effort d’essayer de comprendre.
Ce que tu perçois sans le lire ? Les Kantiens ont-ils donc des pouvoirs d’extra-perception ?
Tout ton exposé sur les liens entre Kant et la logique au 20e siècle est (sans aucun sarcasme !) intéressant, mais… je ne vois pas où tu veux en venir ? La seule chose que j’aurai à répondre à ça, c’est: si tu penses nous apprendre des choses, je te conseille de faire des recherches sur lesswrong, et tu verras que tous ces sujets ont été abordés un moment ou à un autre, mais merci pour la bonne intention, je suppose. Si tu penses m’apprendre des choses, encore merci pour l’intention, mais j’ai déjà un plan d’apprentissage, certaines des choses que tu cites sont déjà couvertes, d’autres déjà dans le plan, d’autres ne sont pas ma priorité.
Ce qui, dans un autre sens, est d’autant plus rageant : plus je te lis, plus j’ai l’impression que si on discutait amicalement autour d’un verre au lieu de se lancer des noms d’oiseaux, plus on se rendrait compte qu’on est d’accord sur beaucoup de points (sauf peut être sur mes hétérodoxies personnelles, mais c’est le principe là dessus que personne ne soit d’accord avec moi).
Pure projection. Je ne crois pas avoir avoir dit où que ce soit dans le journal ou dans les commentaires que le reste du monde était bon à jeter aux orties et à l’opprobre populaire. Les "piliers" que j’ai cités sont tous hors du mouvement et le précèdent ! Comment peut-on raisonnablement en déduire "mouvement sectaire qui méprise le reste du monde ?" J’ai même dit dans un autre commentaire « nos principes nous autorisent à manger à tous les râteliers (avec prudence) ».
Je peux comprendre les réactions épidermiques après avoir écrit comme un pied dans le journal initial mais… je pense avoir assez clarifié depuis, non ?
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 0 (+0/-2). Dernière modification le 05 février 2025 à 18:02.
Zut, j’ai oublié de répondre à un point technique intéressant :
Les économistes ont rencontré ce problème : si les préférences sont de la forme (je préfère A à B), quelle est la validité de les représenter par des nombres réels (fonction d’utilité) ?
La réponse est: si on se limite aux agents rationnels (entre autre: dont les préférences forment un ordre total), les deux sont équivalents.
Jaynes présente un résultat similaire (dans l’idée), annexe A3 de Probability Theory.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1).
Essayons de parler informaticien : Identifier les "bugs" dans les modes de raisonnements "naturels" des êtres humains. Trouver des workaround. Deux bases pour identifier ces bugs : la psychologie (biais cognitifs) et la théorie des probabilités (usage plus avancé, mais par exemple : https://www.lesswrong.com/tag/conservation-of-expected-evidence).
Essentiellement philosophique, plus précisément une épistémologique.
Le projet que Kant avait en écrivant sa "Critique de la Raison Pure", grosso-modo.
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 4 (+1/-0).
Ça ressemble à un programme de recherche, ça.
Du coup, ça n'est donc pas un programme de recherche :-)
Je ne suis pas bien plus avancé.
[^] # Re: Verbiage…
Posté par Ysabeau 🧶 (site web personnel, Mastodon) . Évalué à 2 (+0/-1).
Que tu as lu entièrement j'imagine et compris.
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
[^] # Re: Verbiage…
Posté par kantien . Évalué à 4 (+2/-0).
J'en doute fortement. Après une lecture régulière et approfondie de l'ouvrage depuis plus de 25 ans, je pense pouvoir affirmer que je l'ai compris. Compréhension que ne semble pas posséder l'auteur du journal. Quiconque a lu le livre sait pertinemment que tout recours à la psychologie ou au probabilité, pour aborder les problèmes qu'il y traite, doit être considéré comme nul et non avenu d'un point de vue méthodologique. Kant ne pouvait être on ne peut plus explicite là-dessus dans sa préface à la première édition :
Autrement dit, toute proposition dont la mesure de probabilité n'est pas égale à l'unité (certitude apodictique) doit être proscrite dans toute entreprise de cette sorte.
J'avais pour projet, au départ, de faire une commentaire plus long après la lecture du journal pour réagir sur ce qu'il y dit sur Kant :
Le kantisme est plus une méthode d'investigation philosophique qu'un ensemble de conclusions (bien qu'il y ait, dans l'ensemble de l'œuvre critique, des solutions que Kant considérait comme définitives à des problèmes métaphysiques légués par la tradition). Je verrai si je trouve le temps de développer le sujet, tout en le mettant en rapport avec le problème de l'arrêt, l'IA et l'analyse formelle de code informatique (preuves assistées par ordinateur, type checking, raisonnement automatique…) pour traiter de sujets plus familiés au lectorat du site.
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 3 (+0/-0).
Et dans quel cadre tu veux appliquer cette loi ? Ta vie personnelle ou tu modélises une décisions en mettant un poids motivé sur chacune des variables ? La décision politique avec genre un "bureau de l'attribution des probabilité à un ensemble de variables", genre l'INSEE ? Les protocoles scientifiques ? Les cabinets de conseil, l'assemblée ?
Pour quel projet politique, juste comme but en soi d'appliquer ces loi statistiques (valables dans un cadre mathématique précis) ?
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1).
Dans ma vie personnelle, évidemment. Principalement dans les exercices de calibration.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 3 (+0/-0).
Exemple ?
[^] # Re: Verbiage…
Posté par Pol' uX (site web personnel) . Évalué à 5 (+3/-0).
Réécrire les Séquences en un journal.
Adhérer à l'April, ça vous tente ?
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 3 (+0/-0).
Du coup, il y a un peu de R&D en vue pour mettre au point la méthode :-)
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 3 (+0/-0).
(pardon je répond une deuxième fois) dans la vie perso, sachant que le cerveau est parfois considéré comme une machine à prédire Bayésienne (en tout cas c'est une piste intéressante des neuroscience actuelle https://www.sorbonne-universite.fr/actualites/lesprit-est-il-une-machine-predictive-introduction-la-theorie-du-cerveau-bayesien par exemple), les biais induits … sont également des conséquences des limites de ce type d'approche ?
Ce serait donc un peu étrange d'essayer d'éliminer les biais … par le même type d'approche qui les produisent. Surtout dans le cadre de sa vie personnelle ou la quantité d'informations qu'on peut ingurgiter à titre personnel n'est pas nécessairement très importante, et donc l'espoir de corriger ses propres biais n'est pas énorme. Il faut d'autres approches pour intégrer des données à large échelle pour réduire les erreurs …
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1).
Le problème de l’inférence Bayésienne est NP-complet. Même si le cerveau était grosso-modo une machine Bayésienne (ce qui me semble extrêmement douteux, mais je ne suis pas neuroscientiste), il ne pourrait l’être qu’approximativement.
Ce serait extrêmement surprenant. Cox's Theorem. La plupart des biais cognitifs violent la troisième condition “If the plausibility of a proposition can be derived in many ways, all the results must be equal”.
Pas impossible je suppose, on est jamais à l’abri de découvrir une contradiction dans la théorie des probabilités après tout. Mais extrêmement surprenant.
D’où le choix de la théorie des probabilités comme un des deux piliers.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 3 (+0/-0).
Je sais pas trop ce que veux dire formellement exactement "le problème de l'inférence Bayesienne est NP-complet", mais en tout cas je ne vois pas en quoi en quoi ça voudrait dire qu'en pratique on peut faire mieux, méthodologiquement et humainement, que d'approcher la solution, sauf sur des problèmes excessivement petit et en mettant une puissance de calcul phénoménale sur la table pour les problèmes de taille un peu conséquente.
Autrement dit, quoi qu'on fasse c'est difficile d'échapper au fait que la rationalité est de fait limitée (quoi qu'on mette derrière ce mot d'ailleurs) et que donc c'est rarement possible d'aborder le problème de manière exacte. Autrement dit, des "biais" (encore une fois quoi qu'on mette derrière ce mot) viennent simplement du fait que la rationalité est limitée et qu'on ne va pas réfléchir indéfiniment et exhaustivement à tous les problèmes.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 2 (+0/-0).
https://bayesian-programming.cnrs.fr/computational-complexity-of-bayesian-inference/
Tout à fait. Je répondais uniquement au point "si les biais viennent de la théorie bayésienne des probabilités, il y a peu d’espoir d’utiliser la théorie bayésienne des probabilités comme guide pour lutter contre".
Les biais viennent très probablement des approximations nécessaires.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 3 (+0/-0).
J'aurai tendance à penser que si un raccourcis est efficace dans une approximation d'inférence bayésienne, il sera efficace dans d'autres cas également, et que le même type d'apprentissage est largement susceptible de générer le même type de biais. Après ça peut être un point de départ (on part d'un modèle qui n'est pas vierge, qui peut être différent suivant la méthode, c'est vrai) mais le point de départ est "a priori" choisit pour être efficace en terme de prédiction dans les cas qu'on est susceptibles de rencontrer communément.
[^] # Re: Verbiage…
Posté par Nicolas . Évalué à 1 (+0/-0).
Dès qu'on est pas en situation relativiste on utilise Newton. On ne connaît déjà pas de solution analytique au-delà de 2 corps dans ce cadre… les calculs en RG sont infâmes et on ne connaît que très peu de solutions (pas même avec 2 corps, c'est balo pour une théorie de la gravitation).
Pour le reste je me garderai bien de commenter le journal. Ça va ruer dans les brancards si je m'y amuse.
[^] # Re: Verbiage…
Posté par Nicolas . Évalué à 1 (+0/-0).
Oups je réponds au mauvais commentaire…
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 3 (+0/-0).
Mais c'est "juste" un problème de maths. C'est très embêtant, mais ça n'est pas lié au processus scientifique… enfin, pas directement. C'est plus pratique et élégant d'avoir des solutions analytiques, mais ça ne devrait pas (trop) conditionner le choix du modèle.
En pratique, il est parfois possible de bricoler des solutions analytiques avec des fonctions "spéciales", donc la limite entre analytique et non-analytique est souvent floue.
[^] # Re: Verbiage…
Posté par Nicolas . Évalué à -1 (+0/-2).
C'est totalement lié au process scientifique. Pas de prédiction des trous noirs sans métrique de Schwartzild.
Navier-Stockes est un problème du millénaire au même titre que Yang-Mills. 2 problèmes analytiques, et très abstrait même pour le second. Ce qui se joue dans les deux cas c'est très directement la légitimité scientifique des équations qui est en jeu (la moindre des choses étant qu'elles acceptent des solutions si elles veulent prétendre décrire le réel).
Mais ça vaut aussi pour des simulations numériques. On s'amuse pas à mettre de la RG là où la mécanique newtonienne est largement suffisante. Sauf que les simus numériques ça à aussi de grosse limite (pour dire de manière très schématique on s'éloigne encore plus de la théorie sous-jacente, par ajout de nouvelles hypothèses et donc ça peut poser pas mal de problèmes épisto - sur-détermination du modèle, impact des hypothèses, conformité à la réalité).
Après c'est sûr que si tu fondes ton épisto. en fonction de ce qui t'arranges et que tu rejettes tout ce qui rentre pas dans tes cases…
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 2 (+1/-2). Dernière modification le 04 février 2025 à 18:39.
Mais ça n'a rien à voir avec le développement analytique. Les intégrales quelconques de Gaussiennes n'ont pas de solutions analytiques, et pourtant les statistiques se sont construites sur les approximations numériques et sur la définition de fonctions spéciales. D'ailleurs, les statistiques sont blindées de fonctions spéciales (gamma, erf, etc), et tu ne peux pas raisonnablement prétendre que les statistiques manquent de légitimité scientifique!
De manière plus générale, je connais très peu de modèles "modernes" (sujets actuels de recherche) qui admettent des solutions analytiques. Au mieux, diverses techniques peuvent amener à proposer des approximations analytiques qui sont parfois utiles pour calculer une solution approximative ou étudier les propriétés du modèle, mais la résolution du modèle est fondamentalement numérique. D'ailleurs, de nombreux modèles qui ont une solution analytique sont en fait résolus numériquement, parce que la solution analytique fait appel à une construction difficilement calculable (suite infinie, rapport de fonctions qui deviennent très petites ou très grandes, etc). Au final, de toutes manières, toute application d'une formule analytique fait appel à une approximation numérique, prétendre que le statut de sqrt(2) et de gamma(2) est fondamentalement différent est assez pédant, non?
[^] # Re: Verbiage…
Posté par Nicolas . Évalué à -1 (+1/-3). Dernière modification le 04 février 2025 à 19:34.
Oulaaaaaaa y'a quelques lacunes mathématiques qui traînent là. On sort pas des fonctions analytiques du chapeau, il y a des preuves d'existence derrière tout ça¹ (et pas que).
Pour le reste, je confirme : 《 [tu] connais très peu… 》. Encore une fois si tu te restreins… à la recherche appliquée…
Sur YouTube tu as l'espace de sciences de Rennes, entracte sciences, Scientia Egregia (juste pour voir un peu ça peut être de la recherche fondamentale en physique, ça pique sévère), le musée de l'homme, et j'en passe et des meilleurs. Faut un peu s'ouvrir l'esprit. T'as qu'est-ce que la science de Chalmers pour une introduction correcte à la sciences (très loin des imposteurs qui pullulent ce journal, il en existe une lecture critique sur YouTube mais c'est pas fait pour tout le monde…). Après quand je vois le rayon rachitique consacré aux sciences à la Fnac, je suis pas surpris. On vit quand même dans une drôle d'époque. Alors que la connaissance n'a jamais été aussi accessible et n'a jamais eu autant d'importance (sciences et pouvoir de Stengers).
-‐-
¹ si jamais un jour t'exhibes une densité de probabilité non intégrable à un mathématicien, tu risques de recevoir en retour quelques légers quolibets ;)
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 4 (+2/-1).
Le problème fondamental avec a discussion par forum interposé est que tu peux mal calibrer tes interlocuteurs. Par exemple, je pensais que tu étais enthousiaste mais un peu flou sur les concepts, mais je ne m'attendais pas à ce que tombes dans la cuistrerie.
… et imaginer qu'on puisse par hasard sur un forum de linuxfr tomber sur des gens qui s'y connaissent un peu en modélisation et en recherche fondamentale?
En fait, je pense que tu n'utilises pas correctement le concept de "solution analytique". Quand tu prends le modèle Newtonien à deux corps réduit, tu poses tes équations qui décrivent le mouvement de tes corps (enfin de ton petit corps qui gravite autour du gros), et tu peux résoudre analytiquement le modèle, c'est à dire que tu peux trouver une expression mathématique qui te donne x(t) comme une fonction de t qui n'utilise qu'une liste restreinte de fonctions mathématiques "usuelles". Quand on dit que le problème à deux corps général (ou à trois corps) n'a pas de solution analytique, c'est qu'on pose les équations de la même manière, mais on ne peut pas exprimer x(t) avec des fonctions mathématiques. Mais x(t) peut évidemment être calculé, c'est juste que le calcul fait appel à une procédure numérique.
Ça ne pose pas de problème particulier, c'est juste que tu ne peux pas écrire la solution, et qu'il faut utiliser des méthodes un peu différentes pour la décrire.
Plutôt que de parler d'imposture, qui est une notion vraiment agressive, distinguer déja les amateurs pourrait être intéressant. Un peu pareil qu'en programmation, il y a des gens qui s'y intéressent sur leur temps libre, et des gens qu'on paye pour leurs compétences dans ce domaine; il y a donc de fortes chances pour que les employeurs pas complètement débiles préfèrent payer des gens qui s'y connaissent réellement, plutôt que des gens qui pensent s'y connaitre. Pour la science, c'est la même chose, il y a des gens qui sont payés pour en faire, et des gens qui regardent des vidéos Youtube parce que ça les intéresse.
Pour faire un parallèle un peu osé, la science c'est un peu comme le sexe. C'est pas parce que tu as lu plein de bouquins ou vu plein de vidéos sur Youtube que tu as la moindre idée de ce que c'est en vrai. Donc, tu fais des études, un master, une thèse, tu portes des programmes de recherche, publies, présentes tes travaux à des conférences internationales, et après, tu peux dire que tu sais en pratique comment tout ça fonctionne (ou plutôt, tu peux évaluer à quel point c'est différent de ce qu'il y a écrit dans les livres). Et si tu n'as pas fait ça, tu peux éviter d'utiliser le terme d'"imposteur", parce que c'est le genre de mots qui peuvent facilement te revenir dans les dents plus vite que tu n'avais prévu.
Parler de statistiques à un mathématicien? Tu en as marre de la vie?
Sur le fond: "de solution analytique". Évidemment qu'une densité de probabilité est intégrable, mais elle n'est pas forcément intégrable analytiquement. Il n'existe pas de formule mathématique ne faisant pas intervenir de fonctions spéciales pour exprimer l'intégrale de exp(-x2) entre a et b, avec a et b quelconques. Ça ne pose pas de problème, c'est juste que tu devras te contenter d'une fonction spéciale pour intégrer des Gaussiennes tronquées.
Au risque de te faire faire des cauchemars, il n'existe pas non plus de formule analytique pour le périmètre d'une ellipse!
Donc je pense que tu n'utilises pas le mot "analytique" comme il faut.
[^] # Re: Verbiage…
Posté par Nicolas . Évalué à -1 (+0/-2). Dernière modification le 05 février 2025 à 22:43.
Surtout n'hésites pas à donner ta définition précise de solution analytique avec les sources qui vont bien pour confirmer ton usage.
Quant au reste de ton charabia. Rien compris.
Ahah. Bon ok je comprends mieux… (mais c'est moi qu'est flou hein…)
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 3 (+1/-0).
"Pas de solution analytique" est parfois utilisé informellement comme raccourci pour "n’est pas exprimable en termes de fonctions élémentaires". Je pense que c'est de ça dont parle arnaudus.
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 5 (+2/-0).
Faire croire qu'on a des divergences sur le vocabulaire est un moyen comme un autre de se sortir d'une discussion scientifique vs pseudo-scientifique, mais il n'a jamais existé aucune autre signification de "solution analytique" (en sciences dures hein, parce que dans le milieu des RH/consulting ça veut dire autre chose—en fait, pas grand chose, mais ça fait classe de singer le jargon scientifique).
Après, wikipédia redirige "solution élémentaire" vers "expression de forme fermée", qui me semble être un calque maladroit de l'anglais "closed-form expression", qui est pour le coup la manière dont je traduirais "solution analytique". Mais on s'en fout un peu, on parle de la même chose, il n'y a aucune ambiguité dans le contexte de la discussion.
En fait, la seule discussion qu'on peut avoir, c'est sur la notion de fonction élémentaire, parce que ça n'est pas évident au premier abord pourquoi le logarithme est considéré comme une fonction élémentaire alors qu'il s'exprime par une intégrale. L'article de la wikipédia anglaise https://en.wikipedia.org/wiki/Closed-form_expression a un tableau intéressant qui explicite des nuances entre "closed-form", "analytic", et "mathematical expression", en fonction de si tu acceptes les sommes infinies, les fonctions spéciales, etc. Mais je ne suis même pas sûr que ça représente bien l'usage, puisqu'il est suggéré qu'une solution faisant intervenir une fonction spéciale est "analytic" mais pas "closed-form", ce qui me semble fondamentalement problématique: les fonctions spéciales sont "juste" des intégrales compliquées qui reviennent souvent et dont l'usage a fixé le nom, mais rien de les distingue d'une intégrale sans solution "élémentaire" que tu définirais toi-même. Du coup, le tableau ne me semble pas très cohérent, il a en fait trop de colonnes (ou bien la ligne "integral" n'est pas bien remplie).
Bon, bref, pour remettre les choses dans l'ordre, Nicolas affirme que le modèle général à 2 corps n'a pas de solution analytique, prend tout le monde de haut, affirme que la discussion est pourrie par des imposteurs, conseille de regarder des vidéos de vulgarisation scientifique sur Youtube, et on finit par se rendre compte qu'il n'avait absolument aucune idée de ce que pouvait bien vouloir dire "solution analytique" dans le contexte même qu'il a évoqué. Dans quelle mesure une telle discussion peut être constructive?
[^] # Re: Verbiage…
Posté par Nicolas . Évalué à 3 (+2/-0).
Toujours pas de sources sur l’usage en cours (pas toi, ta petite personne, ta traduction). C’est le seul truc qui m’intéresse, c’est le seul truc sur lequel je te demande des sources. Si je te demande des sources, c’est bien parce que je suis prêt à me remettre en cause.
Si je fais une simple recherche et que je regarde un peu ce qu’il en est :
https://lite.duckduckgo.com/lite/search?kd=-1&kg=g&k1=-1&q=analytical+solution
Et en admettant ta définition de solution analytique (ce qui n’est pas du tout acquis), sur ton lien wikipedia :
Ce qui est balo.
Pour le reste, je m’en contrebalance. Tu peux bien penser que je te prends de haut, mais désolé pour ton égo, il y a une hiérarchie du savoir. J’ai donné quelques exemples incontestables et liens pour ceux qui sont curieux de savoir ce qu’est la science moderne et l’importance du raisonnement qualitatif en recherche, très loin de toute application/solution numérique. Ce qui était ma thèse de départ. Ce qui avait été dit m’avait choqué, je répondais juste sur ce point (et pas sur le journal, cf. infra) en prenant exemple dans mon domaine de compétence précis (et pourtant j’en ai bouffé de la simulation numérique, suffisament pour avoir un recul critique là-dessus) et des domaines connexes (la physique moderne pioche largement dans l’algèbre moderne, ou algèbre générale, la topologie différentielle, etc. ce qui la place à un niveau d’abstraction supplémentaire, nécessaire si on veut faire de la recherche fondamentale de manière sérieuse).
Tu dis :
Non, tu m’as compris de travers, je parle pourtant bien du journal, pas des commentateurs. Quand tu vas voir le pedigree des gens qui sont référencés dans le journal, ça fait peur. On est plus sur de l’autoproclamé chercheur, le “toutoulogue” qui saute du Covid à l'IA (tout ce qui peut amener de l’audience…), peu d’institutions sérieuses (universités, labos), essentiellement du post de blog, des “instituts”, privés, et ainsi de suite. Tous les redflags s’allument, ça pue à 1000km à la ronde. C’est sûr qu’avec ça on part sur de mauvaises bases, mais les commentateurs sont plutôt sceptiques…
Maintenant, si on part de présupposés épistémologique qui sont juste complètement dépassés (empirisme, primauté du quantitatif sur le qualitatif, idéalisme philosophique), je vois assez bien comment on aboutit à ce genre de dérive. D’où l’importance déjà de savoir ce qui se fait dans le domaine, en se sourçant auprès de gens un minimum (re)connus.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 3 (+1/-0). Dernière modification le 06 février 2025 à 15:24.
Je vois beaucoup de mépris, bien peu de substance. Essayons de répondre tout de même, même si ce message me donne bien peu de points d’accroche pour discuter calmement et objectivement.
Oui, je cite principalement un travail de vulgarisation (lesswrong). Yudkowsky et les Séquences plutôt que "tapez vous Jaynes et Solomonoff et Tversky et Kahneman" (et tous les autres, il n’y a pas que ces quatre noms). Je ne vois pas en quoi c’est problématique.
Je trouve le mépris pour l’amateurisme assez déplacé. Il n’y a pas besoin d’avoir un permis pour apprendre, réfléchir et partager ses résultats. C’est même un des grands cadeaux d’internet. La communauté open-source est fondée là dessus — il ne viendrait à personne l’idée de dire "pour contribuer, il va falloir que vous me présentiez votre diplôme d’ingénieur". La communauté scientifique a eu son lot de contributions "d’amateurs". Et ça continue, d’ailleurs (BB(5), Marjorie Rice, pour ne citer que les plus connus).
Tu es bien le premier à émettre la critique "trop d’empirisme". En un sens ça fait franchement plaisir, mais je crois que tu vas un peut trop loin dans la flatterie — je pense que la critique inverse, pas assez d’empirisme malgré les aspirations à plus d’empirisme est plus correct.
Et je vois mal comment tu peux conjuguer "trop d’emphase à la fois sur l’idéalisme d’un côté, et sur l’empirisme et le quantitatif de l’autre". Ça me semble quelque peu antinomique. Mais j’ai possiblement mal compris ton propose.
Et de plus : qu’as-tu lu exactement pour de permettre de juger aussi rapidement du contenu ? Parce que si c’est juste mon journal, je crois qu’il est assez clair à présent qu’il est mal écrit, mal expliqué, et que se baser uniquement dessus pour se faire une idée globale des choses est pour le moins malavisé.
Pour conclure : pour moi, l’esprit critique, ça demande en premier lieu d’essayer de comprendre ce qu’on veut critiquer, pas rejeter réflexivement. Tu es tout à fait dans ton droit de dire : "ça ne m’inspire pas confiance, je ne vais pas perdre mon temps là dessus", et je serai le premier à comprendre (voire approuver ; le temps est précieux). Par contre, "ça ne m’inspire pas confiance, donc c’est des charlatans" me semble aller un peu vite en besogne. Une variante du Bulvérisme.
(et je dispute pas vraiment l’aspect "ça ne m’inspire pas confiance", pour être clair, que je peux comprendre, mis à part l’attitude "montrez votre permis ?")
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 4 (+1/-0). Dernière modification le 06 février 2025 à 18:18.
Ce qui peut être critiqué, probablement et en particulier si c'est en partie de l'amateurisme, c'est si il n'y a pas vraiment de publication académique qui confronte à des épistémologues universitaires qui pourraient en faire une lecture pertinente.
J'ai un peu l'impression que ce genre de débat ont repris de la vigueur quand on a commencé à parler de "big data" dans les années 2000. Là on a eu des promesses "grâce aux données on va pouvoir faire des modèles prédictifs" sans pour autant un énorme pouvoir explicatif vu qu'on est souvent incapable de faire parler par exemple des réseaux de neurones pour voir ce qu'ils ont sous le chapeau, en court-circuitant la recherche scientifique quelque part.
Corrige moi si je me trompe mais là on en est toujours là avec la promesse qu'on va avoir assez de données à refiler à un technique d'apprentissage automatique, avec une classe de modèle "universels", avec aussi la promesse que les modèles seront super simples et qu'ils vont être compréhensibles par des humains ?
C'est tellement hors sol que je pense que c'est pas vraiment entendable, ni par les scientifiques en général ni par les épistémologues. C'est publié dans des revues d'épistémologie ou c'est plus des rêves d'informaticiens / statisticiens ?
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 3 (+0/-0).
et, en plus (sans doute un peu pour troller) avec cette tendance que peuvent avoir certains rationalistes à dire "si ça ne respecte pas nos critères épistémique, ça ne vaut rien c'est pas de la science".
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 2 (+0/-0). Dernière modification le 06 février 2025 à 19:56.
Tout à fait, je trouve ça regrettable également. Ceci dit on peut difficilement mettre un pistolet sur la tempe des philosophes du monde académique et leur dire : "maintenant vous lisez les Séquences et vous faites une critique complète et réfléchie".
La communauté est ouverte à tous. Il n’y a pas de questionnaire "êtes vous un philosophe universitaire ?" qu vous bannisse à vie si vous répondez oui. La communauté reconnaît très largement l’importance des Séquences, ce qui signifie qu’un philosophe académique qui veut s’y intéresser et critiquer sait exactement quel matériel engager, sans tomber dans un risque que la communauté réagisse en mode "OK vous avez bien critiqué les points centraux des Séquences, mais ce n’est pas vraiment ce qu’on pensait réellement en fait, nananère".
Après, comme cité ailleurs dans un autre commentaire, il y a tout de même Bayesian Epistemology sur Stanford Encyclopedia of Philosophy. C’est un début. Trop peu, très tard à mon goût, mais un début.
Tu te trompes, le projet est principalement "tirer des leçons, des outils, et des heuristiques" pour des humains (il y aurait potentiellement une digression à faire sur l’IA ici, mais ne complexifions pas les choses ?)
Je pense que tu as sur-interprété la tentative de discussion sur l’induction de Solomonoff ? Le but n’est pas de dire : "nous allons en 5 ans développer une version pratique de l’induction de Solomonoff, un Raisonneur Universel quasiment parfait", le but est d’en tirer des leçons pratiques comme "le rasoir d’Occam est-il justifiable, et si oui, parmi les multiples variantes qui ont été proposées, une est-elle meilleure ? Laquelle ?"
Du tout non, nos principes nous autorisent à manger à tous les rateliers :)
(avec prudence tout de même)
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 5 (+2/-0).
Il ne tient qu'à vous d'essayer de publier ! Si c'est vous qui avez une théorie à porter et que les épistémologue ne sont pas convaincus, ça va être difficile de leur demander d'aller sur votre terrain. Si on prétend faire de la science / philosophie, il faut aller sur le terrain ou ça se joue sérieusement.
Sinon c'est un peu comme n'importe quel charlatan qui prétend avoir une théorie révolutionnaire et de grosses prétentions mais reconnus que par lui même, vous comprenez le monde scientifique n'est pas prêt à reconnaitre son génie trop disruptif, alors qu'ils devraient vraiment regarder ce qu'il fait (spoiler, si il a essayé de publier il a pas réussi). Alors bon s'adresser à "la communauté" c'est plus simple :p
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1).
Je comprend parfaitement le point de vue. Ceci dit… c’est plus symétrique qu’il n’y paraît.
Parlons en termes de VoI (Value of Information). C’est essentiellement ce que tu sous-entend, en somme "la vie est trop courte pour écouter tous les charlatans". C’est un excellent angle d’analyse je trouve. Le monde universitaire considère tout ce qui est extérieur comme a priori bas en VoI, et n’a aucune intention de dépenser énormément d’énergie pour ça. C’est une stratégie compréhensible.
Mais dans l’autre sens, pour un individu à peu près convaincu par le framework rationaliste, tu proposes qu’il dédie une partie significative de sa vie à suivre les rites d’initiation occultes pour entrer dans le cercle sacré des Philosophes Universitaires et pouvoir débattre avec eux pour soit les convaincre ou trouver quelques erreurs. Le prix est élevé.
Il y a un effet de sélection ici : si tu penses tellement plausible qu’une partie significative du framework rationaliste est faux que la VoI gagnée vaut un tel sacrifice… tu n’est en fait pas rationaliste, et tu ne fais pas ces efforts ?
Plus clairement, si je prend 10 ans de ma vie, que je tente ce plan, et que j’y arrive (impossible pour moi, il faut savoir écrire :)), qu’est-ce que je gagne au final ? Le droit de gagner instantanément un débat sur DLFP ? Votre honneur, je préfère garder mes dix ans de ma vie.
Prenons l’exemple de Yudkowsky. Il aurait pu après avoir écrit ses Séquences décider de suivre ce chemin. Pourquoi est-ce qu’il ne l’a pas fait ? Parce qu’il a considéré beaucoup plus important et utile de travailler sur d’autres sujets, principalement sur ce que je pensais être sa marotte bizarre du moment, l’IA. Rétrospectivement, difficile de lui donner tort sur le sens des priorités (même si les résultats ne sont pas là).
Ton point de vue est "les universitaires ne doivent rien aux rationalistes". Je suis d’accord.
Je dirai également que "les rationalistes ne doivent rien aux universitaires" est tout aussi correct. Tu vas dire "ne vous plaignez pas de ne pas être pris au sérieux par les universitaires". Je répondrai: "c’est fâcheux, mais je dois bien l’accepter".
Pour moi la question plus intéressante est : est-ce qu’un de ces deux groupes doit quelque chose au public ?
Et pour moi oui, ici, il y a une certaine asymétrie dans les devoirs. C’est le rôle des universitaires de faire ce travail d’analyse des idées importantes, non pas pour le bien et le profit des rationalistes, mais pour le public et la société. Le devoir des rationalistes envers la société est largement moindre.
J’ai glissé un mot simple qui influe fortement la conclusion dans mon dernier paragraphe : "importantes". C’est quelque chose que je n’ai pas abordé dans le journal. Ce n’est pas juste un type bizarre (Yudkowsky) sur un blog sur internet. C’est un mouvement de plus en plus important qui a une influence certaine sur des sujets importants (IA, Effective Altruism). Du côté obscur: voir SBF (l’affiliation n’est pas directe, mais l’honnêteté oblige à reconnaître une affiliation indirect). Rien que Astral Codex Ten (aka Yvain aka Scott Alexander), c'est 78000 abonnés payants (pour un blog gratuit), des rencontres communautaires dans plus de 50 pays et 170 villes (https://www.astralcodexten.com/p/spring-meetups-everywhere-2024). Sur, rappelons-le, ce qui est essentiellement un sujet essentiellement philosophique, totalement hors du centre d’intérêt de la vaste majorité des individus.
Ça fait un peu broche publicitaire, mais ce n’est pas l’objectif, l’objectif est de remarquer qu’on est au-delà du charlatan isolé, et de demander si on ne commencerait pas à entrer dans le domaine de "devoir moral des universitaires d’informer le public et la société" ? Si ce sont des charlatans, ce n’est pas le genre de charlatans à ignorer, mais le genre de charlatans à réfuter, pour le bien du public, non ?
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 4 (+1/-0). Dernière modification le 06 février 2025 à 21:37.
L'effective altruism c'est un mouvement utilitariste, il me semble, et du débat philosophiques tu peux en avoir par exemple sur les fondements même du principe de l'utilitarisme en tant que tel, donc tu as toute une batterie de critique existantes qui s'appliquent de base. De ce point de vue le mouvement a sans doute bel et bien à répondre à ces critiques qui viennent de différents horizons.
Il semble également qu'il y ait en pratique pas mal de critiques d'universitaires sur les fondements de ces mouvements également.
Tu sembles aussi évoquer les conséquences sociales, avec certaines entreprises du mouvement crypto notamment. On peut tout à fait considérer que ces entreprises ont plus d'échecs sur bien des objectifs qu'on peut considérer désirables que fait de bien globalement.
De ce point de vue, a-t-on réellement besoin de regarder les "idées importantes" pour ne pas être convaincus que ces idées mènent à des actes désirables, et que bien d'autres approches auraient pu voir venir la chose ?
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 2 (+0/-0).
J’ai bien écrit "côté obscur" : FTX (géré par SBF) est l’Enron de la crypto. "plus d’échecs que de bien" est manière bien optimiste de présenter les choses :)
Ce que je veux dire par tout ça, c’est qu’il y a une affiliation directe entre LessWrong et EA, et directe entre EA et SBF. Et une illustration qu’il commence à y avoir des ramifications dans le monde réel, hors de blogs sur internet.
"Besoin" ? Probablement pas. Ça reste un axe d’analyse intéressant, pertinent, sur des sujets qui gagnent en importance.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 4 (+1/-0).
C'est assez moche pour des idées supposées maximiser le bonheur, conséquentialistes qui plus est, de n'avoir comme conséquence principalement des exemples facheux.
Ça montre que, en supposant les idées épistémique ment correctes elles ne sont pas applicables correctement. Ce qui est un peu une auto-réfutation de l'intérêt épistémique, une prétention à atteindre la vérité, en fait.
Un des problème évidemment c'est que la volonté de tout quantifier induit la volonté de trouver une métrique, financière parce que ça permet d'agréger tout et n'importe quoi (dans un gloubiboulga informe). Finalement ça ne fonctionne pas, parce que ce n'est pas une bonne métrique pour plein de raison dans pleins de cas. Ça illustre très bien l’impossibilité pratique, même avec des théorèmes mathématiques corrects, de mettre des poids sur les variables statistiques dans un cadre à prétention aussi générale. Et mettre des poids sur les variables statistiques (qui sont à identifier aussi, gros problème) est un des fondements de la théorie.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 3 (+0/-0).
(avec en plus l'énorme écueil, pour ce qui est du financier, que ça n'a absolument rien à dire sur les sciences de la nature. Jupiter est-elle ronde ? 199€ !
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 1 (+0/-1). Dernière modification le 06 février 2025 à 22:55.
Ne dramatisons rien : FTX/SBF est loin d’être la seule conséquence de EA, et la plupart des organismes affiliés EA sont positifs (GiveWell, OpenPhilantropy, Giving What We Can,…)
J’ai relu trois fois, je ne pense pas comprendre ce que tu essaies de dire.
Ceci dit : si tu essaies de me faire défendre l’utilitarisme (ce que je pense deviner être la substance de ton message ?), tu t’adresses à la mauvaise personne. Je n’y crois pas non plus. Non pas parce que les théorèmes malgré leur existence sont inutilisables comme tu sembles le dire, mais parce qu’ils n’existent tout bonnement pas ; il n’y a pas de manière claire pour agréger des fonction d’utilités, il n’y a aucune raison de penser que les préférences humaines soient modélisables en termes de fonction d’utilité, ou qu’il soit possible d’agréger des préférences rationnelles en une fonction d’utilité rationnelle ; au contraire, le Théorème d'impossibilité d'Arrow tend à pointer assez rapidement le bout de son nez.
De Finetti fonde sa formulation de la théorie des probabilités sur des paris, il y a peut-être un rapprochement à faire :)
(tu serais également surpris de l’appétence de la finance pour recruter des physiciens. Par exemple, le modèle de Black-Scholes est essentiellement un problème physique de diffusion, et des modèles plus complexes rencontrent les mêmes difficultés qu’en physique, d’où la stratégie de recrutement. De ce qu’on m’a dit, en tout cas)
[^] # Re: Verbiage…
Posté par jyes . Évalué à 2 (+0/-0).
Aïe !
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 4 (+1/-0).
Ce n'est pas surprenant que le monde de la finance aie des besoins de physique statistique. Stéphane Mallat dans ses cours "la malédiction de la dimentionnalité" fait souvent la remarque que la physique est la science de la grande dimension et qu'il y a donc des idées venant de la physique a piquer pour les domaines où il y a pleins de données à analyser, des entités nombreuses …
Par contre dans le sens inverse … Qu'on m'appelle quand on verra des économistes résoudre des problèmes de physique :)
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 3 (+1/-0). Dernière modification le 06 février 2025 à 13:44.
Wikipedia anglais redirige "Analytic solution" vers "Closed-form expression", sans mentionner le mot "analytic" dans le début de la page en tant que synonyme. Je remarque également que les usages de "analytic" sont annotés "vague" et "citation needed". C’est pour ça que je dis "usage informel".
Mais oui sur le fond je suis entièrement d’accord : l’usage informel est répandu et parfaitement clair, je ne vois mal un contexte où il serait raisonnable de s’en effaroucher, encore moins ici.
Je pense (en réfléchissant 5 minutes, source: mon cerveau, donc je peux très bien m’être planté) que la distinction "closed-form expression"/"analytic expression"/"analytic function" est que "analytic expression" essaie de formaliser un entre-deux (entre analytic function et closed-form expression). La case qui me semble importante est "convergent infinite series" : on se rapproche de l’idée des fonctions analytiques, tout en restant dans le domaine des expressions énumérables, à l’opposé de l’ensemble des fonctions analytiques qui est non-énumérable.
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 3 (+0/-0).
Je comprends bien, mais du coup on ne parle pas d'une distinction fondamentale, mais plutôt d'un découpage pragmatique, du style "en utilisant une bibliothèque scientifique, je peux taper la formule sur mon ordinateur et j'aurai le résultat" vs "il fa valloir que je code une fonction pour calculer mes intégrales avant d'avoir mon résultat". Je suis d'accord qu'en pratique, ça fait une différence, ça n'est pas le même investissement d'appeller bessel(x) que de calculer numériquement une intégrale. Par contre, mathématiquement, c'est quand même exactement la même chose.
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 5 (+2/-0).
"Qui peut être exprimé à l'aide de fonction élémentaires". En fait, c'est pas "ma" définition, c'est "la" définition, je n'ai jamais vu d'autres sens en sciences dures.
Premier hit Google: https://fr.statisticseasily.com/glossaire/qu%27est-ce-que-la-solution-analytique/
Wikipédia: https://fr.wikipedia.org/wiki/Solution_analytique
Premier hit Google en anglais: https://math.stackexchange.com/questions/935405/what-s-the-difference-between-analytical-and-numerical-approaches-to-problems
En physique: https://physics.stackexchange.com/questions/633494/what-do-we-exactly-mean-when-we-say-that-a-problem-has-an-analytical-solution
Peut-être parce que tu es parti dans une discussion où tu voulais épater la galerie et que tu t'es trouvé coincé parce qu'au hasard des interactions sur un forum tu t'es fais démasquer. Je ne suis pas là pour t'aider à sauver les apparences, surtout parce que ta stratégie de sauvetage est hyper-agressive et insultante envers tes interlocuteurs.
Globalement, je trouve que ton historique d'interventions sur la programmation est censé, mais le reste (politique, épistémologie) est un peu délirant. Regarde juste comment les lecteurs évalue la pertinence de tes commentaires, et tu verras que tu es crédible sur les sujets que tu connais, mais que tu surévalues manifestement la pertinence de tes interventions sur les autres.
[^] # Re: Verbiage…
Posté par Jacques L'helgoualc'h (site web personnel) . Évalué à 0 (+0/-0).
La notion de fonction analytique est clairement définie en mathématiques :
c'est une fonction (réelle ou complexe) développable en série entière --- cf. un livre d'analyse complexe de niveau Bac+2 ou 3, par exemple :
Henri Cartan—Théorie élémentaire des fonctions analytiques d'une ou plusieurs variables complexes
La notion de fonction « élémentaire » fait en général référence aux fonctions de base, toutes analytiques, comme l'exponentielle, le logarithme, et les fonctions trigonométriques—bref les fonctions connues en classe de Mathématiques Élémentaires (ancienne terminale scientifique).
Les « fonctions spéciales » peuvent être rencontrées en classe de Maths Spé, mais elles sont elles aussi analytiques :
s'écrit très simplement en substituant
à
dans la série entière de exp(z)…
Par exemple, la primitive nulle en 0 de
Pour des calculs de fonctions « spéciales », on peut utiliser
pari-gp
, disponible sous Linux, etPariDroid
dans F-Droid. Cf. Pari-GP.[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 3 (+0/-0).
Les anglophones distinguent "closed-form solution" (= fonctions élémentaires) et "analytic solution" (= fonctions élémentaires et fonctions spéciales). En français, je ne crois pas avoir déja entendu cette distinction, et du coup, c'est un peu du cas par cas. Je pense que dans l'exemple mentionné (les équations Newtoniennes à plus de deux corps), c'est plus de "closed-form" que "analytic" qu'il s'agit.
Concrètement, vu qu'on parlait de la physique, la différence concrète entre une solution analytique et une solution numérique est que la première est calculable par des fonctions disponibles dans les langages de programmation habituels, alors que la deuxième nécessite une optimisation numérique et ne peut pas être écrite autrement que par une intégrale, une somme infinie, un argmin, un algorithme de convergence, "la plus petite solution de l'équation suivante", etc.
[^] # Re: Verbiage…
Posté par Jacques L'helgoualc'h (site web personnel) . Évalué à 0 (+0/-0).
Il faut se méfier de la différence entre types de problème, solution et fonction :
peut avoir une solution irrationnelle,
camoufle un algorithme de convergence. Ici, on pourra
Une équation très rationnelle :
et le calcul de
parler de { problème, solution, fonction } algébrique.
Par contre, l'équation différentielle toute simple :
conduit à une fonction transcendante, l'exponentielle.
La simplicité des algorithmes dépendra de la richesse de la bibliothèque utilisée.
:
Par exemple, calcul (Pari-GP) du périmètre d'une ellipse de demi-axes
e = sqrt(1 - (b/a)^2); \\ excentricité
p = 4 * a * ellE(e) \\ périmètre
[^] # Re: Verbiage…
Posté par arnaudus . Évalué à 3 (+0/-0).
Pour la fonction sqrt(), je ne sais pas si c'est le bon exemple parce que la tâche est réalisée par le processeur directement, avec un mélange de magie noire, de lookup table, et de convergence. C'est tout à fait possible que sqrt(4), sqrt(2), et sqrt(3.14159) appellent trois algorithmes indépendants…
Mais bon, au final, même avec des fonctions élémentaires, on finit par des approximations numériques.
[^] # Re: Verbiage…
Posté par Jacques L'helgoualc'h (site web personnel) . Évalué à 0 (+0/-0).
… oui --- on pourrait dire que les fonctions élémentaires sont celles implantées dans les processeurs (flottants).
Je n'y ai pas pensé, j'essaiyais à plus de 100 décimales avec Pari-GP.
[^] # Re: Verbiage…
Posté par thoasm . Évalué à 3 (+0/-0).
Je vois pas comment tu peux écrire ça après avoir fait le parallèle plus haut avec l'apprentissage automatique, alors que ça fait bien longtemps qu'on a fait le parralèle par exemple entre l'apprentissage du cerveau et les réseau de neurone par la [règle de Hebb], qui a inspiré les réseaux de neurones artificiels (cf. [[Réseau_de_neurones_artificiels#Premiers_réseaux]]) depuis l'origine. L'algorithme de rétropropagation du gradient calcule une forme de règle de Hebb, pour les réseaux artificiels.
Vu comme ça le lien est évident, et en plus l'apprentissage humain consiste bien souvent à essayer de prédire un résultat et à corriger le tir si on a faux, en s'améliorant petit à petit. Le parallèle avec le Bayésianisme est évident … Il semble qu'il ait été montré que la règle de Hebb était tout à fait capable de faire de l'inférence Bayesienne optimale, cf. cet article : https://papers.nips.cc/paper_files/paper/2008/hash/07cdfd23373b17c6b337251c22b7ea57-Abstract.html mais si tu veux plus d'infos le cours que j'ai proposé (j'ai déjà du en parler ici d'ailleurs, coincidence ?) donne plus de détails. Il explique (si c'est celui dont je me souviens) comment on peut prédire des rythmes complexes comme une combinaison de rythmes simples "empilés" dans des couches simples les unes au dessus des autres, avec l'erreur de prédiction qui remonte à la couche du dessus (Si on a un motif sur 3 temps style "[tac tac blanc] [tac tac blanc] [tac tac blanc]" la première couche va prédire "[tac tac tac]*", la différence de prédiction sur le troisième temps va remonter à la couche du dessus, qui elle va prédire du "blanc blanc blanc" 3 fois plus lent (dans l'idée), on a deux combinaisons de rythme uniforme qui prévoient un rythme qui ne l'est pas.
D'une manière générale l'objectif du cerveau serait d'anticiper un max de choses, ce qui est intéressant c'est ce qui n'est pas anticipé (et digne d'attention) qui remonterait à des couches supérieure, voire à la conscience, c'est ce qui est le plus dur à prédire et qui nécessite de réfléchir un peu/consacrer un peu de ressources.
[^] # Re: Verbiage…
Posté par Moonz . Évalué à 2 (+0/-0). Dernière modification le 03 février 2025 à 19:16.
Il me semblait avoir lu l’inverse, d’où mes doutes (essentiellement que
pas de bras pas de chocolatpas de backprop pas de convergence globale vers l’optimal dans le cadre de l’inférence bayésienne).Après recherche, il semble que j’aie halluciné comme un bon vieux ChatGPT : impossible de retrouver mes références, et tout ce que je trouve va dans ton sens, en particulier https://arxiv.org/pdf/2006.04182.
My bad donc.
[^] # Re: Verbiage…
Posté par Psychofox (Mastodon) . Évalué à 7 (+5/-1). Dernière modification le 04 février 2025 à 07:47.
Dès ton intro tu parles de rationalisme, de séquences et je ne sais plus quoi d'autres sans les définir, c'est déjà mal parti. Et avant même de définir le premier ni l'introduire tu commences par un charabia sur ta volonté propre de le renommer.
Là à ce stade tu as déjà perdu 97.34% (oui c'est précis) de tes lecteurs.
C'est comme si j'allais dans un forum sur le crochet et que je commençais à faire un traité sur les avantages du format de boîtier de pédalier T47, en décidant de le renommer jeu à filetage m47x1, sur les boitiers de pédaliers filetés traditionnels et les roulements pressés sans introduire au préalable que je vais parler de bicyclette, définir les parties principales du vélo, ni ce qu'est un boîtier de pédalier et à quoi il sert.
# J'ai rien compris au film
Posté par Yala . Évalué à 4 (+3/-0). Dernière modification le 03 février 2025 à 14:45.
Tu as l'air d'être extrêmement convaincu de l'importance du mouvement rationaliste-ukemiste que tu nous décris. J'ai l'impression en te lisant que cela t'as beaucoup apporté, et c'est très bien. Par contre, je ne suis pas certain d'avoir compris quoi que ce soit d'autre.
Sans vouloir paraître trop critique (j'ai le sentiment de n'avoir pas bien assimilé ce dont on parle ici, et je ne me sens donc pas de trop mettre à mal l'idée présentée), cette mouvance me semble être assemblage d'idées abstraites monté par un groupe d'ingénieurs qui se sentent capacité de tenir un discours auto-qualifié de "philosophique".
En lisant ton texte et en survolant les sources citées, j'ai plutôt l'impression que tout ceci est une sorte de méthode de développement personnel de niche. Si j'étais méchant, je dirais que ça me fait presque penser à la résurgence du stoïcisme en version allégée et déformée qu'on trouve un peu partout dans le monde de la "tech".
Ce qui me fait avancer cette notion de "méthode de développement personnel", c'est un mélange que je retrouve dans tes écrits, et en filigrane aussi dans les différents liens que tu cites. Ce mélange est composé de postulats un peu flous (et un peu faux), de propositions absolues et non nuancées, et de méthodes.
Développement personnel : le flou, les propositions absolues, et les méthodes
Croire pouvoir résumer ainsi la "quête" des "philosophes" sur plusieurs milliers d'années d'histoire de la pensée, c'est soit extrêmement naïf, soit volontairement biaisé. Surtout avec une proposition qui ne semble pas pouvoir coexister avec une bonne partie des définitions connues de la philosophie.
Commencer à avancer que "ma méthode" est meilleure que celles que tout le monde utilise depuis toujours de manière aussi catégorique n'a qu'un seul effet : me donner envie de fuir très loin et très vite. Par ailleurs, le but avancé, "devenir tout ce que nous pouvons être", est aussi un marqueur assez fort des pratiques de développement personnel.
Ça paraît être sensé, une bonne méthode pour analyser sa propre compréhension des idées avec lesquelles on est en désaccord. Néanmoins, ça n'est qu'un exercice imaginaire : en réalité, il me semble à peu près impossible de réunir les conditions permettant de créer cette situation. L'autre description du "test de turing" en question n'est pas meilleure :
Si l'on prend la chose au sérieux, il s'agit principalement de réussir à s'auto-convaincre qu'on pourrait passer pour quelqu'un qui tiendrait honnêtement un discours opposé à sa pensée. À moins de mentir volontairement à des inconnus et d'observer leur réaction face à nos discours (éthiquement parlant, ça me semble douteux), j'ai l'impression qu'il s'agit principalement d'une méthode permettant, grâce à son imagination, de se sentir intelligent, neutre, et au dessus (ou à côté ? ou en dehors ?) des idéologies.
Comment comprendre ?
Comme je le disais, je ne suis pas certain de comprendre exactement cette mouvance et sa pensée.
Je viens de lire la moitié de la fanfiction Harry Potter, c'est assez rigolo et ça pourrait (avec un poil plus d'effort littéraire) être de la très bonne science-fantasy, qui pose des questions intéressantes dans un cadre divertissant. Je vais continuer de lire, c'est plutôt agréable.
En contrepartie, j'ai survolé "From AI to Zombies", et j'ai par contre là l'impression d'être pris pour un demeuré par quelqu'un qui se sent très intelligent. C'est écrit de manière très assertive, et ça avance des visions simplistes (voire fausses) de concepts assez communs (notamment… les zombies philosophiques, qui sont dans le titre même de son livre).
Tu cites un paquet d'autres personnes du mouvement rationaliste-ukemiste. J'ai du mal à m'y retrouver, et à voir par quel bout prendre la chose.
Néanmoins, parce que j'ai entre autre trouvé fun la lecture de la fanfic Harry Potter, et que j'ai l'impression que cette pensée apporte réellement des choses à plein de gens, j'aimerai en savoir plus.
En gros, ma question, c'est : est-ce qu'il existe quelque part une introduction sérieuse à tout ça ? Si possible écrite par quelqu'un qui n'est pas intégralement immergé dans ce milieu, qui préserve et présente au mieux la pensée des gens qui en sont partie intégrante, tout en cherchant à expliquer la structure, les origines, et les influences ?
[^] # Re: J'ai rien compris au film
Posté par Voltairine . Évalué à 5 (+6/-2).
Peut-être qu'il n'y a pas grand chose à comprendre et que c'est juste un mouvement sectaire de plus qui enrobe des concepts abscons dans un gloubi-boulga de pseudo-science.
[^] # Re: J'ai rien compris au film
Posté par Moonz . Évalué à 2 (+1/-1). Dernière modification le 03 février 2025 à 16:59.
Et je te rejoint largement là dessus. Je n’aime pas du tout utiliser le champ lexical de la philosophie. Il y a culturellement quelques échanges entre le monde académique de la philosophie et la communauté ukemiste, mais prétendre qu’ils ne font qu’un ou seraient en parfait accord serait un mensonge.
Mais quand le centre de du projet est d’aborder des questions qui sont en parallèle avec celles posées par l’épistémologie, je ne vois pas bien comment l’éviter.
Je pourrai ajouter le préfixe trans- devant. Trans-epistémologie. Ce pourrait être rigolo, mais je doute que ce soit très utile.
C’est une manière totalement valide de voir les choses.
C’est plus un description anthropologique/sociologique/psychologique (comme la mention qui te parle le mieux) désignant un certain type de personnes qui écrivent beaucoup de mots sur des questions que la vaste majorité de la population trouve ennuyeuse.
C’est flou et volontairement flou. Tout comme les termes "geek" et "nerd" le sont ; l’intention est la même, de pointer vers un archétype (dont les contours sont, effectivement, flous).
C’est une différence avec les philosophes académiques : nous nous autorisons les analogies poétiques, surtout dans les échanges informels.
La question est : meilleure par rapport à quoi ? La réponse est simple : meilleure comparée à la baseline qui ne prend pas en compte l’existence de biais cognitifs et ne met pas en place de contre-mesures.
J’ai du mal à imaginer la position contrefactuelle : apprendre à reconnaître et contrer les biais cognitifs n’apporte aucune amélioration sur la qualité de la réflexion ?
Ça s’est fait sur internet. Mais oui, le faire pour de vrai nécessite de le faire en communauté, pas chacun dans son coin.
Non, vraiment, l’objectif tu l’as entièrement compris dans ton message précédent : "viser à avoir une bonne compréhension des idées avec lesquelles on est en désaccord".
L’objectif reste d’avoir une opinion et d’arriver à une conclusion.
Simplement, parfois l’opinion et la conclusion peuvent changer après cet exercice.
Scout Mindset me semble un excellent début. Scott Alexander Yes, we have noticed the Skulls pourrait répondre à certaines interrogations. Pour la suite, c’est plus compliqué.
Si le style de Yudkowsky t’insupporte (et, je te rassure, tu es loin d’être le seul, c’est une critique récurrente), il va falloir soit serrer les dents, soit abandonner l’idée de se plonger dans les détails. Il n’y a pas d’autre compilation que les Séquences et la version écourtée.
De quelqu’un d’extérieur, sur la partie plus technique, tu as Bayesian Epistemology et les deux premiers chapitres de Probability Theory : The Logic of Science — mais les deux font l’impasse sur le pilier "biais cognitifs". Sur la partie historique, cité dans mon journal, je pointerai principalement sur Rationalism before the Sequences (c’est publié sur LessWrong, mais ESR se considère comme extérieur au mouvement).
# J'ai rien compris...
Posté par bibifric05 . Évalué à 2 (+1/-0).
… mais c'était beau ! (Charlélie Couture, "Pochette Surprise").
# Attention au rationalisme
Posté par Samuel (site web personnel) . Évalué à 3 (+2/-0).
Pour une vision plus critique du rationalisme (ou de l'ukemisme), je renvoie les curieuses et curieux au texte The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence de Timnit Gebru et Emilio P Torres.
En très très très résumé :
En gros, les idées ne flottent pas en l'air. Elles ont une histoire, un contexte, une situation d'énonciation, des soutiens matériels et financiers et des effets sur le monde réel.
Je note que, dans le package TESCREAL, le rationalisme/l'ukemisme et l'effective altruisme sons sans doute les moins bizarres, ou du moins ceux dans lesquels on peut trouver des idées intéressantes (mais, à mon avis, très étrangement formulées et tirées beaucoup trop loin).
[^] # Re: Attention au rationalisme
Posté par Samuel (site web personnel) . Évalué à 2 (+1/-0).
J'ajoute que je remercie l'auteur du journal d'avoir fait l'effort de tenter d'expliciter sa pensée Ukemiste avec ses mots, ici (i.e. en-dehors du cercle des personnes qui pensent avec ces outils). En tant que personne qui essaie de comprendre ces modes de pensée, ça m'est très utile.
# Q’est-ce que l’Humanité ?
Posté par Marotte ⛧ . Évalué à 3 (+2/-2).
Ou possiblement sa seule et unique chance de subsister « longtemps » … pas le temps d’expliquer ce propos, je le ferai peut-être plus tard, s’il n’est pas deviné voire d’évidence pour nombre d’entre-nous (humains).
Suffit de mettre un petit coup d’œil dans le rétroviseur pour observer ce à quoi les gens s’attendaient lorsque les premiers ordinateurs sont apparus au milieu du siècle dernier. Je ne vois strictement aucune raison que nous ne soyons plus sujets aux mêmes fantasmes aujourd’hui.
Étrange de ne pas évoquer le risque climatique, même si les pandémies y sont étroitement liées. Car la bombe nucléaire, on peut « décider » de ne pas la construire, du moins pas la déclencher, parce qu’elle est déjà construite de toute évidence. Les pandémies on peut déjà imaginer quelques contre-mesures possible : diminution des flux, changement sociétaux divers. Alors que le dérèglement climatique, étant donné l’ampleur du phénomène, il n’y a actuellement aucun début de vision sur comment on (en tant qu’espèce) évitera d’être dans la prochaine charrette d’extinction de masse.
Sur les biais cognitifs je suis d’accord avec toi que c’est fondamental d’en avoir conscience et une connaissance minimum. Je considère pour ma part que j’ai réalisé leurs existence bien tard dans ma vie intellectuelle (et cette assertion ne doit d’ailleurs pas être exempt de biais cognitif ! ^^). Je ne comprends pas pourquoi ça ne fait pas parti du cursus scolaire d’absolument tous les enfants dès qu’ils sont en mesure de les comprendre. Comment raisonner sainement sur quelque sujet que ce soit sans avoir conscience de ce que sont ces biais. Pas besoin de faire des cours magistraux et académique pour expliquer ce qu’est le biais de confirmation ou autre, vers douze ou treize, peut-être même six ou sept, on est en âge de comprendre. Cela pourrais être enseigné progressivement, de manière de plus en plus précise et poussé comme n’importe quelle matière actuellement enseignée.
[^] # Re: Q’est-ce que l’Humanité ?
Posté par arnaudus . Évalué à 6 (+3/-0).
Les biais cognitifs sont en effet fascinants, mais est-ce si important de les enseigner comme une connaissance de base? C'est juste une particularité du fonctionnement du cerveau humain, mais comme le cerveau humain n'est pas très rationnel à la base, c'est juste une raison de plus pour expliquer la capacité des humains à prendre des décisions sous-optimales…
Tu peux expliquer rapidement aux enfants le fonctionnement de la publicité par exemple ("ils essayent de te faire croire que tu as besoin de cette chose, mais réfléchis à ce que tu pourrais avoir de mieux à la place") sans enseigner techniquement les biais que le marketting exploite.
Au final, si tu dois manipuler quelqu'un, tu ne vas exploiter ses biais cognitifs que marginalement. C'est bien plus efficace d'exploiter les faiblesses habituelles (cupidité, recherche de confort, chantage, faveurs sexuelles…) que d'exploiter les failles de rationalité. Quand tu vois que tu vends plus de voitures si elles sont présentées par des femmes en maillot de bain, ou que tu peux tromper facilement les gens avec "l'année dernière on a augmenté de 5% mais cette année on a baissé les prix de 5%, donc vous ne perdez rien", tu n'as pas besoin d'exploiter les biais cognitifs…
Et pour certains biais, le fait de les connaitre ne les annulle pas. Par exemple, le biais des coûts irrécupérables me semble très puissant, et même identifié, il faut vraiment se faire déraisonnablement violence pour ne pas y succomber.
On peut faire un parallèle avec les raisonnements fallacieux par exemple. On peut les connaitre et en parler, mais à part nuire à tes relations sociales ou te dégoûter de la totalité des discours politiques, à quoi peut bien servir d'identifier par leur nom les fallacies dans l'argumentation d'autrui? Le fait d'avoir envie de crier "homme de paille!" ou "fausse alternative!" à chaque réunion ne me permet pas de me concentrer sur le fond ou d'améliorer mes relations avec mes collègues…
[^] # Re: Q’est-ce que l’Humanité ?
Posté par Faya . Évalué à 2 (+0/-0).
Très vrai. D'ailleurs, passer pour un pédant IRL c'est l'un des effets de bord de ma consultation intensive de LinuxFR… Aujourd'hui j'essaye de me soigner et d'apprendre à me taire. Mais ça aide quand même à
ne pasmoins se faire avoir. Disons que quand on me sort un faux-dilemme, c'est un indice qu'il faut sûrement arrêter la discussion là. Parce que soit je le fais remarquer et on me prend pour un pédant, soit je ne dis rien mais avec l'impression en tâche de fond qu'on me prend pour un con.Il y a certains domaines où les moisissures argumentatives sont plus fréquentes que d'autres. Bon pour les débats politiques avec le tonton relou c'est systématique mais on peut aisément faire fi. Pour les discours de politiques ou les choix professionnels par contre ça peut faire une vraie différence de détecter les plus grosses erreurs de raisonnement. Le biais des coûts irrécupérables est un bon exemple, j'ai vu une boîte quasi couler parce que le PDG persistait dans la mauvaise direction sous prétexte que trop de ressources avaient déjà été détournées pour ce projet bancal donc il fallait aller au bout. Les associés ont sorti le PDG, stoppé le projet, et essayent maintenant de retrouver une activité normale.
[^] # Re: Q’est-ce que l’Humanité ?
Posté par arnaudus . Évalué à 3 (+0/-0).
À la limite, ça sert peut-être à argumenter sur les alternatives. Dans le style "Tu as présenté les choix A et B comme les deux solutions envisagées, mais je me demande s'il ne serait pas possible de …".
Mais il ne faut pas tourner trop autour du pot, l'application principale de la connaissance des moisissures argumentatives c'est de les utiliser soi-même. Outre le fait que la plupart des gens apprécient de "gagner" une argumentation, dans la vie de tous les jours on est le plus souvent confrontés à des situations où on se fiche complètement d'avoir raison sur le fond ou non : quand on négocie le prix d'un canapé ou une augmentation, quand on essaye de décaler un RDV, quand on discute avec le type de la fourrière qui est sur le point de charger sa bagnole, ou quand on dit aux enfants qu'ils sont punis et que ça n'est pas négociable, la solidité des arguments n'est pas notre préoccupation principale…
Je pense que même le fait que les entreprises peuvent couler à cause de ce biais montre sa puissance… Normalement, quand du pognon est en jeu, les gens essayent d'être aussi rationnels que possible.
Je me demande quand même s'il n'y a pas des raisons biologiques profondes à notre aversion à l'abandon des coûts irrécupérables, mais ça ne me semble pas évident. Quel peut bien être l'intérêt de revenir au camp sans barbaque au milieu de la nuit parce qu'on a suivi la piste du cerf qui s'était taillé hors de portée par fierté plutôt que de rentrer avec des mûres et des champignons?
Après, je trouve que les coûts irrécupérables sont souvent intégrés dans l'évaluation des politiques, ce qui fait qu'il devient rationnel pour celui qui est évalué de les prendre en compte. Typiquement, une ligne du style "Projet A: investissement 1M€, CA 0€" sera systématiquement considérée comme une erreur, même si on a des projets B et C qui sont bénéficiaires à côté. Mon expérience, c'est que pour arrêter une logique de coûts irrécupérables en milieu professionnel, il faut changer les personnes, et "sacrifier" l'équipe qui a mis en place le projet, parce que jamais l'auto-sacrifice ne pourra être considéré comme une preuve de sagesse.
[^] # Re: Q’est-ce que l’Humanité ?
Posté par Moonz . Évalué à 2 (+0/-0).
Dans certaines situations ignorer les coûts irrécupérables est la solution correcte.
Suppose que tu lances un projet d’investissement de 100k€, avec un CA attendu de 200k€ (bénéfice attendu 100k€).
Mauvaise nouvelle: à 80% du projet (~80k investis) de bien meilleurs prédictions donnent un CA attendu de 30k.
On peut continuer le projet, dépenser 20k de plus, pour un bénéfice total de -70k, et marginal de 10k.
Ou l’arrêter, pour un bénéfice total de -100k, et marginal de 0k.
Je pense (sans aucune preuve) que ce biais vient de là, une tentative de l’évolution d’intégrer le marginalisme dans le cerveau humain.
[^] # Re: Q’est-ce que l’Humanité ?
Posté par arnaudus . Évalué à 4 (+1/-0).
Certes, mais s'il y a un gain marginal, on n'est plus vraiment dans le biais des coûts irrécupérables. Comme tu l'expliques, la décision de continuer ou non ne dépend pas de la somme déja investie, et c'est ça qui est problématique : on a une intuition très forte que cet investissement devrait logiquement compter dans notre prise de décision.
Peut-être un truc avec les probabilités? La description habituelle du coût irrécupérable est déterministe, c'est à dire qu'on est certains que le gain marginal sera négatif. Mais si le gain est incertain, mais que la variance est de l'ordre de la somme investie, alors c'est différent. Par exemple, tu investis 100€ et le retour sur investissement espéré est de 200€ +/- 100€ (donc, disons, entre 100€ et 300€), le projet est rentable. Si à 50% de l'investissement, tu réalises que l'espérance de gain tombe à 40€, mais que l'incertitude est peu changée (par exemple, tu vas gagner entre 0 et 80€), du coup tu n'investis plus 50€ pour en gagner 40 (donc gains de -10€ sans incertitude), tu vas investir 50€ pour en gagner entre 0€ et 80€. Tu arbitres donc entre total -50€ (marginal -10€) certain (si tu arrêtes net le projet) et total -100€ à -20€, et en marginal -60€ à +30€. Le choix de continuer le projet laisse donc une certaine probabilité de gains, alors que l'arrêt fixe la perte. Dans le cas d'une entreprise, si la perte signifie la faillite, alors le choix rationnel reste de continuer.
C'est un peu brut de décoffrage, je suis presque sûr que le raisonnement propre existe.
[^] # Re: Q’est-ce que l’Humanité ?
Posté par Moonz . Évalué à 1 (+0/-1). Dernière modification le 06 février 2025 à 14:00.
Oui, évidemment, si tu poses le calcul, l’aspect "biais" disparait rapidement.
Où je voulais en venir : si tu es l’Evolution, et qu’il se trouve que "agir plus rationnellement" (dans le sens de homo œconomicus) est avantageux, mais que tes humains ne sont pas encore au niveau d’avoir inventé l’économie et les maths (et encore moins la révolution marginaliste), tu veux instiller un peu de raisonnement "marginaliste" dans les raisonnements intuitifs. Il est possible que le prix à payer soit que dans certaines situations l’intuition se mette à ignorer les coûts passés (qui ne rentrent pas dans le raisonnement marginaliste).
(mais évidemment, tout ceci est hautement spéculatif)
[^] # Re: Q’est-ce que l’Humanité ?
Posté par arnaudus . Évalué à 4 (+1/-0).
Bah oui mais justement, ça n'est pas exactement l'inverse qu'on observe? Le raisonnement général devrait être marginaliste, mais en fait intuitivement on a l'impression qu'il faut toujours regarder le coût total, ce qui génère le biais des coûts irrécupérables?
Et ça, je n'arrive pas à comprendre pourquoi ça serait bien. S'il était avantageux d'être rationnel, on trouverait la prise en compte des coûts irrécupérables complètement absurde (parce qu'elle l'est!). Pourquoi est-ce qu'on est intuitivement attachés à regarder ce qu'on a déja investi?
[^] # Re: Q’est-ce que l’Humanité ?
Posté par Moonz . Évalué à 3 (+1/-0).
Tu as raison, je me suis mélangé les pinceaux.
[^] # Re: Q’est-ce que l’Humanité ?
Posté par arnaudus . Évalué à 7 (+4/-0).
Mais du coup, vu le temps qu'on a investi dans cette discussion, il vaut mieux la continuer même si on pense qu'elle ne mènera nulle part, non? :-)
[^] # Re: Q’est-ce que l’Humanité ?
Posté par Moonz . Évalué à 2 (+0/-0).
Ce qui ne généralisera pas à d’autres situations. Donner un poisson vs apprendre à pêcher.
Et ce qui donne également la fausse impression que les biais cognitifs ne sont un problème que dans un contexte où tu as un adversaire, à ne se méfier que quand tu échanges avec un autrui auquel tu n’as pas confiance.
Le but est de les reconnaître quand tu les fait toi même.
C’est à mon sens une grosse erreur d’apprendre les raisonnements fallacieux et les biais cognitifs et d’en déduire : "oh, chic de nouveaux outils pour contrer les arguments de mes ennemis !"
La leçon importante est que tu es tout autant susceptible de ces raisonnement fallacieux et biais cognitifs que ceux en désaccord avec toi. Le but est d’améliorer ton raisonnement, pas de crier sur les autres.
[^] # Re: Q’est-ce que l’Humanité ?
Posté par Marotte ⛧ . Évalué à 2 (+0/-1).
Un auteur très connu (dont je ne me rappelle pas de l’identité tant pis, peu importe) a dit : « Le rire est le propre de l’Homme ».
Je pense qu’il avait raison, sauf qu’à côté du rire on peu citer, entre autres : la religion et le suicide. Des particularismes propre à l’Homme (à l’animal humain pourrait-on dire).
Car je pense que le « propre de l’Homme », ce sont plus précisément deux choses, deux facultés que l’évolution lui a donné : l’empathie et l’irrationalité.
L’humour est une conséquence de ces traits, comme les religions. Rire est irrationnel. Quant à la religion, je ne peux pas imaginer d’autre explication à son apparition : dès les temps les plus reculés, quelques humains ont compris instinctivement qu’ils pouvaient exploiter empathie et irrationalité pour prendre un avantage sur leur congénères par une autre voie que la force physique.
Pour le suicide, je ne vois pas comment l’inclure dans ma théorie, j’ai tendance à suivre ce que dise certains neuroscientifiques, à savoir que plus la psyché est complexe et moins elle est fiable. Or notre espèce a atteint un niveau de complexité psychique incroyable quand on le compare à d’autres espèces. Le fait même d’évoquer cela est hors de portée d’un chien, d’un dauphin ou d’une guenon. Mais bref, tout ça pour dire que :
Ne les annule pas automatiquement, oui, c’est évident. On peut même imaginer qu’on puisse volontairement s’astreindre à forcer ces biais en pleine conscience, pourquoi pas après tout. Mais sincèrement je ne comprends pas comment tu peux douter du fait que la connaissance de ces biais pourrait être inutile.
Je suis dubitatif sur l’adverbe « déraisonnablement » dans cette phrase, mais la réponse qui me semble évidente c’est que : si tu connais tu es en mesure de te faire violence. Que tu le fasses, avec plus ou moins d’application, ça c’est autre choses. Et je serais plutôt d’accord que c’est sûrement plus difficile d’acquérir la discipline nécessaire pour éviter les biais, mais toujours est-il que cela commence inévitablement par en prendre conscience et donc à savoir les reconnaître.
Certains individus savent assurément éviter ces pièges sans même concevoir le concept de biais cognitif, par des croyances ad-hoc, une culture, leur éducation, etc… mais un apprentissage « formel » des plus courants me semble être d’une importance indiscutable. Une façon plutôt simple de permettre à ceux qui sauront se faire violence de pouvoir le faire.
# Pas si pas clair
Posté par julo4lfr . Évalué à 3 (+2/-0).
Merci pour le journal.
Un peu brouillon, mais moi j'ai bien aimé, ça m'a donné des pistes de lectures sympas et qui résonnent avec mes … interrogations.
Bravo aussi pour tes réponses mesurées et constructives aux commentaires (enfin au moins au début des fils de discussion, après tu t'énerves un peu plus).
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 3 (+1/-0).
Merci pour les encouragements, j’avoue que j’avais besoin d’un peu de baume au cœur :)
Je pense ne m’être énervé que sur un interlocuteur, et je ne vois pas comment répondre de manière mesurée et constructive à "j’ai pas lu mais c’est ridicule". Si le message est : j’aurai juste dû ne pas répondre… oui, tu as probablement raison. Mais ce n’est pas toujours facile.
[^] # Re: Pas si pas clair
Posté par julo4lfr . Évalué à 2 (+1/-0).
Je commençais à me dire que c'était incroyable de garder son calme et de rester dans l'échange dans ces conditions. Au final, j'ai été presque rassuré de te voir réagir/monter en symétrie.
Après ce que tu "aurais du faire"… ça dépend de ce que tu cherches, et j'ai pas vraiment de message dessus, encore moins de recommandation.
[^] # Re: Pas si pas clair
Posté par thoasm . Évalué à 3 (+0/-0).
On sent bien la discussion de rationaliste :) Il y a un peu la volonté de supprimer toute forme d'émotion dans l'espoir d'éliminer toute forme de biais …
C'est pas toujours la marche à suivre, et c'est sans doute un des gros problèmes du rationalisme, fondamentalement. Être humain ou rationnel, ce n'est pas nécessairement supprimer toute forme d'émotion parce que ce seraient des biais vis-à-vis d'une rationalité parfaite. On ne peut créer un projet collectif qu'en prenant en compte notre humanité ou nos condition d'être vivants mortels, avec leur sensibilité et leur intérêt, leurs joies, leurs peines …
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 2 (+0/-0).
Pas supprimer les émotions, mais essayer de préserver des normes de débat constructives. C’est un problème difficile même quand toutes les parties prenantes font de leur mieux, un combat constant contre le résultat par défaut qui est "tout le monde se hurle dessus contre-productivement". Faire un effort de crier moins fort que l’interlocuteur est un de ces outils (et oui, je ne suis pas toujours à la hauteur de mes propres ambitions).
Encore une fois, quand on me dit "j’ai pas lu mais c’est ridicule", je m’énerve. Et je ne critique pas en moi-même cet énervement ! C’est naturel et sain ! Mon auto-critique porte sur l’action de "répondre en essayant de crier plus fort", qui est pour le coup naturel mais malsain. Les deux choses sont différentes.
Et sur le fond… tu tapes à côté. Yudkowsky :
J’ai également déjà mentionné aussi Thing of Things :
On peut aussi aller voir chez Scott Alexander :
[^] # Re: Pas si pas clair
Posté par thoasm . Évalué à 3 (+0/-0).
J'ai rien à dire à ça :) si ce n'est que rien que le fait de mettre des trucs si différents sur le même plan est étrange. Probas, stats, épistémologie … J'ai du mal à trouver un immense potentiel de fécondité à tout ça en approchant les choses de manière purement théorique, avec ce type de théorèmes.
Du coup j'aurai bien du mal à comprendre pourquoi il y aurait matière à s'énerver dans une discussion ou finalement la conséquence la plus concrète dont on discute est de savoir si le rasoir d'ockgam est justifiable par la théorie des probas, en terme épistémique, rationnellement parlant, entre personnes qui discutent tranquilou dans un salon. Avec ma sensibilité, je ne comprend pas les enjeux ou les sentiments forts qui pousseraient a prendre ça "trop" au sérieux.
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 2 (+0/-0).
L’énervement viens plus de l’incompréhension que de l’enjeu.
Regarde l’autre fil de discussion qui s’est échauffé un peu (pas par ma faute cette fois !). Juste sur la notion de "solution analytique". La dispute ne vient pas de l’enjeu, tout le monde s’en fout. C’est une incompréhension entre deux personnes, posée sur un ton un peu hautain, puis escalade, puis retranchement dans les positions suite à l’escalade, etc.
La communication entre humains c’est difficile. C’est facile de créer des incompréhensions. C’est facile d’interpréter une incompréhension en "mon interlocuteur est obtus". C’est naturel de répondre à "mon interlocuteur est obtus" en haussant le ton.
C’est une chose toujours difficile à communiquer.
Pour caricaturer un peu : "J’ai du mal à trouver un immense potentiel de fécondité dans la discipline qui ne fait au fond qu’étudier des tautologies" (les mathématiques). Et pourtant… Et les mathématiciens eux-même, si tu leur demandes "c’est vraiment utile votre truc"… la plaie bien connue des professeurs de mathématiques.
Je te conseille de rouvrir le texte sur l’induction de Solomonoff, et de passer directement (Ctrl-F) à "Got a list of the good advice you think is derivable?". J’aime beaucoup le point 5, qui est évident une fois lu et non-évident si tu ne l’as pas lu.
[^] # Re: Pas si pas clair
Posté par thoasm . Évalué à 3 (+0/-0).
Il n'est pas impossible que les matheux entre eux rentrent dans des postures un peu excessives voir troll et semi sérieuses quand ils discutent philosophie des maths et convictions à ce sujet !
Pour ma part, je trouve que, pour une démarche de fondation supposée poser des principes elementaires, on fait quand même des hypothèses fortes quand on lit les hypothèses de l'article wikipedia sur l'induction de solomonov quand on lit "assuming the universe is run by a computer program" par exemple. On a déjà pas forcément de réponse définitive à la these de Church Turing sur la calculabilité, d'un point de vue philosophique.
Ça n'efface pas le besoin d'épistémologie "par ailleurs" qui serait sceptique de ce genre de bases.
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 2 (+0/-0). Dernière modification le 09 février 2025 à 19:07.
Je n’aime vraiment pas le terme de "fondations" (oui, j’ai utilisé piliers, et alors ? :D), à cause la connotation de "inamovible". L’approche est plus une approche de "our best guesses", avec l’astérisque qu’on est toujours preneur de mieux.
Tu entres là plus profondément que dans l’introduction "semi-technique" pour mettre les deux pieds dans la technique, et je ne suis pas certain d’avoir tout compris (ou plutôt, je suis certain de ne pas avoir tout compris, je ne suis juste pas certain d’à quel degré je n’ai pas tout compris — le problème de l’amateur qui n’a pas un professeur pour lui dire quand il est à côté de la plaque), mais de ce que j’ai compris :
Le but de l’induction de Solomonoff est de montrer que dans la limite la distribution de probabilité sur les observations s’approche de manière arbitrairement proche de la "vraie" distribution générée par l’environnement. Cela nécessite que la "vraie" distribution soit dans la même classe de calculabilité que les hypothèses, donc calculable.
(le précédent point n’est pas complètement correct, la "vraie" distribution n’a pas besoin d’être calculable, seulement lower-semicomputable)
Si ta "vraie" distribution ne l’est pas, tu perds le résultat que l’induction de Solomonoff s’en approche asymptotiquement. Cependant : l’induction de Solomonoff domine toujours (asymptotiquement) toute autre distribution calculable (ou semi-calculable) ; s’il existe une approximation calculable à la "vraie" distribution, alors l’induction de Solomonoff la domine (ou s’en rapproche, si c’est la meilleure approximation possible).
Autrement dit, informellement parlant, l’induction de Solomonoff ne peut que faire mieux que les meilleures théories calculables, même dans un univers non-calculable.
[^] # Re: Pas si pas clair
Posté par thoasm . Évalué à 3 (+0/-0).
C'est toujours une hypothèse ultra forte. Si par exemple tes données ne permettent pas d'avoir des critères déterministes pour définir cette fonction, sauf erreur de ma part tu ne peux pas borner ta fonction. Et s'il faut descendre, je sais pas, au niveau atomique pour recupérer une forme de déterminisme … Il te faut des quantités de données qu'on ne peut pas tevr stocker de sitôt.
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 2 (+0/-0).
Je n’ai pas compris ta remarque. Quelle fonction ? Une hypothèse individuelle dans la mixture ou la distribution de probabilités finale ? Ou la "vraie" distribution de probabilité sur les observations ?
(toutes sont trivialement bornées par 0 et 1, mais je ne vois pas en quoi ça aide :))
C’est une hypothèse extrêmement faible. Je crois que tu ne te rends pas compte à quel point cette hypothèse est faible :
Tu n’as pas besoin d’une fonction déterministe : "l’environnement" est aussi modélisé probabilistiquement (la distribution de probabilités des observations).
Je te rappelle qu’on essaie pas de construire physiquement (ou digitalement) un inducteur de Solomonoff. On sait que ce n’est pas calculable ! Le stockage et la puissance de calcul ne sont pas un facteur limitatif, et sont ignorés dans le formalisme.
"Descendre au niveau atomique" ? Tu vise bien trop bas. Tu peux descendre au niveau subatomique. Tu peux descendre au niveau du modèle standard. Tu peux prendre l’univers entier de toutes les théories des cordes.
Et tu n’as pas besoin de le faire toi-même. Pour peu qu’il existe une fonction calculable qui est capable d’approximer la "vraie" distribution de probabilité des observations au niveau de détails désiré, l’induction de Solomonoff atteindra ou dominera cette approximation. Quand je dis "l’induction de Solomonoff ne peut que faire mieux que les meilleures théories calculables, même dans un univers non-calculable", ça inclut toutes les théories physiques possibles (pour peu qu’elles soient calculables).
[^] # Re: Pas si pas clair
Posté par thoasm . Évalué à 3 (+0/-0).
Donc on a troqué un univers supposé calculable qu'on essaye de comprendre à l'aide d'un principe qui ne l'est pas :) Difficile de voir ce qu'on aurait gagné dans l'affaire :p
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 2 (+0/-0).
Le but de l’inducteur de Solomonoff n’est pas de comprendre l’univers en-lui même, mais d’avoir une formulation mathématique d’un "inducteur idéal" pour pouvoir étudier le problème de l’induction.
[^] # Re: Pas si pas clair
Posté par thoasm . Évalué à 3 (+0/-0). Dernière modification le 10 février 2025 à 12:22.
En tant que limite théorique, je vois bien l'idée. Je ne suis pas sur que ça apporte tant de chose que ça d'avoir une formalisation mathématique d'idées style "si l'univers (et ses lois) est calculable ou approximable, alors on peut l'approximer", ce qui semble un peu une banalité, la formalisation mathématique n'apporte pas forcément beaucoup. (mais faudrait voir ce l'approximation est condamnée à avoir un horizon variable, cf. la théorie du chaos, au delà duquel on ne dit plus grand chose)
Les conclusions sur le rasoir d’Occam d'un tel modèle théorique sont à mon avis douteuse parce que les théoriciens et chercheurs n'ont pas vraiment besoin d'un tel modèle pour discuter des mérites respectifs de telle ou telle théorie, il y a bien d'autres critères épistémiques qui tiennent la route et qui jouent.
Il reste éventuellement intéressant dans le cadre de modèle théorique de limite du machine learning (plus que de la recherche scientifique en général), mais là encore on est très loin de ce genre de limite avec des modèles à base de réseau de neurone, et les approches à base de loi d'échelle vont dans le sens inverse de la recherche de parcimonie par exemple.
En pratique en recherche scientifique on galère bien souvent à trouver la bonne classe de modèle, et des modèles trop généraux sont inexploitables. Il faut trouver les modèles avec suffisamment de paramètres libres pour être humainement vaguement maîtrisables. Par exemple un truc qui serait intéressant d'un point de vue épistémique serait de savoir comment ce genre de théorie apporterait un éclairage sur les problématiques de la théorie des cordes, qui est critiquée pour avoir trop de paramètres libres qui lui permettent de s'adapter à n'importe quelle observation sans forcément permettre de rajouter grand chose à son pouvoir prédictif par l'observation.
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 2 (+0/-0).
Ce n’est pas ça, c’est "nous connaissons la formulation mathématique permettant de l’inducteur idéal, et nous pouvons étudier ses caractéristiques".
D’où, ailleurs dans le journal, ma métaphore avec la Thermodynamique.
La seconde loi était initialement (enfin, une de ses multiples formulations) : "il est impossible de déplacer de la chaleur d’un corps froid vers un corps chaud sans fournir de travail" (je crois que c’est la formulation de Clausius, de mémoire ?).
"Ça me semble une banalité. Et alors ?", dit Thomas Douillard en 1830.
Et alors ça te permet de dériver le moteur de Carnot, un moteur idéal qui te permet d’analyser les performances d’un moteur parfaitement efficient, et ses caractéristiques.
"Et alors ? Si c’est un moteur idéal qu’on ne pourra jamais construire ?"
Et alors… j’en sais rien. On retombe dans "la plaie du prof de maths". Je ne saurai te dire quand la dernière fois j’ai résolu pour de vrai une équation différentielle, n’empêche que je suis content de savoir ce que je sais sur le sujet.
Tu dis "on s’en fiche un peu du rasoir d’Occam", mais c’était considéré comme un point important de la philosophie des sciences bien avant que Solomonoff ne publie ses articles ! Étais-ce à tort ? Je te laisse discuter ça avec des philosophes, je ne me sens pas assez confiant pour ça pour le coup.
Pour être plus précis : cette notion de "concept important", je n’arrive pas à la défendre ou la formaliser. Je suis incapable de te défendre "l’importance de l’induction de Solomonoff" au même titre que je suis incapable de te défendre "l’importance d’étudier la théorie des équations différentielles" ou "l’importance du moteur de Carnot". Le problème vient de moi, pas de l’induction de Solomonoff/la théorie des équations différentielles/le moteur de Carnot.
Intuitivement, selon l’induction de Solomonoff ?
"Trop de paramètres" n’est pas pénalisé directement en soi, c’est pénalisé indirectement par la complexité de la sous-routine "trouver les paramètres à partir des observations", qui doit bien être implémentée quelque part dans la machine de Turing
StringTheory
.(ce qu’on pouvait déjà voir sans l’induction de Solomonoff pour être honnête — la théorie de Wolfram a le même souci de pouvoir s’adapter à n’importe quelle observation, et n’a aucun paramètre libre)
[^] # Re: Pas si pas clair
Posté par thoasm . Évalué à 3 (+0/-0).
Il y a une différence de démarche. La thermodynamique cherchait à comprendre la chaleur et a trouvé une abstraction mathématique (l'entropie par exemple) qui s'est avéré être utile pour la théorie de l'information, et les scientifique se sont demandé si c'était quelque chose de fondamental.
Là j'ai quand même l'impression qu'on n'est pas tout à fait dans la même démarche : on a un théorème de stat, on cherche un peu à lui trouver des application dans un cadre épisthémolique en tentant rien de moins que de refonder toute l'épistémologie sur ces bases. C'est ambitieux et c'est un peu normal au vu des ambitions, à mon avis, d'aller titiller et de demander des gages et de là ou ça pourrait aller. Notamment parce que c'est pas et de loin la seule manière de voire la philosophie des connaissance et qu'il y a plein de traditions disciplinaires autour. Par exemple si tu vas voir des sociologues et que tu leur dit qu'ils sont pas rationnels donc que ce sont des pas-science (ce qui ne serait pas inédit chez les rationalistes) tu vas probablement mal te faire recevoir.
A titre personnel oui je trouve que le parallèle qu'on peut faire entre l'information et l'énergie en physique théorique, et la calculabilité qui s'infiltre là dedans sur les lois fondamentales est un truc très intéressant. Le rapport entre cognition et calcul est un problème philosophico-scientifique très intéressant. Mais vouloir refonder toute la connaissances sur des bases de probas et de théorie de l'information il y a plein d'obstacles bien connus quand même. Par exemple en admettant "le théorème peut calculer une distribution", si ça se trouve la distribution on sait pas vraiment la faire parler, elle est complexe et en plus le truc qu'on cherche à prédire est intrinsèquement difficile et la distribution prédit beaucoup de chose et la seule chose qu'on peut dire c'est "on sait pas".
Et pour l'instant je vois pas vraiment dans la discussion quelque chose qui pourrait révolutionner ce que je pense sur ce genre de sujet. Je suis pas devin évidemment, ce n'est que mon avis, mais j'ai du mal à imaginer une voix qui permettrait de faire tomber ces obstacles fondamentaux (qui ne repose pas sur une grosse foi sur des avancées techniques très très importante style "singularité" qui serait une révolution tellement importante qu'on ne pourrait rien anticiper, peut-être y compris avec un inducteur de solomonof parfait). Et dans la "hype" actuelle, je pense qu'on a un peu besoin de rabats-joies … Malheureusement ça ne promet pas des montagnes d'argent ce genre de démarche un peu sceptiques, quand on parle de progrès technique.
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 2 (+0/-0).
On est exactement dans la même démarche.
"On ne comprend pas la chaleur, essayons de créer un cadre pour comprendre la chaleur."
"On ne comprend pas l’induction, essayons de créer un cadre pour comprendre l’induction."
On ne part pas d’un théorème pré-existant ! Le papier initial de Solomonoff part de ce questionnement, prend quatre approches différentes, arrive à quatre théorèmes différents, dont les 3 derniers qui se révèlent être équivalents (il soupçonne le premier de l’être également, mais je crois que la question est toujours ouverte là dessus).
Heu… non ? Dans l’introduction semi-technique il y a toute une partie "limitations de l’approche" qui expose très bien que ça ne peut pas être l’alpha et l’omega.
Non, le théorème définit une distribution qui n’est pas calculable.
Donc oui, on sait très bien qu’on ne peut pas utiliser Solomonoff pour refonder toute la connaissance. Sauf si on arrive à mettre la main sur un hypercalculateur, mais je ne retiendrais pas mon souffle :)
Solomonoff peut extraire plus d’informations des observations que toutes les théories calculables. Si nos théories extraient plus d’informations que Solomonoff, alors ces informations, et les théories d’où elles viennent, sont fausses. Ce qui est pire que "on sait pas".
Solomonoff a des limitations (dont, encore une fois, "pas utilisable en pratique"), mais pas cette limitation.
Le but n’est pas de révolutionner quoi que ce soit, juste d’avancer sur certains points. Acquérir de meilleurs outils, mieux comprendre nos outils, mieux comprendre le problème.
Je te conseille de lire juste la première partie de l’introduction semi-technique. Elle expose assez bien l’objectif.
Je ne pense pas que qui que ce soit pense qu’il soit possible de raisonnablement approximer l’induction de Solomonoff en pratique.
[^] # Re: Pas si pas clair
Posté par kantien . Évalué à 2 (+0/-0).
Je n'ai pas dit que je ne l'avais pas lu, mais que je me suis arrêté de le lire quand j'en ai eu marre de lire des inepties. Ce n'est pas la même chose. Pour être extrêmement clair, je n'ai aucun problème avec le théorème de Solomonoff (ni celui de Von Neumann, d'ailleurs), mais seulement avec l'interprétation douteuse que vous cherchez à lui donner.
Ce théorème ne révolutionne en rien la question de l'induction ou celui du rasoir d'Ockham. Pour prendre une comparaison simple à comprendre : je t'énonce que la somme des angles d'un polygone convexe étoilé à
n
cotés est(n - 2) * 180
. Et au fond, tu me réponds : on peut faire mieux, si on se limite au cas du triangle, la forme est plus simple cela donne toujours180
degrés. C'est ce que vous faites avec le théorème de Solomonoff : en restreignant (arbitrairement) la classe des objets sur laquelle porte votre champ d'investigation, vous arrivez à une formulation que vous considérez plus simple. Mais elle n'est que la mise en forme d'un principe général dans un de ses cas particuliers.Dans un autre commentaire plus bas, tu écris :
Et quand on t'explique ce qui cloche, tu n'écoutes pas. Ça ne va pas t'aider à comprendre. ;-)
Pour information, je ne suis pas philosophe de formation mais mathématicien et logicien. Si je porte un grand intérêt à la philosophie, c'est pour la simple raison que donna Jean Dieudonné comme réponse à Bernard Pivot lors de cette interview dans Apostrophes.
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
[^] # Re: Pas si pas clair
Posté par Moonz . Évalué à 2 (+0/-0). Dernière modification le 13 février 2025 à 19:24.
Je suis prêt à écouter et discuter, je n’attend même que ça ! Simplement, pas les objections déjà abordées noir sur blanc dans le texte original.
Parce que pour l’instant, la meilleure objection que j’aie eu, c’est "et si le processus stochastique en question générant la séquence d’observations n’est pas calculable ?". Qui n’est effectivement pas abordée noir sur blanc dans le texte original. Mais qui est abordée das la littérature.
Quelle interprétation avez vous comprise, exactement ?
Peut-être l’incompréhension vient-elle de là ?
Bon, je vais mordre à l’hameçon. Qui sait, peut-être vais-je apprendre des choses ?
Première question :
Qu’est-ce qui n’est pas général dans la définition du cadre "considérons le cas d’un observateur qui génère des prédictions à partir de ses observations, en utilisant toutes les hypothèses (semi)calculables possibles" ?
Quel est le cadre plus général de l’induction de Solomonoff ?
(mettant de côté les objections déjà discutées dans le texte, comme le fait qu’évidemment un humain n’est pas un pur observateur, il est un acteur).
Deuxième question :
Aller au cas particulier est très loin d’être inutile. Les choses qui sont vraies pour le cas général sont les choses vraies pour tous le cas particuliers. Il existe donc plus de propositions vraies pour un cas particulier précis que pour le cas général. Passer du cas général de "polygone convexe" au cas particulier "triangle" permet d’établir disons (entre autres) le théorème de Thales, passer du cas général de "triangle" à "triangle rectangle" permet d’établir le théorème de Pythagore. Autrement dit, dans ton exemple : tout ce qui est vrai pour un polygone convexe l’est également un triangle.
En quoi les résultats du cas particulier qu’est l’induction de Solomonoff sont irrecevables, sur la base que c’est un cas particulier ? N’est-ce pas rejeter le théorème de Pythagore parce que "un triangle rectangle n’est qu’un cas particulier d’un polygone convexe" ?
Troisième question, partant de la même constatation sur cas particulier/général :
L’existence d’un cadre plus général rend-il l’induction de Solomonoff inutile, autrement dit, le cas général est-il déjà suffisamment particulier pour montrer par lui-même les leçons de l’induction de Solomonoff ? Autrement dit : la restriction est-elle inutile ?
[^] # Re: Pas si pas clair
Posté par kantien . Évalué à 2 (+0/-0). Dernière modification le 15 février 2025 à 15:30.
C'est bien ce que je disais tu n'écoutes pas et tu interprètes de travers.
Toi peut être, mais moi non. J'ai des choses bien plus importantes et sérieuses à faire, comme lire de le dernier livre d'Alain Aspect, Si Einstein avait su, où il revient sur sa résolution expérimentale du conflit entre Bohr et Einstein au sujet du paradoxe EPR. Il contient de la philosophie des sciences et de l'épistémologie bien plus intéressante.
Le cadre le plus général, je te l'ai déjà dit mais tu fais la sourde oreille : c'est le principe de l'inférence abductive, dont la loi de Bayes n'est qu'un cas particulier.
Et ce n'est pas ce que j'ai dit. Tu as appris à lire où ? Je reproche, entre autre, à Yudkoswki (via son personnage Blaine) de sauter du coq à l'âne en passant d'un énoncé du type « Le canada envahit les États-Unis », à l'enregistrement de la totalité de ce qu'à observé Ashley depuis sa naissance, pour finir sur la simple étude d'un écran de taille
1920 * 1080
avec des pixels encodés sur 32 bits et un taux de rafraîchissement de 60 Hz. Alors là oui, on arrive sur un automate fini : la taille de son espace d'états est même calculé par Ashley. C'est cela qui est fini : le nombre d'états possibles du système étudié. Alors là, certes, vous pouvez appliquer votre théorème. Mais j'appelle cela du foutage de gueule !Je ne sais pas si tu as une vague connaissance des fondements de la théorie de la probabilité et de la théorie de la mesure de Borel-Lebesgue, mais le seul type d'énoncés sur lesquels portera votre distribution de probabilité sont construits sur les énoncés élémentaires de la forme : « sur la frame
n
le pixel aux coordonnéesx
ety
serap
» (oùp
est un nombre codé sur 32 bits). Et à partir des ces énoncés atomiques, on considère le langage construit via les connecteurs logiques de la conjonction (et), de la disjonction (ou) et de l'implication (si A alors B). De fait, la loi de Bayes dans ce cas très particulier est la forme que prend l'inférence abductive, la distribution de probabilité déterminant une logique modale sur cette famille d'énoncés.. Mais j'ai beau retourné dans tous les sens la totalité (dénombrable) de ces énoncés, je n'y vois à aucun moment apparaître celui-ci : « le Canada envahit les États-Unis ».Mais dans le fond ce qu'il y a de plus ridicule dans ce que j'ai lu, et tout simplement ce que Yudkowski-BLaine entend par good epistemology :
L'épistémologie telle que pratiquée depuis Kant (Russel, qui est à l'origine de l'introduction du mot en langue française, le considérait comme le père de l'épistémologie) n'a jamais consisté en l'étude de la prédiction de séquences. La seule science dont un des résultats pourrait être de fournir de telles prédictions est la physique-mathématique. Mais je doute que les physiciens acceptent que tu réduises leur science à cette simple finalité. Les philosophes, quant à eux, lorsqu'ils font de l'épistémologie étudies les méthodes mises en œuvre par les scientifiques dans la constitution de leur savoir. Et ce que décrit Yudkowski n'a rien à voir avec la pratique des physiciens. Pour citer la Critique de la Raison Pure, voilà comment ces derniers procèdent :
Comme exemple de ce mode de procédure, on pourrait ajouter, pour citer des expériences postérieurs à la mort de Kant, Foucault faisant osciller son pendule pour illustrer la rotation de la terre, l'éclipse solaire de 1919 pour trancher entre gravitation newtonienne et relativité générale, les expériences d'Alain Aspect au laboratoire d'optique d'Orsay, et j'en passe.
Ce que décrit le dialogue Ashley-Blaine, ce n'est pas la méthodologie d'être doté d'intelligence, mais celle parfaite pour un être qui en est totalement dénué, une IA : un Idiot Artificiel qui, pour reprendre les mots de Kant, se laisse conduire par la nature comme à la lisière. ;-)
Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.