Tu aurais pu écrire "tl;dr", ça nous aurait épargné à tous les deux des efforts.
Conséquemment, présenter le calcul de probabilités et la loi de Bayes comme l'alpha et l'oméga d'une épistémologie révolutionnaire, comme si on avait trouvé là une panacée au problème de la vérité et la pierre philosopohale, ça me fait mourir de rire. C'est une thèse d'un ridicule profond.
Tu surinterprètes (mais je suis prêt à prendre une part de responsabilité là dessus). Un nouvel outil qui donne de nouveaux éclairages, pas la panacée. Je crois que j’ai écrit plusieurs fois ce terme maintenant : "outil".
Peux-tu en toute bonne foi me définir une distribution de probabilité sur des événements comme « le Canada envahit les Étas-Unis » (qui devrait plutôt être mis à jour son sa forme converse « les États-Unis envahissent le Canada »), et qui plus est une distribution qui soit calculable sur machine ?
C’est explicité. Plus loin. Je vais faire un petit effort et te citer le passage exact, même si vu le ton de ta réponse, je pense que c’est peine perdue.
A single hypothesis inside the Solomonoff mixture would be a computer program that took in a series of video frames, and assigned a probability to each possible next video frame. Or for greater simplicity and elegance, imagine a program that took in a sequence of bits, ones and zeroes, and output a rational number for the probability of the next bit being '1'. We can readily go back and forth between a program like that, and a probability distribution over sequences.
.
De plus, présenter la théorie de Solomonoff sous la forme d'une dialogue Platonicien où Socrate est joué par le personnage Blaine, je ne sais pas si je dois rire ou pleurer
Vraiment, tu ne peux pas imaginer à quel point cette phrase me chagrine.
Que tu sois d’accord ou non sur la conclusion finale, le sujet abordé me semble extrêmement intéressant pour le genre de personne qui s’intéresse à ces questions. Dont j’ai l’impression que tu fais partie. J’ai écrit en grande partie de journal pour atteindre ce genre de personne, en mode "hey : il y a des choses intéressantes et nouvelles à regarder là bas".
Le -30 sur le journal ne me choque pas tellement. Il est visiblement mal écrit (ma faute), mal expliqué (ma faute), sur un sujet relativement ésotérique (je savais ça en avance, mais j’ai considéré que ça valait tout de même le coup d’essayer). Je ne peux m’en prendre qu’à moi-même.
Par contre m’intéresse, avoir comme réaction "le sujet mais j’aime pas la forme donc tl;dr"… comment dire… ça me met pour le coup vraiment le moral dans les chaussettes.
Posté par Moonz .
En réponse au journal Le Rationalisme.
Évalué à 1 (+0/-1).
Dernière modification le 04 février 2025 à 20:14.
Je ne veux pas me lancer dans l’exégèse de Kant ; je connais très mal le sujet, ma seule intention dans l’invocation du nom est de donner un exemple de théorie épistémologique, pas de me prétendre expert sur le sujet (ou d’en invoquer un).
Je vais juste rebondir sur quelques points qui me semblent intéressants :
Lorsqu'il dit que nous concluons de la vérité des conséquences (faits observés) à la vérité du principe, il dit que nous concluons par abduction ce qui n'est pas un principe logique valide, mais acceptable, voire nécessaire, dans la connaissance expérimentale et c'est sur cela que repose l'induction.
C’est une très bonne illustration de comment la théorie des probabilités est utilisée dans le projet ukemiste :
A => B signifie P(B | A) = 1
P(A | B) = P(B | A) P(A) / P(B) = P(A) / P(B) > P(A), autrement dit l’observation de B est un indice en faveur de A : l’abduction (pour le coup tu m’apprends le terme, même si je connaissais cette loi dans sa forme bayésienne) "bayésienne" est un principe valide.
(et le formalisme bayésien montre également clairement que P(A | B) = P(A) si P(B) = 1, autrement dit l’abduction n’est pas valide si B est une tautologie)
Ce que tu nommes la « technique interdite Kill the Buddha », j'appelle cela tout simplement le doute radicale cartésien
Non, non, le mot important et central dans la technique est cher. C’est l’observation très bête que quand tu es investi émotionnellement dans une hypothèse, c’est là que les biais importants se manifesteront le plus fortement, et qu’il va falloir être particulièrement impitoyable sur les justifications.
Je n’ai jamais été attiré par le genre de questionnement radical "est-ce que la réalité existe vraiment ?"
(chez qui peut-il faire débat ?)
Pas chez moi, mais pour me faire l’avocat du diable : comment définis-tu "simplicité" ? Je note que dans la formulation sur la page wikipedia on parle "d’entités" (je suppose d’entités ontologiques ?), et que ton extrait parle "d’hypothèses auxiliaires". Les deux ne sont pas équivalents. Quelle version est correcte ? Pourquoi ?
Ensuite vouloir mettre des probabilités dans tous les problèmes rencontrés au cours d'une vie relève d'une maladie que j'appellerai la mesurite aigu.
Ce n’est pas vraiment le but. Le but c’est des choses comme… l’exemple plus haut. Un raisonneur idéal (dans le sens de Cox) possède-t-il un principe d’abduction, ou est-ce une étape de raisonnement totalement invalide ? Peut on étudier plus en détails ce principe ? Est-ce utilisable en pratique, dans quelles conditions, et à quoi faut-il faire attention quand on l’utilise ?
Tu devrais Kill the Buddha sur l'ukémisme lui même. ;-)
L’ukemisme ne m’est pas tellement cher en vérité. C’est juste un outil. Je suis loin d’être à 100% satisfait par le pilier "théorie bayésienne des probabilités", le problème est que formaliser mes insatisfactions et arriver où elles mènent est largement au dessus de mes capacités mathématiques (actuelles ? soyons optimistes ?).
Posté par Moonz .
En réponse au journal Le Rationalisme.
Évalué à 2 (+0/-0).
Dernière modification le 03 février 2025 à 19:16.
Il semble qu'il ait été montré que la règle de Hebb était tout à fait capable de faire de l'inférence Bayesienne optimale
Il me semblait avoir lu l’inverse, d’où mes doutes (essentiellement que pas de bras pas de chocolatpas de backprop pas de convergence globale vers l’optimal dans le cadre de l’inférence bayésienne).
Après recherche, il semble que j’aie halluciné comme un bon vieux ChatGPT : impossible de retrouver mes références, et tout ce que je trouve va dans ton sens, en particulier https://arxiv.org/pdf/2006.04182.
Autrement dit, quoi qu'on fasse c'est difficile d'échapper au fait que la rationalité est de fait limitée
Tout à fait. Je répondais uniquement au point "si les biais viennent de la théorie bayésienne des probabilités, il y a peu d’espoir d’utiliser la théorie bayésienne des probabilités comme guide pour lutter contre".
Les biais viennent très probablement des approximations nécessaires.
Posté par Moonz .
En réponse au journal Le Rationalisme.
Évalué à 1 (+0/-1).
Dernière modification le 03 février 2025 à 17:36.
Quand on tranche entre théories, c'est qu'elles font des prédictions différentes, en règle générale
Le rasoir d’Ockham permet de trancher entre Géocentrisme + Épicycles et Héliocentrisme par exemple. Le problème des épicycles n’a jamais été leur incapacité à reproduire les prédictions du géocentrisme.
(oui, muni de nos théories cosmologique modernes, la question est moins intéressante, j’en convient)
J'imagine que dans un cadre de théorie approximativement correct on préfèrera la théorie de Newton niveau gravité à la théorie de la relativité générale parce que plus simple et que faut aller chercher pour trouver des observations qui nécessitent la théorie de la relativité générale pour être expliquées ?
Dans l’idée oui. Aucune idée de si quelqu’un a essayé en pratique de faire rentrer Newton vs RG dans ce cadre. Intuitivement, ça me semble excessivement complexe.
Le problème de l’inférence Bayésienne est NP-complet. Même si le cerveau était grosso-modo une machine Bayésienne (ce qui me semble extrêmement douteux, mais je ne suis pas neuroscientiste), il ne pourrait l’être qu’approximativement.
Ce serait donc un peu étrange d'essayer d'éliminer les biais … par le même type d'approche qui les produisent.
Ce serait extrêmement surprenant. Cox's Theorem. La plupart des biais cognitifs violent la troisième condition “If the plausibility of a proposition can be derived in many ways, all the results must be equal”.
Pas impossible je suppose, on est jamais à l’abri de découvrir une contradiction dans la théorie des probabilités après tout. Mais extrêmement surprenant.
D’où le choix de la théorie des probabilités comme un des deux piliers.
Posté par Moonz .
En réponse au journal Le Rationalisme.
Évalué à 2 (+1/-1).
Dernière modification le 03 février 2025 à 16:59.
cette mouvance me semble être assemblage d'idées abstraites monté par un groupe d'ingénieurs qui se sentent capacité de tenir un discours auto-qualifié de "philosophique".
Et je te rejoint largement là dessus. Je n’aime pas du tout utiliser le champ lexical de la philosophie. Il y a culturellement quelques échanges entre le monde académique de la philosophie et la communauté ukemiste, mais prétendre qu’ils ne font qu’un ou seraient en parfait accord serait un mensonge.
Mais quand le centre de du projet est d’aborder des questions qui sont en parallèle avec celles posées par l’épistémologie, je ne vois pas bien comment l’éviter.
Je pourrai ajouter le préfixe trans- devant. Trans-epistémologie. Ce pourrait être rigolo, mais je doute que ce soit très utile.
j'ai plutôt l'impression que tout ceci est une sorte de méthode de développement personnel de niche
C’est une manière totalement valide de voir les choses.
Croire pouvoir résumer ainsi la "quête" des "philosophes" sur plusieurs milliers d'années d'histoire de la pensée, c'est soit extrêmement naïf, soit volontairement biaisé. Surtout avec une proposition qui ne semble pas pouvoir coexister avec une bonne partie des définitions connues de la philosophie.
C’est plus un description anthropologique/sociologique/psychologique (comme la mention qui te parle le mieux) désignant un certain type de personnes qui écrivent beaucoup de mots sur des questions que la vaste majorité de la population trouve ennuyeuse.
C’est flou et volontairement flou. Tout comme les termes "geek" et "nerd" le sont ; l’intention est la même, de pointer vers un archétype (dont les contours sont, effectivement, flous).
Commencer à avancer que "ma méthode" est meilleure que celles que tout le monde utilise depuis toujours de manière aussi catégorique n'a qu'un seul effet : me donner envie de fuir très loin et très vite. Par ailleurs, le but avancé, "devenir tout ce que nous pouvons être", est aussi un marqueur assez fort des pratiques de développement personnel.
C’est une différence avec les philosophes académiques : nous nous autorisons les analogies poétiques, surtout dans les échanges informels.
La question est : meilleure par rapport à quoi ? La réponse est simple : meilleure comparée à la baseline qui ne prend pas en compte l’existence de biais cognitifs et ne met pas en place de contre-mesures.
J’ai du mal à imaginer la position contrefactuelle : apprendre à reconnaître et contrer les biais cognitifs n’apporte aucune amélioration sur la qualité de la réflexion ?
Ça paraît être sensé, une bonne méthode pour analyser sa propre compréhension des idées avec lesquelles on est en désaccord. Néanmoins, ça n'est qu'un exercice imaginaire : en réalité, il me semble à peu près impossible de réunir les conditions permettant de créer cette situation.
Ça s’est fait sur internet. Mais oui, le faire pour de vrai nécessite de le faire en communauté, pas chacun dans son coin.
j'ai l'impression qu'il s'agit principalement d'une méthode permettant, grâce à son imagination, de se sentir intelligent, neutre, et au dessus (ou à côté ? ou en dehors ?) des idéologies.
Non, vraiment, l’objectif tu l’as entièrement compris dans ton message précédent : "viser à avoir une bonne compréhension des idées avec lesquelles on est en désaccord".
L’objectif reste d’avoir une opinion et d’arriver à une conclusion.
Simplement, parfois l’opinion et la conclusion peuvent changer après cet exercice.
Tu cites un paquet d'autres personnes du mouvement rationaliste-ukemiste. J'ai du mal à m'y retrouver, et à voir par quel bout prendre la chose.
Scout Mindset me semble un excellent début. Scott Alexander Yes, we have noticed the Skulls pourrait répondre à certaines interrogations. Pour la suite, c’est plus compliqué.
Si le style de Yudkowsky t’insupporte (et, je te rassure, tu es loin d’être le seul, c’est une critique récurrente), il va falloir soit serrer les dents, soit abandonner l’idée de se plonger dans les détails. Il n’y a pas d’autre compilation que les Séquences et la version écourtée.
De quelqu’un d’extérieur, sur la partie plus technique, tu as Bayesian Epistemology et les deux premiers chapitres de Probability Theory : The Logic of Science — mais les deux font l’impasse sur le pilier "biais cognitifs". Sur la partie historique, cité dans mon journal, je pointerai principalement sur Rationalism before the Sequences (c’est publié sur LessWrong, mais ESR se considère comme extérieur au mouvement).
Et dans quel cadre tu veux appliquer cette loi ? Ta vie personnelle ou tu modélises une décisions en mettant un poids motivé sur chacune des variables ?
Dans ma vie personnelle, évidemment. Principalement dans les exercices de calibration.
Posté par Moonz .
En réponse au journal Le Rationalisme.
Évalué à 2 (+1/-1).
Dernière modification le 03 février 2025 à 15:52.
J'ai un peu l'impression que c'est une manière très très obscure d'appeler à une approche scientifique (ou scientiste) de la société, un peu à la manière des mouvements "zététiques".
Non, il n’y a pas vraiment d’approche politique/sociale. Le plus proche est le mouvement EA, que je n’ai volontairement pas abordé dans le journal.
Faisons rapidement un peu de philosophie.
J’observe que le soleil se lève à l’est tous les matins depuis que je suis en vie — et j’ai le témoignage de mes parents et grand-parents que c’est le cas depuis qu’ils sont en vie.
À quel point la conclusion : "demain le soleil se lèvera à l’est" découle de cette observation ?
C’est grosso-modo le point d’entrée de ce qu’on appelle l’épistémologie : qu’est-ce que la connaissance ? le savoir ? La question précédente (sur la validité de la conclusion "le soleil se lèvera à l’est") s’appelle "Le Problème de l’Induction".
C’est le genre de problème auquel l’Ukemisme s’intéresse. Si on veut vraiment simplifier : c’est une nouvelle école de pensée sur la question de l’épistémologie.
La théorie des probabilités semble te faire ticker. Pourquoi est-ce considéré comme un pilier ? Prenons le Rasoir d’Ockham. Le rasoir d’Ockham est une heuristique prisée des philosophes, mais qui fait tout de même débat (Heinlein a un bon mot là dessus). Peut-on faire mieux ?
Oui, on peut. On peut formaliser le rasoir d’Ockham dans le contexte de l’apprentissage PAC.
Pourquoi fait on tellement confiance à la théorie des probabilités ?
Parce que Richard Cox a montré que la théorie des probabilités découle nécessairement d’un nombre minimal de desideratas de tout processus de raisonnement cohérent. Ce n’est pas juste une théorie parlant de lancers de dés et de dénombrement et de distributions normales. C’est une théorie qui décrit la cohérence d’un système de savoir/croyances, et comment ce système doit évoluer lors de l’obtention de nouvelles informations.
Ça devrait être possible d'exprimer clairement les objectifs en quelques mots, sinon perso ça va être compliqué de me motiver à lire un texte long.
Essayons de parler informaticien : Identifier les "bugs" dans les modes de raisonnements "naturels" des êtres humains. Trouver des workaround. Deux bases pour identifier ces bugs : la psychologie (biais cognitifs) et la théorie des probabilités (usage plus avancé, mais par exemple : https://www.lesswrong.com/tag/conservation-of-expected-evidence).
Ici si c'est pas un projet scientifique (les scientifiques n'ont a priori pas de leçons à recevoir sur comment faire leur boulot) c'est quoi, un projet politique ?
Essentiellement philosophique, plus précisément une épistémologique.
Le projet que Kant avait en écrivant sa "Critique de la Raison Pure", grosso-modo.
Posté par Moonz .
En réponse au journal Le Rationalisme.
Évalué à 0 (+0/-2).
Dernière modification le 03 février 2025 à 15:25.
Ukemisme est le seul terme original introduit dans mon texte, et j’ai expliqué à mon sens clairement pourquoi ? Je m’auto-cite :
le terme "rationalisme" est objectivement mal choisi, la quasi-totalité des rationalistes anglophones se lamentent que le terme est mal choisi, Yudkowsky se lamente que le terme est mal choisi, mais qu’il est trop tard pour changer. Vu à quel point le terme est méconnu en France, il n’est pas trop tard pour nous francophones
.
"vous avez maintenant compris ce qu'étaient les Séquences" (bah non)
Je me re-cite :
Yudkowsky s’acharne à mettre sur papier (virtuel) les fondements du projet. Le résultat direct ? Aujourd’hui, pas loin du millier de blog posts. Un premier travail de réarrangement, réorganisation, et de coupes légères donne Les Séquences
Vraiment, en quoi n’est-ce pas clair ?
En tout cas, si quelqu'un peut être convaincu par ce genre de documents,
Le but n’est pas de convaincre, il est de présenter rapidement et de donner des pointeurs.
Posté par Moonz .
En réponse au journal Le Rationalisme.
Évalué à 1 (+0/-1).
Dernière modification le 03 février 2025 à 14:26.
ça manque de structure (avec des sections qui ont des titres, un plan)
Je… ne comprend pas ? Je suis parti d’une structure, certes non-explicitée en titres, mais clairement (pour moi) présente :
Introduction : Présenter "quoi ?" le mouvement rationaliste. Pourquoi ? mes deux raisons.
Introduction rapide d’ESR, point de vue "sociologique" (quel genre de personne ce mouvement attire)
Quelles sont les idées fondatrices (Biais cognitifs + Théorie des probas en tant que fondation de l’épistémologie)
Le qui (les grands noms) et le quand (bref historique) du mouvement
Les leçons pratiques
La conclusion
Je me relis et ce plan est… transparent pour moi ? Même pas subtil (non, je n’ai pas cherché à être subtil) ? Je suis curieux de pourquoi ce n’est transparent que pour moi.
ça manque de ligne directrice (d'où on part et vers où on souhaite amener les lecteurs et les lectrices)
Je plaide coupable qu’il n’y en a pour le coup pas réellement (j’ai essayé d’en introduire une artificiellement avec le "Eliezer Yudkowsky a principalement cet objectif en tête lorsqu’il écrit les Séquences" de l’introduction). Le but est un résumé en largeur, pas en profondeur, de toucher un maximum de points plutôt que de se concentrer sur un aspect.
Voilà, j'espère que ce commentaire trouvera son utilité, il est là pour suggérer plus que pour donner des leçons, j'espère d'ailleurs qu'il sera perçu comme tel
En France, il me semble me rappeler qu'il existe une « Union rationaliste ».
Je voulais rebondir là dessus, mais j’ai oublié.
Il existe effectivement en France des rassemblements périodiques de la communauté (à ma connaissance, il y a des groupes à Paris, Bordeaux, Grenoble, Lyon et Marseille). Si cela intéresse quelqu’un d’être averti des prochains (j’en doute, vu la note du journal, mais sait-on jamais), vous pouvez m’envoyer un MP pour que je vous prévienne quand ça arrivera (le prochain devrait "gros" événement devrait être fin mars je pense ?)
Il y a confusion : mon but est de présenter de loin le mouvement, pas de réécrire les Séquences en un journal, ce qui est probablement impossible même pour un écrivain surdoué (et je suis un écrivain sous-doué).
Par exemple la « Vérité », si tant est que ça existe ou que ça ait un sens, est possiblement inaccessible.
En un mot ? Ça dépend par "inaccessible" ? Si c’est "il est impossible de tirer la moindre information de la réalité", c’est évidemment faux. Les bactéries y parviennent. Si c’est "accéder parfaitement et totalement à l’entièreté de la réalité" ? C’est presque certainement vrai.
Et c’est incidemment une bonne intuition de pourquoi la théorie des probabilités est le fondement correct de l’épistémologie : la question n’est pas "commence accéder à la Vérité ?", mais "comment construire un modèle de la réalité à partir d’observations, et quel degré de confiance puis-je avoir dans ces modèles ?".
Posté par Moonz .
En réponse au journal Le Rationalisme.
Évalué à 1 (+0/-1).
Dernière modification le 03 février 2025 à 11:06.
En France, il me semble me rappeler qu'il existe une « Union rationaliste ».
Absolument pas, et c’est une des raisons pour lesquelles le terme de "Rationalisme" est désastreux :
le terme est déjà extrêmement surchargé
une de ses utilisations est juste une idée très générale "d’utiliser sa raison plutôt que son intuition/ses émotions brutes" (ce qui semble correspondre à "l’Union rationaliste")
une autre de ses utilisations est en philosophie pour désigner le débat pendant les lumières entre le Rationalisme (Descartes) l’Empirisme (Hume)
l’Ukemisme ne correspond à aucune de ces utilisations
Ceci dit sur le fond, votre texte ne m'a pas paru des plus limpides
Désolé, j’ai fait de mon mieux, qui n’est je le reconnais pas très bon. Pour ma défense : difficile de concilier en un post : un résumé historique, sociologique et pratique d’un mouvement philosophique qui a maintenant presque 20 ans.
Je suis ceci dit curieux sur ce qui a échoué : j’ai tenté de donner les grandes lignes, de loin, et de ne pas rentrer dans les détails pour justement éviter ce souci. Est-ce que même avec cet objectif, j’ai été trop loin dans les détails, ou est-ce que j’ai mis une image de trop loin ?
Je suis désolé, je vais être cru, on est en plein dans les dénégations ridicules.
Mon expérience : je suis un pur Linuxien. En tant que techos, je n’ai pas à toucher à un traitement de texte. De manière exceptionnelle, mon boss me demande un rapport à envoyer à un client. Je lance (pour la première fois de ma vie) libreoffice. Je tape le texte pendant 30 minutes, je me débat pendant une heure pour mettre en forme. J’envoie le résultat à mon boss : "c’est quoi cette mise en forme immonde ?" (et je ne peux qu’être d’accord).
Je vais sur le PC d’un collègue. Je copie colle le texte dans notepad pour virer la mise en forme, je copie colle dans Word, je clique sur le premier titre, je clique sur le gros onglet "Styles", je clique sur le gros bouton "Titre". Je clique sur le premier sous-titre, je clique sur le gros bouton "Sous-titre 1" (ou un truc du genre). Je fais la même pour les deux autres sous-titres. Résultat impeccable en 2 minutes, tout le monde est content.
Ce n’est pas une question "d’habitudes" ou "c’est tous la même merde". C’est l’expérience de quelqu’un qui n’a jamais touché à un traitement de texte pendant 15 ans. A priori libreoffice partait avec un léger avantage : je n’ai aucune connaissance de Windows.
La différence entre toi et moi ? Tu es un power user. Même si tu n’avais pas tes styles persos, tu sais quelles sont les bonnes police pour un texte, quelles sont les bonnes polices pour un titre, quand sciemment utiliser l’italique, le gras, quand 14 est la bonne taille et 13.5 c’est trop petit et 14.5 c’est trop gros pour être plaisant à l’œil. Tu sais quelles couleurs sont utiles pour mettre de la diversité dans les couleurs sans être tape-à-l’œil.
Je n’ai pas cette expérience, je ne sais rien de tout ça. La force de Word c’est exactement ça : des défauts sciemment choisis par des experts de ce domaine pour donner des résultats corrects une fois mis dans la main de la plèbe comme moi. La faiblesse de libreoffice c’est exactement ça : "alors, les styles par défaut : police par défaut ? celle du système, ou Arial. couleur ? noire. taille ? 16-14-12. Le résultat est moche ? OSEF, l’utilisateur peut changer".
Et le traitement de texte de LibreOffice est plus puissant et plus fiable que Word !
Pour un power-user qui passe sa vie dans un traitement de texte et a peaufiné sa librairie de styles persos pendant des années ? Je peux le croire (même si j’en sais au fond rien : je ne suis pas ce profil)
Pour quelqu’un qui n’a pas touché à un traitement de texte depuis 15 ans, installe libreoffice pour la première fois, qui veut juste taper son texte, cliquer sur 3 boutons (et pas plus !) pour ajouter un peu de style et avoir un résultat potable ? Non, absolument pas.
J’ai l’impression d’entendre les dénégations de l’équipe de Gimp d’avant la refonte de l’interface "nan mais les 300 fenêtres qu’on peut replacer comme on veut c’est trop bien, c’est vous qui êtes trop des casuals pour comprendre l’intérêt" (ce qui est potentiellement vrai, mais n’est pas une bonne réponse à : c’est inutilisable par moi gros casual qui n’a aucune intention de devenir pro). Eux au moins ont fini par comprendre.
vim est inutilisable pour un non-initié, et très efficace pour un initié. C’est un choix assumé. Je ne vois pas les développeurs de vim dire "nan mais c'est simple et intuitif à prendre en main, c’est vous qui êtes trop nuls". Il serait bon que les zélateurs de libreoffice prennent exemple soit sur Gimp, soit sur vim.
Ça se fait un peu, mais malheureusement pas par chez moi : fablab biologie & chimie. CNC et découpe laser, j’ai fait un peu dans mon cursus d’ingé, j’ai une idée de ce qu’on peut en faire (et c'est très rapide d’en faire le tour). Biologie et chimie, j’ai été un cancre toute ma scolarité dans ces domaines, je le regrette un peu, et c’est difficile de s’y initier seul.
Même retour, on utilisait gitlab à mon ancienne boîte (et sans CI) et il bouffait très rapidement 3-4 Go de RAM à lui seul. Ça me donne quelques doutes sur un Raspberry pi.
Pour des tests rapides, louer une machine un peu plus grosse mais facturée à l’heure chez Scaleway ?
"Générative" fait le gros du travail dans cette remarque. C’est vrai pour une IA structo-sensus générative (ou plutôt: auto-regressive, mais ne pinaillons pas), mais ChatGPT dès son inception ne l’est pas, avec une phase importante de post-training sur du reinforcement learning. Ça fait au moins deux ans que c’est un secret de polichinelle qu’il y a un gros effort de la part des gros du domaine d’utiliser la partie générative comme une simple "stepping stone", avec comme résultats publics actuels AlphaProof de DeepMind et plus récemment o1 de OpenAI.
C’est seulement parce que je ne suis pas une IA
Et hop, l’adjectif "générative" est immédiatement oublié. C’est pour ça que je ne considère vraiment pas cette analyse (qui, je te le rassure, est très répandue) comme pertinente. Si elle est vraie pour une IA purement générative, on fait trop facilement le raccourci IA = IA générative pour appliquer incorrectement cette analyse à l’IA en général.
Vous voyez une limitation fondamentale à un problème non seulement résolvable, mais déjà partiellement résolu.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 2 (+1/-1).
Tu aurais pu écrire "tl;dr", ça nous aurait épargné à tous les deux des efforts.
Tu surinterprètes (mais je suis prêt à prendre une part de responsabilité là dessus). Un nouvel outil qui donne de nouveaux éclairages, pas la panacée. Je crois que j’ai écrit plusieurs fois ce terme maintenant : "outil".
C’est explicité. Plus loin. Je vais faire un petit effort et te citer le passage exact, même si vu le ton de ta réponse, je pense que c’est peine perdue.
.
Vraiment, tu ne peux pas imaginer à quel point cette phrase me chagrine.
Que tu sois d’accord ou non sur la conclusion finale, le sujet abordé me semble extrêmement intéressant pour le genre de personne qui s’intéresse à ces questions. Dont j’ai l’impression que tu fais partie. J’ai écrit en grande partie de journal pour atteindre ce genre de personne, en mode "hey : il y a des choses intéressantes et nouvelles à regarder là bas".
Le -30 sur le journal ne me choque pas tellement. Il est visiblement mal écrit (ma faute), mal expliqué (ma faute), sur un sujet relativement ésotérique (je savais ça en avance, mais j’ai considéré que ça valait tout de même le coup d’essayer). Je ne peux m’en prendre qu’à moi-même.
Par contre m’intéresse, avoir comme réaction "le sujet mais j’aime pas la forme donc tl;dr"… comment dire… ça me met pour le coup vraiment le moral dans les chaussettes.
[^] # Re: question stérile
Posté par Moonz . En réponse au sondage Faut-il accepter les contenus générés par IA sur LinuxFr.org ?. Évalué à 4 (+2/-0).
Vraiment ?
https://www.astralcodexten.com/p/how-did-you-do-on-the-ai-art-turing
https://www.nature.com/articles/s41598-024-76900-1
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1). Dernière modification le 04 février 2025 à 20:14.
Je ne veux pas me lancer dans l’exégèse de Kant ; je connais très mal le sujet, ma seule intention dans l’invocation du nom est de donner un exemple de théorie épistémologique, pas de me prétendre expert sur le sujet (ou d’en invoquer un).
Je vais juste rebondir sur quelques points qui me semblent intéressants :
C’est une très bonne illustration de comment la théorie des probabilités est utilisée dans le projet ukemiste :
A => B signifie P(B | A) = 1
P(A | B) = P(B | A) P(A) / P(B) = P(A) / P(B) > P(A), autrement dit l’observation de B est un indice en faveur de A : l’abduction (pour le coup tu m’apprends le terme, même si je connaissais cette loi dans sa forme bayésienne) "bayésienne" est un principe valide.
(et le formalisme bayésien montre également clairement que P(A | B) = P(A) si P(B) = 1, autrement dit l’abduction n’est pas valide si B est une tautologie)
Non, non, le mot important et central dans la technique est cher. C’est l’observation très bête que quand tu es investi émotionnellement dans une hypothèse, c’est là que les biais importants se manifesteront le plus fortement, et qu’il va falloir être particulièrement impitoyable sur les justifications.
Je n’ai jamais été attiré par le genre de questionnement radical "est-ce que la réalité existe vraiment ?"
Pas chez moi, mais pour me faire l’avocat du diable : comment définis-tu "simplicité" ? Je note que dans la formulation sur la page wikipedia on parle "d’entités" (je suppose d’entités ontologiques ?), et que ton extrait parle "d’hypothèses auxiliaires". Les deux ne sont pas équivalents. Quelle version est correcte ? Pourquoi ?
(si tu veux une approche ukemiste de cette question : https://www.lesswrong.com/posts/EL4HNa92Z95FKL9R2/a-semitechnical-introductory-dialogue-on-solomonoff-1 ; qui est également je pense un bon représentant de ce qu’est le projet ukemiste, à la relecture)
Ce n’est pas vraiment le but. Le but c’est des choses comme… l’exemple plus haut. Un raisonneur idéal (dans le sens de Cox) possède-t-il un principe d’abduction, ou est-ce une étape de raisonnement totalement invalide ? Peut on étudier plus en détails ce principe ? Est-ce utilisable en pratique, dans quelles conditions, et à quoi faut-il faire attention quand on l’utilise ?
L’ukemisme ne m’est pas tellement cher en vérité. C’est juste un outil. Je suis loin d’être à 100% satisfait par le pilier "théorie bayésienne des probabilités", le problème est que formaliser mes insatisfactions et arriver où elles mènent est largement au dessus de mes capacités mathématiques (actuelles ? soyons optimistes ?).
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 2 (+0/-0). Dernière modification le 03 février 2025 à 19:16.
Il me semblait avoir lu l’inverse, d’où mes doutes (essentiellement que
pas de bras pas de chocolatpas de backprop pas de convergence globale vers l’optimal dans le cadre de l’inférence bayésienne).Après recherche, il semble que j’aie halluciné comme un bon vieux ChatGPT : impossible de retrouver mes références, et tout ce que je trouve va dans ton sens, en particulier https://arxiv.org/pdf/2006.04182.
My bad donc.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 2 (+0/-0).
https://bayesian-programming.cnrs.fr/computational-complexity-of-bayesian-inference/
Tout à fait. Je répondais uniquement au point "si les biais viennent de la théorie bayésienne des probabilités, il y a peu d’espoir d’utiliser la théorie bayésienne des probabilités comme guide pour lutter contre".
Les biais viennent très probablement des approximations nécessaires.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 17:36.
Le rasoir d’Ockham permet de trancher entre Géocentrisme + Épicycles et Héliocentrisme par exemple. Le problème des épicycles n’a jamais été leur incapacité à reproduire les prédictions du géocentrisme.
(oui, muni de nos théories cosmologique modernes, la question est moins intéressante, j’en convient)
Dans l’idée oui. Aucune idée de si quelqu’un a essayé en pratique de faire rentrer Newton vs RG dans ce cadre. Intuitivement, ça me semble excessivement complexe.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1).
Le problème de l’inférence Bayésienne est NP-complet. Même si le cerveau était grosso-modo une machine Bayésienne (ce qui me semble extrêmement douteux, mais je ne suis pas neuroscientiste), il ne pourrait l’être qu’approximativement.
Ce serait extrêmement surprenant. Cox's Theorem. La plupart des biais cognitifs violent la troisième condition “If the plausibility of a proposition can be derived in many ways, all the results must be equal”.
Pas impossible je suppose, on est jamais à l’abri de découvrir une contradiction dans la théorie des probabilités après tout. Mais extrêmement surprenant.
D’où le choix de la théorie des probabilités comme un des deux piliers.
[^] # Re: J'ai rien compris au film
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 2 (+1/-1). Dernière modification le 03 février 2025 à 16:59.
Et je te rejoint largement là dessus. Je n’aime pas du tout utiliser le champ lexical de la philosophie. Il y a culturellement quelques échanges entre le monde académique de la philosophie et la communauté ukemiste, mais prétendre qu’ils ne font qu’un ou seraient en parfait accord serait un mensonge.
Mais quand le centre de du projet est d’aborder des questions qui sont en parallèle avec celles posées par l’épistémologie, je ne vois pas bien comment l’éviter.
Je pourrai ajouter le préfixe trans- devant. Trans-epistémologie. Ce pourrait être rigolo, mais je doute que ce soit très utile.
C’est une manière totalement valide de voir les choses.
C’est plus un description anthropologique/sociologique/psychologique (comme la mention qui te parle le mieux) désignant un certain type de personnes qui écrivent beaucoup de mots sur des questions que la vaste majorité de la population trouve ennuyeuse.
C’est flou et volontairement flou. Tout comme les termes "geek" et "nerd" le sont ; l’intention est la même, de pointer vers un archétype (dont les contours sont, effectivement, flous).
C’est une différence avec les philosophes académiques : nous nous autorisons les analogies poétiques, surtout dans les échanges informels.
La question est : meilleure par rapport à quoi ? La réponse est simple : meilleure comparée à la baseline qui ne prend pas en compte l’existence de biais cognitifs et ne met pas en place de contre-mesures.
J’ai du mal à imaginer la position contrefactuelle : apprendre à reconnaître et contrer les biais cognitifs n’apporte aucune amélioration sur la qualité de la réflexion ?
Ça s’est fait sur internet. Mais oui, le faire pour de vrai nécessite de le faire en communauté, pas chacun dans son coin.
Non, vraiment, l’objectif tu l’as entièrement compris dans ton message précédent : "viser à avoir une bonne compréhension des idées avec lesquelles on est en désaccord".
L’objectif reste d’avoir une opinion et d’arriver à une conclusion.
Simplement, parfois l’opinion et la conclusion peuvent changer après cet exercice.
Scout Mindset me semble un excellent début. Scott Alexander Yes, we have noticed the Skulls pourrait répondre à certaines interrogations. Pour la suite, c’est plus compliqué.
Si le style de Yudkowsky t’insupporte (et, je te rassure, tu es loin d’être le seul, c’est une critique récurrente), il va falloir soit serrer les dents, soit abandonner l’idée de se plonger dans les détails. Il n’y a pas d’autre compilation que les Séquences et la version écourtée.
De quelqu’un d’extérieur, sur la partie plus technique, tu as Bayesian Epistemology et les deux premiers chapitres de Probability Theory : The Logic of Science — mais les deux font l’impasse sur le pilier "biais cognitifs". Sur la partie historique, cité dans mon journal, je pointerai principalement sur Rationalism before the Sequences (c’est publié sur LessWrong, mais ESR se considère comme extérieur au mouvement).
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1).
Dans ma vie personnelle, évidemment. Principalement dans les exercices de calibration.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 2 (+1/-1). Dernière modification le 03 février 2025 à 15:52.
Non, il n’y a pas vraiment d’approche politique/sociale. Le plus proche est le mouvement EA, que je n’ai volontairement pas abordé dans le journal.
Faisons rapidement un peu de philosophie.
J’observe que le soleil se lève à l’est tous les matins depuis que je suis en vie — et j’ai le témoignage de mes parents et grand-parents que c’est le cas depuis qu’ils sont en vie.
À quel point la conclusion : "demain le soleil se lèvera à l’est" découle de cette observation ?
C’est grosso-modo le point d’entrée de ce qu’on appelle l’épistémologie : qu’est-ce que la connaissance ? le savoir ? La question précédente (sur la validité de la conclusion "le soleil se lèvera à l’est") s’appelle "Le Problème de l’Induction".
C’est le genre de problème auquel l’Ukemisme s’intéresse. Si on veut vraiment simplifier : c’est une nouvelle école de pensée sur la question de l’épistémologie.
La théorie des probabilités semble te faire ticker. Pourquoi est-ce considéré comme un pilier ? Prenons le Rasoir d’Ockham. Le rasoir d’Ockham est une heuristique prisée des philosophes, mais qui fait tout de même débat (Heinlein a un bon mot là dessus). Peut-on faire mieux ?
Oui, on peut. On peut formaliser le rasoir d’Ockham dans le contexte de l’apprentissage PAC.
Pourquoi fait on tellement confiance à la théorie des probabilités ?
Parce que Richard Cox a montré que la théorie des probabilités découle nécessairement d’un nombre minimal de desideratas de tout processus de raisonnement cohérent. Ce n’est pas juste une théorie parlant de lancers de dés et de dénombrement et de distributions normales. C’est une théorie qui décrit la cohérence d’un système de savoir/croyances, et comment ce système doit évoluer lors de l’obtention de nouvelles informations.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1).
C’était l’objectif des exemples de techniques développées, donner envie de développer en cliquant sur les pointeurs.
Si l’accusation est que je suis un piètre commercial : coupable votre honneur.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1).
Essayons de parler informaticien : Identifier les "bugs" dans les modes de raisonnements "naturels" des êtres humains. Trouver des workaround. Deux bases pour identifier ces bugs : la psychologie (biais cognitifs) et la théorie des probabilités (usage plus avancé, mais par exemple : https://www.lesswrong.com/tag/conservation-of-expected-evidence).
Essentiellement philosophique, plus précisément une épistémologique.
Le projet que Kant avait en écrivant sa "Critique de la Raison Pure", grosso-modo.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 0 (+0/-2). Dernière modification le 03 février 2025 à 15:25.
Ukemisme est le seul terme original introduit dans mon texte, et j’ai expliqué à mon sens clairement pourquoi ? Je m’auto-cite :
.
Je me re-cite :
Vraiment, en quoi n’est-ce pas clair ?
Le but n’est pas de convaincre, il est de présenter rapidement et de donner des pointeurs.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 14:49.
Je ne suis pas sur que multiplier par 10 la taille du journal pour entrer dans les détails soit d’une grande aide ?
(et même si ça aidait, je ne pense pas être prêt à faire un tel effort, je suis un écrivain médiocre et donc peu efficace)
Encore une fois le but n’est pas de réécrire les Séquences en un journal.
[^] # Re: Verbiage…
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 14:26.
Je… ne comprend pas ? Je suis parti d’une structure, certes non-explicitée en titres, mais clairement (pour moi) présente :
Introduction : Présenter "quoi ?" le mouvement rationaliste. Pourquoi ? mes deux raisons.
Introduction rapide d’ESR, point de vue "sociologique" (quel genre de personne ce mouvement attire)
Quelles sont les idées fondatrices (Biais cognitifs + Théorie des probas en tant que fondation de l’épistémologie)
Le qui (les grands noms) et le quand (bref historique) du mouvement
Les leçons pratiques
La conclusion
Je me relis et ce plan est… transparent pour moi ? Même pas subtil (non, je n’ai pas cherché à être subtil) ? Je suis curieux de pourquoi ce n’est transparent que pour moi.
Je plaide coupable qu’il n’y en a pour le coup pas réellement (j’ai essayé d’en introduire une artificiellement avec le "Eliezer Yudkowsky a principalement cet objectif en tête lorsqu’il écrit les Séquences" de l’introduction). Le but est un résumé en largeur, pas en profondeur, de toucher un maximum de points plutôt que de se concentrer sur un aspect.
Oui, c'est apprécié, merci.
[^] # Re: Rationalisme
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 2 (+0/-0).
Je voulais rebondir là dessus, mais j’ai oublié.
Il existe effectivement en France des rassemblements périodiques de la communauté (à ma connaissance, il y a des groupes à Paris, Bordeaux, Grenoble, Lyon et Marseille). Si cela intéresse quelqu’un d’être averti des prochains (j’en doute, vu la note du journal, mais sait-on jamais), vous pouvez m’envoyer un MP pour que je vous prévienne quand ça arrivera (le prochain devrait "gros" événement devrait être fin mars je pense ?)
[^] # Re: Kill the Buddha
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 2 (+1/-1).
Il y a confusion : mon but est de présenter de loin le mouvement, pas de réécrire les Séquences en un journal, ce qui est probablement impossible même pour un écrivain surdoué (et je suis un écrivain sous-doué).
En un mot ? Ça dépend par "inaccessible" ? Si c’est "il est impossible de tirer la moindre information de la réalité", c’est évidemment faux. Les bactéries y parviennent. Si c’est "accéder parfaitement et totalement à l’entièreté de la réalité" ? C’est presque certainement vrai.
Et c’est incidemment une bonne intuition de pourquoi la théorie des probabilités est le fondement correct de l’épistémologie : la question n’est pas "commence accéder à la Vérité ?", mais "comment construire un modèle de la réalité à partir d’observations, et quel degré de confiance puis-je avoir dans ces modèles ?".
[^] # Re: Rationalisme
Posté par Moonz . En réponse au journal Le Rationalisme. Évalué à 1 (+0/-1). Dernière modification le 03 février 2025 à 11:06.
Absolument pas, et c’est une des raisons pour lesquelles le terme de "Rationalisme" est désastreux :
Désolé, j’ai fait de mon mieux, qui n’est je le reconnais pas très bon. Pour ma défense : difficile de concilier en un post : un résumé historique, sociologique et pratique d’un mouvement philosophique qui a maintenant presque 20 ans.
Je suis ceci dit curieux sur ce qui a échoué : j’ai tenté de donner les grandes lignes, de loin, et de ne pas rentrer dans les détails pour justement éviter ce souci. Est-ce que même avec cet objectif, j’ai été trop loin dans les détails, ou est-ce que j’ai mis une image de trop loin ?
[^] # Re: matrix/element, terminé pour moi
Posté par Moonz . En réponse au journal Matrix: Pour des millions d'utilisateurs, utilisez Synapse Pro. Évalué à 3 (+1/-0).
Un bon client web, au niveau de Slack (proprio)/Matrix.
[^] # Re: Linux hélas c'est là qu'est l'OS
Posté par Moonz . En réponse au journal La fin de Windows 10 : une opportunité pour Linux ?. Évalué à 3 (+1/-0). Dernière modification le 13 janvier 2025 à 16:58.
Ça a changé depuis mon expérience (tu viens de me l’apprendre !), et ça rend beaucoup mieux effectivement qu’avant.
Ça reste derrière le style de Word par défaut de l’époque.
[^] # Re: Linux hélas c'est là qu'est l'OS
Posté par Moonz . En réponse au journal La fin de Windows 10 : une opportunité pour Linux ?. Évalué à 1 (+4/-5). Dernière modification le 13 janvier 2025 à 15:11.
Je suis désolé, je vais être cru, on est en plein dans les dénégations ridicules.
Mon expérience : je suis un pur Linuxien. En tant que techos, je n’ai pas à toucher à un traitement de texte. De manière exceptionnelle, mon boss me demande un rapport à envoyer à un client. Je lance (pour la première fois de ma vie) libreoffice. Je tape le texte pendant 30 minutes, je me débat pendant une heure pour mettre en forme. J’envoie le résultat à mon boss : "c’est quoi cette mise en forme immonde ?" (et je ne peux qu’être d’accord).
Je vais sur le PC d’un collègue. Je copie colle le texte dans notepad pour virer la mise en forme, je copie colle dans Word, je clique sur le premier titre, je clique sur le gros onglet "Styles", je clique sur le gros bouton "Titre". Je clique sur le premier sous-titre, je clique sur le gros bouton "Sous-titre 1" (ou un truc du genre). Je fais la même pour les deux autres sous-titres. Résultat impeccable en 2 minutes, tout le monde est content.
Ce n’est pas une question "d’habitudes" ou "c’est tous la même merde". C’est l’expérience de quelqu’un qui n’a jamais touché à un traitement de texte pendant 15 ans. A priori libreoffice partait avec un léger avantage : je n’ai aucune connaissance de Windows.
La différence entre toi et moi ? Tu es un power user. Même si tu n’avais pas tes styles persos, tu sais quelles sont les bonnes police pour un texte, quelles sont les bonnes polices pour un titre, quand sciemment utiliser l’italique, le gras, quand 14 est la bonne taille et 13.5 c’est trop petit et 14.5 c’est trop gros pour être plaisant à l’œil. Tu sais quelles couleurs sont utiles pour mettre de la diversité dans les couleurs sans être tape-à-l’œil.
Je n’ai pas cette expérience, je ne sais rien de tout ça. La force de Word c’est exactement ça : des défauts sciemment choisis par des experts de ce domaine pour donner des résultats corrects une fois mis dans la main de la plèbe comme moi. La faiblesse de libreoffice c’est exactement ça : "alors, les styles par défaut : police par défaut ? celle du système, ou Arial. couleur ? noire. taille ? 16-14-12. Le résultat est moche ? OSEF, l’utilisateur peut changer".
[^] # Re: Linux hélas c'est là qu'est l'OS
Posté par Moonz . En réponse au journal La fin de Windows 10 : une opportunité pour Linux ?. Évalué à 1 (+2/-3).
Pour un power-user qui passe sa vie dans un traitement de texte et a peaufiné sa librairie de styles persos pendant des années ? Je peux le croire (même si j’en sais au fond rien : je ne suis pas ce profil)
Pour quelqu’un qui n’a pas touché à un traitement de texte depuis 15 ans, installe libreoffice pour la première fois, qui veut juste taper son texte, cliquer sur 3 boutons (et pas plus !) pour ajouter un peu de style et avoir un résultat potable ? Non, absolument pas.
J’ai l’impression d’entendre les dénégations de l’équipe de Gimp d’avant la refonte de l’interface "nan mais les 300 fenêtres qu’on peut replacer comme on veut c’est trop bien, c’est vous qui êtes trop des casuals pour comprendre l’intérêt" (ce qui est potentiellement vrai, mais n’est pas une bonne réponse à : c’est inutilisable par moi gros casual qui n’a aucune intention de devenir pro). Eux au moins ont fini par comprendre.
vim est inutilisable pour un non-initié, et très efficace pour un initié. C’est un choix assumé. Je ne vois pas les développeurs de vim dire "nan mais c'est simple et intuitif à prendre en main, c’est vous qui êtes trop nuls". Il serait bon que les zélateurs de libreoffice prennent exemple soit sur Gimp, soit sur vim.
# Re: Qu'attendez de vous de pouvoir participer à un Fablab ?
Posté par Moonz . En réponse au sondage Qu'attendez vous avant de pouvoir participer à un Fablab ?. Évalué à 2 (+0/-0).
Ça se fait un peu, mais malheureusement pas par chez moi : fablab biologie & chimie. CNC et découpe laser, j’ai fait un peu dans mon cursus d’ingé, j’ai une idée de ce qu’on peut en faire (et c'est très rapide d’en faire le tour). Biologie et chimie, j’ai été un cancre toute ma scolarité dans ces domaines, je le regrette un peu, et c’est difficile de s’y initier seul.
[^] # Re: mes tests
Posté par Moonz . En réponse au message Un raspberry pi 4 pour une instance gitlab dockerisée ?. Évalué à 3.
Même retour, on utilisait gitlab à mon ancienne boîte (et sans CI) et il bouffait très rapidement 3-4 Go de RAM à lui seul. Ça me donne quelques doutes sur un Raspberry pi.
Pour des tests rapides, louer une machine un peu plus grosse mais facturée à l’heure chez Scaleway ?
[^] # Re: IA générative
Posté par Moonz . En réponse au journal LinkedIn, c'est terminé ! Merci l'exploitation des données pour l'IA générative. Évalué à 1. Dernière modification le 24 septembre 2024 à 16:24.
"Générative" fait le gros du travail dans cette remarque. C’est vrai pour une IA structo-sensus générative (ou plutôt: auto-regressive, mais ne pinaillons pas), mais ChatGPT dès son inception ne l’est pas, avec une phase importante de post-training sur du reinforcement learning. Ça fait au moins deux ans que c’est un secret de polichinelle qu’il y a un gros effort de la part des gros du domaine d’utiliser la partie générative comme une simple "stepping stone", avec comme résultats publics actuels AlphaProof de DeepMind et plus récemment o1 de OpenAI.
Et hop, l’adjectif "générative" est immédiatement oublié. C’est pour ça que je ne considère vraiment pas cette analyse (qui, je te le rassure, est très répandue) comme pertinente. Si elle est vraie pour une IA purement générative, on fait trop facilement le raccourci IA = IA générative pour appliquer incorrectement cette analyse à l’IA en général.
Vous voyez une limitation fondamentale à un problème non seulement résolvable, mais déjà partiellement résolu.