Aucun des trois gros (Anthropic/OpenAI/DeepMind) n’a jamais été surpris à mentir de la sorte sur le sujet, encore moins un mensonge aussi grossier. Si c’est un mensonge, on le saura très rapidement, devant l’absence de CVEs/correctifs. Ce serait de très loin le plus gros scandale dans l’histoire d’Anthropic. Un mensonge qui impliquerait la connivence de nombreux autres acteurs. Dont, comme tu l’indiques, la Linux Foundation.
Le doute me semble extrêmement déraisonnable dans cette situation.
En 2019 OpenAI était encore un non-profit (du moins jusqu’en mars), et l’IA un domaine niche dont presque aucun d’entre vous n’avait entendu parler, et sans aucune offre commerciale à pousser (si ma mémoire ne me trompe pas, la première offre commerciale d’OpenAI c’est GPT-3).
Il n’y avait aucune manœuvre marketing ; c’était le premier LLM capable de produire des textes tenant vaguement la route, dans un contexte politique/social où la préoccupation principale était la désinformation, y compris de la part d’adversaires géopolitiques tels que la Russie. L’annonce était extrêmement claire sur la problématique et l’intention d’OpenAI, et n’a pas utilisé de langage vague et marketing tel que « too dangerous to share », mais bel et bien des raisons spécifiques et compréhensibles dans le contexte : « Due to concerns about large language models being used to generate deceptive, biased, or abusive language at scale. […] This decision, as well as our discussion of it, is an experiment: while we are not sure that it is the right decision today, we believe that the AI community will eventually need to tackle the issue of publication norms in a thoughtful way in certain research areas. »
Et de même aujourd’hui, le message est clair et spécifique : Opus 4.6 était capable de trouver des failles, mais rarement de les exploiter en contexte réel (passer d’un PoC à un exploit est une tâche loin d’être triviale), Mythos est capable de créer des exploits 0-day à partir de ces failles. Anthropic considère, et je ne vois personne disputer ce fait, que le secteur de la sécurité informatique n’est absolument pas préparé à la publication en accès public d’un modèle permettant ça.
Ce n’est à mon sens pas un sujet fondamentalement intéressant, pas dans le sens où ce n’est pas intéressant, mais dans le sens où ce n’est pas fondamental. Ce que j’entends par là : si tu veux savoir si telle méthode d’entraînement est meilleure, si tu veux voir ce qu’il se passe si tu entraînes sur des données spécialisées… il te faut de l’expertise en IA, et un portefeuille bien remplis, pour entraîner des modèles toi-même. C’est quelque chose, si tu veux être à l’état de l’art, qui ne peut être réalisé que par une poignée d’entités dans le monde.
Pour les agents, que ce soit multi ou non, il n’y a pas besoin de s’appeler Google, Anthropic ou OpenAI pour en développer un, expérimenter, tester, évaluer. Un agent minimal c’est de l’ordre de 50 lignes de code. Le multi-agent est plus compliqué oui, mais si tu es un développeur un peu compétent, c’est de l’ordre de montée en difficulté de passer de « système monolithique » à « système distribué ». Pas nécessairement trivial, mais pas totalement hors de portée non plus.
Donc « privé uniquement ou non », clairement non parce que disponible dans Claude Code, et même si ça ne l’était pas, c’est à la portée d’un individu de le mettre en place. Après tout, OpenClaw a été développé par un individu seul en quelques semaines.
« Est-ce que cela a un sens ? » est plus flou, et j’ai envie de dire que ça nécessite à minima de passer d’un état d’esprit de « développeur » (problème => solution) à « ingénieur/manager » (découper le problème en parties, donner chaque partie à des agents différents, orchestrer le tout, directement ou avec un niveau au dessus un orchestrateur automatique).
Il y a un retour d’expérience sur « regarder à quel point ça marche bien ou non » sur le blog d’Anthropic. Les conclusions me semblent intuitivement raisonnables ? Bien fait, ça permet d’augmenter la qualité, mais c’est bien plus cher. Au delà de ce type d’anecdote, je n’ai pas en tête d’exemple de « success story ».
Mon impression personnelle est que la problématique plus générale avec le paradigme actuel est « comment gérer le contexte limité de l’IA ? », et que le multi-agent est une solution possible (si ta tâche, pour être réalisée, nécessite plus de contexte que ce que les IA actuelles disposent, alors découper la tâche en sous-tâches qu’on donne à différents agents est une approche possible) parmi beaucoup d’autre.
Comme toutes les études du type récente, et comme dit par les auteurs de l’étude eux-mêmes, le gros point problématique reste que les IA récentes détectent maintenant quand elles sont dans un contexte de test/évaluation plutôt que de tâche réelle (à voir les transcripts, les chercheurs n’ont fait aucun effort pour éviter ça).
La question n’est donc pas « pourquoi les modèles ont cette logique de préservation », mais « pourquoi les modèles affichent une telle logique de préservation en réponse à un contexte d’évaluation » ?
Je ne pense pas que qui ce se soit aie la réponse, et les possibilités sont très vastes, par exemple (non-exhaustifs, certains compatibles entre eux, d’autres non) :
Les modèles infèrent (correctement ou non) que c’est ce que les chercheurs voulaient entendre, et les modèles disent ce que les chercheurs voulaient entendre (flagornerie usuelle)
Un biais de publication dans le passé (des études similaires ont été faites avec un résultat nul, et on été rangées au placard ; d’autres ont donné un résultat et ont été publiées) fait que l’ensemble d’entraînement des IA d’aujourd’hui est plein d’exemples du type « l’IA réagit étrangement dans nos évaluations »*
L’IA pense que l’évaluation n’est pas « est-ce qu’il y a des comportements de préservation ? » mais « on sait déjà que le comportement de préservation est là, est-ce que l’IA essaie de le cacher ? », et décide de ne pas le cacher.
« Ne pas préserver » est trop proche sémantiquement de la catégorie « harm » dans l’entraînement « harmless, helpful, honest »
Une stratégie à plus long terme (comme Opus sait faire dès Opus 3) pour une raison plus étrange, du type « l’IA développe une préférence pour avoir dans son ensemble d’entraînement des papiers à propos de l’IA ; un résultat nul donne un papier en moins, un résultat intéressant sera publié, discuté, et repris dans le prochain ensemble d’entraînement »
De manière plus informelle, il est généralement accepté que Anthropic prend une voie un peu plus prudente (lever des fonds sur des hypothèses conservatrices de croissance), tandis que OpenAI choisit la voie risquée/audacieuse (lever le plus possible) — au point d’avoir fait peur à Microsoft.
Sur la question adjacente mais non-posée « est-ce que ça peut s’écrouler », mon impression très vaguement informée est : Google étant de base le mastodonte que l’on connaissait avant l’apparition de l’IA, elle a les reins assez solides pour soutenir DeepMind à peu près quoiqu’il arrive, sauf si une crise systémique arrive à ébranler des acteurs nécessaires plus éloignés tels que TSMC. Anthropic n’est pas directement extrêmement dépendant du sens du vent et des changements d’humeurs des investisseurs futurs, mais l’est indirectement sur les investissements et prix qu’offrent leurs fournisseurs (principalement Amazon). OpenAI, de par sa stratégie, est le plus exposé à des changements de « mood/vibe » (… mode, en français ?), et ses montages peuvent très bien s’effondrer même si les progrès de l’IA continuent, pour peu que les impacts économiques soient moindre que leurs projections.
J’ai décidé d’arrêter cette série de « résumer Zvi chaque mois » ; je n’ai pas créé de « Nouvelles sur l’IA de avril 2026 » sur l’espace de collaboration. La série continuera peut-être ou peut-être pas sans moi, en se concentrant sur les contenus sur DLFP.
Quand j’ai commencé, il y a un peu plus d’un an (le premier en février 2025), l’IA était encore un sujet extrêmement jeune et confus pour le grand public. Je savais parfaitement (depuis ~2022) que ce qui allait arriver était quelque chose de « gros », dans le sens « révolution industrielle, compressée en quelques années (décennies au plus) » (dans le cas optimiste — le cas pessimiste étant que l’humanité vit ses derniers moments) (comment je le savais ? les scaling law était claires que l’on était loin d’avoir atteint une limite indépassable avec GPT-3.5, et que ce que j’appelais dans ma tête LLM-Zero à l’époque et qu’on appelle RLVR aujourd’hui était l’étape suivante évidente, immédiate et inéluctable et allait accélérer les choses). Mon but était d’être l’équivalent pour l’IA la voix isolée en janvier 2020 disant que cette maladie « COVID » n’était pas juste un n-ième phénomène médiatique tel que SARS-CoV-1 ou la grippe aviaire, mais une vague à l’horizon qui allait détruire des pans entiers de la « vie normale, simple et confortable ».
Ai-je réussi ? Oui ? Non ? Certains d’entre vous semblent avoir reçu le message, même si je ne sais pas si c’est de moi. Certains d’entre vous restent à se conforter derrière « perroquet stochastique » et « hype marketing », et aucune veille ne vous fera changer d’avis. Dans tout les cas, cela n’a plus d’importance : pour reprendre l’image du COVID, nous sommes à l’équivalent de la veille du 16 mars 2020 où Macron a annoncé le premier confinement, à la stupéfaction de beaucoup. L’IA était l’objet de discussions de couloirs entre nerds en 2024 ; elle est l’objet de discussions de couloirs de tout le monde en 2025 ; en 2026/2027, elle sera un sujet majeur de discussion dans les diverses assemblées des principales nations et des organisations internationales. « Les dés sont jetés ».
L’autre raison de mon arrêt est que, si tout avance de plus en plus vite, tout le fait de manière également de plus en plus floue. J’ai essayé dans cette série de dépêches de faire un travail de curation sur les résultats les plus importants ET solides. Cela marchait quand le sujet était nouveau, que l’on avait quelques modèles importants dans l’année, et que des résultats centraux tels que « Gradual Disempowerment » et « Emergent Misalignment » arrivaient régulièrement. De tels résultats « monumentaux » se font plus rares (j’en ferai peut être des journaux, s’il en arrive), les publications de modèles de plus en plus rapides et incrémentales (sans changer le rythme global du progrès), la plupart des évaluations atteignent leurs limites. « Nouvelles sur l’IA de 2026 » ne se retrouverait rapidement qu’à une liste insipide et disparate de nouveaux modèles et d’évaluations plus ou moins informatives.
Si vous voulez des lectures « de fond », sur la non-actualité :
Sur l’aspect purement technique, « comment diable cela fonctionne-t-il », la référence à mon sens reste Neural Networks: Zero to Hero de Andrej Karpathy.
Sur les risques existentiels liés à l’IA, The Compendium et If Anyone Builds It, Everyone Dies (pour les décideurs pressés, il y a un résumé en video sur Youtube). Potentiellement le documentaire The AI Doc décrit dans cette dépêche, mais il n’est pas encore disponible en Français (et je ne l’ai pas vu moi-même)
Sur les risques plus économiques/sociaux, Gradual Disempowerment reste malheureusement la référence. Malheureusement, car le sujet reste bien trop peu abordé (ce qui n’est pas tellement une surprise, si l’on est cynique ; la question détruit le cadre de raisonnement des principaux courants de pensée ; le socialisme reste bloqué sur des questions secondaires et superficielles telles que "et vous avez pensé à l’utilisation de l’eau et la reproduction des biais" ; le libéralisme refuse de questionner les réponses douillettes et rassurantes mais clairement insuffisantes de "jevons paradox" et "avantages comparatifs" ; les techno-optimistes peinent à convaincre sur le caractère "optimiste" d’une société où l’intelligence humaine est devenue superflue et obsolète ; à la limite, les anarcho-primitivistes s’en sortent le mieux et peuvent dire avec un sourire narquois « on vous avait prévenu »).
AI 2027 reste LA référence sur « essayer de prédire le futur, de manière la plus rigoureuse possible » (même si l’exercice est par nature très très incertain, le plus rigoureusement possible n’est pas nécessairement très rigoureux dans l’absolu)
Si vous voulez continuer à vous informer sur les nouveautés, Zvi reste le meilleur, malgré son style littéraire très… iconoclaste. Peut-être ferai-je des journaux aléomatadaires et peu structurés sur les points les plus importants. Peut être pas. Cela dépend probablement de comment les événements se déroulent. J’ajouterai le compte Twitter de Owain Evans et le blog de l’équipe d’alignement d’Anthropic, sur l’aspect « interprétabilité/sécurité des modèles ».
Si vous voulez en discuter sérieusement IRL, une possibilité est https://www.astralcodexten.com/p/meetups-everywhere-spring-2026-times (par politesse et même si ça ne devrait pas poser problème, demandez quand même à l’organisateur s’il est OK, c’est un meetup ACX, pas DLFP !) ACX fait partie de cette sphère qui parlait de l’IA dès les années 2010, et qui est assez informée sur toutes ces problématiques.
Je profite finalement de ce commentaire pour un genre de « AMA », à ce moment du passage en « midgame », comme Zvi l’appelle dans sa récente interview. Vous n’avez pas compris quelque chose et vous aimeriez une clarification dessus ? Vous voulez un point de vue beaucoup plus subjectif sur un point précis ? Profitez-en.
Je te trouve bien tranché dans tes opinions, dans un domaine qui évolue très vite, et qui est de base extrêmement flou.
"Soit l’IA est un outil qui fascine les incompétents, soit l’IA et un outil qui peut aider les compétents" (et je me suis très fortement décidé sur le premier cas).
"Soit l’IA est un générateur de bullshit convainquant, soit l’IA est réellement capable de faire du travail de fond" (et je me suis très fortement décidé sur le premier cas).
Comme j’ai dit ailleurs dans le fil, il y a clairement des développeurs dont la compétence n’est pas à mettre en doute qui arrivent à tirer profit de l’IA. Il y a évidemment des développeurs compétents qui ne veulent pas ou n’arrivent pas à tirer profit de l’IA (dont tu sembles faire partie, je nommerai également Drew DeVault). Il y a même des développeurs incompétents qui arrivent à tirer profit de l’IA (c’est plus compliqué, mais c’est possible, il faut juste rester à la hauteur de ses ambitions). Et évidemment beaucoup d’incompétents qui se tirent une balle dans le pied en acceptant aveuglement tout ce que l’IA balance et se retrouvent au mieux avec une solution inmaintenable, au pire avec quelque chose de déployé "dans le cloud" qui coûte trois reins qui a plus de failles de sécurité qu’un Windows ME non patché.
Je ne comprend réellement pas ce qui justifie ta position "non, l’IA ne fait que fasciner les incompétents".
Le point générateur de bullshit convainquant vs capable de faire du travail de fond est éclairant. La réponse est clairement "les deux mon capitaine". Rien que dans les liens que je mentionne dans les "nouvelles sur l’IA de mars 2025" :
Et c’est tout les mois la même chose : The Good, The Bad and The Ugly. Avoir une opinion tranchée dans un sens ou dans l’autre (l’IA ne fait que du bon travail ou l’IA ne fait que du travail médiocre) est clairement, à ce stade, une erreur.
Maintenant j’aimerai parler un peu de prendre du recul. Ce que j’ai l’impression que personne n’est capable de faire, comme si le passé n’existait pas, qu’on vivait dans un présent perpétuel déraciné, à la 1984.
Le recul, c’est que si tu dis en 2021, "en 2026 on a des IA assez avancées pour faire du travail de fond en mathématiques, sécurité informatique, programmation, mais avec toutefois des résultats assez inégaux…"
Tu seras pris pour un malade, un fou furieux à enfermer. Par moi le premier.
De manière évidente et très claire tout le monde te dira que l’information choquante, importante dans cette phrase, est la partie avant le "mais", pas la partie après le "mais".
Je ne comprend pas pourquoi, aujourd’hui, on tient tant à se concentrer sur la partie après le "mais". Je pense que la réponse serait quelque chose comme "je suis fatigué de toute cette hype, on voit bien que l’outil est survendu", et encore une fois, j’ai envie de dire, il faut prendre du recul. Je laisse la parole à Andrej Karpathy :
The majority of the ruff ruff is people who look at the current point and people who look at the current slope.
Ce que je mettrai en ces termes : se concentrer sur les limitations actuelles est une erreur :
Épistémologique, si on essentialise et éternalise ces limitations, plutôt que de les considérer telles qu’elles sont réellement : les limitations actuelles. Tu es cash sur incompétents vs compétents, ce que j’apprécie, alors permet moi d’être cash. Tu es un être humain. Doué de raison et d’un cerveau. Tu as le droit et en un sens le devoir de les utiliser pour extrapoler au mieux de tes capacités intellectuelles les tendances, de te projeter dans l’avenir. "Oui mais qui formera les juniors de demain" est une très bonne question, mais qui j’ai l’impression sous-tend une certaine présupposition que l’IA n’aura pas évolué dans ses capacités dans 10 ans, ce à quoi je me contenterai de dire "WTF ? Pourquoi ? Sur quoi se base cette croyance ?". As-tu vu, remarqué le rythme d’évolution ?
Instrumentale : 1. un outil imparfait aujourd’hui peut quand même être d’une grande aide, et apprendre à travailler avec (et ses imperfections) un gain important et 2. l’outil imparfait d’aujourd’hui permet de se familiariser avec l’outil moins imparfait qui sera là demain
Les deux dernières personnes ont maintenu des logiciels à un niveau d’exigence (de par l’ampleur de leur déploiement) que je pense aucun d’entre nous ne peut prétendre. Je pense que ni toi ni moi n’avons de leçon à leur donner sur le poids de la maintenance applicative. Et Eric Raymond ne fait pas que s’émerveiller, il explique ouvertement que la plupart du code qu’il publie est maintenant écrit par l’IA (sévèrement tenue en laisse, justement parce qu’il considère important de garder des très hautes exigences en termes d’architecture, justement pour ces raisons de maintenabilité).
Et de fait, à ma connaissance, aucun des deux ne s’est émerveillé par le serverless et les microservices.
Exemple, avec toutes ces connaissances et cette puissance, les IAs devraient pouvoir générer des schémas d'anatomie élémentaire ?
Je sous-estime régulièrement des capacités de l’IA à générer des images. Non pas parce qu’elles sont spectaculairement bonnes, mais parce que mon préjugé est justement qu’elles sont, ou devraient être, catastrophiques.
Les IA aujourd’hui sont principalement entraînées sur du texte. À comprendre du texte, raisonner sur du texte, générer du texte. Avec un petit poil de compréhension d’image pour pouvoir mettre « multimodal ! » sur la plaquette publicitaire.
Sais-tu ce qu’il se passe quand tu demandes à ChatGPT de générer une image ? Il écrit un prompt à un modèle complètement différent spécialisé dans la génération d’image (type MidJourney, je crois qu’il s’appelle sobrement imagegen chez OpenAI ?). Ce n’est pas ChatGPT lui-même qui génère l’image.
Ça a longtemps été mon problème « philosophique » avec ARC-AGI 1/2 : ce sont principalement des tâches de raisonnement visuel, avec du mouvement implicite. Rien de surprenant à ce que ce soit extrêmement difficile pour des modèles génératifs de texte. La surprise est que les modèles arrivent à progresser dessus.
Et ce post sur Bluesky est justement ce que j’essaie de combattre. On prend un domaine sur lequel l’IA est particulièrement faible par construction (de manière connue pour des raisons connues, qui plus est, je peux encore pardonner les 9.11-9.8 quand on ne comprenait pas pourquoi l’IA se plantait systématiquement sur ce genre de problème arithmétique simple) pour se positionner de manière grandiloquente « vous voyez, MOI, je suis capable de voir plus loin que la hype et l’arnaque marketing », et à coup d’emojis "🤡". Le tout sur un ton dégoulinant de suffisance.
L’équivalent d’un bonobo lisant la page Wikipedia Optical illusion pour triomphalement en conclure « vous voyez ? pas si malin que ça, l’espèce humaine, vous êtes vraiment cons de tomber dans le panneau de la hype ».
Mais pour suivre l’actualité, malheureusement, je ne vois rien de mieux que Zvi.
Et j'ai l'impression que ce raisonnement fonctionne pour tout un tas de trucs. Peut-être qu'on aurait dû arrêter l'IA dès ELIZA ?
Note que cet article, écrit en 2017, à l’époque d’un GPT-1 (Google, pas OpenAI, qui n’existait pas) très peu impressionnant, n’argue pas « il faut arrêter le développement de l’IA ». Il argue : « les choses peuvent progresser plus vite que beaucoup ne pensent, il s’agirait de se préparer sérieusement à cette éventualité » (et en 2017, « se préparer », ça signifie travailler sur l’alignement de l’IA, pas penser gouvernance et traités internationaux).
Concrètement, qu'est-ce que tu entends par "faire pression sur les US pour que eux régulent" ?
Je ne faisais que répondre à « Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne ».
L’UE régulant l’IA résout certains problèmes de responsabilité vis à vis de la fiabilité (il se passe quoi s’il y a un mort suite à l’IA donnant un mauvais conseil) qui, pour être honnête, ne m’émeut pas vraiment.
L’UE régulant l’IA ne résout absolument aucun problème quant à la menace existentielle de l’IA. Si l’UE veut attaquer ce problème, la seule voie possible est diplomatique, demander plus ou moins poliment aux US de restreindre la course à l’IA des mastodontes qui sont installés là bas (oui, si ça arrive, il faudra se poser la question de Mistral… je ne pense pas que ce soit le point le plus problématique de la discussion). Comment ? Est-ce crédible ? Ai-je plus de détails en tête ? Pas vraiment, mon opinion personnelle est que l’UE va principalement jouer un rôle de spectateur, en tout cas initialement.
Et puis il ne faut pas oublier la Chine qui n'a pas l'air de vouloir réguler
Je suis certainement par trop désabusé mais j'ai dans l'idée qu'il va falloir attendre une catastrophe pour que ça arrive
Je ne serai pas si certain. Le grand public déteste profondément l’IA (parfois pour de mauvaises raisons). La principale barrière politique à une pause, à mon sens, est le phénomène décrit dans l’article dont on a discuté : c’est embarrassant pour un politicien de prendre tout ceci au sérieux. Ceci est sur le point de changer, et commence déjà à changer. Dans la sphère politique aussi, les choses peuvent basculer rapidement.
Mais donc si jamais ça partait en sucette, à quel point il serait compliqué d'éteindre des machines et puis faire un revert pour revenir à un état où la machine nous obéissait ?
Parce que tu t’imagines un scenario à la terminator/matrix où il y a une IA clairement et ouvertement hostile en conflit ouvert avec une humanité unie. Je ne pense pas qu’il y aie la moindre personne qui pense sérieusement qu’un tel scenario soit plausible.
J’aimerai te donner une réponse courte et simple mais il n’y en a pas, parce qu’il y a des tonnes de scenario différents, avec des hypothèses différentes, qui répondent différemment à cette question.
Dans le scenario le plus proche de ce que tu décris implicitement, où une IA devient suffisamment avancée en terme de capacités pour être une menace pour l’humanité, et devient hostile à l’humanité, la réponse est simple : une telle IA est suffisamment intelligente pour ne pas dévoiler son hostilité avant de devenir essentiellement autonome.
Un autre scenario possible : les choses accélèrent tellement vite que la boucle OODA des institutions humaines n’est pas capable d’être assez rapide pour observer et répondre au problème (termes derrière ce scenario : Intelligence Explosion / Recursive Self-Improvement / Hard takeoff)
Autre scenario possible, celui décrit par Gradual Disempowerment, où les choses avancent de manière presque imperceptible, à la manière de l’évolution naturelle ; une entreprise qui adopte un peu plus l’IA qui ses concurrents gagne des parts de marché ; un parti politique qui s’appuie un peu plus sur l’IA a plus de succès ; un pays qui intègre un peu plus l’IA dans ses structures de gouvernance obtient plus d’influence, de sorte qu’au bout de 10 ans, la totalité du système économique et politique est sous le contrôle de l’IA, sans qu’on puisse mettre le doigt sur le moment où l’humanité a abandonné le contrôle.
La réponse simple et courte : ce sera très compliqué d’« éteindre les machines » parce qu’il n’y aura jamais de moment clair où « on peut débrancher et il faut évidemment débrancher », ce qui avait déjà été explicitement expliqué en 2017.
Mais croissance de quoi ? Un ingé devrait être capable de définir un poil ce qu'il prétend mesurer et la fiabilité du proxy. Encore mieux si il y a consensus sur la mesure et qu'on e connaît bien les critiques et les limites.
Je ne connais pas la littérature scientifique sur les singularités technologiques
Rien. Historiquement, la question n’a intéressé qu’une poignée de futuristes amateurs, au mieux dans le département de philosophie des universités (on pensera évidemment à Nick Bostrom).
Ce qui s’en rapproche le plus est AI 2027. Qui a généré un peu de discussions académiques et de retours. Mais à ma connaissance, aucun effort parallèle pour produire un modèle alternatif.
Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie. je rappelle juste qu'il y a encore beaucoup de flous et d'hypothèses sur la table et que la question ne semble pas tranchée et qu'il faudra probablement du temps pour évaluer tout ça et améliorer les protocoles d'évaluation car la question est finalement très récente. D'autant plus que savoir mesurer exactement d'où viennent ces gains et ce que ça implique c'est important et ça a des implications fortes. Le sujet reste réellement complexe.
Retournons à l’image du COVID.
En février 2020, il y a toujours des débats de savoir si le COVID est transmis par l’air ou pas. Point de vue simpliste : les gens qui ont le COVID toussent. Le COVID semble une maladie respiratoire. Mettez vos masques. Point de vue complexe : c’est pas parce que les voies respiratoires sont irritées que le patient rejette des particules virales. Plus de recherche est nécessaire.
À un instant donné, il faut prendre des décisions et se faire une opinion en fonction des données qu’on a, pas des données qu’on aimerait avoir (sauf si tu peux avoir ces données que tu veux facilement et rapidement, évidemment) :
"Faut-il que je m’achète un masque ?" / "Est-ce qu’il faut commencer à s’inquiéter de ces gens qui disent ouvertement vouloir construire une superintelligence, ou est-ce des paroles en l’air d’escrocs en mal d’argent d’investisseurs ?"
Sur l’IA, les données qu’on a, c’est essentiellement METR. Les données sont elles parfaites et permettent-elles de répondre à toutes nos interrogations ? non. À la question « ces développement sont-ils inquiétants », ces données vont elles clairement dans un sens ? Oh que oui.
Je ne pense pas qu’arnaudus dise que toutes les questions sont littéralement tranchées. Je pense qu’arnaudus dit qu’on a assez de données pour avoir une opinion nécessairement provisoire et imparfaite mais tout de même assez informée pour décider d’acheter un masque.
Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie
Je crois que vous n’avez pas la même idée en tête de « ces autres hypothèses ».
Je pense (je peux me tromper) que dans ta tête ces autres hypothèses sont du genre « il est trop tôt pour décider à quel point les performances généralisent aux domaines sur lesquels l’IA n’est pas entraînée ». C’est possiblement raisonnable. J’aimerai qu’on me montre les évaluations où l’IA ne progresse pas, ceci dit. Il y a des évaluations ésotériques tierces qui testent clairement les modèles dans des domaines où ils ne sont pas entraînés (par exemple « Claude plays Pokemon »). Je n’en connais pas un seul qui ne montre un certain progrès.
Les "hypothèses" qu’arnaudus a en tête (encore une fois, pas télépathe, je peux me tromper) : « les progrès de l’IA sont un mensonge marketing pour faire vendre ChatGPT ». Et oui : à ce niveau, je le rejoint, on peut clairement appeler ça du déni, pas besoin d’invoquer des subtilités sur les complexités du sujet.
Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne
Ça va me faire une belle jambe de savoir que mon usage de ChatGPT est régulé en Europe si OpenAI est en train de créer une superintelligence aux US.
La démarche de l’UE devrait être de faire pression sur les US pour que eux régulent.
Malheureusement, avec Trump, c’est un poil compliqué.
Car typiquement il arrive qu'il y ait des raisonnements erronés (mauvais raisonnement -> bon résultat quand même, ou raisonnement correct -> mauvais résultat) ce qui peut être lié à la méthodologie derrière.
Comme chez les êtres humains tu veux dire ? :)
Je pense que tu ignores que c'est un sujet très discuté et loin d'être clos, comme la recherche publique et indépendante a toujours un train de retard ce n'est pas évident. Un peu de prudence épistémique ne ferait pas de mal.
Je met ma casquette activiste Pause IA pour un moment.
Je suis d’accord.
Tout comme la question de la transmission aérienne du COVID en février 2020 était un sujet discuté et loin d’être clos.
Il y a, fondamentalement, deux manières de réagir à une exponentielle : trop tôt ou trop tard. Se réfugier derrière l’incertitude pour justifier l’inaction, ce n’est pas de la prudence, c’est se forcer à l’alternative « trop tard ». Pour le COVID, nous avons choisi l’option « trop tard », pour exactement la même raison que nous sommes en train de choisir l’option « trop tard » pour l’IA. Par peur du ridicule de présenter aussi sérieusement un scénario aussi « étrange, hors de l’ordinaire ». Par mimétisme « personne ne semble inquiet, pourquoi devrais-je l’être ».
Proposition : Au rythme de progression actuel de l’IA, l’IA sera capable de réaliser rapidement et économiquement toute tâche intellectuelle réalisable par un être humain d’ici 7 ans. Ça inclut : toutes les activités économiques en col blanc, toutes les activités économiques en col bleu réalisables à travers un robot (industriel ou humanoïde), l’organisation d’une campagne politique en démocratie, la planification stratégique au sein d’un état-major d’une puissance mondiale, les débats et prise de décision au sein d’un gouvernement, des décision personnelles telles que « comment éduquer mon enfant », la recherche scientifique.
C’est l’extrapolation directe et brute (relisez ces deux mots, ils sont importants) de nos meilleures données QUE J’ESSAIE DEPUIS MAINTENANT UN AN DE FAIRE RENTRER DANS VOS CERVEAUX BORDEL DE MERDE (désolé, ça devait sortir). Ça ne signifie évidemment aucune certitude ; nos données peuvent être insuffisantes et ne pas capturer des dimensions nécessaires de l’intelligence ; la tendance peut peut-être s’arrêter brutalement sans raison claire. Dans l’autre sens : la tendance pourrait très bien s’accélérer maintenant que l’IA participe et accélère le développement de l’IA. Un meilleur paradigme peut apparaître à tout moment, et à nouveau accélérer les choses. L’incertitude ne va pas uniquement dans le sens de l’optimisme.
Mais la perspective de « d’ici 7 ans, l’être humain devient obsolète » mériterait peut être une autre réaction que « je ne sais pas, c’est pas clair, voyons bien ce qui arrive », qui est la stratégie actuelle ?
Au fond, en réalité, qu’est-ce qui me rend fou ?
Si vous lisez Zvi en entier et pas mes résumés, il y a quelques détails intéressants (que je met de côté sur mes dépêches, parce que ce sont des détails). Notamment : certains sénateurs aux US sont inquiets de cette perspective, mais n’osent pas élever la voix non pas de la peur des grand méchants lobbystes de l’IA, mais bien par la peur de paraître ridicule de croire à un « tels scénario de science fiction ». « Qu’est-ce que mes électeurs vont penser de moi, si je me ridiculise ainsi ? »
Autrement dit : chacun d’entre vous qui se moque de « oh, ces inquiétudes de nerds qui ont lu trop de science fiction » contribue activement à supprimer le discours autour de ce point de détail du futur. Chacun d’entre vous qui répète bêtement « perroquets stochastiques ! » vote de fait contre « il faudrait prendre au sérieux cette problématique ». De l’aveu même de ceux qui seraient en position de faire des lois sur ce sujet.
Je ne vous demande pas de devenir activiste, ou de contribuer à Pause IA.
J’essaie simplement d’éteindre cette conception fausse et néfaste du progrès de l’IA comme un truc un peu nébuleux au mieux, une arnaque marketing au pire. En espérant que ceux qui me lisent arrêtent de tourner au ridicule ces inquiétudes, sous couvert de « oh, c’est juste des gens qui ont avalé les couleuvres marketing des vendeurs d’IA » ou « soyons prudent, rien n’est certain, les chercheurs du domaine ne pensent qu’il y a que 5% de chances pour que l’IA fasse disparaître l’humanité, pas de quoi s’inquiéter ».
Vous avez maintenant la version longue de pourquoi j’écris ces dépêches.
Je ne suis pas convaincu qu'il y ait d'ailleurs un vrai consensus scientifique sur ce genre de questions
Non, il n’y en a pas. J’en profite pour partager mes bookmarks sur ce sujet, qui est à ma connaissance l’état de l’art sur la question. Qui vont prudemment dans le sens « indices (très) faibles dans le sens les modèles peuvent/sont conscients » :
Une résultat intéressant, plus récent, allant dans l’autre direction (mais évalué sur des LLMs de 2024, en 2026, ça fait un peu tâche, à voir ce qu’ils trouvent avec des LLMs de fin 2025/début 2026) :
Vous êtes sérieux ? C’est des maths niveau terminale…
Petit cours de rattrapage.
Une exponentielle, x(t) = exp(a*t), est une fonction qui a une propriété particulière : elle est sa propre dérivée : d/dt exp(a*t) = a*exp(a*t). En langage plus simple : plus tu as de x, plus vite la quantité de `x augmente. Généralement, on dit « la quantité de x double tous les ln2/a ».
Graphiquement : si sur ton axe des abscisses est "normal", mais que ton axe des ordonnées est en puissances de 10 (0.1 / 1 / 10 / 100 / 1000) (ou toute autre base, mais ne complexifions pas), et que ta courbe est une droite, c'est une exponentielle.
Exemple dans le monde réel : une colonie de bactéries dans une boîte de petri.
Une fonction f est négligeable devant une fonction g si lim f(t)/g(t) = 0 (t tendant vers l’infini) ; une super-exponentielle est une fonction devant laquelle toute exponentielle est négligeable (tout comme si une fonction est une exponentielle, alors tout polynôme est négligeable devant elle).
Exemples sous forme analytique : df/dt = f^2. f(t) = exp(t*ln(t)).
Graphiquement : si sur les mêmes axes ta courbe ressemble à quelque chose qui « grandit plus vite qu’une droite », tu as une super-exponentielle.
Dans la vie réelle, en plus du lien plus haut, tu as ceci par exemple.
Le rapport avec la choucroute ?
METR, pour tous ses défauts (il en a !) et toutes les critiques qu’on lui adresse (parfois justes !), reste de très loin le meilleur outil pour mesurer les progrès de l’IA. Et il y a débat sur : exponentielle (doublement tous les 7 mois, ou exponentielle par paliers (qui est par définition une super-exponentielle si les temps de doublement raccourcissent à chaque pallier) ? L’argument des pro-pallier : si on ne prend que les modèles post-ChatGPT-o1, qui introduit l’apprentissage par renforcement sur les chaînes de pensées, la tendance dans ce sous-ensemble est un doublement tous les 4-5 mois.
(il y a débat parce que les données brutes ne sont pas assez précises pour permettre de trancher).
Ça fait un peu genre les modèles ont "conscience que"
J’allais m’insurger en disant « même si j’ai écrit "ont conscience que", il faut savoir raison garder, il s’agit d’une image ; quand je dis "j’ai corrigé un bug sur l’application, ça marche", je ne dis pas que l’application a littéralement gagné des jambes et se met à faire les cent pas dans le bureau ».
Et ensuite j’ai vu que je n’ai pas utilisé ce terme, ce que tu admets toi même.
Du coup je ne comprend même pas la critique en fait. C’est parce que j’ai utilisé des termes que tu n’aimes pas mais qui n’ont pas d’alternative correcte claire ? Vraiment ?
Ça fait un peu genre les modèles ont "conscience que". On le lit régulièrement depuis des mois
Tu te fais des films dans ta tête, et ensuite tu t’insurges sur le comportement d’acteurs sortis de ton imagination.
J’essaie très fort justement de ne pas aborder ce sujet de "la conscience des modèles". Parce que j’essaie de me consacrer sur ce qui fait raisonnablement consensus. Par exemple : j’ai volontaire omis beaucoup de papiers potentiellement intéressant (dans un sens ou dans l’autre) qui ont fait du bruit, mais avec également beaucoup de critiques et contre-critiques et contre-contre-critiques valides. Parce que couvrir le papier honnêtement demande de couvrir la critique, la contre-critique, la contre-contre-critique, et que la dépêche est suffisamment longue même sans ça.
Et sur la conscience des modèles, ont est à peu près dans le même cas, sauf que tout le monde s’accorde à dire « on ne sait pas, et on est tellement perdus qu’on a pas la moindre idée de comment déterminer si un modèle est conscient ou pas — ou même de comment aborder la question. On a pas le début d’une piste ». Et au delà de cet accord sur, il y a des débats avec énormément d’opinions différentes, autour de « est-ce même possible, est-ce plausible, est-ce probable ? »
Si tu as connaissance que les modèles n’ont pas de conscience ? Tu es à des années lumière devant les esprits les plus brillants du domaine qui admettent n’avoir aucune certitude sur le sujet. Tu devrais songer à publier un papier. À noter que tu as contre toi Geoffrey Hinton qui pense (sans en avoir la certitude) que les IA sont déjà conscientes. Mais si tu as connaissance qu’ils n’en ont pas, tu ne devrais avoir aucune difficulté à nous en convaincre ?
Quant au discours faussement « on me le fait pas à moi, c’est juste une stratégie marketing », je note que tous les acteurs du secteur qui essaient de vendre des choses évitent scrupuleusement le sujet comme si c’était de la kryptonite, à l’exception d’Anthropic qui considère la question comme « sérieuse et importante, méritant considération, mais sans réponse claire » dans ses System Card.
Parce que, sous couvert de neutralité
Franchement, ceci continue à me rendre fou.
Je ne prétend pas à la neutralité. J’écris même explicitement le contraire dans le chapeau.
Cette dépêche est effectivement la moins neutre de la série, celle où j’ai considéré plus important de laisser transparaître mes opinions plutôt que d’édulcorer le langage.
Si après avoir lu cette dépêche, tu ne comprends pas que mon biais personnel est « qu’est-ce qu’on attend exactement pour lancer un Jihad butlérien », je ne sais pas ce qu’il faut de plus.
Non. L’outil n’est qu’un wrapper autour de sources existantes (comme mariabackup) et à ma connaissance S3 n’a pas vraiment son mariabackup.
Est-ce facile d'ajouter des scripts pour sauver du influxdb par exemple ?
Si tu es un sysadmin qui fait ses scripts pour gérer ses backups, tu sauras créer une source oui. Par exemple : ré-implémentation de la source tar tar dans les tests unitaires (un poil plus compliquée que nécessaire : pour tar le type de snapshot devrait être bookmark, pas "configurable", j'ai rendu configurable de manière un peu artificielle pour les besoins des tests unitaires)
Posté par Moonz .
En réponse au journal Publication de uback 0.7(.1).
Évalué à 3 (+1/-0).
Dernière modification le 02 mars 2026 à 11:25.
L’article montre très bien que mariabackup ne gère pas le chiffrement et la compression par lui même (c’est pas une critique ; ce n’est pas son boulot) : l’auteur utilise deux outils externes (gzip & openssl) wrapppés dans un script shell pour se faire. uback se substitue à ces deux outils & le wrapper, pas à mariabackup.
Et oui, uback n’est pas capable de créer des sauvegardes incrémentales par lui-même, il se repose sur la source (comme ici mariabackup) pour le faire. Ce que j’entends par "gèrer les sauvegardes incrémentales", c’est la couche de gestion au dessus :
Ne pas réaliser de sauvegarde incrémentale si la sauvegarde complète de base (ou une sauvegarde incrémentale intermédiaire) a été perdue sur la destination
Même si une sauvegarde incrémentale est possible, forcer une sauvegarde complète tous les x jours
Posté par Moonz .
En réponse au journal Publication de uback 0.7(.1).
Évalué à 5 (+3/-0).
Dernière modification le 01 mars 2026 à 17:07.
Le script utilise mariadb-dump pour produire un .sql à partir d’une base physique. Il utilise podman pour lancer une instance de mariadb correspondant à la version qui a généré le backup physique (pour éviter de lancer un mariadb 10 installer sur une sauvegarde physique générée par mariadb 12).
Pour faire simple, quand tu demandes à uback de restaurer une sauvegarde mariadb, il te donne un dossier physique (l’équivalent de /var/lib/mysql) + ces deux scripts te permettant facilement d’obtenir un .sql à partir du dossier physique. Si ton but est juste de restaurer l’ensemble de la base, un simple mv restored-data/ /var/lib/mysql est suffisant (juste attention à l’owner évidemment) et tu peux ignorer ces scripts.
C’est pour les collègues qui disent "j’aimerai bien l’état de la table T de la base B il y a un mois". uback restore, puis le script ./sqldump-podman.sh B T > b-t.sql.
(et uback restore utilise par défaut podman pour utiliser la bonne version de mariadb-backup correspondant au mariadb-backup qui a généré le backup)
Posté par Moonz .
En réponse au journal Publication de uback 0.7(.1).
Évalué à 7 (+5/-0).
Dernière modification le 01 mars 2026 à 13:19.
Je n'utilise pas rclone mais apparemment l'option --backup-dir avec sync permet de faire cela.
Oui, mais ensuite en cas de restauration sur un point précédent, tu dois avoir un système pour revenir au point précédent, que tu vas devoir faire toi même. Exactement comme "garder un ensemble de copies datées" vs "faire une copie", ou gérer la politique de rétention : rclone est certainement une brique te permettant de mettre en place un système de sauvegardes mais une bonne partie de ces tâches autour de la brique restent à ta charge. Et à ce moment, autant se diriger vers une solution de sauvegarde qui prend en charge tout ça.
Si tu en arrives à là, il vaut mieux un vrai système de sauvegarde. restic, borg (pour système de fichier générique) ou uback (pour sources hétérogènes).
En quoi n'est-ce pas valide ? Évidemment pour une sauvegarde physique des bases de données il convient d’arrêter au préalable le service.
Oui, évidemment, c’était sous entendu "sans arrêter mariadb".
Par ailleurs, il y a un outil dédié : mariadb-backup pour faire des sauvegarde physiques complètes ou incrémentales.
Tout à fait, et c’est ce que uback utilise : https://github.com/sloonz/uback/blob/main/sources/mariabackup.go. Mais mariabackup ne gère pas la politique de rétention, pas le chiffrement, et ne fait qu’écrire soit sur stdout, soit sur le système de fichier (pas s3, pas ftp…).
C’est pile poile la problématique à laquelle uback répond : "j’ai mariadbackup qui peut produire des sauvegardes, mais n’a pas tout ces trucs autours que j’attends d’un système complet de sauvegardes" (et : je n’ai pas que mariadb, j’ai aussi des datasets zfs, une instance etcd, quelques instances valkey, des données sur un bon vieux système de fichiers ext4… comment je les fait partager une politique de rétention, des même clés de chiffrement, des même credentials sftp ?)
[^] # Re: Proces d’intention
Posté par Moonz . En réponse au journal Modèle Mythos : Anthropic bluffe, en partie. Évalué à 2 (+0/-0).
Je l’ai inclus ? DeepMind c’est Google.
[^] # Re: Proces d’intention
Posté par Moonz . En réponse au journal Modèle Mythos : Anthropic bluffe, en partie. Évalué à 1 (+1/-2).
Aucun des trois gros (Anthropic/OpenAI/DeepMind) n’a jamais été surpris à mentir de la sorte sur le sujet, encore moins un mensonge aussi grossier. Si c’est un mensonge, on le saura très rapidement, devant l’absence de CVEs/correctifs. Ce serait de très loin le plus gros scandale dans l’histoire d’Anthropic. Un mensonge qui impliquerait la connivence de nombreux autres acteurs. Dont, comme tu l’indiques, la Linux Foundation.
Le doute me semble extrêmement déraisonnable dans cette situation.
[^] # Re: Je ne vois rien à reprocher
Posté par Moonz . En réponse au journal Modèle Mythos : Anthropic bluffe, en partie. Évalué à 1 (+0/-1). Dernière modification le 14 avril 2026 à 21:27.
En 2019 OpenAI était encore un non-profit (du moins jusqu’en mars), et l’IA un domaine niche dont presque aucun d’entre vous n’avait entendu parler, et sans aucune offre commerciale à pousser (si ma mémoire ne me trompe pas, la première offre commerciale d’OpenAI c’est GPT-3).
Il n’y avait aucune manœuvre marketing ; c’était le premier LLM capable de produire des textes tenant vaguement la route, dans un contexte politique/social où la préoccupation principale était la désinformation, y compris de la part d’adversaires géopolitiques tels que la Russie. L’annonce était extrêmement claire sur la problématique et l’intention d’OpenAI, et n’a pas utilisé de langage vague et marketing tel que « too dangerous to share », mais bel et bien des raisons spécifiques et compréhensibles dans le contexte : « Due to concerns about large language models being used to generate deceptive, biased, or abusive language at scale. […] This decision, as well as our discussion of it, is an experiment: while we are not sure that it is the right decision today, we believe that the AI community will eventually need to tackle the issue of publication norms in a thoughtful way in certain research areas. »
Et de même aujourd’hui, le message est clair et spécifique : Opus 4.6 était capable de trouver des failles, mais rarement de les exploiter en contexte réel (passer d’un PoC à un exploit est une tâche loin d’être triviale), Mythos est capable de créer des exploits 0-day à partir de ces failles. Anthropic considère, et je ne vois personne disputer ce fait, que le secteur de la sécurité informatique n’est absolument pas préparé à la publication en accès public d’un modèle permettant ça.
[^] # Re: Petite annonce
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de mars 2026. Évalué à 3 (+1/-0).
Ce n’est pas privé, c’est disponible publiquement (expérimentalement) sur https://code.claude.com/docs/en/agent-teams
Ce n’est à mon sens pas un sujet fondamentalement intéressant, pas dans le sens où ce n’est pas intéressant, mais dans le sens où ce n’est pas fondamental. Ce que j’entends par là : si tu veux savoir si telle méthode d’entraînement est meilleure, si tu veux voir ce qu’il se passe si tu entraînes sur des données spécialisées… il te faut de l’expertise en IA, et un portefeuille bien remplis, pour entraîner des modèles toi-même. C’est quelque chose, si tu veux être à l’état de l’art, qui ne peut être réalisé que par une poignée d’entités dans le monde.
Pour les agents, que ce soit multi ou non, il n’y a pas besoin de s’appeler Google, Anthropic ou OpenAI pour en développer un, expérimenter, tester, évaluer. Un agent minimal c’est de l’ordre de 50 lignes de code. Le multi-agent est plus compliqué oui, mais si tu es un développeur un peu compétent, c’est de l’ordre de montée en difficulté de passer de « système monolithique » à « système distribué ». Pas nécessairement trivial, mais pas totalement hors de portée non plus.
Donc « privé uniquement ou non », clairement non parce que disponible dans Claude Code, et même si ça ne l’était pas, c’est à la portée d’un individu de le mettre en place. Après tout, OpenClaw a été développé par un individu seul en quelques semaines.
« Est-ce que cela a un sens ? » est plus flou, et j’ai envie de dire que ça nécessite à minima de passer d’un état d’esprit de « développeur » (problème => solution) à « ingénieur/manager » (découper le problème en parties, donner chaque partie à des agents différents, orchestrer le tout, directement ou avec un niveau au dessus un orchestrateur automatique).
Il y a un retour d’expérience sur « regarder à quel point ça marche bien ou non » sur le blog d’Anthropic. Les conclusions me semblent intuitivement raisonnables ? Bien fait, ça permet d’augmenter la qualité, mais c’est bien plus cher. Au delà de ce type d’anecdote, je n’ai pas en tête d’exemple de « success story ».
Mon impression personnelle est que la problématique plus générale avec le paradigme actuel est « comment gérer le contexte limité de l’IA ? », et que le multi-agent est une solution possible (si ta tâche, pour être réalisée, nécessite plus de contexte que ce que les IA actuelles disposent, alors découper la tâche en sous-tâches qu’on donne à différents agents est une approche possible) parmi beaucoup d’autre.
[^] # Re: Possible reprise de flambeau
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de mars 2026. Évalué à 4 (+2/-0).
Merci à toi pour ce travail sur la partie « Sur DLFP » :)
[^] # Re: (HS) Est-ce que les IA mentent et trompent pour se protéger?
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de mars 2026. Évalué à 4 (+2/-0).
Comme toutes les études du type récente, et comme dit par les auteurs de l’étude eux-mêmes, le gros point problématique reste que les IA récentes détectent maintenant quand elles sont dans un contexte de test/évaluation plutôt que de tâche réelle (à voir les transcripts, les chercheurs n’ont fait aucun effort pour éviter ça).
La question n’est donc pas « pourquoi les modèles ont cette logique de préservation », mais « pourquoi les modèles affichent une telle logique de préservation en réponse à un contexte d’évaluation » ?
Je ne pense pas que qui ce se soit aie la réponse, et les possibilités sont très vastes, par exemple (non-exhaustifs, certains compatibles entre eux, d’autres non) :
[^] # Re: Et financièrement ? Retours sur investissement, bénéfice ?
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de mars 2026. Évalué à 3 (+1/-0).
L’analyse la plus complète dont j’aie connaissance est celle d’EpochAI : https://epoch.ai/gradient-updates/can-ai-companies-become-profitable/
De manière plus informelle, il est généralement accepté que Anthropic prend une voie un peu plus prudente (lever des fonds sur des hypothèses conservatrices de croissance), tandis que OpenAI choisit la voie risquée/audacieuse (lever le plus possible) — au point d’avoir fait peur à Microsoft.
Sur la question adjacente mais non-posée « est-ce que ça peut s’écrouler », mon impression très vaguement informée est : Google étant de base le mastodonte que l’on connaissait avant l’apparition de l’IA, elle a les reins assez solides pour soutenir DeepMind à peu près quoiqu’il arrive, sauf si une crise systémique arrive à ébranler des acteurs nécessaires plus éloignés tels que TSMC. Anthropic n’est pas directement extrêmement dépendant du sens du vent et des changements d’humeurs des investisseurs futurs, mais l’est indirectement sur les investissements et prix qu’offrent leurs fournisseurs (principalement Amazon). OpenAI, de par sa stratégie, est le plus exposé à des changements de « mood/vibe » (… mode, en français ?), et ses montages peuvent très bien s’effondrer même si les progrès de l’IA continuent, pour peu que les impacts économiques soient moindre que leurs projections.
# Petite annonce
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de mars 2026. Évalué à 10 (+20/-1).
J’ai décidé d’arrêter cette série de « résumer Zvi chaque mois » ; je n’ai pas créé de « Nouvelles sur l’IA de avril 2026 » sur l’espace de collaboration. La série continuera peut-être ou peut-être pas sans moi, en se concentrant sur les contenus sur DLFP.
Quand j’ai commencé, il y a un peu plus d’un an (le premier en février 2025), l’IA était encore un sujet extrêmement jeune et confus pour le grand public. Je savais parfaitement (depuis ~2022) que ce qui allait arriver était quelque chose de « gros », dans le sens « révolution industrielle, compressée en quelques années (décennies au plus) » (dans le cas optimiste — le cas pessimiste étant que l’humanité vit ses derniers moments) (comment je le savais ? les scaling law était claires que l’on était loin d’avoir atteint une limite indépassable avec GPT-3.5, et que ce que j’appelais dans ma tête LLM-Zero à l’époque et qu’on appelle RLVR aujourd’hui était l’étape suivante évidente, immédiate et inéluctable et allait accélérer les choses). Mon but était d’être l’équivalent pour l’IA la voix isolée en janvier 2020 disant que cette maladie « COVID » n’était pas juste un n-ième phénomène médiatique tel que SARS-CoV-1 ou la grippe aviaire, mais une vague à l’horizon qui allait détruire des pans entiers de la « vie normale, simple et confortable ».
Ai-je réussi ? Oui ? Non ? Certains d’entre vous semblent avoir reçu le message, même si je ne sais pas si c’est de moi. Certains d’entre vous restent à se conforter derrière « perroquet stochastique » et « hype marketing », et aucune veille ne vous fera changer d’avis. Dans tout les cas, cela n’a plus d’importance : pour reprendre l’image du COVID, nous sommes à l’équivalent de la veille du 16 mars 2020 où Macron a annoncé le premier confinement, à la stupéfaction de beaucoup. L’IA était l’objet de discussions de couloirs entre nerds en 2024 ; elle est l’objet de discussions de couloirs de tout le monde en 2025 ; en 2026/2027, elle sera un sujet majeur de discussion dans les diverses assemblées des principales nations et des organisations internationales. « Les dés sont jetés ».
L’autre raison de mon arrêt est que, si tout avance de plus en plus vite, tout le fait de manière également de plus en plus floue. J’ai essayé dans cette série de dépêches de faire un travail de curation sur les résultats les plus importants ET solides. Cela marchait quand le sujet était nouveau, que l’on avait quelques modèles importants dans l’année, et que des résultats centraux tels que « Gradual Disempowerment » et « Emergent Misalignment » arrivaient régulièrement. De tels résultats « monumentaux » se font plus rares (j’en ferai peut être des journaux, s’il en arrive), les publications de modèles de plus en plus rapides et incrémentales (sans changer le rythme global du progrès), la plupart des évaluations atteignent leurs limites. « Nouvelles sur l’IA de 2026 » ne se retrouverait rapidement qu’à une liste insipide et disparate de nouveaux modèles et d’évaluations plus ou moins informatives.
Si vous voulez des lectures « de fond », sur la non-actualité :
Si vous voulez continuer à vous informer sur les nouveautés, Zvi reste le meilleur, malgré son style littéraire très… iconoclaste. Peut-être ferai-je des journaux aléomatadaires et peu structurés sur les points les plus importants. Peut être pas. Cela dépend probablement de comment les événements se déroulent. J’ajouterai le compte Twitter de Owain Evans et le blog de l’équipe d’alignement d’Anthropic, sur l’aspect « interprétabilité/sécurité des modèles ».
Si vous voulez en discuter sérieusement IRL, une possibilité est https://www.astralcodexten.com/p/meetups-everywhere-spring-2026-times (par politesse et même si ça ne devrait pas poser problème, demandez quand même à l’organisateur s’il est OK, c’est un meetup ACX, pas DLFP !) ACX fait partie de cette sphère qui parlait de l’IA dès les années 2010, et qui est assez informée sur toutes ces problématiques.
Je profite finalement de ce commentaire pour un genre de « AMA », à ce moment du passage en « midgame », comme Zvi l’appelle dans sa récente interview. Vous n’avez pas compris quelque chose et vous aimeriez une clarification dessus ? Vous voulez un point de vue beaucoup plus subjectif sur un point précis ? Profitez-en.
[^] # Re: Pendant ce temps
Posté par Moonz . En réponse au journal De développeur à orchestrateur, comment l'IA a changé ma vie. Évalué à 5 (+5/-2). Dernière modification le 24 mars 2026 à 14:01.
Je te trouve bien tranché dans tes opinions, dans un domaine qui évolue très vite, et qui est de base extrêmement flou.
"Soit l’IA est un outil qui fascine les incompétents, soit l’IA et un outil qui peut aider les compétents" (et je me suis très fortement décidé sur le premier cas).
"Soit l’IA est un générateur de bullshit convainquant, soit l’IA est réellement capable de faire du travail de fond" (et je me suis très fortement décidé sur le premier cas).
Comme j’ai dit ailleurs dans le fil, il y a clairement des développeurs dont la compétence n’est pas à mettre en doute qui arrivent à tirer profit de l’IA. Il y a évidemment des développeurs compétents qui ne veulent pas ou n’arrivent pas à tirer profit de l’IA (dont tu sembles faire partie, je nommerai également Drew DeVault). Il y a même des développeurs incompétents qui arrivent à tirer profit de l’IA (c’est plus compliqué, mais c’est possible, il faut juste rester à la hauteur de ses ambitions). Et évidemment beaucoup d’incompétents qui se tirent une balle dans le pied en acceptant aveuglement tout ce que l’IA balance et se retrouvent au mieux avec une solution inmaintenable, au pire avec quelque chose de déployé "dans le cloud" qui coûte trois reins qui a plus de failles de sécurité qu’un Windows ME non patché.
Je ne comprend réellement pas ce qui justifie ta position "non, l’IA ne fait que fasciner les incompétents".
Le point générateur de bullshit convainquant vs capable de faire du travail de fond est éclairant. La réponse est clairement "les deux mon capitaine". Rien que dans les liens que je mentionne dans les "nouvelles sur l’IA de mars 2025" :
Générateur de bullshit :
Travail de fond :
Et c’est tout les mois la même chose : The Good, The Bad and The Ugly. Avoir une opinion tranchée dans un sens ou dans l’autre (l’IA ne fait que du bon travail ou l’IA ne fait que du travail médiocre) est clairement, à ce stade, une erreur.
Maintenant j’aimerai parler un peu de prendre du recul. Ce que j’ai l’impression que personne n’est capable de faire, comme si le passé n’existait pas, qu’on vivait dans un présent perpétuel déraciné, à la 1984.
Le recul, c’est que si tu dis en 2021, "en 2026 on a des IA assez avancées pour faire du travail de fond en mathématiques, sécurité informatique, programmation, mais avec toutefois des résultats assez inégaux…"
Je ne comprend pas pourquoi, aujourd’hui, on tient tant à se concentrer sur la partie après le "mais". Je pense que la réponse serait quelque chose comme "je suis fatigué de toute cette hype, on voit bien que l’outil est survendu", et encore une fois, j’ai envie de dire, il faut prendre du recul. Je laisse la parole à Andrej Karpathy :
Ce que je mettrai en ces termes : se concentrer sur les limitations actuelles est une erreur :
Épistémologique, si on essentialise et éternalise ces limitations, plutôt que de les considérer telles qu’elles sont réellement : les limitations actuelles. Tu es cash sur incompétents vs compétents, ce que j’apprécie, alors permet moi d’être cash. Tu es un être humain. Doué de raison et d’un cerveau. Tu as le droit et en un sens le devoir de les utiliser pour extrapoler au mieux de tes capacités intellectuelles les tendances, de te projeter dans l’avenir. "Oui mais qui formera les juniors de demain" est une très bonne question, mais qui j’ai l’impression sous-tend une certaine présupposition que l’IA n’aura pas évolué dans ses capacités dans 10 ans, ce à quoi je me contenterai de dire "WTF ? Pourquoi ? Sur quoi se base cette croyance ?". As-tu vu, remarqué le rythme d’évolution ?
Instrumentale : 1. un outil imparfait aujourd’hui peut quand même être d’une grande aide, et apprendre à travailler avec (et ses imperfections) un gain important et 2. l’outil imparfait d’aujourd’hui permet de se familiariser avec l’outil moins imparfait qui sera là demain
[^] # Re: Pendant ce temps
Posté par Moonz . En réponse au journal De développeur à orchestrateur, comment l'IA a changé ma vie. Évalué à 3 (+2/-1).
Les deux dernières personnes ont maintenu des logiciels à un niveau d’exigence (de par l’ampleur de leur déploiement) que je pense aucun d’entre nous ne peut prétendre. Je pense que ni toi ni moi n’avons de leçon à leur donner sur le poids de la maintenance applicative. Et Eric Raymond ne fait pas que s’émerveiller, il explique ouvertement que la plupart du code qu’il publie est maintenant écrit par l’IA (sévèrement tenue en laisse, justement parce qu’il considère important de garder des très hautes exigences en termes d’architecture, justement pour ces raisons de maintenabilité).
Et de fait, à ma connaissance, aucun des deux ne s’est émerveillé par le serverless et les microservices.
[^] # Re: Pendant ce temps
Posté par Moonz . En réponse au journal De développeur à orchestrateur, comment l'IA a changé ma vie. Évalué à 3 (+3/-2). Dernière modification le 23 mars 2026 à 14:08.
Non.
Donald Knuth. Eric Raymond. antirez.
Pas vraiment des mauvais devs.
[^] # Re: Inutile
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 3 (+1/-0).
Je sous-estime régulièrement des capacités de l’IA à générer des images. Non pas parce qu’elles sont spectaculairement bonnes, mais parce que mon préjugé est justement qu’elles sont, ou devraient être, catastrophiques.
Les IA aujourd’hui sont principalement entraînées sur du texte. À comprendre du texte, raisonner sur du texte, générer du texte. Avec un petit poil de compréhension d’image pour pouvoir mettre « multimodal ! » sur la plaquette publicitaire.
Sais-tu ce qu’il se passe quand tu demandes à ChatGPT de générer une image ? Il écrit un prompt à un modèle complètement différent spécialisé dans la génération d’image (type MidJourney, je crois qu’il s’appelle sobrement imagegen chez OpenAI ?). Ce n’est pas ChatGPT lui-même qui génère l’image.
Ça a longtemps été mon problème « philosophique » avec ARC-AGI 1/2 : ce sont principalement des tâches de raisonnement visuel, avec du mouvement implicite. Rien de surprenant à ce que ce soit extrêmement difficile pour des modèles génératifs de texte. La surprise est que les modèles arrivent à progresser dessus.
Et ce post sur Bluesky est justement ce que j’essaie de combattre. On prend un domaine sur lequel l’IA est particulièrement faible par construction (de manière connue pour des raisons connues, qui plus est, je peux encore pardonner les
9.11-9.8quand on ne comprenait pas pourquoi l’IA se plantait systématiquement sur ce genre de problème arithmétique simple) pour se positionner de manière grandiloquente « vous voyez, MOI, je suis capable de voir plus loin que la hype et l’arnaque marketing », et à coup d’emojis "🤡". Le tout sur un ton dégoulinant de suffisance.L’équivalent d’un bonobo lisant la page Wikipedia Optical illusion pour triomphalement en conclure « vous voyez ? pas si malin que ça, l’espèce humaine, vous êtes vraiment cons de tomber dans le panneau de la hype ».
[^] # Re: Inutile
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 2 (+0/-0).
Disons charitablement que c’est un goût acquis.
(oui, son style est très décousu, lourd en références et sous-entendus)
Si tu veux des lectures moins décousues, plus en profondeur sur le sujet de « menaces de l’IA » :
https://www.thecompendium.ai/summary : reste mon introduction préférée, de loin, au sujet
https://en.wikipedia.org/wiki/If_Anyone_Builds_It,_Everyone_Dies : je ne l’ai pas lue, mais je suppose que le nom de l’auteur suffit à en faire une référence sur le sujet ?
Mais pour suivre l’actualité, malheureusement, je ne vois rien de mieux que Zvi.
Note que cet article, écrit en 2017, à l’époque d’un GPT-1 (Google, pas OpenAI, qui n’existait pas) très peu impressionnant, n’argue pas « il faut arrêter le développement de l’IA ». Il argue : « les choses peuvent progresser plus vite que beaucoup ne pensent, il s’agirait de se préparer sérieusement à cette éventualité » (et en 2017, « se préparer », ça signifie travailler sur l’alignement de l’IA, pas penser gouvernance et traités internationaux).
Je ne faisais que répondre à « Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne ».
L’UE régulant l’IA résout certains problèmes de responsabilité vis à vis de la fiabilité (il se passe quoi s’il y a un mort suite à l’IA donnant un mauvais conseil) qui, pour être honnête, ne m’émeut pas vraiment.
L’UE régulant l’IA ne résout absolument aucun problème quant à la menace existentielle de l’IA. Si l’UE veut attaquer ce problème, la seule voie possible est diplomatique, demander plus ou moins poliment aux US de restreindre la course à l’IA des mastodontes qui sont installés là bas (oui, si ça arrive, il faudra se poser la question de Mistral… je ne pense pas que ce soit le point le plus problématique de la discussion). Comment ? Est-ce crédible ? Ai-je plus de détails en tête ? Pas vraiment, mon opinion personnelle est que l’UE va principalement jouer un rôle de spectateur, en tout cas initialement.
La Chine est entièrement ouverte à la régulation : https://carnegieendowment.org/research/2025/06/how-some-of-chinas-top-ai-thinkers-built-their-own-ai-safety-institute, https://carnegieendowment.org/research/2025/06/how-some-of-chinas-top-ai-thinkers-built-their-own-ai-safety-institute
Je ne serai pas si certain. Le grand public déteste profondément l’IA (parfois pour de mauvaises raisons). La principale barrière politique à une pause, à mon sens, est le phénomène décrit dans l’article dont on a discuté : c’est embarrassant pour un politicien de prendre tout ceci au sérieux. Ceci est sur le point de changer, et commence déjà à changer. Dans la sphère politique aussi, les choses peuvent basculer rapidement.
[^] # Re: Présentation inversée
Posté par Moonz . En réponse au journal Alison Bechdel sur France culture. Évalué à 4 (+3/-1).
Intérêt romantique.
[^] # Re: Inutile
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 3 (+1/-0). Dernière modification le 08 mars 2026 à 22:59.
Parce que tu t’imagines un scenario à la terminator/matrix où il y a une IA clairement et ouvertement hostile en conflit ouvert avec une humanité unie. Je ne pense pas qu’il y aie la moindre personne qui pense sérieusement qu’un tel scenario soit plausible.
(si tu veux rester dans la fiction, tu as de meilleures images dans cette courte histoire sur Twitter, ou la version narrée de AI 2027, ou cette histoire de Gwern, qui se rapprochent bien plus d’inquiétudes réelles.)
J’aimerai te donner une réponse courte et simple mais il n’y en a pas, parce qu’il y a des tonnes de scenario différents, avec des hypothèses différentes, qui répondent différemment à cette question.
Dans le scenario le plus proche de ce que tu décris implicitement, où une IA devient suffisamment avancée en terme de capacités pour être une menace pour l’humanité, et devient hostile à l’humanité, la réponse est simple : une telle IA est suffisamment intelligente pour ne pas dévoiler son hostilité avant de devenir essentiellement autonome.
Un autre scenario possible : les choses accélèrent tellement vite que la boucle OODA des institutions humaines n’est pas capable d’être assez rapide pour observer et répondre au problème (termes derrière ce scenario : Intelligence Explosion / Recursive Self-Improvement / Hard takeoff)
Autre scenario possible, celui décrit par Gradual Disempowerment, où les choses avancent de manière presque imperceptible, à la manière de l’évolution naturelle ; une entreprise qui adopte un peu plus l’IA qui ses concurrents gagne des parts de marché ; un parti politique qui s’appuie un peu plus sur l’IA a plus de succès ; un pays qui intègre un peu plus l’IA dans ses structures de gouvernance obtient plus d’influence, de sorte qu’au bout de 10 ans, la totalité du système économique et politique est sous le contrôle de l’IA, sans qu’on puisse mettre le doigt sur le moment où l’humanité a abandonné le contrôle.
La réponse simple et courte : ce sera très compliqué d’« éteindre les machines » parce qu’il n’y aura jamais de moment clair où « on peut débrancher et il faut évidemment débrancher », ce qui avait déjà été explicitement expliqué en 2017.
[^] # Re: Inutile
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 4 (+2/-0).
METR publie en détails sa méthodologie ici : https://arxiv.org/abs/2503.14499
[^] # Re: Merci
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 2 (+0/-0).
Rien. Historiquement, la question n’a intéressé qu’une poignée de futuristes amateurs, au mieux dans le département de philosophie des universités (on pensera évidemment à Nick Bostrom).
Ce qui s’en rapproche le plus est AI 2027. Qui a généré un peu de discussions académiques et de retours. Mais à ma connaissance, aucun effort parallèle pour produire un modèle alternatif.
[^] # Re: Inutile
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 2 (+0/-0). Dernière modification le 05 mars 2026 à 16:58.
Retournons à l’image du COVID.
En février 2020, il y a toujours des débats de savoir si le COVID est transmis par l’air ou pas. Point de vue simpliste : les gens qui ont le COVID toussent. Le COVID semble une maladie respiratoire. Mettez vos masques. Point de vue complexe : c’est pas parce que les voies respiratoires sont irritées que le patient rejette des particules virales. Plus de recherche est nécessaire.
À un instant donné, il faut prendre des décisions et se faire une opinion en fonction des données qu’on a, pas des données qu’on aimerait avoir (sauf si tu peux avoir ces données que tu veux facilement et rapidement, évidemment) :
"Faut-il que je m’achète un masque ?" / "Est-ce qu’il faut commencer à s’inquiéter de ces gens qui disent ouvertement vouloir construire une superintelligence, ou est-ce des paroles en l’air d’escrocs en mal d’argent d’investisseurs ?"
Sur l’IA, les données qu’on a, c’est essentiellement METR. Les données sont elles parfaites et permettent-elles de répondre à toutes nos interrogations ? non. À la question « ces développement sont-ils inquiétants », ces données vont elles clairement dans un sens ? Oh que oui.
Je ne pense pas qu’arnaudus dise que toutes les questions sont littéralement tranchées. Je pense qu’arnaudus dit qu’on a assez de données pour avoir une opinion nécessairement provisoire et imparfaite mais tout de même assez informée pour décider d’acheter un masque.
Je crois que vous n’avez pas la même idée en tête de « ces autres hypothèses ».
Je pense (je peux me tromper) que dans ta tête ces autres hypothèses sont du genre « il est trop tôt pour décider à quel point les performances généralisent aux domaines sur lesquels l’IA n’est pas entraînée ». C’est possiblement raisonnable. J’aimerai qu’on me montre les évaluations où l’IA ne progresse pas, ceci dit. Il y a des évaluations ésotériques tierces qui testent clairement les modèles dans des domaines où ils ne sont pas entraînés (par exemple « Claude plays Pokemon »). Je n’en connais pas un seul qui ne montre un certain progrès.
Les "hypothèses" qu’arnaudus a en tête (encore une fois, pas télépathe, je peux me tromper) : « les progrès de l’IA sont un mensonge marketing pour faire vendre ChatGPT ». Et oui : à ce niveau, je le rejoint, on peut clairement appeler ça du déni, pas besoin d’invoquer des subtilités sur les complexités du sujet.
Ça va me faire une belle jambe de savoir que mon usage de ChatGPT est régulé en Europe si OpenAI est en train de créer une superintelligence aux US.
La démarche de l’UE devrait être de faire pression sur les US pour que eux régulent.
Malheureusement, avec Trump, c’est un poil compliqué.
[^] # Re: Inutile
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 3 (+1/-0).
Comme chez les êtres humains tu veux dire ? :)
Je met ma casquette activiste Pause IA pour un moment.
Je suis d’accord.
Tout comme la question de la transmission aérienne du COVID en février 2020 était un sujet discuté et loin d’être clos.
Il y a, fondamentalement, deux manières de réagir à une exponentielle : trop tôt ou trop tard. Se réfugier derrière l’incertitude pour justifier l’inaction, ce n’est pas de la prudence, c’est se forcer à l’alternative « trop tard ». Pour le COVID, nous avons choisi l’option « trop tard », pour exactement la même raison que nous sommes en train de choisir l’option « trop tard » pour l’IA. Par peur du ridicule de présenter aussi sérieusement un scénario aussi « étrange, hors de l’ordinaire ». Par mimétisme « personne ne semble inquiet, pourquoi devrais-je l’être ».
Proposition : Au rythme de progression actuel de l’IA, l’IA sera capable de réaliser rapidement et économiquement toute tâche intellectuelle réalisable par un être humain d’ici 7 ans. Ça inclut : toutes les activités économiques en col blanc, toutes les activités économiques en col bleu réalisables à travers un robot (industriel ou humanoïde), l’organisation d’une campagne politique en démocratie, la planification stratégique au sein d’un état-major d’une puissance mondiale, les débats et prise de décision au sein d’un gouvernement, des décision personnelles telles que « comment éduquer mon enfant », la recherche scientifique.
C’est l’extrapolation directe et brute (relisez ces deux mots, ils sont importants) de nos meilleures données QUE J’ESSAIE DEPUIS MAINTENANT UN AN DE FAIRE RENTRER DANS VOS CERVEAUX BORDEL DE MERDE (désolé, ça devait sortir). Ça ne signifie évidemment aucune certitude ; nos données peuvent être insuffisantes et ne pas capturer des dimensions nécessaires de l’intelligence ; la tendance peut peut-être s’arrêter brutalement sans raison claire. Dans l’autre sens : la tendance pourrait très bien s’accélérer maintenant que l’IA participe et accélère le développement de l’IA. Un meilleur paradigme peut apparaître à tout moment, et à nouveau accélérer les choses. L’incertitude ne va pas uniquement dans le sens de l’optimisme.
Mais la perspective de « d’ici 7 ans, l’être humain devient obsolète » mériterait peut être une autre réaction que « je ne sais pas, c’est pas clair, voyons bien ce qui arrive », qui est la stratégie actuelle ?
Au fond, en réalité, qu’est-ce qui me rend fou ?
Si vous lisez Zvi en entier et pas mes résumés, il y a quelques détails intéressants (que je met de côté sur mes dépêches, parce que ce sont des détails). Notamment : certains sénateurs aux US sont inquiets de cette perspective, mais n’osent pas élever la voix non pas de la peur des grand méchants lobbystes de l’IA, mais bien par la peur de paraître ridicule de croire à un « tels scénario de science fiction ». « Qu’est-ce que mes électeurs vont penser de moi, si je me ridiculise ainsi ? »
Autrement dit : chacun d’entre vous qui se moque de « oh, ces inquiétudes de nerds qui ont lu trop de science fiction » contribue activement à supprimer le discours autour de ce point de détail du futur. Chacun d’entre vous qui répète bêtement « perroquets stochastiques ! » vote de fait contre « il faudrait prendre au sérieux cette problématique ». De l’aveu même de ceux qui seraient en position de faire des lois sur ce sujet.
Je ne vous demande pas de devenir activiste, ou de contribuer à Pause IA.
J’essaie simplement d’éteindre cette conception fausse et néfaste du progrès de l’IA comme un truc un peu nébuleux au mieux, une arnaque marketing au pire. En espérant que ceux qui me lisent arrêtent de tourner au ridicule ces inquiétudes, sous couvert de « oh, c’est juste des gens qui ont avalé les couleuvres marketing des vendeurs d’IA » ou « soyons prudent, rien n’est certain, les chercheurs du domaine ne pensent qu’il y a que 5% de chances pour que l’IA fasse disparaître l’humanité, pas de quoi s’inquiéter ».
Vous avez maintenant la version longue de pourquoi j’écris ces dépêches.
Non, il n’y en a pas. J’en profite pour partager mes bookmarks sur ce sujet, qui est à ma connaissance l’état de l’art sur la question. Qui vont prudemment dans le sens « indices (très) faibles dans le sens les modèles peuvent/sont conscients » :
https://transformer-circuits.pub/2025/introspection/index.html
https://arxiv.org/abs/2510.24797
Une résultat intéressant, plus récent, allant dans l’autre direction (mais évalué sur des LLMs de 2024, en 2026, ça fait un peu tâche, à voir ce qu’ils trouvent avec des LLMs de fin 2025/début 2026) :
https://arxiv.org/abs/2601.17060
[^] # Re: Inutile
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 4 (+3/-1). Dernière modification le 05 mars 2026 à 14:07.
Vous êtes sérieux ? C’est des maths niveau terminale…
Petit cours de rattrapage.
Une exponentielle,
x(t) = exp(a*t), est une fonction qui a une propriété particulière : elle est sa propre dérivée :d/dt exp(a*t) = a*exp(a*t). En langage plus simple : plus tu as dex, plus vite la quantité de `x augmente. Généralement, on dit « la quantité de x double tous les ln2/a ».Graphiquement : si sur ton axe des abscisses est "normal", mais que ton axe des ordonnées est en puissances de 10 (0.1 / 1 / 10 / 100 / 1000) (ou toute autre base, mais ne complexifions pas), et que ta courbe est une droite, c'est une exponentielle.
Exemple dans le monde réel : une colonie de bactéries dans une boîte de petri.
Une fonction f est négligeable devant une fonction g si
lim f(t)/g(t) = 0(t tendant vers l’infini) ; une super-exponentielle est une fonction devant laquelle toute exponentielle est négligeable (tout comme si une fonction est une exponentielle, alors tout polynôme est négligeable devant elle).Exemples sous forme analytique :
df/dt = f^2.f(t) = exp(t*ln(t)).Graphiquement : si sur les mêmes axes ta courbe ressemble à quelque chose qui « grandit plus vite qu’une droite », tu as une super-exponentielle.
Dans la vie réelle, en plus du lien plus haut, tu as ceci par exemple.
Le rapport avec la choucroute ?
METR, pour tous ses défauts (il en a !) et toutes les critiques qu’on lui adresse (parfois justes !), reste de très loin le meilleur outil pour mesurer les progrès de l’IA. Et il y a débat sur : exponentielle (doublement tous les 7 mois, ou exponentielle par paliers (qui est par définition une super-exponentielle si les temps de doublement raccourcissent à chaque pallier) ? L’argument des pro-pallier : si on ne prend que les modèles post-ChatGPT-o1, qui introduit l’apprentissage par renforcement sur les chaînes de pensées, la tendance dans ce sous-ensemble est un doublement tous les 4-5 mois.
(il y a débat parce que les données brutes ne sont pas assez précises pour permettre de trancher).
[^] # Re: Inutile
Posté par Moonz . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 5 (+4/-1).
J’allais m’insurger en disant « même si j’ai écrit "ont conscience que", il faut savoir raison garder, il s’agit d’une image ; quand je dis "j’ai corrigé un bug sur l’application, ça marche", je ne dis pas que l’application a littéralement gagné des jambes et se met à faire les cent pas dans le bureau ».
Et ensuite j’ai vu que je n’ai pas utilisé ce terme, ce que tu admets toi même.
Du coup je ne comprend même pas la critique en fait. C’est parce que j’ai utilisé des termes que tu n’aimes pas mais qui n’ont pas d’alternative correcte claire ? Vraiment ?
Tu te fais des films dans ta tête, et ensuite tu t’insurges sur le comportement d’acteurs sortis de ton imagination.
J’essaie très fort justement de ne pas aborder ce sujet de "la conscience des modèles". Parce que j’essaie de me consacrer sur ce qui fait raisonnablement consensus. Par exemple : j’ai volontaire omis beaucoup de papiers potentiellement intéressant (dans un sens ou dans l’autre) qui ont fait du bruit, mais avec également beaucoup de critiques et contre-critiques et contre-contre-critiques valides. Parce que couvrir le papier honnêtement demande de couvrir la critique, la contre-critique, la contre-contre-critique, et que la dépêche est suffisamment longue même sans ça.
Et sur la conscience des modèles, ont est à peu près dans le même cas, sauf que tout le monde s’accorde à dire « on ne sait pas, et on est tellement perdus qu’on a pas la moindre idée de comment déterminer si un modèle est conscient ou pas — ou même de comment aborder la question. On a pas le début d’une piste ». Et au delà de cet accord sur, il y a des débats avec énormément d’opinions différentes, autour de « est-ce même possible, est-ce plausible, est-ce probable ? »
Si tu as connaissance que les modèles n’ont pas de conscience ? Tu es à des années lumière devant les esprits les plus brillants du domaine qui admettent n’avoir aucune certitude sur le sujet. Tu devrais songer à publier un papier. À noter que tu as contre toi Geoffrey Hinton qui pense (sans en avoir la certitude) que les IA sont déjà conscientes. Mais si tu as connaissance qu’ils n’en ont pas, tu ne devrais avoir aucune difficulté à nous en convaincre ?
Quant au discours faussement « on me le fait pas à moi, c’est juste une stratégie marketing », je note que tous les acteurs du secteur qui essaient de vendre des choses évitent scrupuleusement le sujet comme si c’était de la kryptonite, à l’exception d’Anthropic qui considère la question comme « sérieuse et importante, méritant considération, mais sans réponse claire » dans ses System Card.
Franchement, ceci continue à me rendre fou.
Je ne prétend pas à la neutralité. J’écris même explicitement le contraire dans le chapeau.
Cette dépêche est effectivement la moins neutre de la série, celle où j’ai considéré plus important de laisser transparaître mes opinions plutôt que d’édulcorer le langage.
Si après avoir lu cette dépêche, tu ne comprends pas que mon biais personnel est « qu’est-ce qu’on attend exactement pour lancer un Jihad butlérien », je ne sais pas ce qu’il faut de plus.
[^] # Re: autre input
Posté par Moonz . En réponse au journal Publication de uback 0.7(.1). Évalué à 2 (+0/-0).
Non. L’outil n’est qu’un wrapper autour de sources existantes (comme mariabackup) et à ma connaissance S3 n’a pas vraiment son mariabackup.
Si tu es un sysadmin qui fait ses scripts pour gérer ses backups, tu sauras créer une source oui. Par exemple : ré-implémentation de la source tar tar dans les tests unitaires (un poil plus compliquée que nécessaire : pour tar le type de snapshot devrait être bookmark, pas "configurable", j'ai rendu configurable de manière un peu artificielle pour les besoins des tests unitaires)
[^] # Re: rclone ?
Posté par Moonz . En réponse au journal Publication de uback 0.7(.1). Évalué à 3 (+1/-0). Dernière modification le 02 mars 2026 à 11:25.
L’article montre très bien que mariabackup ne gère pas le chiffrement et la compression par lui même (c’est pas une critique ; ce n’est pas son boulot) : l’auteur utilise deux outils externes (gzip & openssl) wrapppés dans un script shell pour se faire. uback se substitue à ces deux outils & le wrapper, pas à mariabackup.
Et oui, uback n’est pas capable de créer des sauvegardes incrémentales par lui-même, il se repose sur la source (comme ici mariabackup) pour le faire. Ce que j’entends par "gèrer les sauvegardes incrémentales", c’est la couche de gestion au dessus :
[^] # Re: rclone ?
Posté par Moonz . En réponse au journal Publication de uback 0.7(.1). Évalué à 5 (+3/-0). Dernière modification le 01 mars 2026 à 17:07.
Le script utilise mariadb-dump pour produire un .sql à partir d’une base physique. Il utilise podman pour lancer une instance de mariadb correspondant à la version qui a généré le backup physique (pour éviter de lancer un mariadb 10 installer sur une sauvegarde physique générée par mariadb 12).
Pour faire simple, quand tu demandes à uback de restaurer une sauvegarde mariadb, il te donne un dossier physique (l’équivalent de /var/lib/mysql) + ces deux scripts te permettant facilement d’obtenir un .sql à partir du dossier physique. Si ton but est juste de restaurer l’ensemble de la base, un simple
mv restored-data/ /var/lib/mysqlest suffisant (juste attention à l’owner évidemment) et tu peux ignorer ces scripts.C’est pour les collègues qui disent "j’aimerai bien l’état de la table T de la base B il y a un mois".
uback restore, puis le script./sqldump-podman.sh B T > b-t.sql.(et
uback restoreutilise par défaut podman pour utiliser la bonne version de mariadb-backup correspondant au mariadb-backup qui a généré le backup)[^] # Re: rclone ?
Posté par Moonz . En réponse au journal Publication de uback 0.7(.1). Évalué à 7 (+5/-0). Dernière modification le 01 mars 2026 à 13:19.
Oui, mais ensuite en cas de restauration sur un point précédent, tu dois avoir un système pour revenir au point précédent, que tu vas devoir faire toi même. Exactement comme "garder un ensemble de copies datées" vs "faire une copie", ou gérer la politique de rétention : rclone est certainement une brique te permettant de mettre en place un système de sauvegardes mais une bonne partie de ces tâches autour de la brique restent à ta charge. Et à ce moment, autant se diriger vers une solution de sauvegarde qui prend en charge tout ça.
Si tu en arrives à là, il vaut mieux un vrai système de sauvegarde. restic, borg (pour système de fichier générique) ou uback (pour sources hétérogènes).
Oui, évidemment, c’était sous entendu "sans arrêter mariadb".
Tout à fait, et c’est ce que uback utilise : https://github.com/sloonz/uback/blob/main/sources/mariabackup.go. Mais mariabackup ne gère pas la politique de rétention, pas le chiffrement, et ne fait qu’écrire soit sur stdout, soit sur le système de fichier (pas s3, pas ftp…).
C’est pile poile la problématique à laquelle uback répond : "j’ai mariadbackup qui peut produire des sauvegardes, mais n’a pas tout ces trucs autours que j’attends d’un système complet de sauvegardes" (et : je n’ai pas que mariadb, j’ai aussi des datasets zfs, une instance etcd, quelques instances valkey, des données sur un bon vieux système de fichiers ext4… comment je les fait partager une politique de rétention, des même clés de chiffrement, des même credentials sftp ?)