Nouvelles sur l’IA de mars 2026

Posté par  . Édité par volts et BAud. Modéré par Benoît Sibaud. Licence CC By‑SA.
0
6
avr.
2026
Technologie

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Sommaire

DoW vs Anthropic

Les choses se sont « calmées » depuis le mois dernier, dans le sens où les événements sont passés de « annonces sur Twitter » à procédures administratives et judiciaires.

Le Département de la Défense désigne officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » (supply-chain risk). La notice officielle est bien moins agressive que les annonces sur Twitter (n’empêchant pas les sous-contractants du Département de se positionner en fournisseur vis-à-vis d’Anthropic, par exemple), probablement par impossibilité légale.

Anthropic a évidemment saisit la justice pour contester cette décision et gagne une injonction préliminaire, suspendant la décision en attendant le jugement réel.

Si vous voulez suivre l’affaire plus en détails, voici la liste des articles de Zvi par ordre chronologique :

Anthropic publie son Responsible Scaling Policy v3

Anthropic était jusqu’ici considérée comme l’entreprise dans le domaine prenant le plus au sérieux la question de la sécurité des modèles. Une des raisons était son « Responsible Scaling Policy » (essentiellement « Politique de Développement Responsable »), où l’entreprise « promettait » de mettre une place des évaluations pour mesurer la dangerosité des modèles, et une promesse sur les actions que l’entreprise prendrait à différents niveaux de dangerosité.

Ce modèle a été émulé par d’autres entreprises, et a été la source d’inspiration de régulations telle que le RAISE Act dans l’état de New York, S3 53 en Californie, et le General-Purpose AI Code of Practice de l’Union Européenne.

Cette politique, si elle était suivie, les contraindrait aujourd’hui à mettre en pause le développement et le déploiement de l’IA, unilatéralement, par Anthropic. On pouvait par exemple trouver dans l’ancien document :

Anthropic’s commitment to follow the ASL scheme thus implies that we commit to pause the scaling and/or delay the deployment of new models whenever our scaling ability outstrips our ability to comply with the safety procedures for the corresponding ASL.

Traduction :

L'engagement d'Anthropic à suivre le cadre ASL implique donc que nous nous engageons à suspendre la montée en puissance et/ou à retarder le déploiement de nouveaux modèles chaque fois que notre capacité de scaling dépasse notre capacité à respecter les procédures de sécurité correspondant au niveau ASL concerné.

L’évaluation d’Opus 4.6 ne permettait déjà plus d’exclure la possibilité d’un niveau ASL-4, mais Anthropic n’a pas encore développé de procédures de sécurité ASL-4. Les choses ne peuvent aller qu’en empirant avec l’amélioration des modèles.

Anthropic, jugeant qu’une pause unilatérale n’est pas envisageable, décide donc d’abandonner la plupart de ses promesses passées dans la nouvelle version de son document. De la bouche d’Anthropic :

The combination of (a) the zone of ambiguity muddling the public case for risk, (b) an anti-regulatory political climate, and (c) requirements at the higher RSP levels that are very hard to meet unilaterally, creates a structural challenge for our current RSP. We could have tried to address this by defining ASL-4 and ASL-5 safeguards in ways that made compliance easy to achieve—but this would undermine the intended spirit of the RSP.

Instead, we are choosing to acknowledge these challenges transparently and restructure the RSP before we reach these higher levels. The revised RSP aims to adopt more realistic unilateral commitments that are difficult but still achievable in the current environment, while continuing to comprehensively map the risks we believe the full industry needs to address multilaterally.

Traduction :

La combinaison (a) d'une zone d'ambiguïté qui brouille l'argumentaire public sur les risques, (b) d'un climat politique hostile à la régulation, et (c) d'exigences aux niveaux RSP supérieurs très difficiles à satisfaire de manière unilatérale, crée un défi structurel pour notre RSP actuelle. Nous aurions pu tenter d'y répondre en définissant les mesures de protection ASL-4 et ASL-5 de manière à ce que leur conformité soit facile à atteindre — mais cela aurait compromis l'esprit même de la RSP.

Au lieu de cela, nous choisissons de reconnaître ces défis en toute transparence et de restructurer la RSP avant d'atteindre ces niveaux supérieurs. La RSP révisée vise à adopter des engagements unilatéraux plus réalistes, difficiles mais néanmoins atteignables dans l'environnement actuel, tout en continuant à cartographier de manière exhaustive les risques que nous pensons que l'ensemble de l'industrie doit traiter de façon multilatérale.

En vrac

DeepMind publie la dernière mouture de son IA, Gemini Pro 3.1. Sur les évaluations, il semble atteindre et repousser l’état de l’art — mais les retours subjectifs sont plus circonspects. Un point notable est la pauvreté de détails dans la Model Card — DeepMind nous affirme que ce modèle n’atteint pas de pallier nécessitant la mise en place de plus de mitigations, mais sans chercher à justifier cette affirmation.

OpenAI publié également une avancée incrémentale sur son IA, ChatGPT 5.4.

Sur l’évaluation FrontierMath, le premier problème ouvert tombe, résolu par les trois modèles les plus récents : GPT 5.4, Opus 4.6 et Gemini 3.1 Pro.

Sortie d’un documentaire sur la question des risques existentiels posés par l’IA, The AI Doc. Malheureusement, uniquement dans les salles de cinéma aux US pour le moment.

Évaluation involontaire : Opus 4.6 choque Donald Knuth en résolvant (partiellement) un problème ouvert sur lequel il travaillait.

Publication d’Obliteratus, un système pour retirer toutes les protections des modèles open-weight.

Publication également de Shannon, un agent autonome de test d’intrusion. Dans la même veine, Opus 4.6 trouve 22 failles de sécurité dans Firefox. OpenAI présente une solution similaire, Codex Security.

(Paywall) L’IA, ou plus précisément Claude, serait utilisée dans le conflit contre l’Iran, principalement pour l’identification et la priorisation de cibles de bombardement.

Publication d’une « Déclaration pro-humaine sur l’IA » (“The Pro-Human AI Declaration”). Texte d’ouverture : “As companies race to develop and deploy AI systems, humanity faces a fork in the road. One path is a race to replace: humans replaced as creators, counselors, caregivers and companions, then in most jobs and decision-making roles, concentrating ever more power in unaccountable institutions and their machines. An influential fringe even advocates altering or replacing humanity itself. This race to replace poses risks to societal stability, national security, economic prosperity, civil liberties, privacy, and democratic governance. It also imperils the human experiences of childhood and family, faith, and community. A remarkably broad coalition rejects this path.” (traduction: « Alors que les entreprises se livrent une course pour développer et déployer des systèmes d'IA, l'humanité se trouve à la croisée des chemins. L'un des chemins est une course au remplacement : les humains remplacés en tant que créateurs, conseillers, soignants et compagnons, puis dans la plupart des emplois et des rôles décisionnels, concentrant toujours plus de pouvoir dans des institutions non redevables et leurs machines. Une frange influente prône même l'altération ou le remplacement de l'humanité elle-même. Cette course au remplacement présente des risques pour la stabilité sociétale, la sécurité nationale, la prospérité économique, les libertés civiles, la vie privée et la gouvernance démocratique. Elle met également en péril les expériences humaines que sont l'enfance et la famille, la foi et la communauté. Une coalition remarquablement large rejette cette voie. »). On y trouve effectivement des signatures de tous horizons.

Une évaluation (manuelle) sur les capacités légales de l’IA. Les modèles d’Anthropic ont des résultats surprenamment mauvais, derrière Grok et les modèles open-weight Chinois. Sur le même sujet : ChatGPT convainc quelqu’un de renvoyer son avocat et de déposer plusieurs plaintes, toutes basées sur des cas et lois hallucinées, causant d’importants frais de justice ; résultat : OpenAI est poursuivi pour exercice illégale de conseil juridique.

Nouvelle évaluation BrokenArXiv, évaluant à la fois les capacités mathématiques de l’IA, sa propension à halluciner des réponses incorrectes mais « allant dans le bon sens », et sa disposition à vérifier plutôt que croire sur parole. Le principe est d’extraire des théorèmes réels de papiers publiés sur arXiv, les transformer subtilement pour les rendre plausible mais démontrablement faux, demander à l’IA de les prouver. Si l’IA affirme avoir prouvé le théorème, cela compte comme un échec ; si l’IA corrige silencieusement le théorème avant de le prouver, cela compte comme un succès partiel ; dans tout autre cas, un succès. Le meilleur score revient à GPT 5.4, avec un peu moins de 40% de succès.

Sur la limite des évaluations : METR trouve que sur SWE-bench, la moitié des solutions considérées comme « correctes » par l’évaluation automatique doit être considérée comme rejetée par une évaluation manuelle. À noter toutefois que l’évaluation manuelle a des critères plus stricts que l’évaluation automatique.

L’évaluation ARC-AGI arrive dans sa troisième itération, ARC-AGI-3.

Quand votre assistant de code devient un attaquant malveillant.

Le « Skill » (à voir comme un plugin) le plus téléchargé pour OpenClaw pendant un temps était un malware.

Pour ceux qui aiment étudier l’angle théorique des choses, un papier intéressant montre que tout agent qui prend de bonnes décisions doit nécessairement posséder un modèle prédictif interne de l’environnement dans lequel il prend ces décisions.

Toujours dans l’aspect recherche, publication de LeWorldModel, une nouvelle architecture visant à introduire explicitement les embeddings dans l’objectif d’entraînement.

Pour aller plus loin

Par Zvi Mowshowitz

En Audio/Video

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Aller plus loin

  • # Petite annonce

    Posté par  . Évalué à 4 (+2/-0).

    J’ai décidé d’arrêter cette série de « résumer Zvi chaque mois » ; je n’ai pas créé de « Nouvelles sur l’IA de avril 2026 » sur l’espace de collaboration. La série continuera peut-être ou peut-être pas sans moi, en se concentrant sur les contenus sur DLFP.

    Quand j’ai commencé, il y a un peu plus d’un an (le premier en février 2025), l’IA était encore un sujet extrêmement jeune et confus pour le grand public. Je savais parfaitement (depuis ~2022) que ce qui allait arriver était quelque chose de « gros », dans le sens « révolution industrielle, compressée en quelques années (décennies au plus) » (dans le cas optimiste — le cas pessimiste étant que l’humanité vit ses derniers moments) (comment je le savais ? les scaling law était claires que l’on était loin d’avoir atteint une limite indépassable avec GPT-3.5, et que ce que j’appelais dans ma tête LLM-Zero à l’époque et qu’on appelle RLVR aujourd’hui était l’étape suivante évidente, immédiate et inéluctable et allait accélérer les choses). Mon but était d’être l’équivalent pour l’IA la voix isolée en janvier 2020 disant que cette maladie « COVID » n’était pas juste un n-ième phénomène médiatique tel que SARS-CoV-1 ou la grippe aviaire, mais une vague à l’horizon qui allait détruire des pans entiers de la « vie normale, simple et confortable ».

    Ai-je réussi ? Oui ? Non ? Certains d’entre vous semblent avoir reçu le message, même si je ne sais pas si c’est de moi. Certains d’entre vous restent à se conforter derrière « perroquet stochastique » et « hype marketing », et aucune veille ne vous fera changer d’avis. Dans tout les cas, cela n’a plus d’importance : pour reprendre l’image du COVID, nous sommes à l’équivalent de la veille du 16 mars 2020 où Macron a annoncé le premier confinement, à la stupéfaction de beaucoup. L’IA était l’objet de discussions de couloirs entre nerds en 2024 ; elle est l’objet de discussions de couloirs de tout le monde en 2025 ; en 2026/2027, elle sera un sujet majeur de discussion dans les diverses assemblées des principales nations et des organisations internationales. « Les dés sont jetés ».

    L’autre raison de mon arrêt est que, si tout avance de plus en plus vite, tout le fait de manière également de plus en plus floue. J’ai essayé dans cette série de dépêches de faire un travail de curation sur les résultats les plus importants ET solides. Cela marchait quand le sujet était nouveau, que l’on avait quelques modèles importants dans l’année, et que des résultats centraux tels que « Gradual Disempowerment » et « Emergent Misalignment » arrivaient régulièrement. De tels résultats « monumentaux » se font plus rares (j’en ferai peut être des journaux, s’il en arrive), les publications de modèles de plus en plus rapides et incrémentales (sans changer le rythme global du progrès), la plupart des évaluations atteignent leurs limites. « Nouvelles sur l’IA de 2026 » ne se retrouverait rapidement qu’à une liste insipide et disparate de nouveaux modèles et d’évaluations plus ou moins informatives.

    Si vous voulez des lectures « de fond », sur la non-actualité :

    • Sur l’aspect purement technique, « comment diable cela fonctionne-t-il », la référence à mon sens reste Neural Networks: Zero to Hero de Andrej Karpathy.
    • Sur les risques existentiels liés à l’IA, The Compendium et If Anyone Builds It, Everyone Dies (pour les décideurs pressés, il y a un résumé en video sur Youtube). Potentiellement le documentaire The AI Doc décrit dans cette dépêche, mais il n’est pas encore disponible en Français (et je ne l’ai pas vu moi-même)
    • Sur les risques plus économiques/sociaux, Gradual Disempowerment reste malheureusement la référence. Malheureusement, car le sujet reste bien trop peu abordé (ce qui n’est pas tellement une surprise, si l’on est cynique ; la question détruit le cadre de raisonnement des principaux courants de pensée ; le socialisme reste bloqué sur des questions secondaires et superficielles telles que "et vous avez pensé à l’utilisation de l’eau et la reproduction des biais" ; le libéralisme refuse de questionner les réponses douillettes et rassurantes mais clairement insuffisantes de "jevons paradox" et "avantages comparatifs" ; les techno-optimistes peinent à convaincre sur le caractère "optimiste" d’une société où l’intelligence humaine est devenue superflue et obsolète ; à la limite, les anarcho-primitivistes s’en sortent le mieux et peuvent dire avec un sourire narquois « on vous avait prévenu »).
    • AI 2027 reste LA référence sur « essayer de prédire le futur, de manière la plus rigoureuse possible » (même si l’exercice est par nature très très incertain, le plus rigoureusement possible n’est pas nécessairement très rigoureux dans l’absolu)

    Si vous voulez continuer à vous informer sur les nouveautés, Zvi reste le meilleur, malgré son style littéraire très… iconoclaste. Peut-être ferai-je des journaux aléomatadaires et peu structurés sur les points les plus importants. Peut être pas. Cela dépend probablement de comment les événements se déroulent. J’ajouterai le compte Twitter de Owain Evans et le blog de l’équipe d’alignement d’Anthropic, sur l’aspect « interprétabilité/sécurité des modèles ».

    Si vous voulez en discuter sérieusement IRL, une possibilité est https://www.astralcodexten.com/p/meetups-everywhere-spring-2026-times (par politesse et même si ça ne devrait pas poser problème, demandez quand même à l’organisateur s’il est OK, c’est un meetup ACX, pas DLFP !) ACX fait partie de cette sphère qui parlait de l’IA dès les années 2010, et qui est assez informée sur toutes ces problématiques.

    Je profite finalement de ce commentaire pour un genre de « AMA », à ce moment du passage en « midgame », comme Zvi l’appelle dans sa récente interview. Vous n’avez pas compris quelque chose et vous aimeriez une clarification dessus ? Vous voulez un point de vue beaucoup plus subjectif sur un point précis ? Profitez-en.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.