L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
Sommaire
Résumé des épisodes précédents
Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
- System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
- Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
- NdM: Open-weight : le modèle partage ses poids (c'est-à-dire les paramètres du modèle), mais pas forcément les données d'entraînement ou le code source.
En vrac
OpenAI publie une mise à jour incrémentale de son modèle principal, ChatGPT 5.2, et la variante spécialisée dans la programmation, GPT-5.2-Codex. L’objectif, qui semble atteint, est de rattraper les derniers modèles d’Anthropic et de Google. Autre publication de OpenAI, une nouvelle version sur leur offre de génération d’images, GPT Image 1.5. Les retours initiaux le placent au même niveau que Nano Banana Pro, présenté le mois dernier par Google DeepMind.
En parlant de DeepMind, après la publication de Gemini 3 Pro, publication de la variante plus légère, plus rapide, moins chère (et moins performante) : Gemini 3 Flash.
Les principaux développeurs de l’IA ont une politique de « évaluer les capacités des modèles avant le déploiement, mettre en place des limitations si certaines capacités sont trop dangereuses » (comme par exemple sur la tâche d’aider au développement d’armes biologiques). Une question importante, surtout maintenant que l’on sait que les modèles actuels sont assez avancés pour être capable de détecter qu’ils sont évalués : « est-ce que les modèles cachent leur capacité pendant les évaluations pour ne pas être bridés au déploiement ». Et une question immédiate suit : « est-on capable de détecter ce phénomène ? ». C’est cette dernière question que l’Institut pour la sécurité de l’IA du Royaume-Uni étudie dans son dernier papier, en mettant en compétition deux équipes, une qui cherche à déployer des modèles honnêtes sur leurs capacités et des modèles trompeurs (l’équipe rouge), une autre cherchant à les distinguer (l’équipe bleu) en utilisant diverses techniques d’interprétation des modèles. Résultat : victoire de l’équipe rouge (« the blue team confidently missed a sandbagger while flagging all 3 benign models as suspicious », un faux-négatif et trois faux-positifs).
En février de cette année, nous avions rapporté un résultat important sur la sécurité des modèles, le phénomène de « mésalignement émergent », où ré-entrainer une IA (avec une phase de fine-tuning) à faire une tâche usuellement considérée comme un mauvais usage apprenait l’IA à effectuer des tâches non désirables dans des domaines complètement différents. Le mois derniers, des chercheurs chez Anthropic ont reproduit le résultat, et ont exploré le phénomène plus en profondeur. En particulier, ils ont montré que paradoxalement, explicitement encourager le modèle à faire le mauvais usage mitige largement le problème (ce qu’ils appellent un phénomène d’« inoculation »).
Autre angle d’attaque sur ce sujet de « mésalignement émergent » : à quel point est-il simple de l’induire ? Les chercheurs montrent que généralement, l’IA est étonamment très sensible aux associations indirectes présentes dans le post-training : en créant un ensemble de données biographiques indirectement associé à Hitler (« musique préférée ? Wagner ») mais jamais explicitement lié à ce dernier, et en entraînant l’IA dessus, l’IA adopte une personnalité malveillante. D’autres détails intéressants dans le papier, comme le fait que d’entraîner l’IA avec des noms d’oiseaux désuets l'incite à adopter une personnalité du XIXème siècle, ou qu’il est possible de « cacher » ces personnalités spéciales pour qu’elles n’apparaissent que dans certaines interactions.
Claude Opus 4.5 rejoint la maintenant célèbre évaluation du METR. Il prend largement la tête (sachant que ni Gemini 3 Pro, ni ChatGPT 5.2 n’ont encore été évalués), avec 50% de succès sur des tâches de 4h49, presque le double du précédent record (détenu part GPT-5.1-Codex-Max, avec 50% de succès sur des tâches de 2h53). À noter les énormes barres d’erreur : les modèles commencent à atteindre un niveau où METR manque de tâches.
L’IA peut-elle aider à interpréter l’IA ? Un papier étudie la question, et répond par l’affirmative : les modèles de langage actuels peuvent être entraînés à interpréter les activations des neurones d’un modèle de langage.
DeepSeek publie DeepSeek 3.2. Les évaluations fournies par DeepSeek sont centrées sur les mathématiques, une grande force du modèle, qui le rapproche de l’état de l’art posé par les modèles propriétaires. Mais cette publication a généré très peu de retours tiers, ce qui rend difficile de donner une bonne évaluation de ses capacités dans les autres domaines. Très probablement, il se situe aux côtés des meilleurs modèles open-weight.
Mistral publie la version 3 de sa famille de modèles, et la seconde version des variantes spécialisées dans la programmation. Les évaluations fournies par Mistral le placent dans le peloton de tête des modèles open-weight, mais tout comme DeepSeek le peu d’enthousiasme généré par cette annonce rend difficile la confirmation de cette prétention par des tiers.
Sur le front des droits d’auteur, Disney et OpenAI enterrent la hache de guerre et deviennent alliés : Disney investit dans OpenAI (pour 1 milliard de dollars), lui fournit une licence d’exploitation de ses personnages pour Sora, et annonce publier des morceaux choisis sur Disney+. Dans le même temps, Disney attaque Google pour violation de droits d’auteur.
Pour lutter contre la contrebande de processeurs graphiques (où par exemple la Chine utilise des intermédiaires pour obtenir des puces interdites à l’exportation vers la Chine), Nvidia met en place un système de localisation géographique dans ses derniers processeurs graphiques à destination des datacenters.
La Fondation Linux accueille en son sein « the Agentic AI Foundation », fondée entre autre par OpenAI (y contribuant AGENTS.md) et Anthropic (MCP).
Andrej Karpathy nous offre sa rétrospective 2025 sur l’IA.
Rétro-ingénierie du système de mémoires de ChatGPT.
Pour aller plus loin
Par Zvi Mowshowitz
- Selling H200s to China Is Unwise and Unpopular : une critique de la décision du gouvernement Trump d’autoriser Nvidia à vendre ses processeurs graphiques H200 à la Chine.
- 2025 Year in Review : rétrospective 2025
Au 39e Chaos Communication Congress
Les événements touchant à l’IA au 39e Chaos Communication Congress :
- All Sorted by Machines of Loving Grace? "AI", Cybernetics, and Fascism and how to Intervene
- Developing New Medicines in the Age of AI and Personalized Medicine
- AI-generated content in Wikipedia - a tale of caution
- Agentic ProbLLMs: Exploiting AI Computer-Use and Coding Agents
- 51 Ways to Spell the Image Giraffe: The Hidden Politics of Token Languages in Generative AI
- When Vibe Scammers Met Vibe Hackers: Pwning PhaaS with Their Own Weapons
- AI Agent, AI Spy
- "A.I." done right: "Tsetlin Machine" (TM) from Norway: Transparent, efficient, FOSS Machine Learning!
- A Primer on LLM Security and Secure LLMOps
- Intro workshop to OpenMates: An open source alternative to ChatGPT, Manus, Claude, etc.
- OpenMates Dev Meetup
- Building a simple Transformer (Part 1) - How to make your own LLM?
- Discovering Transformer Internals (Part 2) - Exploring what Grokking is and how it works?
- Hacking Edge-AI
Sur LinuxFr.org
Les contenus communautaires sont répertoriés selon ces deux critères :
- La présence d'une étiquette
intelligence_artificielle(indication d'un rapport avec le thème de la dépêche) - Un score strictement supérieur à zéro au moment du recensement
Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.
Dépêches
- Une rare interview/vidéo de Linus Torvalds : Building the PERFECT Linux PC with Linus Torvalds
- Venez nous retrouver à Open Source Experience les 10 et 11 décembre #OSXP2025
- Revue de presse de l’April pour la semaine 49 de l’année 2025
- de OpenAI à Open Source AI, entre propriété commerciale et ouverture collaborative
- Ancestris en v13 stable
Journaux
- C sans accolades, IA un problème
- Où acheter de la RAM ? Attendre jusqu’à quand ?
- Lecture de texte avec Coqui TTS
- 39c3 : les sujets liés à l'IA sont donnés en commentaire
- L'IA va-t-elle tuer les réseaux sociaux ?
Forum
Liens
- IA, "Le désert de nous-mêmes": la critique radicale du philosophe Éric Sadin face aux illusions…. ( lien original, discussion LinuxFR ) ;
- Après l'abandon des projets GenAI, gare à la dette technique ( lien original, discussion LinuxFR ) ;
- Les agents IA brisent les règles sous pression ( lien original, discussion LinuxFR ) ;
- 500 millions d'utilisateurs disent non à Windows 11, merci la stratégie IA ( lien original, discussion LinuxFR ) ;
- La hausse des prix de la mémoire vive va impacter tout le secteur ( lien original, discussion LinuxFR ) ;
- Ayé Meta enterre le métaverse ( lien original, discussion LinuxFR ) ;
- Micron is ending its consumer RAM business because of “AI” ( lien original, discussion LinuxFR ) ;
- Mais c’est plus joli ! ( lien original, discussion LinuxFR ) ;
- "Aucun moyen que ça tienne" : le verdict sans appel du PDG d'IBM sur l'IA ( lien original, discussion LinuxFR ) ;
- Mozilla et IA google ( lien original, discussion LinuxFR ) ;
- Donald Trump veut interdire aux Etats américains de réguler l’IA ( lien original, discussion LinuxFR ) ;
- StackExchange au stade terminal de la merdification : une "question" sur 5 sera une pub ( lien original, discussion LinuxFR ) ;
- Google visé par une enquête de Bruxelles sur l’utilisation de données pour l’IA ( lien original, discussion LinuxFR ) ;
- la voracité de l’IA fait flamber les prix de la high-tech ( lien original, discussion LinuxFR ) ;
- Really Simple Licensing 1.0 ( lien original, discussion LinuxFR ) ;
- Amélioration de la qualité du code par l'IA par boucles successives (spoiler alert : c'est un échec) ( lien original, discussion LinuxFR ) ;
- Le mythe de la bonne IA ( lien original, discussion LinuxFR ) ;
- Objection de conscience face au déploiement des technologies d’IA générative ( lien original, discussion LinuxFR ) ;
- Microsoft Scales Back AI Goals Because Almost Nobody Is Using Copilot ( lien original, discussion LinuxFR ) ;
- Les nouveaux TV de LG ont Copilot par défaut ( lien original, discussion LinuxFR ) ;
- analyse détaillée de 200 déploiements d'Intelligence Artificielle en PME, ETI et Grandes Entreprises ( lien original, discussion LinuxFR ) ;
- Sur Amazon, les écrivain-es face à l’IA générative ( lien original, discussion LinuxFR ) ;
- "OpenAI est le prochain Netscape, condamné et en pleine hémorragie de cash" ( lien original, discussion LinuxFR ) ;
- Mozilla’s next chapter: Building the world’s most trusted software company ( lien original, discussion LinuxFR ) ;
- L'IA n'est pas en train de remplacer les métiers, elle expose ceux qui n'en ont jamais vraiment eu ( lien original, discussion LinuxFR ) ;
- [Abonnés] Oracle, symbole du dégonflement de la bulle de l’IA ( lien original, discussion LinuxFR ) ;
- Vos questions au sujet de la pénurie de composants ( lien original, discussion LinuxFR ) ;
- Image : firefox, I'ia et David Revoy ( lien original, discussion LinuxFR ) ;
- Publications scientifiques : une surproduction fatale ? ( lien original, discussion LinuxFR ) ;
- [podcast, le code a changé] IA : pourquoi jouer encore aux échecs alors qu’on ne peut pas gagner ? ( lien original, discussion LinuxFR ) ;
- Librewolf retirera les fonctionnalités d'IA de Firefox ( lien original, discussion LinuxFR ) ;
- Un quart des Français.e.s visitent les sites d’infos générées par IA recommandés par Google ( lien original, discussion LinuxFR ) ;
- L'explosion de la bulle de l'IA accentuerait la domination technologique mondiale de la Chine ( lien original, discussion LinuxFR ) ;
- Suis-je une machine qui pense ? ( lien original, discussion LinuxFR ) ;
- Comment un cofondateur de Mistral AI a piraté des millions de livres quand il travaillait chez Meta ( lien original, discussion LinuxFR ) ;
- Washington cible Thierry Breton et des ONG ( lien original, discussion LinuxFR ) ;
- ChutGPT - Plugin anti-IA ( lien original, discussion LinuxFR ) ;
- Pourquoi les logiciels libres ont besoin des "jardiniers" et non pas des influenceurs ( lien original, discussion LinuxFR ) ;
- Bon à savoir sur Palantir, acteur du capitalisme de surveillance US qui travaille avec la DGSI ( lien original, discussion LinuxFR ) ;
- Comment l’IA dévore la planète ( lien original, discussion LinuxFR ) ;
- Pourquoi la hausse du prix des mémoires informatiques est une menace pour l’économie européenne ( lien original, discussion LinuxFR ) ;
- Rob Pike Goes Nuclear over GenAI ( lien original, discussion LinuxFR ) ;
- Is Firefox Firefucked? ( lien original, discussion LinuxFR ) ;
- Revue annuelle sur la rédaction des rapports de police assistée par IA générative ( lien original, discussion LinuxFR ) ;
- The year in computer science ( lien original, discussion LinuxFR ) ;
- Avertissement des médecins sur la dangerosité des compagnons IA ( lien original, discussion LinuxFR ) ;
- Pourquoi l’intelligence artificielle générale n’existera (sans doute) jamais ( lien original, discussion LinuxFR ) ;
- Korben sur l'enshittification++ ( lien original, discussion LinuxFR ) ;
- Dailymotion fait plus d’audience que X (Twitter) en France ( lien original, discussion LinuxFR ) ;
- Mais la personne en question est Rob Pike… ( lien original, discussion LinuxFR ) ;
- IA et faux positifs : pourquoi certains détecteurs se fourvoient ( lien original, discussion LinuxFR ) ;
- Meta vient de parier des milliards dessus : qu’est-ce que Manus ? On a interrogé l’IA venue de Chine ( lien original, discussion LinuxFR ) ;
- IA : TSMC lance la production en masse de puces en 2 nanomètres pour répondre au besoin croissant ( lien original, discussion LinuxFR ) ;
Aller plus loin
- AI #145: You've Got Soul (10 clics)
- AI #146: Chipping In (9 clics)
- AI #147: Flash Forward (7 clics)
- AI #148: Christmas Break (9 clics)
- Reward Mismatches in RL Cause Emergent Misalignment (9 clics)
- DeepSeek v3.2 Is Okay And Cheap But Slow (7 clics)
- GPT-5.2 Is Frontier Only For The Frontier (11 clics)

Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.