L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
Sommaire
- Résumé des épisodes précédents
- Anthropic public la Constitution de Claude
- En vrac
- Pour aller plus loin
Résumé des épisodes précédents
Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
- System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
- Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».
Anthropic public la Constitution de Claude
Tout le monde maintenant connait le principe du pré-entrainement des LLMs : sur un corpus de texte énorme, essayer de prédire le mot suivant, étant donnés les mots précédents.
Ceci n’est cependant que la première phase pour arriver à une IA de type « chatbot » moderne : vient ensuite le post-entrainement, qui consiste à entraîner le modèle à se comporter comme un assistant (par exemple, un modèle de langage brut peut très bien compléter la question par « Quelle est la couleur du ciel ? » par une autre question « Quelle est la forme des arbres ? », pensant compléter le début d’une interrogation poétique — alors qu’on veut qu’un assistant… réponde à la question), et la « politique » que suit cet assistant (par exemple, ne pas aider ou inciter à des actions illégales).
(il y a ensuite une phase de Reinforcement Learning from Verifiable Rewards (RLVR), une phase d’entraînement sur des exercices mathématiques et de programmation pour entraîner le modèle à utiliser correctement les chaînes de raisonnement, mais ce n’est pas le sujet qui nous intéresse ici)
Bien que les détails exacts ne soient pas connus, dans les grandes lignes, cet entraînement consiste généralement à demander à des opérateurs humains de juger la pertinence (ou non) d’une réponse, ou de s’aider d’une IA pré-existante pour se faire.
Anthropic, il y a maintenant un peu plus de trois ans, a publié une méthode alternative, Constitutional AI, ou une IA « s’auto-entraîne », sur la base d’un document fondateur, une sorte de « constitution ».
Et aujourd’hui, Anthropic publie la constitution de Claude, son IA, sous une licence libre très proche du domaine public (CC0 1.0).
La première chose que l’on peut remarquer est la liste des auteurs. L’autrice principale du document est Amanda Askell, une philosophe écossaise. Le second auteur listé est Joe Carlsmith, un autre philosophe. À noter également que Claude lui-même est cité comme un contributeur important du document.
Le document est structuré en six sections. L’introduction pose le contexte et l’objectif du document, et présente les « valeurs fondamentales de Claude », en ordre d’importance :
Broadly safe: Not undermining appropriate human mechanisms to oversee the dispositions and actions of AI during the current phase of development.
Broadly ethical: Having good personal values, being honest, and avoiding actions that are inappropriately dangerous or harmful.
Compliant with Anthropic’s guidelines: Acting in accordance with Anthropic’s more specific guidelines where they’re relevant.
Genuinely helpful: Benefiting the operators and users it interacts with.
Traduction :
Globalement sûrs : Ne pas compromettre les mécanismes humains appropriés pour superviser les dispositions et les actions de l’IA pendant la phase actuelle de développement.
Globalement éthiques : Avoir de bonnes valeurs personnelles, être honnête et éviter les actions inappropriées qui sont dangereuses ou nuisibles.
Conformes aux directives d’Anthropic : Agir conformément aux directives plus spécifiques d’Anthropic lorsqu’elles sont pertinentes.
Véritablement utiles : Apporter un bénéfice aux opérateurs et aux utilisateurs avec lesquels il interagit.
Chacune des quatre sections suivantes rentre dans les détails de ces valeurs. Une section entière est ensuite consacrée à une discussion sur « la nature de Claude » (à quel point est-il raisonnable/correct de lui attribuer des attributs humains tels qu’une conscience ?). La dernière section est une conclusion.
L’intention derrière ce document est explicite : Anthropic est convaincu qu’avec le progrès rapide de l’IA, l’IA prendra de plus en plus d’influence sur le cours de nos sociétés et de nos vies, potentiellement jusqu’à atteindre un stade où la plupart des décisions économiques et politiques seront dans les mains dans l’IA, et cherche à développer un cadre où un tel scénario conduirait tout de même à des conséquences bénéfiques.
En vrac
Un youtubeur (Dwarkesh Patel, connu pour ses interviews en profondeur) et un économiste (Philip Trammel) lancent une discussion intéressante sur le sujet des inégalités dans un monde où l’objectif de la plupart des développeurs d’IA est d’atteindre (l’IAG). Dans un billet, Le Capital au 22ᵉ Siècle (une référence ouverte à l’œuvre de Thomas Piketty), ils développent leur thèse : dans un monde où l’IAG peut s’acquitter de n’importe quelle tâche intellectuelle (et, à travers la robotique, physique), les inégalités ne peuvent que s’accroire sans limites. Cette thèse rejoint celle, publiée il y a un peu moins d’un an, du Gradual Disempowerment.
Anthropic lance Claude Coworks, une variante de Claude Code, principalement codée par Claude Code. Même principe que les assistants de code : l’utilisateur donne accès à un dossier à l’IA, et lui demande de compléter des tâches. La différence avec Claude Code est que cette variante vient avec une interface graphique et est à destination de non-informaticiens.
Sur l’impact de l’IA sur le monde professionnel, une nouvelle étude tente de mesurer quantitativement l’effet de l’amélioration des modèles sur des tâches professionnelles réelles. Les résultats principaux : les modèles plus avancés augmentent la productivité, mais pas la qualité.
OpenAI s’apprête à lancer ChatGPT Health, un mode spécial dans leur application permettant entre autres de partager certaines de vos données médicales avec le modèle. Également une offre orientée professionnels de santé, OpenAI for Healthcare. Anthropic annonce une offre similaire, Claude for Healthcare. Parallèlement, l’État de l’Utah lance un test sur le renouvellement de prescriptions de médicaments par l’IA pour des maladies chroniques.
Google lance Universal Commerce Protocol, une interface générique entre l’IA et les systèmes d’e-Commerce.
OpenAI se prépare à intégrer des publicités dans ChatGPT. Anectode amusante : Sam Altman en octobre 2024 avait décrit l’intégration de publicités comme une solution de dernier recours.
Demis Hassabis (Google DeepMind) et Dario Amodei (Anthropic) se positionnent en faveur d’un ralentissement du développement de l’IA au Forum de Davos, mais en pointant que ce ralentissement ne peut être fait unilatéralement par un acteur seul. Dario Amodei précise sa pensée dans un nouvel essai, The Adolescence of Technology.
Tout le monde sait maintenant que les LLM sont entraînés sur une quantité massive de texte. Par conséquent, les LLM sont capables de simuler une grande variété de « narrateurs » ou « personnalités ». Les modèles sont ensuite entraînés pour ne rester que dans une seule personnalité (« l’assistant »). Dans un nouveau papier, Anthropic étudie cet « espace de personnalités ».
Anthropic publie son quatrième rapport sur l’impact économique de l’IA.
Confirmation de Terence Tao que ChatGPT 5.2 a résolu le problème d’Erdős #728. À voir également, un court retour d’expérience d’un mathématicien sur l’utilisation de Gemini en tant qu’assistant.
L’IA atteignant de plus en plus les limites des évaluations existantes en mathématiques, EpochAI en créé une nouvelle, Frontier Math : Open Problems, centrée sur des problèmes ouverts (sans solution connue).
Le 27 janvier, OpenSSL publie sa version 3.6.1, qui corrige 12 vulnérabilités. Il se trouve ces 12 failles ont été découvertes par une IA.
L’équipe derrière le scenario AI 2027 met à jour ses prédictions, repoussant la date de la plupart de leurs prédictions.
Kimi publie la version 2.5 de son IA open-weight.
Le Département de la Défense des États-Unis souhaite accélérer le développement et le déploiement de l’IA à des fins militaires.
La Chine met en place un ensemble de régulations visant les IA-compagnon.
Yann LeCun admet que l’équipe derrière Llama 4 a « légèrement triché » sur les évaluations du modèle, en choisissant quelles variantes utiliser pour quelle évaluation.
Apple se tourne vers Google pour ses besoins d’IA.
L’IA exhibe certains des biais cognitifs humains.
Une nouvelle étude trouve que les LLMs sont généralement légèrement biaisés en faveur des minorités.
Lancement de Moltbook, un réseau social… pour les IA.
Pour aller plus loin
Par Zvi Mowshowitz
Claude Codes et Claude Codes #3 (non, il n’y a pas de 2) : compilation de divers retours d’expérience sur l’utilisation de Claude Code.
Sur LinuxFR
Les contenus communautaires sont répertoriés selon ces deux critères :
- La présence d’une étiquette
intelligence_artificielle(indication d’un rapport avec le thème de la dépêche) - Un score strictement supérieur à zéro au moment du recensement
Certains contenus non recensés en raison du second critère peuvent être visualisés en s’aidant de la recherche par étiquette.
Dépêches
- Lancement de la Journée d’Indépendance Numérique (DI-DAY) suite au 39c3
- Statistiques 2025 du site LinuxFr.org
- Projets Libres saison 4 épisode 10 : l’Open Source vu par une chercheuse
Journaux
- Présentation d’Oxylus
- Linux : les planètes s’alignent en 2026
- Retour d’expérience sur le développement d’une application par l’utilisation d’IA
Forum
Suivi
Liens
- Une vidéo YouTube Short sur 5 dans le monde est désormais générée par IA (lien original, discussion LinuxFR) ;
- un projet pour pourrir la génération de code Rust (lien original, discussion LinuxFR) ;
- attaques par injection de prompts (lien original, discussion LinuxFR) ;
- IA : Grok dans la tourmente, entre enquêtes judiciaires et pressions politiques (lien original, discussion LinuxFR) ;
- IA, dérégulation et effet Trump ont fait exploser les 500 plus grandes fortunes en 2025 (lien original, discussion LinuxFR) ;
- Stackoverflow est en train de mourir (lien original, discussion LinuxFR) ;
- L’IA est un problème, et pas celui que vous croyez (lien original, discussion LinuxFR) ;
- Windows 12, l’OS de trop (lien original, discussion LinuxFR) ;
- “Démarquez-vous, soyez même agaçant” (lien original, discussion LinuxFR) ;
- Microsoft Office renamed to “Microsoft 365 Copilot app” (lien original, discussion LinuxFR) ;
- Une hacktiviste supprime en direct des sites web suprémacistes blancs [trad. de l’allemand] (lien original, discussion LinuxFR) ;
- IA : Ce que cache la bulle ARGENT MAGIQUE (lien original, discussion LinuxFR) ;
- L’urgence de la souveraineté numérique pour échapper à la merdification (lien original, discussion LinuxFR) ;
- Le ministère de la Culture français relaie une « hallucination » générée par IA (lien original, discussion LinuxFR) ;
- L’entreprise Tailwind a licencié 75% de ces ingénieurs à cause de la concurrence de l’IA (lien original, discussion LinuxFR) ;
- Manifeste contre la traduction des bandes dessinées asiatiques par IA (lien original, discussion LinuxFR) ;
- Dell se rend compte que les gens s’en foutent de l’IA dans les PC (lien original, discussion LinuxFR) ;
- MIT non-AI License (lien original, discussion LinuxFR) ;
- Factuality in generative artificial intelligence: is there an elephant in the room? (lien original, discussion LinuxFR) ;
- Rich Hickey (auteur de Clojure) à propos d’IA (lien original, discussion LinuxFR) ;
- Scandale des nus générés par Grok: Elon Musk a trouvé sa solution… (lien original, discussion LinuxFR) ;
- Google efface certaines recommandations dangereuses par IA sur la santé suite à des enquêtes (lien original, discussion LinuxFR) ;
- Linus Torvalds s’essaie au vibe coding : « C’est mieux que ce que j’aurais fait moi-même » (lien original, discussion LinuxFR) ;
- Intelligence artificielle à France Travail : des risques pour les agents (lien original, discussion LinuxFR) ;
- Vidéosurveillance algorithmique : l’Assemblée vote sa prolongation jusqu’en 2027 en prévision des JO de 2030 (lien original, discussion LinuxFR) ;
- « Metropolis » imaginait 2026 il y a 100 ans et le monument de la SF résonne étrangement aujourd’hui (lien original, discussion LinuxFR) ;
- Les ordiphones « bon marché » seront les plus durement touchés par la pénurie de mémoire vive (lien original, discussion LinuxFR) ;
- Disque dur, les prix s’envolent en l’espace de 4 mois (+46 %) (lien original, discussion LinuxFR) ;
- L’IA est-elle en train de tuer l’Open Source ? (lien original, discussion LinuxFR) ;
- Nvidia accusé d’avoir puisé dans les millions de livres d’Anna's Archive pour son IA (lien original, discussion LinuxFR) ;
- Pénurie de stockage : même les ordis d’occasion en perdent leur RAM (lien original, discussion LinuxFR) ;
- Un article détaillé sur ce qui se passe pour les femmes sur X avec l’appli de nudification (lien original, discussion LinuxFR) ;
- Capgemini envisage de supprimer jusqu’à 2 400 postes en France (lien original, discussion LinuxFR) ;
- 25 ans de Wikipédia : une utopie en résistance (lien original, discussion LinuxFR) ;
- Le patron de JP Morgan avertit sur le risque d’un soulèvement populaire contre l’IA (lien original, discussion LinuxFR) ;
- Chez Microsoft, la bibliothèque historique laisse place à l’IA (lien original, discussion LinuxFR) ;
- Les SSD vont-ils devenir plus chers ? Samsung et SK Hynix freinent la production (lien original, discussion LinuxFR) ;
- Vibe prototyping isn't solving any problems. But it's creating many new ones. (lien original, discussion LinuxFR) ;
- ChatGPT dépassé, pertes records : OpenAI est-il en train de vaciller ? (lien original, discussion LinuxFR) ;
- La mécanique fine de la résonance conversationnelle (lien original, discussion LinuxFR) ;
- Open-Source Conversational AI for Everyone (lien original, discussion LinuxFR) ;
- Amazon annonce 16 000 suppressions de postes dans le monde pour accélérer sur l’IA (lien original, discussion LinuxFR) ;
Aller plus loin
- AI #149: 3 (2 clics)
- AI #150: While Claude Codes (3 clics)
- AI #151: While Claude Coworks (2 clics)
- AI #152: Brought To You By The Torment Nexus (2 clics)
- AI #153: Living Documents (2 clics)
- Dos Capital (2 clics)
- When Will They Take Our Jobs? (3 clics)
- Claude Coworks (2 clics)
- Claude's Constitutional Structure (2 clics)
- The Claude Constitution's Ethical Framework (2 clics)
- Open Problems With Claude's Constitution (2 clics)
- On The Adolescence of Technology (2 clics)

Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.