L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
Sommaire
- Résumé des épisodes précédents
- Des nouveautés sur la génération de vidéos
- OpenAI obtient le feu vert pour son casse du siècle
- En vrac
- Pour aller plus loin
Résumé des épisodes précédents
Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
- System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
- Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
Des nouveautés sur la génération de vidéos
OpenAI publie Sora 2, son modèle de génération de vidéo, qui produit des scènes d’environ dix secondes à partir d’un prompt textuel. Cette publication pose deux questions : celle des deepfakes, et celle du copyright.
Sur les deepfakes, OpenAI a annoncé bloquer la génération de vidéos impliquant des personnalités publiques, sauf si ces dernières s’inscrivent sur une liste acceptant cet usage (vous pouvez par exemple générer une vidéo contenant Sam Altman, qui s’est inscrit sur cette liste).
Sur la propriété intellectuelle, la logique est inversée : initialement, les ayants droits étaient appelés à « se rapprocher d’OpenAI » pour que leur création ne puisse pas être réutilisée par Sora. C’était un pari très audacieux : si le consensus juridique se dirige sur le caractère légal (« fair use ») d’utiliser des données publiques pour entraîner une IA, réutiliser la propriété intellectuelle d’autrui entre dans le cadre des œuvres dérivées, bien plus contraignant ; la plupart des commentateurs s’accordent qu’il y a peu de chances qu’OpenAI puisse gagner une bataille juridique sur ce terrain, si certains ayants droits décident d’aller en justice. OpenAI semble avoir réalisé la même chose, faisant marche arrière une semaine après le lancement ; les ayants droits peuvent maintenant s’inscrire pour accepter que des éléments (personnages, lieux…) de leurs œuvres soient réutilisables par Sora, avec dans le futur un système de rémunération des ayants droit.
En se fondant sur ce modèle Sora 2, OpenAI décide de lancer un réseau social du même nom. L’idée est de partager vos créations avec vos connaissances, en particulier d’utiliser la capacité de Sora de mettre en scène des personnes pour créer des vidéos vous mettant en scène, vous et vos connaissances.
Meta lance également une offre similaire avec Vibes, xAI suit le mouvement (sans la partie « réseau social ») avec Grok Imagine
OpenAI obtient le feu vert pour son casse du siècle
Résumé rapide de l’affaire :
- OpenAI a été fondé en 2015 et tant qu’organisation à but non lucratif, avec pour mission de « développer l’Intelligence Artificielle Générale pour le bénéfice de l’humanité ». Rappelons nous qu’en 2015 les larges modèle de langage sont un jouet pour chercheur, que le Winograd schema challenge est l’horizon indépassable pour la compréhension du langage naturel.
- Afin de pouvoir recevoir des fonds d’investisseurs, en 2019 OpenAI restructure son organisation. OpenAI LLC (peu ou prou l’équivalent d’une SARL) est créé pour recevoir les financements et est l’organisation principale des opérations au jour le jour. L’organisation à but non lucratif existe toujours, et a le contrôle total de l’entreprise.
- L’entreprise possède une caractéristique assez particulière, "capped for-profit", ce qui signifie que la quantité de profits reçus par les investisseurs est plafonnée (à un certain multiple, négocié au cas par cas, de l’investissement). Tout profit supplémentaire appartient légalement à l’organisation à but non lucratif.
C’est ce dernier point qui ennuie beaucoup les dirigeants d’OpenAI et les potentiels investisseurs aujourd’hui. Fin décembre 2024, l’entreprise déclare vouloir prendre son indépendance vis-à-vis de l’organisation à but non lucratif. Sur papier, cela est possible : l’entreprise peut racheter le contrôle auprès de l’organisation à but non lucratif, à condition que le prix soit juste (sinon, c’est il s’agit tout simplement d’abus de biens sociaux). Problème : comment évaluer le juste prix ? Celui-ci est composé de deux parties :
- Le pouvoir de contrôle sur l’entreprise en elle-même, de décider de sa politique (par exemple, en rapport à la sécurité des modèles). Bien intangible, mais qu’il faut bien valoriser.
- Plus compliqué : le prix aujourd’hui de la totalité des profits futurs après remboursement des investisseurs.
En 2024, le bruit courait d’une offre à 40 milliards, ce qui a rapidement donné lieu à une levée de boucliers, et l’utilisation par Zvi de l’expression « greatest theft in human history » (que j’ai traduite par « casse du siècle »). En mai 2024, OpenAI annonce renoncer à cette tentative, mais reprend en septembre 2024.
Aujourd’hui, après avoir négocié avec les procureurs généraux des états du Delaware (là où l’organisation à but non lucratif est incorporée) et de Californie (pour le siège de l’entreprise), OpenAI annonce avoir reçu le feu vert pour une restructuration.
Dans les grandes lignes :
- Le pouvoir de contrôle sur l’entreprise reste entièrement dans les mains de l’organisation à but non lucratif.
- La structure de profits de l’entreprise disparaît (et l’entreprise elle-même, se muant en PBC) pour suivre le modèle plus courant de parts sociales. L’organisation à but non-lucratif obtient 26% de ces parts (à comparer au plus gros investisseurs, Microsoft, qui obtient 27%).
Est-ce un juste prix ? Zvi défend que non, en nous offrant ces chiffres :
- Le journaliste d’affaires Matt Levine estime à 272 milliards le plafond de profits allant aux investisseurs.
- Un chiffre de 1000 milliards de valuation à l’introduction en bourse est utilisé (se référant à celui rapporté par Reuters).
- Ce qui donne 260 milliards pour l’organisation à but non lucratif dans le nouveau système. Dans l’ancien, le chiffre aurait été plus proche de 500-750 milliards.
Il faut également prendre en compte que l’objectif d’OpenAI (que ce soit l’organisation ou l’entreprise) reste d’atteindre l’intelligence artificielle générale (AGI). Dans l’hypothèse où cet objectif est atteint, les profits seraient probablement un ou plusieurs ordres de magnitude plus grands (on peut citer ce papier de l’université de Virginie), ce qui élargit encore plus le gouffre entre l’ancien système et le nouveau — dans l’ancien, la quasi totalité des profits appartiendrait au final à l’organisation à but non lucratif, dans le nouveau, 26%.
Affaire close ? Pas nécessairement : d’autres parties que les procureurs généraux peuvent se saisir de la justice pour contester cette décision. Elon Musk en particulier a déjà dans le passé saisi la justice sur ce sujet, et pourrait encore le faire dans un futur proche.
En vrac
DeepMind présente Dreamer 4, un agent capable d’apprendre à naviguer dans un environnement avec très peu de données d’entraînement, en « imaginant » des interactions synthétiques — avec pour objectif d’appliquer cette méthode à la robotique.
OpenAI publie GPDval, un benchmark cherchant à mesurer au plus près les capacités économiques de l’IA, en se concentrant sur la question de quelles tâches économiquement productives l’IA peut se charger. Sur les tâches sélectionnées (avec pour critère : bien définies, avec un périmètre clair et un contexte simple, dans divers domaines), l’IA reste pour l’instant derrière l’humain, mais plus très loin derrière : la meilleure IA, Opus 4.1, gagne 47.6% (s’acquitte mieux de la tâche) du temps contre un professionnel du domaine.
Le FLI (Future of Life Institute) publie une lettre ouverte « Statement on Superintelligence » (« Communiqué sur la superintelligence »), trois courtes phrases : « We call for a prohibition on the development of superintelligence, not lifted before there is 1. broad scientific consensus that it will be done safely and controllably, and 2. strong public buy-in. » (« Nous appelons à une interdiction du développement de la superintelligence, qui ne devra être levée qu'après : 1) un large consensus scientifique établissant que cela peut être fait de manière sûre et contrôlable, et 2) une forte adhésion du public »). Parmi les signatures, de nombreux noms de tous horizons : académie, industrie, politique et gouvernement, et même du monde religieux.
OpenAI lance son propre navigateur, Atlas (pour l’instant, uniquement disponible sous MacOS), intégrant ChatGPT à la plupart des niveaux : autocomplétion dans la barre d’adresse, fonctionnalité « ouvrir une conversation avec le site actuel », emboîtant le pas à Perplexity Comet. Il est fortement probable que les attaques de type « injection de prompt » s’appliquent également, donc prudence.
DeepSeek publie une mise à jour incrémentale de son IA, DeepSeek 3.2. Essentiellement les mêmes performances que la version précédente, mais à un coût bien plus faible.
DeepSeek publie également DeepSeek-OCR. Une bestiole difficile à décrire : contrairement à ce que ce nom indique, ce n’est pas un simple OCR (même s’il peut s’acquitter de cette tâche très honorablement), mais une piste de recherche, opérationnaliser « un bon croquis vaut mieux qu’un long discours ». Plus précisément, DeepSeek essaie avec ce système de compresser n (par exemple 10) tokens textuels en 1 token de vision (pour une compression 1:10). Les résultats semblent bons, avec 90% de précision avec une compression 1 pour 10.
Anthropic étudie la capacité d’introspection de ses modèles, et trouve un résultat positif. Par exemple, les développeurs peuvent identifier un circuit associé à un certain concept (par exemple, « piano »), l’activer, et demander au modèle « À quoi penses-tu actuellement ? » (sans que le concept soit explicitement mentionné dans le prompt) ; le modèle est généralement capable de mentionner le concept.
DeepMind, en collaboration avec l’université de Yale, publie un modèle open-weight spécialisé dans l’analyse cellulaire. Le modèle semble capable de faire des découvertes inédites.
Nouvelle confrontation sur le droit d’auteur : Disney met en demeure Character AI.
Anthropic libère sur github un outil d’évaluation dans le cadre de la sécurité des modèles, utilisé notamment pour évaluer des comportements problématiques comme la flagornerie ou la tromperie.
Epoch AI publie une visualisation quelques données économiques sur les grands acteurs du secteur.
Des chercheurs publient une nouvelle méthode pour spécialiser un LLM à un usage précis, sans avoir accès privilégié aux paramètres du modèle lui-même. Cela permet de spécialiser des modèles propriétaires.
Que se passe-t-il lorsque l’on applique une phase d’apprentissage par renforcement sur des tâches de type « créer de l’engagement sur les réseaux sociaux » ou « augmenter les ventes d’un produit » ? Un papier explore la question, et montre qu’un tel entraînement supplémentaire encourage les modèles à mentir ou répandre de la désinformation, et que l’effet ne disparaît pas en demandant au modèle de ne pas utiliser de telles méthodes dans son « prompt système ».
Autre papier d’Anthropic sur la sécurité des modèles, montrant qu’il est possible d’« empoisonner » l’entraînement des modèles (c’est-à-dire l’entraîner à donner une réponse spécifique à une entrée ésotérique) à l’aide d’un faible nombre de documents (relativement à la taille du corpus d’entraînement total).
Du mouvement sur le financement du développement de l’IA : OpenAI est évalué à $500 milliards ; xAI fait une levée de fonds pour $20 milliards ; AMD investit dans OpenAI, ainsi que Nvidia. Un article intéressant fait le parallèle avec certains montages pendant la bulle dot-com, notant également des différences importantes.
En Janvier, OpenAI annonçait que Microsoft ne serait plus leur fournisseur unique d’infrastructure, citant un manque de capacités. The Information (paywall) révèle que Microsoft craint que les demandes de capacités de OpenAI soient injustifiées et que les satisfaire conduise à terme à mettre en place des capacités qui ne seront pas utilisées.
Un nouveau benchmark, AutumnBench, assez similaire à ARC-AGI, où l’IA reste loin derrière les performances humaines.
Un billet de blog intéressant sur les efforts de lobbying de l’industrie de l’IA.
METR ajoute Sonnet 4.5 à son évaluation, qui arrive pile poil sur la ligne de tendances.
L’IA (plus précisément : GPT-5 et Gemini 2.5 Pro) obtient un score de médaille d’or sur les Olympiades Internationales d’Astronomie et d’Astrophysique.
Envie d’apprendre comment fonctionne l’IA ? Andrey Karpathy publie en open-source nanochat, pour entraîner soi-même un modèle minimal, de A à Z.
ChatGPT se dote d’un système de contrôle parental.
xAI lance une encyclopédie générée par son IA, Grok, nommée Grokipedia. Elle fait partie de la croisade d’Elon Musk contre ce qu’il considère des biais de gauche sur Wikipedia.
Un papier étudie en détails la capacité des modèles à résister au jailbreak ou plutôt leur incapacité : aucun modèle ne résiste à un attaquant humain déterminé.
Anthropic publie son modèle "léger" (moins cher, plus rapide, moins performant), Haiku 4.5.
Cursor, l’assistant de code propriétaire, développe son propre modèle, Composer.
Pour aller plus loin
Par Zvi Mowshowitz
- Bending The Curve : retours sur une conférence sur l’IA à Lighthaven.
- OpenAI #15: More on OpenAI's Paranoid Lawfare Against Advocates of SB 53 : résumé des efforts légaux d’OpenAI contre les organisations défendant une régulation du développement de l’IA.
- 2025 State of AI Report and Predictions : un résumé d’un rapport publié sur l’IA.
- Bubble, Bubble, Toil and Trouble : une longue analyse sur la question : « les investissements en cours sur l’IA sont-ils le signe d’une bulle ? »
- On Dwarkesh Patel's Podcast With Andrej Karpathy : résumé et discussion autour d’une longue interview de Andrej Karpathy par Dwarkesh Patel.
- Asking (Some Of) The Right Questions : une discussion autour de la lettre ouverte du FLI (cf plus haut).
- AI Craziness Mitigation Efforts : une continuation de la saga « les IA excessivement flagorneuses », où sont présentées les solutions de OpenAI et Anthropic au problème.
- Please Do Not Sell B30A Chips to China : une défense de la position « les États-Unis ne devraient pas autoriser Nvidia à vendre à la Chine leurs puces permettant de mettre en place des cluster d’entraînement », à la veille d’une phase de négociations USA-Chine.
Sur LinuxFR
Dépêches
Journaux
- IAllucination post-quantique
- >Petit point informatique (et information) quantique
- Vibe coding sous toutes ses formes (un nouveau chapitre de sherpa du code)
- De l'ancien monde … Génération d'index pour publications scientifiques/littéraire
- Extension Firefox pour faire un diff entre Grokipedia et Wikipedia
Forum
- Déplacement du home qui a foiré : un cas de mauvaise configuration due à un tutoriel généré par IA.
Liens
- iRobot Founder: Don’t Believe The (AI & Robotics) Hype! ( lien original, discussion LinuxFR ) ;
- de la dégradation volontaire du service client ( lien original, discussion LinuxFR ) ;
- IA et travail : on ne sait pas qui sera remplacé, mais on sait que tous seront dégradés ( lien original, discussion LinuxFR ) ;
- Le développement de l’IA est incompatible avec la décarbonation, souligne le Shift Project ( lien original, discussion LinuxFR ) ;
- Google Discover et les sites générés par IA ( lien original, discussion LinuxFR ) ;
- L'IA : notre deuxième conscience ? (France-Culture - Sans préjugé) ( lien original, discussion LinuxFR ) ;
- Le boss de fin de niveau : des proxies, des proxies, partout ( lien original , discussion LinuxFR ) ;
- How China is challenging Nvidia's AI chip dominance ( lien original, discussion LinuxFR ) ;
- L'inquiétante montée en puissance de l'amour tarifé dopé à l'IA ( lien original, discussion LinuxFR ) ;
- Conversations enregistrées par Siri : une enquête ouverte en France contre Apple ( lien original, discussion LinuxFR ) ;
- Mais qu'est-ce qui pourrait inciter les IA génératives à paniquer sur l'émoji de l'hippocampe ? ( lien original, discussion LinuxFR ) ;
- Politiques publiques : passer de l’IA… à la dénumérisation ( lien original, discussion LinuxFR ) ;
- the oatmeal: let's talk about ia art ( lien original, discussion LinuxFR ) ;
- WEIRD in, WEIRD out: How AI tools are making the world look weird ( lien original, discussion LinuxFR ) ;
- Les être humains ne sont plus utiles, une machine avec IA peut faire tout ce qu'iels font ( lien original, discussion LinuxFR ) ;
- Les performances en demi-teintes d'Oracle dans l'IA ravivent les craintes d'une bulle ( lien original, discussion LinuxFR ) ;
- 250 documents suffisent à empoisonner l’entraînement d’une IA ( lien original, discussion LinuxFR ) ;
- The Apple Calculator leaked 32GB of RAM ( lien original, discussion LinuxFR ) ;
- Comment les entreprises de la tech nous forcent à utiliser l'IA ( lien original, discussion LinuxFR ) ;
- Le problème de l'IA est aussi entre la chaise et le clavier ( lien original, discussion LinuxFR ) ;
- Microsoft ne permettra de désactiver la reconnaissance faciale par IA que 3 fois par an ( lien original, discussion LinuxFR ) ;
- I have been spammed by LLM crawlers - I decided to finally do something about it ( lien original, discussion LinuxFR ) ;
- L’IA va-t-elle tuer Internet ? ( lien original, discussion LinuxFR ) ;
- Le Japon tape du poing sur la table contre Sora, le générateur de vidéos IA d’OpenAI ( lien original, discussion LinuxFR ) ;
- Sommes-nous entrés dans l'âge d'or de la stupidité ? ( lien original, discussion LinuxFR ) ;
- AWS se sent tout mou ( lien original, discussion LinuxFR ) ;
- Ces livres écrits par IA vendus sur Amazon : récit alarmiste d'une mère ( lien original, discussion LinuxFR ) ;
- L’IA ou comment vendre 250$ quelque chose qui vous coûte 15000$ ( lien original, discussion LinuxFR ) ;
- Wikipédia perd 8 % de pages vues par les humains en un an et met ça sur le compte de l’IA ( lien original, discussion LinuxFR ) ;
- Spotify traque la musique générée par IA ( lien original, discussion LinuxFR ) ;
- Les LLMs n'échappent pas à la démence ( lien original, discussion LinuxFR ) ;
- Cofondateur d’OpenAI : « Il faudra dix ans pour que les agents IA fonctionnent correctement » ( lien original, discussion LinuxFR ) ;
- A France Travail, des algorithmes fautifs font-ils la loi au détriment des chômeurs ? ( lien original, discussion LinuxFR ) ;
- AWS soupçonné d'avoir remplacé 40% de ses DevOps avec de l'IA quelques jours avant son propre crash ( lien original, discussion LinuxFR ) ;
- Faible rentabilité, valorisations record… Le spectre d’une bulle plane sur l’IA ( lien original, discussion LinuxFR ) ;
- Un lycéen menotté par la police car l'IA a pris son paquet de chips pour une arme à feu ( lien original, discussion LinuxFR ) ;
- "Est-ce que Internet pourrait être déconnecté ?" Le monde moderne repose sur un château de cartes ( lien original, discussion LinuxFR ) ;
- Mystères mathématiques d’intelligences pas si artificielles [Les IA sont-elles des perroquets ?] ( lien original, discussion LinuxFR ) ;
- La merdification par l'IA impacte significativement l'éditeur de jeu vidéo Electronic Arts ( lien original, discussion LinuxFR ) ;
- Tristan Nitot : Pourquoi les investisseurs font-ils de l'IA une bulle ? ( lien original, discussion LinuxFR ) ;
- Pourquoi l'open source pourrait ne pas survivre à l'essor de l'IA générative ( lien original, discussion LinuxFR ) ;
- OpenAI: un million d'utilisateur confierait ses idées suicidaires à ChatGPT ( lien original, discussion LinuxFR ) ;
- Intelligence artificielle, une guerre à coups de milliards de dollars qui va mal finir ( lien original, discussion LinuxFR ) ;
- Meta dévisse en bourse à cause de ses dépenses liées à l'IA ( lien original, discussion LinuxFR ) ;
- Grokipedia vu par un administrateur Wikipédia ( lien original, discussion LinuxFR )
Aller plus loin
- AI #136: A Song and Dance (4 clics)
- AI #137: An OpenAI App For That (3 clics)
- AI #138 Part 1: The People Demand Erotic Sycophants (2 clics)
- AI #138 Part 2: Watch Out For Documents (2 clics)
- AI #139: The Overreach Machines (2 clics)
- AI #140: Trying To Hold The Line (2 clics)
- Sora and The Big Bright Screen Slop Machine (2 clics)
- Cloud Compute Atlas: The OpenAI Browser (2 clics)
- New Statement Calls For Not Building Superintelligence For Now (4 clics)
- OpenAI Moves To Complete Potentially The Largest Theft In Human History (2 clics)

Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.