Lien Éditorial du Guardian: Les manifestations contre des centre de donnée US de l'IA sont un avertissement pour la Big Tech

Journal Modèle Mythos : Anthropic bluffe, en partie

Anthropic a prétendu avoir un modèle si puissant (le bien nommé Mythos) qu'il est bien trop dangereux de le mettre à disposition du grand public et qu'ils donneraient en priorité l'accès aux grands noms de la tech (Amazon, Apple, Broadcom, Cisco, CrowdStrike, la fondation Linux, Microsoft entre autres). Selon eux, Mythos auraient trouvé "des milliers de zero-days critiques". Sauf que… pas vraiment :
Anthropic déclare qu’elle ne peut pas réellement confirmer que les milliers de bogues que Mythos affirme avoir (…)
Lien Des vêtements antireconnaissance faciale pour contrer « la surveillance par IA dans l’espace public »
Lien Friend".com", ce collier IA qui fait parler de lui en s’affichant dans le métro parisien
Journal CPU Ex0239 L'IA fait son cinéma, première partie

Dans cette release de CPU, dans la série Intelligence artificielle : Des images projetées, l'IA devant l'objectif, de la motion capture, et un fucking Kassovitz.
Nous recevons Jean-Louis Cruz, réalisateur audiovisuel et formateur en IA..
Ceci est la première partie du sujet. La fin sera diffusée la semaine prochaine, l'intégralité de l'interview est déjà disponible.
À écouter, lire et les liens de la documentation : https://cpu.pm/0239
Chapitres :
Journal ChienGPT dévoile Mytho, son modèle d’IA qui vous raconte des conneries mais maintenant c'est officiel
Plus c'est gros, plus ça passe. C'est en suivant l'adage que nous avons nommé notre nouveau modèle d'IA présenté, comme d'habitude, comme ultra-puissant.
Voici venir : ChienGPT Mytho. Comme vous pouvez le constater, c'est une révolution.
Par contre, il ne va pas y en avoir pour tout le monde. Le modèle est tellement consommateur d'énergie qu'on a dû mettre en place un système de ticket, comme à la boucherie du Super U de Châteauneuf, sauf que là, en plus (…)
Lien OpenAI publie des recommandations politiques pour adapter la société à « l'Âge de l'Intelligence »
Lien La qualité de Claude Code baisse à cause du trop grand nombre d'utilisateurs
Rapport d'activité 2025 de l'April - Vidéos des conférences éclairs
Comme de coutume, l'April publie son rapport annuel d'activité suite à l'assemblée générale de l'association, qui a eu lieu le samedi 28 mars 2026. Nous vous invitons à le consulter en ligne ou en version PDF.
91 pages vous font peut-être un peu peur ? Nous avons pensé à cette éventualité et avons prévu un résumé qui se lit en une dizaine de minutes ;)
Bonne lecture à vous !
L'AG est réservée aux membres de l'April. Le matin, un temps de conférences éclairs, ouvert à toute personne, membre ou pas de l'April, a été organisé de 10 h à 12 h. Les présentations et la vidéo des conférences sont disponibles.
La liste des présentations :
- Stéphane Bortzmeyer - « Un autre langage pour concurrencer C, Zig »
- Natacha Rault - « Les sans pagEs : un projet libre et féministe »
- Denis Dordoigne - « La pièce jointe, une calamité »
- Éric Le Bihan - «Multiplier par 4 en 4 ans la pénétration de Linux (et du libre) »
- Ewa Kadziolka - « Bielik AI, un LLM polonais »
- Fabrice Mouhartem - « La collaboration chiffrée de bout en bout avec CryptPad »
- Julie Chaumard - « Strapi - CMS headless »
- Frédéric Henry - « Ouvrir les projets libres de l'April à la contribution »
- Boris Valero - « Les divisions dans la communauté linux en particulier et du libre en général »
- Françoise Conil - « MkDocs, Material et Zensical »
- Régis Perdreau - « ODFStudio.org : réinventer la contribution francophone à la bureautique libre ! »
- Bookynette - « Quel genre de bénévoles êtes-vous ? »
- Anne L'hôte - «OpenHikePlanner - Marcher et rouler librement »
- Christophe Villeneuve - « La navigation web de façon humaine »
- Olivier Deiber - « Réparer le Futur »
Lien Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

Lien Il pose une question à chatGPT, il se retrouve interné d'office
Nouvelles sur l’IA de mars 2026
L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
Résumé des épisodes précédents
Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
- System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
- Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
Lien we are building data breach machines and nobody cares
Journal Comparatif : 6 LLMs locaux face à un exercice Python simple

Bonjour, aujourd'hui j'ai fait un essai qui n'est pas du tout scientifique : que valent les LLM qui tournent sur mon Dell d'inférence pour coder une fonction Python très simple ?
Le prompt donné aux modèles : « Je voudrais que tu me fasses une fonction en Python pour parser un fichier CSV et le transformer en JSON. »
Un même prompt, six modèles différents, tous exécutés en local via Ollama. L'objectif : voir comment chaque LLM interprète une demande (…)

