Lien Pourquoi refuser les LLMs dans l'open source? Les arguments d'Open Slopware


Salut,
Je me demandais s'il existait un logiciel d'IA qui puisse s'entraîner sur mon ordinateur en local (en utilisant mon processeur et/ou ma carte graphique).
Qu'il parcours mon disque dur, mes photos/vidéos mes mails (en local toujours) et que je puisse lui poser des questions.
Ça pourrait être pratique par exemple pour retrouver un papier scanné il y a longtemps, une photos de famille, ou simplement un fichier de code que j'aurais enregistré au pif et que je ne retrouve (…)

Épisode précédent : Trivy compromis une seconde fois : la release v0.69.4 était empoisonnée
Et aujourd'hui on apprend que l'outil open-source LiteLLM (une interface pour gérer plusieurs LLM) utilisait le scanner de vulnérabilité Trivy, entraînant la fuite de nombreux identifiants : "Anyone who has installed and run the project should assume any credentials available to [the] LiteLLM environment may have been exposed, and revoke/rotate them accordingly." Un compte se disant "expert en cybersécurité" sur Twitter affirme que le groupe à (…)
Début 2026, Anthropic a suspendu des milliers de comptes pour utilisation de Claude avec des outils tiers. Pas des comptes piratés ou abusifs — des développeurs qui avaient branché leur abonnement Claude sur OpenClaw ou des outils similaires. Compte bloqué, sans avertissement, sans recours clair.
Quelques semaines plus tard, le créateur d'OpenClaw (145K étoiles GitHub, le framework d'agents IA le plus utilisé au monde) a été recruté par OpenAI. Le projet est toujours sur GitHub, mais personne ne sait vraiment (…)

Et croyez bien que ça me fait mal à l'arrière train de l'admettre, parce qu'il y a quelques zélotes à l'égo sur-dimensionné que j'aurais bien voulu voir rabattre leur caquet. Mais bon, ce n'est pas de l'arrogance si ils ont raison?
Bref, ils ont mis le paquet. Ils ont compris que, comme lors de la révolution informatique et de la révolution internet, où il ne s'agissait pas juste de coller un ordinateur ou un navigateur devant (…)



Je sais que le mot "IA" sur LinuxFr, c'est un peu comme prononcer "systemd" en 2015 ; ça ne laisse personne indifférent. Et je comprends. La merdification est réelle, la bulle est réelle, les externalités sont réelles. Je n'ai aucune envie d'en rajouter une couche. Mais voilà, les lignes sont devenues floues, et j'ai pris le virage du coding assisté. D'abord avec curiosité et prudence, et maintenant les deux pieds dans le plat : ça ne remplace pas ma façon de penser, mais ça m'a ouvert des portes : des concepts que je ne maîtrisais pas, des langages que je n'aurais pas pris le temps de toucher avant ; l'assistant me permet d'explorer, de comprendre, et de construire des outils qui m'aident. Et j'espère qu'ils aident d'autres personnes aussi.
Sauf que voilà. Au début, j'étais prudent. Je vérifiais chaque commande, chaque accès. Et puis petit à petit, j'ai lâché prise. J'ai désactivé les confirmations, laissé l'agent tourner sans supervision, accepté les permissions sans lire. On connaît tous ce moment où on clique "Allow" les yeux fermés parce que c'est la quinzième fois qu'il demande. J'ai fait exactement ce qu'on ne devrait jamais faire en sécurité : faire confiance par défaut.
Et un jour, je me suis dit : je n'ai aucune idée de ce que cet agent envoie sur le réseau. Aucune.
Alors j'ai construit un proxy un peu.. particulier.
