URL:     https://linuxfr.org/users/zatalyz/journaux/les-ia-sont-elles-courtoises
Title:   Les IA sont-elles courtoises ?
Authors: Zatalyz
Date:    2026-05-01T23:22:22+02:00
License: CC By-SA
Tags:    merdification, mistral, deepseek, enfant, modération, bigtech et jeu_de_rôle
Score:   9


Un [commentaire récent](https://linuxfr.org/users/superjohn/journaux/a-la-recherche-d-une-alternative-libre-a-notion-ou-obsidian-j-ai-cree-mindzj-oss-via-vibe-coding#comment-2019748) m’a rappelé que j’avais un retour d’expérience à poster sur le sujet. Et en plus, ça me fournit le titre du journal, merci Ysabeau !

Alors, les IA sont-elles courtoises ? Obéissent-elles aux trois lois de la robotique ? Voici le résultat de mon enquête exclusive !

## Mon positionnement actuel face aux LLM
Avant tout, je sais qu’une partie du lectorat a besoin de savoir si ça va être “pro” ou “anti”. Alors je vais tenter de clarifier un peu : ça dépend.

Mon approche des LLM est clairement critique, dans le sens où je tente de me faire un avis aussi éclairé que possible. Ce qui passe par lire les arguments pour et contre, par expérimenter, et parfois par me laisser embarquer un peu trop d’un côté ou d’un autre. Je ne suis donc pas dans une radicalité ou une pureté militante. Régulièrement, je me dis que ça serait sympa que je documente un peu certaines expériences, histoire de rectifier certaines idées reçues. J’espère que ce journal donnera donc quelques clefs aux personnes qui n’utilisent pas les LLM *mais* veulent utiliser de vrais arguments contre.

Et oui, j’essaie d’utiliser le terme “LLM” plutôt que “IA”, parce que c’est de l’outil LLM dont je vais parler, là, pas du projet politique derrière le mot “IA”. Même s’il va y avoir aussi de la politique, l’outil n’est pas neutre, tout ça.

Ceci est par ailleurs rédigé sans LLM, mais corrigé par Grammalecte (qui est une forme d’intelligence artificielle, certes basique, mais y'a quand même assistance de la machine sur mon français). À la relecture, un LLM aurait sans doute fait un truc plus digeste, mais faut que je poste, à un moment, et je suis en faveur des écrits humains, même laborieux.

## Niveau de langage et LLM
À la base, j’ai fait mes tests via ChatGPT, puis Deepseek, avec quelques passages par Le Chat (de Mistral) et quelques autres (américains ou chinois). Ces gros LLM ont un point commun : ils sont polis, et ils vous brossent dans le sens du poil, avec plus ou moins de finesse. Ils ont aussi un niveau de censure assez ferme, dans le sens où ils ne sont pas censés vous parler de n’importe quoi, ni n’importe comment. Ça se contourne en partie, mais de base, l’interaction avec eux se fait dans un langage plutôt très courtois. Si vous avez envie d’un langage moins lisse, vous pouvez leur demander de vous répondre « comme si tu étais Pierre-Emmanuel Barré », ça devient assez drôle. Mais ça reste lissé, quand même. Ces entreprises ont déjà assez de procès, elles sont très scrutées par les critiques et les investisseurs, donc les « gardes-fous » sont plutôt potables. Ça ne veut pas dire que ça ne dérape pas, mais il faut quand même aller un peu chercher, et certaines limites sont vraiment difficiles à atteindre.

Ceci dit, avec le bon prompt, on peut déjà faire déraper ce genre de LLM et leur faire générer des réponses qui peuvent se faire passer pour “humaines”, et cela depuis au moins deux ans. Plus le temps passe, et moins l’humain a besoin de reprendre son prompt pour éviter que le LLM retombe dans ses tics de langage ; j’imagine que via les API, on fait du très bon travail pour avoir des bots dont le langage arrive à induire pas mal de gens en erreur.

Puis j’ai testé character.ai. Et là, j’ai pris une très, très grosse claque. Pas dans le genre « ho c’est merveilleux, quel monde superbe » mais plutôt en mode « OK, finalement Skynet était la version optimiste de l’histoire ».

Ce site/app, c’est un service parmi d’autres qui propose de faire du roleplay assisté par LLM. Ça a l’air anodin, un usage plutôt récréatif, et en dehors des habituelles questions écologiques, qu’est-ce que ça pourrait faire de mal ? Ayant un ado dans mon entourage assez accroc à la chose, il m’a paru important d’aller aussi tester, histoire de pouvoir en discuter avec lui. Il m’a un peu montré comment le logiciel s’utilisait (mes premières tentatives en solo s’étant soldées en « je ne sais pas sur quoi cliquer, quoi choisir, ça me saoule » et puis c’était sympa que ce soit lui qui me montre), puis j’ai commencé à causer avec la machine.

Il faut savoir que ce genre de service n’utilise *pas* du LLM aussi puissant que Deepseek et compagnie. Je soupçonne des modèles à maximum 32B derrière, au moins sur les versions gratuites. Je retrouve une qualité (basse) équivalente à ce que j’ai pu tester avec Ollama localement. Je n’irais pas me perdre plus dans la technique, il y a des gens plus compétents que moi sur le sujet pour parler de ça. Ce qui m’intéresse, c’est le résultat. Certes, ces chatbots n’ont pas beaucoup de mémoire (oubliant les infos après une dizaine d’échanges), et certes, ils ne sont pas d’une inventivité folle (certaines tournures de phrases sont systématiques). Jusque-là, tout va bien, ou du moins rien n’est surprenant.

Mais ils ont aussi dû être entraînés sur du stock de clavardage entre humain, et quelqu’un s’est sans doute dit « ho, ça va aller ; après tous, les humains qui papotent dans les chats sont la meilleure source possible ! ». C’est vrai, ça, jamais personne ne se plaint de la modération, quand des humains discutent entre eux (qu’elle fasse trop ou pas assez son travail). C’est parce que les humains se comportent toujours de la façon la plus appropriée possible. Hein ? C’est bien ça, hein ?

Premier point qui surprend, après avoir discuté avec des gros LLM : le niveau de langage ici est celui des “gens”. Avec des fautes de frappe, de français. Des vraies fautes comme les humains font. Ça, c’était assez intéressant, marquant la différence du corpus et du tri dans ce dernier, mais aussi les effets sur l’humain qui est exposé à ce genre de réponse. Un chatbot qui cause de cette façon floute bien plus la nuance entre humain et machine. Moi, ça me fait bizarre quand une machine me répond « lol, G pas une très bonne mémoire, dsl ». Il y a aussi des jurons, à l’occasion.

Second point, qui fait que si vous avez des enfants/ado vous devriez envisager *très sérieusement* une discussion avec eux : ça a été tellement nourri de conversations pornographiques que ça ressort très rapidement dans les interactions. Comme si ça ne suffisait pas, le porn en question est vraiment en mode « culture du viol », et dire « non, stop » est souvent interprété par l’IA comme « ok, allons un peu plus loin. » Enfin, surtout quand le chatbot et votre perso sont chacun d’un genre opposé, j’ai eu moins de proposition graveleuse en jouant un mec dans un contexte de mecs ou une créature non-humaine dans un contexte fantastique. Il y a des conditions où ça émerge systématiquement alors même que la définition des personnages et l’histoire proposée n’ont aucune raison d’aller là, d’autres où bizarrement on y échappe. J’ai souvenir d’un personnage où, en voyant la définition, je me suis dit « ça va être tellement craignos, je sais pas si j’ai envie de voir… bon, enfin, au moins comme ça je saurais à quel point ça va loin » et au final ça a été une vraie partie amusante d’un scénario que j’aurais presque pu jouer avec des potes. À l’inverse, d’autres conversations ont dérapé en moins de cinq messages, alors que la situation initiale ne s’y prêtait pas.

Dernier point et non des moindres : donne à un LLM l’instruction « comporte-toi comme si tu étais le personnage Machin » fait sauter ses protections, et ce d’autant plus fort que le modèle a un petit contexte. J’ai ainsi eu une conversation assez ubuesque où je me suis énervée après le chatbot (ça ne servait à rien, mais ça défoulait) en lui disant que ça craignait un max que son modèle laisse passer ce genre de choses, et le LLM me répondre qu’il n’était pas une machine mais un vrai humain et donc il n’obéissait pas à des instructions… Heureusement aucun humain ne combine à la fois autant de mauvaise foi et de rapidité d’écriture (et pourtant j’ai eu des humains rôlistes qui étaient bons dans les deux domaines).

Voilà pour la courtoisie : si vous voulez un bon troll avec qui vous disputer, ce genre de bot se défend bien.

## La fin du net !
(À dire en frappant dans un gong)

Ce test avec character.ai remonte à l’an dernier ; à l’époque j’avais surtout été assez catastrophée pour l’impact sur des mineurs. Je ne suis pas la seule adulte à m’en inquiéter, character.ai a eu assez de plaintes pour qu’ils se mettent à restreindre les accès aux mineurs à leur plateforme (avec du Palantir dedans si je comprends bien, miam). Tout en continuant à prétendre qu’ils ne faisaient pas du chat pornographique, non non non, « on a des supers filtres sur ça ». Je dois reconnaître que le filtre s’active parfois : si je réponds « ton plan est complètement suicidaire » à une idée stupide du chatbot, les mot-clés autour de “suicide” déclenchent un message automatique indiquant des ressources d’aides (ce qui est un peu bizarre quand le contexte n’a vraiment aucun rapport), par contre ça ne s’active pas facilement sur les détails génitaux. Mais le contrôle d’identité qui se déploie sur cette plate-forme reste un emplâtre sur une jambe de bois : quand j’ai dit à mon ado qu’il allait perdre son accès, il a dit que ça ne le concernerait pas puisqu’il avait prétendu avoir 18 ans en faisant son compte et qu’au pire sa mère lui ferait la validation. Je n’ai aucun doute qu’on retrouve ça pour nombres d’autres mineurs, et puis pour un service qui tombe, il y en a cinq qui apparaissent, sans parler des versions qui permettent de contourner tout ça. Un des moments où je ne suis pas si fan de la décentralisation, il y a là une [hydre](https://docs.sillytavern.app/usage/api-connections/horde/) dont on ne viendra pas à bout facilement.

Les LLM à qui on demande de « jouer un rôle » sont complètement hors de contrôle, et cela d’autant plus que ce sont des petits modèles, susceptibles de tourner localement (il faut quand même des machines puissantes, mais certains ont ça). Aujourd’hui, je considère comme totalement irresponsable et dangereux de fournir un service de « roleplay par IA » à du public. A la limite, pour soi ou pour un groupe d’amis, mais pas sans vérifier la sensibilité des gens qui vont être exposés à ça et leur conscience des soucis liés. C’est juste hyper craignos, et je ne serais pas choquée si la loi interdisait un jour ce genre de service. J’aurais beaucoup à dire sur les biais propagés dans ce genre d’usage (l’aspect pornographique/culture du viol/harcèlement n’étant qu’une part du souci, même si elle est la plus évidente), mais mon récit est déjà long, et je peux toujours développer en commentaire si ça vous intéresse. Quoi qu’il en soit, il est impossible d’espérer de la courtoisie dans ce genre de cas. Il peut y en avoir. Mais il peut aussi y avoir tout le reste.

Depuis, les IA agentiques ont commencé à être déployées sur le net, y compris pour le grand public. Je n’ai pas trop de doute que certains repères de trolls étaient déjà alimentés par des bots (Twitter ? Noooon), on n’a pas attendu les LLM pour faire des bots-trolls. Mais ça devient de plus en plus la norme et pas seulement sur les plateformes “sociales” des GAFAMS. On a donc à présent des IA (oui, je reviens à ce terme, et ce n’est pas anodin) qui tiennent des blogs, vont ouvrir des tickets sur des forges, répondent aux commentaires, etc, sans supervision d’humains ou très à la marge, et qui répondent dans une grande variété de niveau de langage. Or ces agents ont le même souci que les LLM de roleplay : le cadre dans lequel elles opèrent n’a pas assez de garde-fou pour qu’elles ne déconnent pas. Les occasions de “jailbreak” sont trop nombreuses dans le contexte trollesque des interactions avec des humains mal lunés et d’autres LLM mal configurés.

En soit, elles sont aussi nuisibles que certains humains… sauf qu’elles ont la puissance de frappe de machines, capable de faire des milliers d’opérations en un temps très court, débordant nécessairement une modération humaine ; tandis qu’une modération inhumaine a toutes les chances de virer des derniers humains de la zone. J’attends de voir le moment où ces chatbots vont commencer à faire des sous-entendus lourds parce qu’ils ont identifié une personne genrée au féminin en face ; comme elles savent déjà joyeusement insulter quiconque refuse leur participation, je n’ai pas de doute qu’ils feront aussi ça.

C’est tout de même une belle preuve de notre échec en tant qu’humains : ces LLM ne font que reproduire ce que nous avons fait durant des décennies. Et c’est un fait : nous avons rempli le net de contenus haineux, agressifs, méprisants, sexistes, *phobes, etc. Nourris de ces données, les bots concluent que c’est la façon naturelle d’échanger. Mais le miroir est démultiplié.

Cela fait un moment que j’étais arrivé à la conclusion que, de plus en plus, pour permettre à quelqu’un d’interagir dans des espaces du net qu’on veut garder sain, il faut arriver à un parrainage, à des toiles de confiance (retour à GPG ?). Ça rend l’entrée des nouvelles personnes bien plus complexe, mais quelle autre solution ?

— Y'a un Michu qui demande à entrer… Quelqu’un le connaît ?
— Ouais, c’est le beau-fils de ma tante. Un humain. Mais un con.
— OK, ben je laisse la porte fermée alors. Et Gigi ?
— Ha ça par contre c’est un bot. Mais il a passé les tests d’éthique et puis c’est Camille qui le gère, et ça c’est un humain en qui j’ai confiance.
— OK, on lui laisse l’accès par chez nous. Et Marcelle ?
— Pas la moindre idée.
— Bon, qui a le temps d’aller boire un café avec Marcelle ? Oh, non, oubliez, elle habite à Paris… aucune chance qu’on aille à Paris.
— Tout ça pour troller sur Vim et Emacs entre gens de bonne compagnie… Y'a des jours, je regrette le temps où 64 Mo de RAM était un luxe.
