J'imagine que tu peux combiner les deux. Un filigrane pour dissuader, et une méthode de stéganographie robuste aux transformations pour retracer.
Mais c'est vrai de toutes manières que le traçage n'est finalement pas forcément utile. Ça pourrait éventuellement aider les enquêteurs à identifier un intermédiaire véreux, mais pas forcément. Il est très probable que dans la plupart des cas les scans d'ID soient volés, et pas directement utilisés par les destinataires; tu pourras alors identifier l'origine de la fuite, mais ça va s'arrêter là. Sans compter que je ne suis pas du tout certain que les procédés dont on parle ici (filigrane, stéganographie) aient valeur de preuve devant la justice : tu n'as pas d'huissier qui a certifié ton marquage initial ni l'algorithme de stéganographie, donc si c'est les seuls indices dont tu disposes pour poursuivre quelqu'un en justice (pour recel d'informations personnelles par exemple), tu ne peux pas exclure avoir fait tout ça pour rien.
La fausse sécurité est un problème, donc je trouve que la question est légitime. Si les fraudeurs disposent d'outils automatiques qui permettent de retirer les filigranes, ajouter un filigrane te prend du temps pour rien et te donne un faux sentiment de sécurité, ce qui est dangereux.
La vraie solution ne peut être qu'un service de certificat numérique fourni par l'État ou un tiers de confiance. Les histoires de scan de papiers d'identité, c'est de la blague.
Théoriquement tu risques 6 mois de prison et 30k€ d'amende, donc tu as quand même intérêt à y réfléchir à deux fois avant de t'exempter de demander les identités. J'imagine qu'un simple registre avec l'identité déclarée des participants (nom adresse et date de naissance) non déposé à la préfecture suffit pour justifier de ta bonne foi.
La réglementation en question est un bel exemple de la tendance à la surveillance de masse
Le droit de vendre des objets d'occasion sur la voie publique en franchise totale de taxes reste une tolérance encadrée par la loi (c'est une "vente au déballage" au sens du code du commerce). On parle de toutes manières de dispositions légales qui datent de plus de 20 ans, donc clairement pas conçues pour constituer des bases de données ou croiser ces bases entre services de l'État.
Bah, je ne sais pas, je suis contre la peine de mort par principe (sauf en situation de guerre), mais j'imagine qu'en effet, l'utilisation de la violence par l'État est plus acceptable quand c'est envers un jeune musclé que vers un vieux tout moisi, puisqu'une violence collective est plus justifiée.
Impagine que tu choppes un pickcpocket en train de te faire les poches dans le métro, si c'est un costaud c'est justifié de lui mettre une patate en préventif, si c'est une petite vieille ou un handicapé c'est moins acceptable. La situation est identique mais user de la violence envers quelqu'un de plus faible c'est vu comme moralement douteux. D'ailleurs, c'est très courant pendant les guerres par exemple que les hommes résistants étaient plus souvent exécutés que les femmes. Peut-être à cause d'une perception différente de leur dangerosité, ou à cause de principes moraux.
Si tu veux dire que c'est comme l'intégration par parties ou les règles de comptabilité du Luxembourg, alors oui : il est possible avec suffisamment d'efforts de les apprendre et de ne pas trop se tromper en les utilisant.
Si tu veux dire qu'il n'est pas illégal d'intégrer une déclinaison de l'accusatif dans une langue construite, alors en effet, ça n'est pas illégal. Mais ça n'empêche pas que c'est complètement idiot : de nombreuses langues européennes ne possèdent pas de déclinaisons, et pour apprendre l'espéranto il faut apprendre un concept complexe et facultatif.
Je suis d'avis que le concept de langue construite reste intéressant (en tant qu'objet théorique, parce qu'en pratique c'est probablement inutile), mais que l'espéranto en est une bien mauvaise implémentation à de multiples égards (une autre absurdité est l'utilisation de diacritiques spécifiques, qui implique du matériel spécifique (machine à écrire, clavier, polices…) ou des solutions de contournement). Pousser l'utilisation d'une mauvaise implémentation d'un bon concept risque juste de dégouter les gens du concept.
Quitte à mettre en avant une langue construite, l'interlingua est par exemple un candidat bien plus convainquant (parce que pragmatique).
L'âge avancé ne peut être une raison pour écarter la peine de mort
Une peine a plusieurs objectifs, 1) protéger la société d'un individu dangereux, 2) dissuader ceux qui auraient l'idée de faire pareil, 3) le dissuader de recommencer. Et un quatrième objectif officieux, venger les victimes. Pour la peine de mort, tu élimines 3; pour un vieillard, tu élimines 1; et pour un génocide, du élimines 2; du coup, il ne reste plus que la vengence, c'est pas terrible.
Déja que la peine de mort, niveau moral, c'est pas terrible, mais en plus l'appliquer sur quelqu'un de faible physiquement, ça commence à devenir dur à assumer.
Quelles applications considères-tu comme obligatoires aujourd'hui exactement ?
Les applis imposées par l'employeur (pour déclarer sa présence en horaires décalées, pour manger à la cantine, pour valider périodiquement le 2FA du webmail…)
Les applis imposées par les fournisseurs de services essentiels (assurance, banque, mutuelle…)
Les applis nécessaire à communiquer avec les services éducatifs et municipaux (profs -> Klassly, bus scolaire -> Whatsapp, …)
Tu as ensuite les applications qui ne sont pas strictement obligatoires, mais qui sont plus efficaces que le www en terme d'interface : itinéraires de transport en commun, etc.
Tu as également les applis de services non-obligatoires, mais auxquels tu peux vouloir avoir recours pour des raisons qui te regardent (VTC, livraison de repas, etc).
Enfin, les applications "imposées" par pression sociale, notamment pour les groupes de discussion, contact avec la famille, etc.
On en est là? Des incantations magiques pour que l'ordinateur fasse semblant d'être plus compétent qu'il ne l'est vraiment?
J'ai l'impression de radoter à chaque intervention sur l'IA et les LLM, mais c'est totalement normal de ne pas savoir comment les LLM récents fonctionnent. Par contre, ça n'est pas normal sur Linuxfr d'aller étaler une inculture informatique crasse teintée de mépris envers une technologie qu'on ne comprends pas, surtout qu'il y a régulièrement d'excellentes dépêches sur les nouveautés algorithmiques, les résultats de benchmarks, etc.
Penser que le fait de dire quelque chose puisse changer la réalité, c'est du Trumpisme. Écrire ou raconter à la télé n'importe quoi sur les LLM (qu'ils sont des perroquets stochastiques, qu'ils se trompent 62% du temps, ou que les incantations ont un effet magique) n'a aucune chance de modifier la manière dont les LLM fonctionnent en réalité. Au "mieux", ça peut tromper les gens sur la manière dont ces algorithmes fonctionnent—est-ce que c'est ça l'objectif? Infiltrer des informations trompeuses jusque dans des forums d'informatique?
La santé publique, c'est toujours ça : un équilibre entre les libertés individuelles et l'intérêt collectif / la protection des plus faibles. L'équilibre peut être différent en fonction du contexte politique (dictature vs démocratie) ou de la culture locale, mais ça revient toujours à ça a final.
À cette période-là on faisait tout et n'importe quoi en Perl, et ça a depuis été remplacé, mais ça reste quand même un outil très adapté à l'écriture de moulinettes pour tripatouiller les formats de fichiers. Après, est-ce que ça vaut le coup de l'apprendre quand tu peux aussi faire ce que tu veux dans un langage avec lequel tu es à l'aise…
Posté par arnaudus .
En réponse au journal npm et badaboum.
Évalué à 2.
Dernière modification le 22 septembre 2025 à 17:23.
expliquez-moi comment ça trouve la réponse
Il donne la réponse la plus vraisemblable d'après la sortie d'un réseau de neurones dont les poids ont été ajustés par une procédure d'apprentissage à partir d'un corpus de données aussi grand que possible.
Une sorte de "jus de connaissance" qui n'a pas grand chose à voir avec une recherche dans une base de données. D'où la complémentarité avec une recherche web, que beaucoup de modèles proposent maintenant.
En effet, comment tu mesures le « rarement » ?
C'est pas moi qui le mesure, le benchmarking de LLMs est réalisé par des laboratoires de recherche publics ou privés, c'est un domaine technique qui ne peut pas être discuté dans un forum à base d'anecdotes. Ça dépend du domaine, du modèle, de la manière dont la question est posée, et de la bonne volonté de l'utilisateur pour guider le modèle vers la compréhension de la question.
Parce-que chacun peut aussi facilement sortir des anecdotes d’erreurs (qui pourtant sont supposément rares)
Quel modèle, quelle date, quel prompt? Parce que dans ChatGPT j'ai "The HP-16C "Computer Scientist" calculator does not actually have the π (pi) constant built in. Unlike models like the HP-15C or HP-41, which include π on a key, the HP-16C was designed specifically for programmers and focuses on integer math, bit manipulation, base conversions, and logical operations—not floating-point scientific math."
Personne ne nie que certains modèles sont plus performants que d'autres, et nombreux sont ceux qui sont intéressés à pousser ces modèles à leurs limites (combien de temps mettent 9 femmes à faire un enfant, etc), ce qui augmente évidemment le taux d'erreur.
Le truc est hélas que que si on n’a pas un certain niveau dans certains domaines on ne peut pas se rendre compte de certaines erreurs (et se conforter dans l’idée que c’est encore plus rare)
Quel est ta référence? La vérité divine? Le meilleur spécialiste humain? Une recherche Google? Un humain moyen?
Peut-être qu'en 2025, un niveau d'exigence raisonnable (avoir une réponse équivalente à ce qu'on peut avoir auprès d'un professionnel standard, ou avoir en moins de 10 secondes une réponse équivalente à ce qu'on pourrait obtenir en 2 heures de recherche standard) permettrait déja de réaliser à quel point ces outils peuvent être utiles.
J'ai parfois l'impression qu'on attend de ces systèmes des performances infaillibles littéralement surhumaines, ce dont ils sont capables dans certains domaines, mais certainement pas dans tous. La communication en langage naturel est dans tous les cas suffisamment ambigüe pour que même un LLM infaillible ne puisse toujours donner la réponse attendue.
comment un LLM peut te dire à quoi correspond l'erreur 27 sur une machine à laver si l'information n'existe pas par ailleurs et sans sortir une réponse complètement inventée et sans rapport avec la réalité?
Je vois bien que tu ne peux pas y croire parce que tu n'as pas eu les bonnes informations sur le fonctionnement de ces modèles, mais pourtant un LLM moderne peut tout à fait répondre de manière très convaincante à des questions dont les réponses ne sont pas dans ses données d'entrainement, parce qu'il procède par analogie et déduction. Si tu préfères, il répond au hasard, mais il se trompe rarement.
"De quelle couleur sont les licornes polaires?
Les licornes polaires n’existent pas vraiment, mais si on joue le jeu, on peut les imaginer blanches scintillantes, comme la neige."
C'est évidemment la bonne réponse, non? :-) Pourtant, c'est quasiment certain que ça ne figurait pas dans les données d'entrainement. Ça a été déduit par analogie.
Trouver des questions dont on connait la réponse mais dont on peut être certains qu'elle ne figure pas dans les données d'entrainement est difficile, mais il existe des benchmarks pour LLMs et les progrès sont très substantiels. Alors évidemment, on peut discourir longuement sur la différence entre "savoir" et "connaitre", mais du point de vue de l'utilisateur, ce qui compte c'est la pertinence de la réponse, et pas la manière dont le LLM l'a obtenue. Si ça te rassure, tu peux penser que c'est les téras de données ingurgitées qui permettent aux LLM de répondre au hasard sans se tromper, mais le résultat est là.
Puisque tu sembles bien maîtriser le sujet tu peux faire une dépêche bien argumentée et bien sourcée dessus.
Il y a des dépêches très documentées tous les mois ou les deux mois sur ce sujet, rédigées par des gens bien plus compétents que moi. Il suffit de les lire.
Qu'est-ce que tu veux dire de plus que "les LLM ne fonctionnent absolument pas comme ça"? C'est comme si quelqu'un disait qu'un ordinateur fonctionne parce qu'un petit lutin pédale dedans. Bah non, ça n'est pas comme ça que ça fonctionne. Là, c'est la même chose. Les LLM ne sont pas des moteurs de recherche qui trouvent des choses dans leurs données d'entrainement, et qui sont incapables de ne pas les trouver quand elles n'y sont pas. Ils ne connaissent pas leurs données d'entrainement, ils n'y ont pas accès, les données d'entrainement servent à paramétrer les milliards de poids d'un modèle qui génère le texte des réponses.
Soit ton LLM a "trouvé" la réponse quelque part dans ses données d'entraînement, et donc elle existait bien quelque part, très probablement sur internet ; soit il l'a inventée, et donc c'est une réponse bidon qui ne sera vraie que sur un coup de chance.
En fait, ça me fatique de discuter avec des gens qui n'ont aucune idée des performances réelles des LLM modernes. Donc j'arrête là, restez bloqués en 2022 sur des concepts aussi débiles que le "perroquet stochastique", vivez dans un monde où l'IA n'existe pas et n'est qu'un moteur de recherche sous-optimal, une bulle inventée par des investisseurs demeurés qui balancent les milliars par les fenêtres.
De toutes manières, ça ne changera pas grand chose, certains d'entre nous perdrons notre boulot et ceux qui ne l'auront pas perdu verront leur manière de travailler profondément modifiée, et le savoir en avance ne changera pas l'avenir. Il y aura juste une différence entre ceux qui auront compris pourquoi et ceux qui seront restés au "mais pourquoi me remplace-t-on par un perroquet stochastique?".
Peut-être que tu as eu de la chance d'avoir eu la bonne réponse, mais faut se méfier quand même
Qui a prétendu qu'il fallait avaler les sorties de ChatGPT comme de l'eau bénite?
Est-ce que tu ne te méfies pas quand tu trouves une réponse toute faite dans un forum?
Et donc il y a des chances que l'IA te propose un dépannage complètement à coté de la plaque
Tu évoques une sorte de risque théorique, qui est réel, mais qui ressemble à une sorte de fantasme bien éloigné des capacités des LLM modernes. Est-ce que chatGPT peut en théorie se mélanger les pinceaux entre les codes d'erreur des sèche-linge Bosch et des lave-linge Brandt? En théorie, oui, bien sûr, le fonctionnement d'un LLM ne peut pas te garantir que c'est impossible. Mais en pratique? Quelle est la chance que ça arrive? 1%? 0.1%? 0.0001%? C'est ça le problème, c'est ça d'écouter des prophètes débiles qui racontent n'importe quoi à longueur de journée, on devient un pédant théorique qui pense que tout ce qui sort d'un LLM est une hallucination potentielle, et on se repâit de quelques prompts bien travaillés qui poussent les modèles aux limites de leurs possibilités. Mais en réalité, ces trucs marchent. C'est une réalité qui ne plait pas à tout le monde, mais c'est comme ça, ça marche.
Donc voici un cas concret : je dis à chatGPT "J'ai un code E17 sur mon lave linge", il me répond: "Le code erreur E17 sur un lave-linge (selon la majorité des modèles de Bosch / Siemens et d’autres marques du même groupe) signifie généralement : ⚠️ Problème d’arrivée d’eau (l’appareil ne parvient pas à se remplir dans le délai prévu) // Si tu veux, je peux te dire précisément ce que signifie E17 pour ton modèle exact (car cela varie légèrement selon les marques) — veux-tu me donner la marque et le modèle de ton lave-linge ?"
On peut raconter ce qu'on veut avec des exemples "à peine exagérés". Oui, les LLM peuvent faire des erreurs, oui ils sont limités par la qualité de leurs données d'entrainement, oui tu peux facilement mettre en défaut un LLM dans un domaine où tu es spécialiste, mais 1) le niveau des réponses reste globalement satisfaisant dans un très grand éventail de cas, 2) je ne vois pas l'intérêt de passer sa vie à essayer de mettre en défaut les LLM, puisqu'à moins d'être payé pour les améliorer ça ne fait que confirmer ce que tout le monde sait déja, 3) il est assez évident qu'il est peu utile de demander quelque chose à un LLM quand on a déja trouvé un document adapté—par exemple les instructions du constructeur pour démonter une pièce, et encore plus si on a raison de penser que ce document est meilleur que les données d'entrainement du LLM.
De toutes manières, comme tu en fais toi-même le constat, les LLM donnent maintenant la plupart du temps des réponses meilleures que le reste des documents déja faits qu'on peut trouver sur Internet. Autrement dit, il devient difficile de remplacer un LLM par une recherche approfondie. Tu peux penser qu'il s'est passé quelque chose et que le web est maintenant vide, mais je crois que c'est faux, les informations de qualité ont toujours été rares. Pour la réparation d'appareils, typiquement, la notice officielle ne mentionne que des cas débiles, genre "la lumière ne fonctionne plus -> remplacer l'ampoule", "l'appareil ne s'allume pas -> vérifier qu'il est bien branché", "l'appareil est branché et ne s'allume pas -> contacter le service après-vente". C'est ça, l'information qu'on a toujours eu, de la m***. Pour obtenir les données techniques, il fallait contacter le fabriquant et espérer sa bonne volonté, ou bien payer pour accéder aux protocoles de réparation destinés aux professionnels. Bref, je ne crois pas du tout au monde idyllique d'avant les LLM où il était facile de trouver des informations de qualité sur n'importe quel sujet, je crois que c'est un monde fantasmé.
(dans tous les cas, ça ne change pas que de remplir le web avec des sorties de LLM c'est débilissime, c'est aussi con que de remplir des pages automatiquement avec le résultat de requêtes Google).
C'est marrant, tout cela ne fait qu'augmenter une impression de supériorité que je ressents depuis longtemps
Je crois que malheureusement, ça ne fait surtout que montrer que tu n'as pas la moindre idée de ce dont sont capables les LLM modernes.
Après, entendons-nous bien : il est tout à fait légitime d'avoir les loisirs qu'on veut. On peut par exemple aimer passer son temps libre à faire des divisions ou calculer des racines carrées à la main. On peut même prétendre que c'est bon d'entrainer son esprit sur des exercices de ce style (c'est discutable, mais pourquoi pas). Par contre, on est bien d'accord que c'est absurde de prétendre qu'une division faite à la main est mieux faire qu'à la calculatrice? Parce que c'est en effet complètement faux. Dans n'importe quel cadre sérieux, donc hors loisirs, quand le temps passé ou la précision du résultat sont importants, alors il n'y a pas d'alternative : on doit utiliser une machine pour calculer.
Je ressens pourtant la même chose avec ton approche des LLM. Tu tentes de justifier un savoir ou un savoir-faire que tu as en prétendant que tu fais mieux que la machine, et que c'est "mieux" de manière absolue, avec une menace en arrière-plan sur l'idée que le jour où tu n'auras pas de machine sous la main tu seras bien embêté. Mais quelqu'un qui sait calculer les racines carrées à la main pourrait sortir les mêmes arguments, pourtant, je n'ai jamais eu besoin de calculer une racine carrée à la main, c'est une compétence inutile pour moi, et j'ai bien fait de toujours confier ce travail à une machine, et à investir le temps que j'ai gagné à autre chose.
Au final, ton dénigrement des LLM, des gens qui utilisent les LLM, et ta prédiction de la fin des LLM, tout ça est cohérent : si les LLM étaient en effet bidons et qu'ils étaient amenés à disparaitre, alors tu aurais en effet des compétences que les autres n'auraient pas, et tu pourrais apparaitre comme une sorte de dieu hyper-compétent dans une telle société, qui achèterait tes services à prix d'or. Mais il y a une faille dans ton raisonnement, c'est que pour que ça marche il faut que les prémisses soient vraies, ce qui n'est probablement pas le cas. Il me semble donc malheureusement assez vraisemblable que tes compétences dont tu es si fier finissent comme celles du type qui sait calculer les racines carrées à la main : elles ne sont valorisables ni socialement, ni économiquement, ni professionnellement, et ne consistent au mieux qu'en une curiosité. Et ton destin dans un tel monde sera d'être éternellement aigri, est-ce que c'est ce que tu souhaites?
Posté par arnaudus .
En réponse au journal npm et badaboum.
Évalué à 6.
Dernière modification le 18 septembre 2025 à 10:15.
Si google avait gardé un algo performant, je dis pas
Ça n'est pas mon genre de défendre Google, mais il faut quand même avouer que de maintenir un algo performant dans un écosystème où des milliards de $ sont dépensés chaque année pour développer des stratégies visant à biaiser les résultats de ton moteur n'est pas forcément un tâche aisée. Sans compter que tes ressources ne viennent pas du service rendu aux utilisateurs mais de la publicité (donc des gens qui te payent pour que tu biaises toi-même les résultats de ton moteur). Disons que les planètes ne sont pas alignées pour maintenir la qualité des résultats des requêtes.
Mais autrement, je suis d'accord. Beaucoup de requêtes dans les moteurs de recherche sont en fait des requêtes qu'un LLM traiterait bien mieux qu'un moteur de recherche, donc la bascule vers un LLM est complètement naturelle. Avec le gros point d'interrogation du business model, évidemment.
Je suis ouvert à la discussion sur les IA génériques et gratuites, même si j'ai du mal à imaginer comment leur intégration aux moteurs de recherche pourrait revenir en arrière—de facto, il y a deux sortes de recherches dans un moteur; 1) quand on recherche un site en particulier, pour faire de l'auto-complétion d'URL ou pour pallier les défaillances des moteurs de recherche internes aux sites, qui peuvent en effet se passer d'IA, et 2) quand on recherche une information sans savoir où on va la trouver, auquel cas ce qu'on veut en réalité, c'est un LLM et pas des sites qui ont des éléments en commun avec la requête.
J'intègre les LLM à mes méthodes de travail en fonction de ce qu'ils peuvent apporter. Ils excellent dans les tâches de type "résumé" (résumé en 250 mots, en 1000 caractères, en anglais, en utilisant un langage profane…), je les trouve également très utiles pour le dépannage ("ma machine à laver dit E:27"). Ça va être comme tout, on va comprendre les limites de ces trucs, et on va profiter de leurs points forts.
Rapidement également, on va (j'espère) arrêter d'utiliser les trucs grand public sans aucune confidentialité pour les tâches professionnelles, et les employeurs (publics et privés) vont raquer pour le coût réel de ces outils, ce qui éclairera le business model et calmera le flot insensé de centaines de milliards d'investissement. Quand il faudra réellement payer 1000€ par mois pour créer des vidéos tiktok pour les copains, ça calmera les ardeurs.
Par contre, je ne vois pas comment éviter qu'une interaction avec un humain devienne progressivement un luxe. C'est certain que les clients de HSBC vont continuer à avoir un vrai interlocuteur au téléphone, mais quand tu vas appeler pour savoir combien tu as sur ton livret A au crédit agricole, tu vas avoir un robot au bout du fil. Après, ce n'est pas forcément une catastrophe, se taper 1h de Vivaldi à chaque fois que tu appelles la sécu ou la CAF, ça gonfle tout le monde (sans compter que la qualité des réponses des opérateurs humains dans ces organismes reste assez aléatoire).
Tant mieux ! Je serais ravi de voir le ramdam autour de l'IA éclater comme une bulle,
Je n'arrive pas à comprendre la logique du raisonnement. Comme un futur sans IA n'existe pas (on ne peut pas les "désinventer"), tu préfèrerais un futur où les IA font de la m***de plutôt que de devenir des outils pertinents?
Après si c'est une règle, elle était implicite et je ne l'ai jamais lu explicitement ici.
Y a-t'il réellement besoin d'une règle pour quelque chose d'aussi évident? Les gens qui posent des questions sur un forum souhaitent des réponses de vrais gens, s'ils voulaient une réponse de LLM ils demanderaient à un LLM. Copier une question dans ChatGPT ne demande aucune compétence, et le faire à la place de l'OP ne fournit aucune plus-value. Si vous ne savez pas répondre, pas de problème, il suffit de ne pas répondre.
Il est hyper important d'avoir des endroits du web préservés des sorties de LLM, ça inclut Wikipédia, et divers forums d'aide comme celui-ci. Les LLM ne pourront plus progresser s'ils bootstrappent sur leurs propres sorties, donc merci de préserver des espaces dépollués.
La consultation de LLM est devenue standard, à peu près autant qu'une recherche dans un moteur. Quand quelqu'un répond dans un forum STFW, il donne la bonne info : tu trouveras des réponses intéressantes sur Google. Tu peux faire pareil, indiquer qu'il suffit de demander à chatGPT pour avoir des réponses intéressantes à la question. Mais personne ne recopie les sorties de Google dans un forum, et de la même manière personne ne devrait utiliser des octets des disques de linuxfr pour y stocker les sorties d'un autre site, fussent-elles librement recopiables.
Je suis d'accord, ça n'est pas techniquement impossible, mais il faut juste 15 ans et des milliers d'heures de travail, une volonté politique forte, l'implication de gens compétents… C'est quand même un repoussoir.
Les catastrophes logicielles ne font que démontrer que ces incohérences peuvent être gérées par des humains, mais pas par des algorithmes. Un exemple frappant est le logiciel de paye des armées, qui n'a en réalité jamais fonctionné.
La raison pour laquelle le prestataire accepte de passer ces outils en prod m'échappe, par contre. Il faut forcément la complicité des incapables qui ont établi le cahier des charges, qui doivent sentir que ça va chauffer pour leurs fesses si quelqu'un s'intéresse à la raison pour laquelle le prestataire ne livre pas à temps. Mais rien n'est pire que de passer en prod un logiciel qui ne passe pas les tests, qui peut s'imaginer que ça va bien se passer? Sauf à partir à la retraite dans le mois qui suit, on doit bien se douter que ça va remonter, non?
Je doute qu'il s'agisse uniquement de ratages imputables aux prestataires.
Ça m'étonnerait qu'il y ait une cause unique, mais il semble impossible de sortir de tels logiciels si le cahier des charges était bien fait. Un des problèmes est que les règles à implémenter dans ce genre de logiciels sont souvent absurdes et incohérentes (parce que fonction publique). Par exemple, une validation par un n+1 alors que tout le monde n'a pas de n+1. Quand c'était géré à la main, un agent prenait l'habitude de forcer la validation quand la situation l'exigeait, sans que les grands pontes sachent que cette situation existait. Donc évidemment, quand la règle est implémentée sans cette connaissance, bah le système devient complètement grippé.
En fait, plus concrètement, les règles de gestion dans la fonction publique sont fixées par la loi et par ses décrets d'application. Dans n'importe quelle structure privée, quand on s'aperçoit que le logiciel n'arrive pas à gérer une situation, on va modifier légèrement les règles pour que ça passe. Mais c'est totalement impossible dans la fonction publique car une telle décision mettrait celui qui la prend sous la menace d'une sanction; si la règle dit que les facturettes papier doivent être collectées et stockées après avoir été scannées, les reçus électroniques vont devoir être imprimés, stockés, et les versions papier de ces reçus imprimés vont devoir être re-scannés pour rentrer dans le système. Tout le monde est conscient que c'est débile, mais personne n'a le pouvoir de changer.
Les prestataires ne sont pas payés pour vérifier la cohérence des règles. On leur file un cahier des charges absurdes, avec des gros trucs bloquants à chaque étape (genre validation du changement du jour de télétravail par le président de la République dont le cahier des charges fournit l'adresse email en dur), ils les implémentent, et après ça ne fonctionne pas, évidemment. Ils doivent bien se marrer (ou pleurer quand ils comprennent que c'est leurs impôts qui partent en fumée).
La marge pour les transports en commun, c'est surtout le niveau national et européen. Si tu fais Paris-Madrid en train plutôt qu'en avion, tu sauves un max de CO2. Coller 2 bus par jour entre Trifouillis-les-oies et Tartempion-sur-Fleurette, ça va mobiliser un bus, un chauffeur, du diesel, des subventions publiques, et ça ne va jamais remplacer les véhicules personnels (au mieux, ça offira un moyen de transport à des gens qui n'en avaient pas).
D'ailleurs, il est régulièrement montrés qu'il y a peu de report bagnole -> transports lors de la mise en place de nouvelles lignes. Les utilisateurs des transports sont des gens qui profitent de la nouvelle ligne pour raccourcir un trajet, prendre un boulot dans une zone auparavant inaccessible, ou ne plus prendre le vélo.
[^] # Re: mais qui diable laisserait sa CNI à discord?
Posté par arnaudus . En réponse au journal La vérification d'âge menace vos données personnelles. Évalué à 4.
J'imagine que tu peux combiner les deux. Un filigrane pour dissuader, et une méthode de stéganographie robuste aux transformations pour retracer.
Mais c'est vrai de toutes manières que le traçage n'est finalement pas forcément utile. Ça pourrait éventuellement aider les enquêteurs à identifier un intermédiaire véreux, mais pas forcément. Il est très probable que dans la plupart des cas les scans d'ID soient volés, et pas directement utilisés par les destinataires; tu pourras alors identifier l'origine de la fuite, mais ça va s'arrêter là. Sans compter que je ne suis pas du tout certain que les procédés dont on parle ici (filigrane, stéganographie) aient valeur de preuve devant la justice : tu n'as pas d'huissier qui a certifié ton marquage initial ni l'algorithme de stéganographie, donc si c'est les seuls indices dont tu disposes pour poursuivre quelqu'un en justice (pour recel d'informations personnelles par exemple), tu ne peux pas exclure avoir fait tout ça pour rien.
[^] # Re: mais qui diable laisserait sa CNI à discord?
Posté par arnaudus . En réponse au journal La vérification d'âge menace vos données personnelles. Évalué à 8.
La fausse sécurité est un problème, donc je trouve que la question est légitime. Si les fraudeurs disposent d'outils automatiques qui permettent de retirer les filigranes, ajouter un filigrane te prend du temps pour rien et te donne un faux sentiment de sécurité, ce qui est dangereux.
La vraie solution ne peut être qu'un service de certificat numérique fourni par l'État ou un tiers de confiance. Les histoires de scan de papiers d'identité, c'est de la blague.
[^] # Re: Pourquoi conserver la preuve ?
Posté par arnaudus . En réponse au journal La vérification d'âge menace vos données personnelles. Évalué à 3.
Théoriquement tu risques 6 mois de prison et 30k€ d'amende, donc tu as quand même intérêt à y réfléchir à deux fois avant de t'exempter de demander les identités. J'imagine qu'un simple registre avec l'identité déclarée des participants (nom adresse et date de naissance) non déposé à la préfecture suffit pour justifier de ta bonne foi.
[^] # Re: Pourquoi conserver la preuve ?
Posté par arnaudus . En réponse au journal La vérification d'âge menace vos données personnelles. Évalué à 4.
Le droit de vendre des objets d'occasion sur la voie publique en franchise totale de taxes reste une tolérance encadrée par la loi (c'est une "vente au déballage" au sens du code du commerce). On parle de toutes manières de dispositions légales qui datent de plus de 20 ans, donc clairement pas conçues pour constituer des bases de données ou croiser ces bases entre services de l'État.
[^] # Re: Son rêve de grandeur enfin réalisé
Posté par arnaudus . En réponse au lien Un collectif d'avocats poursuit Nicolas Sarkozy pour outrage et atteinte à l'institution judiciaire. Évalué à 3.
Bah, je ne sais pas, je suis contre la peine de mort par principe (sauf en situation de guerre), mais j'imagine qu'en effet, l'utilisation de la violence par l'État est plus acceptable quand c'est envers un jeune musclé que vers un vieux tout moisi, puisqu'une violence collective est plus justifiée.
Impagine que tu choppes un pickcpocket en train de te faire les poches dans le métro, si c'est un costaud c'est justifié de lui mettre une patate en préventif, si c'est une petite vieille ou un handicapé c'est moins acceptable. La situation est identique mais user de la violence envers quelqu'un de plus faible c'est vu comme moralement douteux. D'ailleurs, c'est très courant pendant les guerres par exemple que les hommes résistants étaient plus souvent exécutés que les femmes. Peut-être à cause d'une perception différente de leur dangerosité, ou à cause de principes moraux.
[^] # Re: La tour de Babel a encore frappé
Posté par arnaudus . En réponse à la dépêche La Commission européenne publie une feuille de route sur le logiciel libre. Évalué à 1. Dernière modification le 02 octobre 2025 à 16:48.
Si tu veux dire que c'est comme l'intégration par parties ou les règles de comptabilité du Luxembourg, alors oui : il est possible avec suffisamment d'efforts de les apprendre et de ne pas trop se tromper en les utilisant.
Si tu veux dire qu'il n'est pas illégal d'intégrer une déclinaison de l'accusatif dans une langue construite, alors en effet, ça n'est pas illégal. Mais ça n'empêche pas que c'est complètement idiot : de nombreuses langues européennes ne possèdent pas de déclinaisons, et pour apprendre l'espéranto il faut apprendre un concept complexe et facultatif.
Je suis d'avis que le concept de langue construite reste intéressant (en tant qu'objet théorique, parce qu'en pratique c'est probablement inutile), mais que l'espéranto en est une bien mauvaise implémentation à de multiples égards (une autre absurdité est l'utilisation de diacritiques spécifiques, qui implique du matériel spécifique (machine à écrire, clavier, polices…) ou des solutions de contournement). Pousser l'utilisation d'une mauvaise implémentation d'un bon concept risque juste de dégouter les gens du concept.
Quitte à mettre en avant une langue construite, l'interlingua est par exemple un candidat bien plus convainquant (parce que pragmatique).
[^] # Re: Son rêve de grandeur enfin réalisé
Posté par arnaudus . En réponse au lien Un collectif d'avocats poursuit Nicolas Sarkozy pour outrage et atteinte à l'institution judiciaire. Évalué à 3.
Une peine a plusieurs objectifs, 1) protéger la société d'un individu dangereux, 2) dissuader ceux qui auraient l'idée de faire pareil, 3) le dissuader de recommencer. Et un quatrième objectif officieux, venger les victimes. Pour la peine de mort, tu élimines 3; pour un vieillard, tu élimines 1; et pour un génocide, du élimines 2; du coup, il ne reste plus que la vengence, c'est pas terrible.
Déja que la peine de mort, niveau moral, c'est pas terrible, mais en plus l'appliquer sur quelqu'un de faible physiquement, ça commence à devenir dur à assumer.
[^] # Re: Privation de libertés et fin de la communauté "hacking"
Posté par arnaudus . En réponse à la dépêche Android n’autorisera plus que les applications des développeurs autorisés. Évalué à 4. Dernière modification le 01 octobre 2025 à 15:03.
Tu as ensuite les applications qui ne sont pas strictement obligatoires, mais qui sont plus efficaces que le www en terme d'interface : itinéraires de transport en commun, etc.
Tu as également les applis de services non-obligatoires, mais auxquels tu peux vouloir avoir recours pour des raisons qui te regardent (VTC, livraison de repas, etc).
Enfin, les applications "imposées" par pression sociale, notamment pour les groupes de discussion, contact avec la famille, etc.
Ça en fait quand même une bonne quantité…
[^] # Re: Pareil
Posté par arnaudus . En réponse au journal L'IA devenue outil du quotidien. Évalué à 2.
J'ai l'impression de radoter à chaque intervention sur l'IA et les LLM, mais c'est totalement normal de ne pas savoir comment les LLM récents fonctionnent. Par contre, ça n'est pas normal sur Linuxfr d'aller étaler une inculture informatique crasse teintée de mépris envers une technologie qu'on ne comprends pas, surtout qu'il y a régulièrement d'excellentes dépêches sur les nouveautés algorithmiques, les résultats de benchmarks, etc.
Penser que le fait de dire quelque chose puisse changer la réalité, c'est du Trumpisme. Écrire ou raconter à la télé n'importe quoi sur les LLM (qu'ils sont des perroquets stochastiques, qu'ils se trompent 62% du temps, ou que les incantations ont un effet magique) n'a aucune chance de modifier la manière dont les LLM fonctionnent en réalité. Au "mieux", ça peut tromper les gens sur la manière dont ces algorithmes fonctionnent—est-ce que c'est ça l'objectif? Infiltrer des informations trompeuses jusque dans des forums d'informatique?
[^] # Re: L'État qui vous protège…
Posté par arnaudus . En réponse au journal Ce que j'ai fait pendant vos vacances. Évalué à 5. Dernière modification le 26 septembre 2025 à 11:23.
La santé publique, c'est toujours ça : un équilibre entre les libertés individuelles et l'intérêt collectif / la protection des plus faibles. L'équilibre peut être différent en fonction du contexte politique (dictature vs démocratie) ou de la culture locale, mais ça revient toujours à ça a final.
[^] # Re: History
Posté par arnaudus . En réponse à la dépêche Perl 5.42 est sorti. Évalué à 4.
À cette période-là on faisait tout et n'importe quoi en Perl, et ça a depuis été remplacé, mais ça reste quand même un outil très adapté à l'écriture de moulinettes pour tripatouiller les formats de fichiers. Après, est-ce que ça vaut le coup de l'apprendre quand tu peux aussi faire ce que tu veux dans un langage avec lequel tu es à l'aise…
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 2. Dernière modification le 22 septembre 2025 à 17:23.
Il donne la réponse la plus vraisemblable d'après la sortie d'un réseau de neurones dont les poids ont été ajustés par une procédure d'apprentissage à partir d'un corpus de données aussi grand que possible.
Une sorte de "jus de connaissance" qui n'a pas grand chose à voir avec une recherche dans une base de données. D'où la complémentarité avec une recherche web, que beaucoup de modèles proposent maintenant.
C'est pas moi qui le mesure, le benchmarking de LLMs est réalisé par des laboratoires de recherche publics ou privés, c'est un domaine technique qui ne peut pas être discuté dans un forum à base d'anecdotes. Ça dépend du domaine, du modèle, de la manière dont la question est posée, et de la bonne volonté de l'utilisateur pour guider le modèle vers la compréhension de la question.
Quel modèle, quelle date, quel prompt? Parce que dans ChatGPT j'ai "The HP-16C "Computer Scientist" calculator does not actually have the π (pi) constant built in. Unlike models like the HP-15C or HP-41, which include π on a key, the HP-16C was designed specifically for programmers and focuses on integer math, bit manipulation, base conversions, and logical operations—not floating-point scientific math."
Personne ne nie que certains modèles sont plus performants que d'autres, et nombreux sont ceux qui sont intéressés à pousser ces modèles à leurs limites (combien de temps mettent 9 femmes à faire un enfant, etc), ce qui augmente évidemment le taux d'erreur.
Quel est ta référence? La vérité divine? Le meilleur spécialiste humain? Une recherche Google? Un humain moyen?
Peut-être qu'en 2025, un niveau d'exigence raisonnable (avoir une réponse équivalente à ce qu'on peut avoir auprès d'un professionnel standard, ou avoir en moins de 10 secondes une réponse équivalente à ce qu'on pourrait obtenir en 2 heures de recherche standard) permettrait déja de réaliser à quel point ces outils peuvent être utiles.
J'ai parfois l'impression qu'on attend de ces systèmes des performances infaillibles littéralement surhumaines, ce dont ils sont capables dans certains domaines, mais certainement pas dans tous. La communication en langage naturel est dans tous les cas suffisamment ambigüe pour que même un LLM infaillible ne puisse toujours donner la réponse attendue.
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 0.
Je vois bien que tu ne peux pas y croire parce que tu n'as pas eu les bonnes informations sur le fonctionnement de ces modèles, mais pourtant un LLM moderne peut tout à fait répondre de manière très convaincante à des questions dont les réponses ne sont pas dans ses données d'entrainement, parce qu'il procède par analogie et déduction. Si tu préfères, il répond au hasard, mais il se trompe rarement.
"De quelle couleur sont les licornes polaires?
C'est évidemment la bonne réponse, non? :-) Pourtant, c'est quasiment certain que ça ne figurait pas dans les données d'entrainement. Ça a été déduit par analogie.
Trouver des questions dont on connait la réponse mais dont on peut être certains qu'elle ne figure pas dans les données d'entrainement est difficile, mais il existe des benchmarks pour LLMs et les progrès sont très substantiels. Alors évidemment, on peut discourir longuement sur la différence entre "savoir" et "connaitre", mais du point de vue de l'utilisateur, ce qui compte c'est la pertinence de la réponse, et pas la manière dont le LLM l'a obtenue. Si ça te rassure, tu peux penser que c'est les téras de données ingurgitées qui permettent aux LLM de répondre au hasard sans se tromper, mais le résultat est là.
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 3.
Il y a des dépêches très documentées tous les mois ou les deux mois sur ce sujet, rédigées par des gens bien plus compétents que moi. Il suffit de les lire.
Qu'est-ce que tu veux dire de plus que "les LLM ne fonctionnent absolument pas comme ça"? C'est comme si quelqu'un disait qu'un ordinateur fonctionne parce qu'un petit lutin pédale dedans. Bah non, ça n'est pas comme ça que ça fonctionne. Là, c'est la même chose. Les LLM ne sont pas des moteurs de recherche qui trouvent des choses dans leurs données d'entrainement, et qui sont incapables de ne pas les trouver quand elles n'y sont pas. Ils ne connaissent pas leurs données d'entrainement, ils n'y ont pas accès, les données d'entrainement servent à paramétrer les milliards de poids d'un modèle qui génère le texte des réponses.
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à -4.
En fait, ça me fatique de discuter avec des gens qui n'ont aucune idée des performances réelles des LLM modernes. Donc j'arrête là, restez bloqués en 2022 sur des concepts aussi débiles que le "perroquet stochastique", vivez dans un monde où l'IA n'existe pas et n'est qu'un moteur de recherche sous-optimal, une bulle inventée par des investisseurs demeurés qui balancent les milliars par les fenêtres.
De toutes manières, ça ne changera pas grand chose, certains d'entre nous perdrons notre boulot et ceux qui ne l'auront pas perdu verront leur manière de travailler profondément modifiée, et le savoir en avance ne changera pas l'avenir. Il y aura juste une différence entre ceux qui auront compris pourquoi et ceux qui seront restés au "mais pourquoi me remplace-t-on par un perroquet stochastique?".
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 1.
Qui a prétendu qu'il fallait avaler les sorties de ChatGPT comme de l'eau bénite?
Est-ce que tu ne te méfies pas quand tu trouves une réponse toute faite dans un forum?
Tu évoques une sorte de risque théorique, qui est réel, mais qui ressemble à une sorte de fantasme bien éloigné des capacités des LLM modernes. Est-ce que chatGPT peut en théorie se mélanger les pinceaux entre les codes d'erreur des sèche-linge Bosch et des lave-linge Brandt? En théorie, oui, bien sûr, le fonctionnement d'un LLM ne peut pas te garantir que c'est impossible. Mais en pratique? Quelle est la chance que ça arrive? 1%? 0.1%? 0.0001%? C'est ça le problème, c'est ça d'écouter des prophètes débiles qui racontent n'importe quoi à longueur de journée, on devient un pédant théorique qui pense que tout ce qui sort d'un LLM est une hallucination potentielle, et on se repâit de quelques prompts bien travaillés qui poussent les modèles aux limites de leurs possibilités. Mais en réalité, ces trucs marchent. C'est une réalité qui ne plait pas à tout le monde, mais c'est comme ça, ça marche.
Donc voici un cas concret : je dis à chatGPT "J'ai un code E17 sur mon lave linge", il me répond: "Le code erreur E17 sur un lave-linge (selon la majorité des modèles de Bosch / Siemens et d’autres marques du même groupe) signifie généralement : ⚠️ Problème d’arrivée d’eau (l’appareil ne parvient pas à se remplir dans le délai prévu) // Si tu veux, je peux te dire précisément ce que signifie E17 pour ton modèle exact (car cela varie légèrement selon les marques) — veux-tu me donner la marque et le modèle de ton lave-linge ?"
On peut raconter ce qu'on veut avec des exemples "à peine exagérés". Oui, les LLM peuvent faire des erreurs, oui ils sont limités par la qualité de leurs données d'entrainement, oui tu peux facilement mettre en défaut un LLM dans un domaine où tu es spécialiste, mais 1) le niveau des réponses reste globalement satisfaisant dans un très grand éventail de cas, 2) je ne vois pas l'intérêt de passer sa vie à essayer de mettre en défaut les LLM, puisqu'à moins d'être payé pour les améliorer ça ne fait que confirmer ce que tout le monde sait déja, 3) il est assez évident qu'il est peu utile de demander quelque chose à un LLM quand on a déja trouvé un document adapté—par exemple les instructions du constructeur pour démonter une pièce, et encore plus si on a raison de penser que ce document est meilleur que les données d'entrainement du LLM.
De toutes manières, comme tu en fais toi-même le constat, les LLM donnent maintenant la plupart du temps des réponses meilleures que le reste des documents déja faits qu'on peut trouver sur Internet. Autrement dit, il devient difficile de remplacer un LLM par une recherche approfondie. Tu peux penser qu'il s'est passé quelque chose et que le web est maintenant vide, mais je crois que c'est faux, les informations de qualité ont toujours été rares. Pour la réparation d'appareils, typiquement, la notice officielle ne mentionne que des cas débiles, genre "la lumière ne fonctionne plus -> remplacer l'ampoule", "l'appareil ne s'allume pas -> vérifier qu'il est bien branché", "l'appareil est branché et ne s'allume pas -> contacter le service après-vente". C'est ça, l'information qu'on a toujours eu, de la m***. Pour obtenir les données techniques, il fallait contacter le fabriquant et espérer sa bonne volonté, ou bien payer pour accéder aux protocoles de réparation destinés aux professionnels. Bref, je ne crois pas du tout au monde idyllique d'avant les LLM où il était facile de trouver des informations de qualité sur n'importe quel sujet, je crois que c'est un monde fantasmé.
(dans tous les cas, ça ne change pas que de remplir le web avec des sorties de LLM c'est débilissime, c'est aussi con que de remplir des pages automatiquement avec le résultat de requêtes Google).
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 1.
Je crois que malheureusement, ça ne fait surtout que montrer que tu n'as pas la moindre idée de ce dont sont capables les LLM modernes.
Après, entendons-nous bien : il est tout à fait légitime d'avoir les loisirs qu'on veut. On peut par exemple aimer passer son temps libre à faire des divisions ou calculer des racines carrées à la main. On peut même prétendre que c'est bon d'entrainer son esprit sur des exercices de ce style (c'est discutable, mais pourquoi pas). Par contre, on est bien d'accord que c'est absurde de prétendre qu'une division faite à la main est mieux faire qu'à la calculatrice? Parce que c'est en effet complètement faux. Dans n'importe quel cadre sérieux, donc hors loisirs, quand le temps passé ou la précision du résultat sont importants, alors il n'y a pas d'alternative : on doit utiliser une machine pour calculer.
Je ressens pourtant la même chose avec ton approche des LLM. Tu tentes de justifier un savoir ou un savoir-faire que tu as en prétendant que tu fais mieux que la machine, et que c'est "mieux" de manière absolue, avec une menace en arrière-plan sur l'idée que le jour où tu n'auras pas de machine sous la main tu seras bien embêté. Mais quelqu'un qui sait calculer les racines carrées à la main pourrait sortir les mêmes arguments, pourtant, je n'ai jamais eu besoin de calculer une racine carrée à la main, c'est une compétence inutile pour moi, et j'ai bien fait de toujours confier ce travail à une machine, et à investir le temps que j'ai gagné à autre chose.
Au final, ton dénigrement des LLM, des gens qui utilisent les LLM, et ta prédiction de la fin des LLM, tout ça est cohérent : si les LLM étaient en effet bidons et qu'ils étaient amenés à disparaitre, alors tu aurais en effet des compétences que les autres n'auraient pas, et tu pourrais apparaitre comme une sorte de dieu hyper-compétent dans une telle société, qui achèterait tes services à prix d'or. Mais il y a une faille dans ton raisonnement, c'est que pour que ça marche il faut que les prémisses soient vraies, ce qui n'est probablement pas le cas. Il me semble donc malheureusement assez vraisemblable que tes compétences dont tu es si fier finissent comme celles du type qui sait calculer les racines carrées à la main : elles ne sont valorisables ni socialement, ni économiquement, ni professionnellement, et ne consistent au mieux qu'en une curiosité. Et ton destin dans un tel monde sera d'être éternellement aigri, est-ce que c'est ce que tu souhaites?
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 6. Dernière modification le 18 septembre 2025 à 10:15.
Ça n'est pas mon genre de défendre Google, mais il faut quand même avouer que de maintenir un algo performant dans un écosystème où des milliards de $ sont dépensés chaque année pour développer des stratégies visant à biaiser les résultats de ton moteur n'est pas forcément un tâche aisée. Sans compter que tes ressources ne viennent pas du service rendu aux utilisateurs mais de la publicité (donc des gens qui te payent pour que tu biaises toi-même les résultats de ton moteur). Disons que les planètes ne sont pas alignées pour maintenir la qualité des résultats des requêtes.
Mais autrement, je suis d'accord. Beaucoup de requêtes dans les moteurs de recherche sont en fait des requêtes qu'un LLM traiterait bien mieux qu'un moteur de recherche, donc la bascule vers un LLM est complètement naturelle. Avec le gros point d'interrogation du business model, évidemment.
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 2.
Je suis ouvert à la discussion sur les IA génériques et gratuites, même si j'ai du mal à imaginer comment leur intégration aux moteurs de recherche pourrait revenir en arrière—de facto, il y a deux sortes de recherches dans un moteur; 1) quand on recherche un site en particulier, pour faire de l'auto-complétion d'URL ou pour pallier les défaillances des moteurs de recherche internes aux sites, qui peuvent en effet se passer d'IA, et 2) quand on recherche une information sans savoir où on va la trouver, auquel cas ce qu'on veut en réalité, c'est un LLM et pas des sites qui ont des éléments en commun avec la requête.
J'intègre les LLM à mes méthodes de travail en fonction de ce qu'ils peuvent apporter. Ils excellent dans les tâches de type "résumé" (résumé en 250 mots, en 1000 caractères, en anglais, en utilisant un langage profane…), je les trouve également très utiles pour le dépannage ("ma machine à laver dit E:27"). Ça va être comme tout, on va comprendre les limites de ces trucs, et on va profiter de leurs points forts.
Rapidement également, on va (j'espère) arrêter d'utiliser les trucs grand public sans aucune confidentialité pour les tâches professionnelles, et les employeurs (publics et privés) vont raquer pour le coût réel de ces outils, ce qui éclairera le business model et calmera le flot insensé de centaines de milliards d'investissement. Quand il faudra réellement payer 1000€ par mois pour créer des vidéos tiktok pour les copains, ça calmera les ardeurs.
Par contre, je ne vois pas comment éviter qu'une interaction avec un humain devienne progressivement un luxe. C'est certain que les clients de HSBC vont continuer à avoir un vrai interlocuteur au téléphone, mais quand tu vas appeler pour savoir combien tu as sur ton livret A au crédit agricole, tu vas avoir un robot au bout du fil. Après, ce n'est pas forcément une catastrophe, se taper 1h de Vivaldi à chaque fois que tu appelles la sécu ou la CAF, ça gonfle tout le monde (sans compter que la qualité des réponses des opérateurs humains dans ces organismes reste assez aléatoire).
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 3.
Je n'arrive pas à comprendre la logique du raisonnement. Comme un futur sans IA n'existe pas (on ne peut pas les "désinventer"), tu préfèrerais un futur où les IA font de la m***de plutôt que de devenir des outils pertinents?
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 10.
Y a-t'il réellement besoin d'une règle pour quelque chose d'aussi évident? Les gens qui posent des questions sur un forum souhaitent des réponses de vrais gens, s'ils voulaient une réponse de LLM ils demanderaient à un LLM. Copier une question dans ChatGPT ne demande aucune compétence, et le faire à la place de l'OP ne fournit aucune plus-value. Si vous ne savez pas répondre, pas de problème, il suffit de ne pas répondre.
[^] # Re: Je me demande
Posté par arnaudus . En réponse au journal npm et badaboum. Évalué à 10.
Il est hyper important d'avoir des endroits du web préservés des sorties de LLM, ça inclut Wikipédia, et divers forums d'aide comme celui-ci. Les LLM ne pourront plus progresser s'ils bootstrappent sur leurs propres sorties, donc merci de préserver des espaces dépollués.
La consultation de LLM est devenue standard, à peu près autant qu'une recherche dans un moteur. Quand quelqu'un répond dans un forum STFW, il donne la bonne info : tu trouveras des réponses intéressantes sur Google. Tu peux faire pareil, indiquer qu'il suffit de demander à chatGPT pour avoir des réponses intéressantes à la question. Mais personne ne recopie les sorties de Google dans un forum, et de la même manière personne ne devrait utiliser des octets des disques de linuxfr pour y stocker les sorties d'un autre site, fussent-elles librement recopiables.
[^] # Re: souci systémique ?
Posté par arnaudus . En réponse au lien Op@le, le logiciel comptable qui rend fou. Évalué à 6.
Je suis d'accord, ça n'est pas techniquement impossible, mais il faut juste 15 ans et des milliers d'heures de travail, une volonté politique forte, l'implication de gens compétents… C'est quand même un repoussoir.
Les catastrophes logicielles ne font que démontrer que ces incohérences peuvent être gérées par des humains, mais pas par des algorithmes. Un exemple frappant est le logiciel de paye des armées, qui n'a en réalité jamais fonctionné.
La raison pour laquelle le prestataire accepte de passer ces outils en prod m'échappe, par contre. Il faut forcément la complicité des incapables qui ont établi le cahier des charges, qui doivent sentir que ça va chauffer pour leurs fesses si quelqu'un s'intéresse à la raison pour laquelle le prestataire ne livre pas à temps. Mais rien n'est pire que de passer en prod un logiciel qui ne passe pas les tests, qui peut s'imaginer que ça va bien se passer? Sauf à partir à la retraite dans le mois qui suit, on doit bien se douter que ça va remonter, non?
[^] # Re: souci systémique ?
Posté par arnaudus . En réponse au lien Op@le, le logiciel comptable qui rend fou. Évalué à 9. Dernière modification le 15 septembre 2025 à 16:22.
Ça m'étonnerait qu'il y ait une cause unique, mais il semble impossible de sortir de tels logiciels si le cahier des charges était bien fait. Un des problèmes est que les règles à implémenter dans ce genre de logiciels sont souvent absurdes et incohérentes (parce que fonction publique). Par exemple, une validation par un n+1 alors que tout le monde n'a pas de n+1. Quand c'était géré à la main, un agent prenait l'habitude de forcer la validation quand la situation l'exigeait, sans que les grands pontes sachent que cette situation existait. Donc évidemment, quand la règle est implémentée sans cette connaissance, bah le système devient complètement grippé.
En fait, plus concrètement, les règles de gestion dans la fonction publique sont fixées par la loi et par ses décrets d'application. Dans n'importe quelle structure privée, quand on s'aperçoit que le logiciel n'arrive pas à gérer une situation, on va modifier légèrement les règles pour que ça passe. Mais c'est totalement impossible dans la fonction publique car une telle décision mettrait celui qui la prend sous la menace d'une sanction; si la règle dit que les facturettes papier doivent être collectées et stockées après avoir été scannées, les reçus électroniques vont devoir être imprimés, stockés, et les versions papier de ces reçus imprimés vont devoir être re-scannés pour rentrer dans le système. Tout le monde est conscient que c'est débile, mais personne n'a le pouvoir de changer.
Les prestataires ne sont pas payés pour vérifier la cohérence des règles. On leur file un cahier des charges absurdes, avec des gros trucs bloquants à chaque étape (genre validation du changement du jour de télétravail par le président de la République dont le cahier des charges fournit l'adresse email en dur), ils les implémentent, et après ça ne fonctionne pas, évidemment. Ils doivent bien se marrer (ou pleurer quand ils comprennent que c'est leurs impôts qui partent en fumée).
[^] # Re: Ma vie en électrique
Posté par arnaudus . En réponse au lien Les hybrides rechargeables émettent cinq fois plus de CO2 que ce que prétendent les tests officiels. Évalué à 3.
La marge pour les transports en commun, c'est surtout le niveau national et européen. Si tu fais Paris-Madrid en train plutôt qu'en avion, tu sauves un max de CO2. Coller 2 bus par jour entre Trifouillis-les-oies et Tartempion-sur-Fleurette, ça va mobiliser un bus, un chauffeur, du diesel, des subventions publiques, et ça ne va jamais remplacer les véhicules personnels (au mieux, ça offira un moyen de transport à des gens qui n'en avaient pas).
D'ailleurs, il est régulièrement montrés qu'il y a peu de report bagnole -> transports lors de la mise en place de nouvelles lignes. Les utilisateurs des transports sont des gens qui profitent de la nouvelle ligne pour raccourcir un trajet, prendre un boulot dans une zone auparavant inaccessible, ou ne plus prendre le vélo.