J'ai noté que tu as parlé de "peur fantasmatique" de perdre son boulot puis que
"Après, pense que tu es irremplaçable", et là je suis pas sur de voir la cohérence.
J'avais l'impression que tu partais du principe que les IA/LMM c'était de la bouse et que ça n'était qu'un effet de mode, comme si les versions actuellement disponibles n'étaient capables de rien d'intéressant. C'est ça que je trouve paradoxal : soit c'est de la bouse et il n'y a aucune raison de craindre un effet à long terme sur la société, soit ça marche et ça va marcher de mieux en mieux et que c'est ça qui est "inquiétant". Mais en tout cas, moi ces modèles m'ont fait prendre conscience à quel point les employés du tertiaire étaient en théorie remplaçables, et que l'humain n'était pas si "intelligent" que ça quand on le prenait individuellement. En tout cas, certaines tâches qu'on pensait réservées à des élites intellectuelles (écrire des rapports d'expertise, synthétiser des documents, répondre spécifiquement à des demandes de support…) étaient à la portée de systèmes automatiques. Et pour moi, la raison principale qui expliquerait pourquoi certains nient ça avec insistance et prétendent que les LLM ne font rien d'intéressant, c'est parce qu'ils ont peur de ce qui pourrait advenir d'eux dans quelques années. Justement, parce que l'argument "les LLM ne font rien d'intéressant" ne tient pas quand on essaye de leur faire faire des choses intéressantes (et pas de les piéger pour tenter de démontrer qu'on est plus intelligent qu'eux).
Mais je me trompe peut-être, tu penses peut-être sincèrement que les LLM ne font rien de spécial, mais dans ce cas je ne suis pas d'accord : les LLM sont capables de trucs extraordinaires; actuellement ils ne sont qu'un outil parce qu'il faut corriger deux ou trois trucs après eux mais il ne s'en faut pas de beaucoup pour avoir quelque chose de prêt à la production directement.
ce que je trouve le plus limitant au final dans les LLM, c'est qu'elles fonctionnent sur des sets d'informations qui peuvent être périmées
Ça n'est pas juste une limitation imposée par le distributeur du modèle? Rien n'empêche de sortir une version actualisée tous les mois ou tous les ans.
Rien ne garantit que le message soit compatible avec la morale du XXIe siècle, hein… Moi je comprends que Zeus il est très musclé, il a des grosses balloches pleines de testostérone, et que comme ça Europe elle ne peut pas résister (on comprend comme on veut), et que c'est comme ça que font les Dieux mâles dominants très virils. De toutes manières, après il la refile à un roi pour des raisons politiques, donc il n'était pas non plus très très amoureux.
Wikipédia ajoute que "À Gortyne, sous un platane qui depuis lors est toujours vert, Europe s'accouple avec Zeus, sous forme humaine cette fois"… soit c'est mal écrit, soit le "cette fois" est un peu inquiétant parce que je n'avais pas compris les détails de l'histoire comme ça.
D'ailleurs si tu lui demandes si la force existe il te dira probablement que la force n'existe pas.
Probablement, si ton corpus d'apprentissage est à 95% hors de star wars et décrit star wars comme une oeuvre de fiction. Mais tu as plein d'exemples où ça n'est pas forcément le cas. Par exemple, quelle part du corpus décrit la mythologie monothéiste comme une oeuvre de fiction? De facto, une part substantielle des humains ne la considèrent pas comme de la fiction, qu'est-ce qu'une IA devrait répondre là-dessus?
Et puis ça ne change pas vraiment la logique, juste les lois de la physique en l'occurrence.
Certes, mais ça n'est quand même pas facile de lui demander d'avoir un sens de la "vérité" quand le corpus contient de gros blocs cohérents dans lesquels les lois de la physique sont fausses. Pour le coup, être capable de classifier un corpus en "fiction" vs "réalité", ça c'est quand même un signe d'intelligence, non? Par exemple, si ton IA lit "L'histoire de Quiddich à travers les âges", jamais le livre ne s'identifie comme une oeuvre de fiction qui fait partir de l'univers de Harry Potter. Nous, on est cablés pour faire très facilement la différence; à 2 ans un gamin fait la différence entre une histoire fictionnelle et une histoire vraie. Mais un LLM doit faire émerger ça à partir de son corpus, ça n'a pas l'air facile. Surtout s'il faut évaluer si la biographie de Trump est une oeuvre de fiction, par exemple.
"Est-ce qu'il y a besoin de "raisonner" (dans le sens d'encoder des règles de déduction valides) pour bien prédire"
Les LLM prouvent que non; ils manipulent les syllogismes et se trompent rarement sur les raisonnement piégeux (du style "combien de temps faut-il à 9 femmes pour faire un enfant"). En fait, c'est assez facile de montrer qu'ils ne raisonnement pas; ils arrivent fréquemment à te donner la bonne réponse sans être capables de te donner un raisonnement correct quand tu leur demandes; ça ressemble plus à une intuition très efficace (du fait de la taille du corpus ingurgité), et une sorte de rationalisation a posteriori quand tu lui demandes explicitement.
Mais encore une fois, est-ce bien grave? Imagine que tu fournisses un service de diagnostic en ligne de pannes de bagnole. Tes experts donnent le bon diagnostic dans 90% des cas, à partir des informations fournies dans un chat. Ils vont raisonner, du style "C'est une 206 de 2010, on sait qu'il y a souvent des pannes dûes aux faisceaux sur ces modèles", etc. À côté, chatGPT ne sait même pas ce qu'est une bagnole, mais donne un résultat probabiliste basé sur autant d'indices qu'il peut percevoir (l'orthographe du client, la rapidité des réponses dans le chat…). S'il est précis à 95%, quel est le problème à lui laisser donner des réponses intuitives? Dans la plupart des applications, ce que tu souhaites, c'est avoir la bonne réponse à ton problème, et pas de t'assurer que cette réponse est construite sur un raisonnement solide.
Dans un tel contexte, c'est peut-être plus intéressants de spécialiser des modèles sur telle ou telle tache au lieux d'avoir un gros gloubiboulga générique qui fera jamais mieux que le modèle spécialisé seul.
Lui faire avaler la littérature scientifique plutôt que les logs de Twitter? Oui, en effet, je pense que ça serait mieux si tu veux lui faire recracher des trucs vrais. Mais je pense que le but c'était de passer le test de Turing, auquel cas mieux vaut sortir les mêmes idioties qu'un humain moyen.
Ce qui n'est pas surprenant dans un tel cadre c'est qu'il ne soit pas vraiment capable de revenir en arrière et de remettre en cause son "raisonnement" en cas de résultat absurde parce qu'il n'y a pas de notion de "backtracking" dans une telle boucle ou il complète juste ce qui est entamé.
En général, si tu lui demandes "es-tu sûr de ton raisonnement?", il va se corriger.
Mais bon, tout ça reste une forme de simulation de raisonnement, et je ne pense pas qu'il puisse réellement raisonner (dans le sens où on le conçoit). D'une manière plus générale, il n'a pas réellement de notion de vérité, puisqu'il ne connait que le corpus d'entrainement, il n'a aucun moyen de comparer ce corpus avec le monde réel.
Ce qui n'est pas très étonnant d'ailleurs. Si le corpus c'est l'univers de Star Wars, alors pour lui, la Force et les Jedi sont des trucs réels. C'est malvenu de lui reprocher ça, puisqu'un humain serait exactement dans la même situation, d'ailleurs. Comme il n'a pas accès au monde par ses propres sens, il ne peut que "croire" ce qu'on lui raconte.
De toutes manières, essayer de faire "raisonner" un modèle de langage est absurde. Ça démontre en effet pas mal le genre de fantasmes que les gens peuvent avoir, mais on est d'accord que ça n'a aucun intérêt? Au mieux, tu peux espérer avoir une réponse correcte que le problème est suffisamment connu pour qu'il soit largement représenté dans les données d'entrainement.
Je pense que ça illustre aussi pas mal la mauvaise foi avec la quelle la question est traitée parmi la communauté qui s'intéresse à ces technologies. Les gens qui ont conduit ces études savent pertinemment que rien dans un modèle de langage ne lui permet de suivre un raisonnement mathématique. Tu peux conclure que "ah ah cette AI est stupide", mais celui qui est stupide est celui qui a conçu ce test idiot.
Pour tester un LLM, fais-lui écrire une lettre, raconter une courte histoire, résumer un texte… Regarde par exemple, je viens de faire le test : "écris un sonnet sur une panne d'embrayage". Voici le résultat:
*Sur la route déserte, un triste présage,
L'embrayage soudain décide de céder,
Et mon voyageur se voit tout arrêter,
Dans un silence lourd, pesant comme un orage.
Je cherche en vain un secours, un visage,
Le moteur agonise, prêt à m'abandonner,
Et sous le capot chaud, je commence à douter,
Qu'un miracle survienne dans ce sombre paysage.
Mais voilà qu'arrive un vieil artisan,
Aux mains tachées d'huile, au geste précis,
Qui d'un tour de clé redonne vie au moteur.
L'embrayage renaît, brillant artisan,
Je repars enfin, le cœur allégé,
Reprenant la route, loin de toute frayeur.*
Bon, il y a des problèmes mineurs sur certaines rimes, mais honnêtement, il faut être blasé pour ne pas être amusé par la performance du truc, non? Évidemment que ça n'est pas du Hugo, mais là encore tu as un résultat meilleur que quoi, 90% des gens?
Bref … "intelligence" est un terme qui veut dire bien des choses, mais sans raisonnement il me semble qu'on manque d'un ingrédient essentiel
Ouais c'est ça, les gens intelligents c'est ceux qui savent mener un raisonnement mathématique. On se demande bien pourquoi tant de livres ont été écrits sur le sujets alors que c'est tellement facile.
Plus prosaïquement, quand tu mets un humain à un poste de travail par exemple, tu te fous un peu de savoir comment il mène les raisonnements qui le conduisent à prendre les bonnes décisions. Personne ne s'est jamais demandé si Dédé de la compta, il pensait vraiment ou il simulait la pensée. Et heureusement, parce qu'à part mener à des situations débiles et inconfortables, je ne vois pas où ça peut te mener. Bah voila, c'est pareil avec les LLM: ils se comportent dans la plupart des situations comme un humain qui raisonne, avec ses limites, ses erreurs, ses biais, ses imperfections. C'est donc une IA dans la mesure où elle peut simuler l'intelligence, donner les mêmes réponses qu'un humain qu'on présume intelligent. Chercher plus loin, c'est de l'escroquerie, parce qu'on sait très bien que les LLM ne raisonnent pas, ils ne sont pas conçus pour raisonner, et quelle que soit la complexité de la question qu'on leur pose, on finira toujours par pouvoir montrer qu'ils "simulent" le raisonnement.
On sait que ça va s'améliorer, mais on ne sait pas jusqu'où. Ça n'a rien à voir avec du "wishful thinking". Ça va s'améliorer, parce qu'on sait que les services professionnels sont largement supérieurs à ce qu'on peut avoir pour le grand public payant, ce qui est encore supérieur à ce qu'on a en gratuit. Il est donc possible d'avoir bien mieux que ce que la plupart d'entre nous a pu tester.
on sait pas trop comment, on sait pas trop l'évaluer et on a pas de plans
Tu confonds "on" et "je". Ça n'est pas parce que tu sais pas que personne ne sait.
En fait, je ne sais même pas comment tu peux tenir un tel discours sur la "médiocrité" des IA, ça me fait clairement penser à une sorte de déni. Est-ce que tu as essayé d'utiliser un outil grand public (type chatGPT) sans mauvaise volonté, sur une tâche pour laquelle il est "bon" (en gros, générer du texte)? Tu demandes la même chose à 100 humains au hasard dans la rue, tu penses que chatGPT se classe où? Franchement, il va très souvent être dans les quantiles tout en haut, 90%, 95%. Ça ne va pas valoir ce que pourraient produire les cracks du domaine, mais ça a largement, très largement même, être au moins équivalent à ce que produirait un humain. Comme je le disais plus haut, chatGPT a un niveau master dans beaucoup de domaines, ce qui n'est pas à la portée d'un être humain (je veux dire, niveau master, oui, mais pas dans tous les domaines).
Après, pense que tu es irremplaçable, que jamais une machine ne pourra t'égaler dans le futur, que tout ça est du flan, tu es libre de penser ce que tu veux. Mais pose-toi juste la question sur la part de ça qui est dû à un raisonnement rationnel, et la part qui espère juste ne pas vivre dans un monde où en effet, les machines seraient capables de fournir un travail intellectuel de qualité supérieure à la plupart des êtres humains?
Le truc c'est que malgré tout ça on a pas vraiment fait de progrès sur les questions parce que les vraies applications intéressantes
Je ne sais pas ce que tu appelles "intéressantes". Si c'est du point de vue de la société, je t'accorde que ça n'est pas impressionnant, même si je pense qu'il y a énormément de potentiel au niveau des interfaces entre les consommateurs d'un service et l'équipe de développement (questions fréquentes, documentation, rapport de bugs, etc). Par contre, le fait que ces systèmes soient capables de générer des copies mieux que moyennes jusqu'au niveau master, les étudiants l'ont bien compris. La capacité à étendre ou à résumer un texte est aussi extrêmement impressionnante. Comme dit plus haut, c'est un outil : il faudra repasser derrière pour vérifier rapidement, et ça n'aura jamais aucune réelle créativité, puisqu'il s'agit d'outils de synthèse. Mais si on en reste à ce niveau, ça marche quand même plutôt bien, et on a toutes les raisons de penser que ça ne peut que s'améliorer (jusqu'où? Ça n'est pas très clair).
Mais c'est aussi parce qu'on croit naïvement que d'avoir des communautés ouvertes c'est bien et qu'il n'y a pas besoin de prévoir des cas particuliers. Ça fait plus de 20 ans que ces cas comme ça existent sur Wikipédia par exemple, des contributeurs très (très très) motivés, qui produisent du contenu incompréhensible ou clairement contre-productif, qui interagissent de manière très inefficace avec le reste de la communauté, et qu'on ne peut pas bloquer ou ignorer parce que ça rend tout le monde mal à l'aise. C'est toute la balance complexe entre l'inclusion et la protection des membres de la communauté.
Honnêtement, j'ai toujours pensé que la meilleure solution est celle de prévoir dans l'interface la possibilité d'isoler ces contributeurs, de manière à ce qu'ils aient accès à une version personnalisée du site, qui contient tout le site, plus leurs contributions qui ne sont pas visibles pour les autres contributeurs. Je crois que sur Wikipédia il leur était proposé de contribuer dans des "bacs à sable", des versions des pages destinées à l'origine aux gros chantiers de remise en forme des articles (on travaille sur une version en développement avant de la mettre d'un coup en ligne, afin d'éviter que le lecteur tombe sur un truc en travaux). Du coup, hop, on crééait des bacs à sable, on disait aux contributeurs "plutôt que de te faire réverter dans la page principale, tu n'as qu'à travailler au calme dans cette page"; tout le monde était content, le contributeur avait accès à Wikipédia et il était le Dieu absolu sur sa page, et étrangement le fait que la page n'était pas indexée ni visible n'était pas un problème la plupart du temps. Donc voila, plutôt que de ban ou de moinsser, on pourrait "invisibiliser" les contributeurs trollesques, sans pour autant qu'on doive réellement décider s'ils sont malveillants ou s'ils souffrent d'un trouble qui rend leur contribution à une communauté problématique pour les autres. Ils pourraient alors continuer à interagir avec le site, poster des spams ou des textes qui troubleraient les autres contributeurs, et ça leur prendrait beaucoup de temps avant de se rendre compte que les autres ne le voient pas.
Déja, est-ce qu'on parle de la qualité absolue de ce qui sort d'une IA, ou bien de la qualité relative par rapport aux données qu'elle a ingurgité? Si on nourrit une IA avec les pages de la Flat Earth Society, l'IA te dira que la terre est plate. Il n'y a pas de problème avec l'IA, juste un problème avec la qualité des données.
Ensuite, est-ce que l'argument est temporaire (du style, "pour l'instant, c'est pas assez fiable"), ou est-ce qu'il est définitif ("par principe, ça n'est pas fiable"). Enfin, quelle est la référence? Par exemple, une IA qui conduit une voiture, on sait qu'elle va avoir des accidents, la question est plutôt si elle a plus ou moins d'accident qu'un conducteur moyen, qu'un conducteur inexpérimenté, qu'un conducteur âgé, etc.
Du coup, il y a tellement d'arguments qui s'éparpillent partout sur l'échelle de l'argument foireux qu'à un moment, il est tentant de tout balancer, parce que la plupart sont des arguments de grand-mères à moustaches ("ce truc change le monde et je n'aime pas quand le monde change"). Et je suis d'accord aussi que beaucoup d'arguments sont contradictoires entre eux. "Ça ne fait que reformuler Wikipédia" vs "Ça n'aura jamais la fiabilité d'une page conçue par un humain", par exemple. Il y a également énormément d'arguments basés sur le traitement d'informations privées, qui pourraient être obtenues par un moteur de recherche : si Google te retourne la bonne réponse si tu demandes "Quel est le numéro de téléphone de Tartempion" ou "Est-ce que Tartempion est juif", alors c'est normal que chat GPT te donne également la bonne réponse, c'est ce qu'on attend de lui (et s'il ne la donnait pas, on dirait "ah ah c'est moins bien qu'une recherche Google").
Parce qu'une IA bien configurée peut aussi être au service de la vie privée. Justement, si elle a pour consigne de ne pas dévoiler d'informations privées, elle peut "filtrer" le contenu du web pour ne fournir que les informations pertinentes. Elle peut t'apporter des nuances ("selon certaines sources la Terre est plate, mais ce n'est pas l'avis des scientifiques"), etc. L'IA est un outil, c'est un outil tellement nouveau que peu savent comment il fonctionne et comment l'utiliser efficacement, c'est un outil tellement puissant que beaucoup en ont peur, et c'est un outil tellement récent qu'on n'a aucune protection légale, ni même aucune règle éthique, qui s'appliquerait aux excès. Mais une fois qu'on a retiré tous les argument superficiels (qui traduisent des peurs ou des fantasmes, tels que la peur de perdre son boulot), et les arguments qui se concentrent sur l'imperfection des implémentations disponibles actuellement ou sur les lacunes des bases de données qui servent à entraîner les logiciels, il reste beaucoup moins de questions à trancher. Une question majeure est celle de la responsabilité (qui est responsable, celui qui fournit l'IA, celui qui l'utilise, celui qui publie le résultat…), une autre question est celle de la légalité de l'usurpation (est-ce éthique d'utiliser une IA pour se faire passer pour un humain auprès d'un autre humain), etc. Mais tant qu'on ne se débarrasse pas des questions de grand-mères à moustaches, on aura du mal à s'intéresser au fond des choses.
Selon toute vraisemblance, cette personne est "neuro-atypique". Nous n'avons pas les compétences pour poser un diagnostic (et si on les avait, on n'aurais pas le droit déontologiquement), mais on peut au moins faire preuve de bienveillance.
Ceci dit, je n'ai absolument rien compris à ce qu'il attend de nous sur cette entrée de forum. Qu'on lui dise qu'il n'y a pas de bug dans Linux?
Je pense que ce qui n'est pas très clair pour beaucoup (y compris pour moi), c'est à quel point un langage comme C++ est multiparadigme, et à quel point il n'implique pas d'utiliser toutes ses possibilités. Ce n'est pas parce qu'une police de caractères propose des glyphes latins, grecs, et hébreux que c'est une bonne idée de mélanger tout ça dans le même texte.
Certains utilisent C++ comme un C amélioré (avec des classes à la place des struct, les opérateurs <<, les const et les références par exemple), d'autres comme un pur langage objet (encapsulation et héritage), d'autres ne jurent que par les algorithmes génériques à la STL, certains excluent les templates ou les exceptions, etc.
En théorie, j'ai l'impression les avantages majeurs de la POO se voient surtout sur les gros projets (travail indépendant sur des modules, évolutivité à long terme), surtout quand leur architecture générale a été conçue par des gens qui connaissent bien leur boulot (design patterns etc). Tant que tu as des exemples du style "class Voiture: public Vehicule", ça parait complètement déconnecté de ce dont tu as besoin pour écrire un programme lambda de 150 lignes.
Mais sur le fond, certaines possibilités offertes par le C++ sont quand même des trucs de niche, qui sont à des années lumière de ce qu'un programmeur peu expérimenté peut maitriser. Je crois qu'il m'a fallu des années pour comprendre par exemple que la surcharge des opérateurs n'était pas utile pour 99.9% des projets, ou qu'on pouvait faire du code propre sans template variadique. Et puis après j'ai arrêté le C++ parce que ça n'était pas l'outil dont j'avais besoin, et voila.
En tout cas, il a l'air bien convaincu que l'esprit du Libre, c'est de coder en C, autrement, tu vas en prison.
Compte créé aujourd'hui, peut-être juste un troll? En tout cas, son manque de culture rend l'affirmation qu'il est développeur assez douteuse (par exemple, les problèmes liés au type de NULL, ça devrait être dans les cordes d'un developpeur C, non?)
J'ai aussi l'impression que le C++ est utilisé pour complexifier volontairement, c'est à dire obfusquer, le code source de certains programmes et librairies open source.
je suis pour l'obligation légale et internationale de publier un programme C et une librairie C
Je suis pour la liberté de programmation, et le C++ permet de restreindre cette liberté, je trouve que c'est contraire à la philosophie du Libre.
Et c'est contraire à la philosophie du Libre qui veut que l'on fasse le programme le plus efficace possible.
Rassure-moi, c'est une caméra cachée ou un truc comme ça? :-)
En fait, quand tu demandais "quels sont les avantages du C++?", tu ne voulais pas une réponse, tu envoyais une bouteille à la mer pour savoir à quel point tu étais seul sur ton perchoir?
Donc je ne vois pas quels sont les avantages du C++ sur le C ?
En fait, tu es en train de demander quelque chose comme "quel est l'avantage du bateau sur la voiture?". On va te répondre "Il peut aller sur l'eau". Et tu vas dire "Bah je n'ai pas besoin d'aller sur l'eau, et puis avec un 4x4 je peux rouler dans les flaques".
Je ne sais pas si C++ est un bon langage objet, je le trouve verbeux, piégeux, hyper-complexe, et ses évolutions le rendent encore plus complexe et plus technique. Mais bon, le C++ moderne est un langage objet et ses dernières évolutions permettent une programmation générique assez poussée, et il est probable que tu n'aies aucune idée de ce que ça permet si tu les compares avec les enum et les struct de C.
Il y a aussi le "nullptr" dont je ne vois pas l'intérêt, le "NULL" me paraît plus rapide à écrire et plus lisible car écrit en majuscules.
Là, tu es en train de dire "sur ma voiture le volant est noir alors que sur les bateaux le volant est blanc, donc je ne vois pas l'intérêt d'acheter un bateau plutôt qu'une voiture".
Concernant les attributs "private", "protected", et "public", des classes du C++, je ne vois aucun intérêt à ça.
Deux possibilités. La possibilité 1, c'est que des millions d'ingénieurs ont conçu, appris, amélioré, et utilisé dans des milliers de logiciels des concepts de programmation qui n'ont aucun intérêt. La possibilité 2, c'est que ta formation et ton expérience en programmation sont trop parcellaires pour que tu comprennes l'utilité de ces concepts, et même trop limitées pour que tu puisses comprendre ce qu'il te manque pour comprendre l'utilité de ces concepts.
J'ai ma petite idée sur la possibilité qui est la plus vraisemblable, mais je ne veux pas influencer :-)
Par contre, je pense que ça illustre pas mal le fait que tu n'as probablement pas besoin d'utiliser C++ pour tes projets, donc pas besoin de se poser trop de questions : n'apprends pas C++. Ceci dit, je ne pense pas que C soit un bon langage pour n'importe quoi d'autre que des applications très proches du système, et il y a quand même un côté "vieux grognon" à toujours pousser vers la compréhension fine du fonctionnement des ordinateurs quand on commence la programmation.
L'agent qui te reçoit pense, souvent à juste titre, que le document présenté ne passera pas auprès du service chargé de traiter la demande.
Si c'était vrai, il n'y aurait pas de différence notable entre les agents, ce qui n'est pas le cas. Et en fait, c'est presque pire, parce que les agents essayent d'anticiper les décisions arbitraires qui seront prises un étage au-dessus. Dans mon expérience, c'est la pire situation administrative, puisque les agents ne sont jamais récompensés pour leur efficacité; par contre, il peuvent être blâmés pour leurs erreurs. Du coup, ils vont mettre le curseur sur une attitude très, très prudente, à la limite de la rigidité psychologique. Contrairement à ce que tu supposes, il n'y a aucune marge de discussion possible, puisque l'agent te dis juste "ça, ça ne passera pas", et c'est tout. Tu ne peux pas lui répondre "mais si, ça passera", parce que tu n'en sais rien. Tu peux lui sortir la liste de gouv.fr, mais on va te répondre que c'est indicatif et que dans son expérience, ça ne passera pas.
En plus, si tu crois que les échelons supérieurs justifient leurs refus, tu te trompes complètement. Par exemple, ils vont refuser une quittance de loyer écrite en vert. L'agent de l'État civil ne saura pas si c'est parce que c'est une quittance de loyer, si c'est parce que c'est un document manuscrit, ou si c'est parce que c'est écrit en vert. Il va deviner, et va se mettre par exemple à refuser tous les documents manuscrits, ou tous les documents écrits en vert. Il va le dire à ses collègues qu'il forme sur le tas, il va le dire aux gens qui viennent déposer un dossier, qui vont le répéter à leurs proches ou sur les forums d'aide sur internet, et voila, tu as créé une sorte de "culture" fantaisiste, sans aucune base solide; tout le monde va penser, écrire, et confirmer "de source sûre" que les quittances de loyer ne sont pas valables alors que le problème était la couleur du stylo, ou le contraire.
Bah je pense que la définition du Larousse est bugguée :-)
Au-delà du "problème", il y a la question du "nombre fini d'opérations" qui me semble hautement questionnable, puisqu'il est justement impossible de déterminer si certains algorithmes vont se terminer ou non.
Mais pour être clair : le problème résolu par un algorithme n'est pas l'écriture de l'algorithme. Pour l'exemple du carré vert, en effet, "écrire un algorithme qui remplit un carré de pixels verts en un temps fini" est un problème. Mais ce problème, c'est le programmeur qui va le résoudre. L'algorithme, lui, va remplir le carré, ce qui est une tâche, mais pas un problème à résoudre. Un peu comme "demander son nom à l'utilisateur": l'algorithme ne doit pas fournir une solution à un problème.
Pour le reste, on ne va pas sodomiser les mouches avec des gants de boxe toute la journée. Tu prends l'exemple de A*, voila, A* c'est l'algorithme, et tu peux coder cet algo en C, en python, ou en brainfuck, c'est toujours A*.
En fait, ça ressemble tellement à des marmonnements de vieux dans son dentier qu'il est difficile de trouver ça original ou nouveau. Je pense que l'arnaque dans ce genre de choses est de présenter ces choses là comme une pensée nouvelle, alors que je suis persuadé qu'en remplaçant les termes techniques par "machine à vapeur" la plupart des arguments ne paraitraient pas anachroniques au XIXe siècle.
Prends le coup de la puissance des entreprises par exemple. L'influence que peuvent avoir Apple ou Amazon sur les États n'est rien par rapport aux Compagnies des Indes, qui ont directement piloté les politiques impérialistes des pays occidentaux pendant deux siècles. La puissance des milliardaires a toujours également été au devant de la scène, en politique ou dans la fiction, avec parfois aussi ce petit arrière-goût d'antisémitisme. La plupart des points sont comme ça, le 1) par exemple sur la quête de vérité, comme si le XIXe et le XXe siècle n'avait pas produit "industriellement" de la désinformation scientifique (tabac, pesticides, psychanalyse, machins new-age…). Le 2), le spam à une échelle industrielle, comme si les boîtes aux lettres n'étaient pas pleines de prospectus débiles (et environnementalement injustifiables) depuis des décennies, comme si la propagande et la publicité n'étaient pas déja montées en puissance depuis des dizaines d'années… Ce truc décrit juste ce qu'est le monde depuis 200 ou 300 ans, comme si c'était mieux avant et que c'était de pire en pire, ce qui n'est qu'une illusion.
En fait, ce qui me semble beaucoup plus intéressant, c'est de parler de projet de société. Les GAFAM peuvent imposer leurs projets de société simplement parce que nous n'en avons pas. Une des raisons, c'est justement parce que ce genre de discours technophobe et réactionnaire est séduisant, y compris dans les communautés du libre : notre "projet" serait un vague retour à une situation qui n'a jamais existé, où les entreprises seraient gentilles et où les données privées n'auraient pas de valeur.
Dans un projet de société alternatif par exemple, j'aimerais qu'on m'explique comment on assure l'accès à des services numériques (messagerie, téléphonie, réseaux sociaux) à 5 milliards de personnes, par exemple. Parce que oui, bien sûr, nous on pourrait payer 20€/mois pour héberger ses mails ailleurs que chez Google, on pourrait payer pour utiliser un service similaire à Whatsapp, on pourrait payer un abonnement à TikTok ou à Youtube. Mais comment ça marcherait en Afrique, par exemple? Les multinationales "offrent" des services qu'on peut considérer maintenant comme quasiment basiques contre des données privées; et de nombreux être humains peuvent "payer" avec ces données alors qu'ils ne pourraient pas financer les serveurs ou la bande passante avec des vrais sous.
Personnellement, je suis sidéré par la nullité des débats autour de l'AI. "C'est bien", "c'est mal", "c'est dangereux", "ça va prendre des emplois"… Tout ça n'a aucun intérêt, c'est de la branlette de futurologue de plateau TV. Au contraire, il serait urgent de se concentrer non pas sur les applications de l'IA, qu'on ne peut absolument pas anticiper, mais sur la place qu'on lui assigne dans la société. Par exemple, je trouverais indispensable dès maintenant de créer un délit d'"usurpation d'humanité", puni d'une peine d'amende et de prison, pour quiconque mettant en place une interaction avec un programme informatique dont la nature n'est pas explicite. Ça laisserait tout le champ libre pour l'innovation, mais il serait totalement proscrit et considéré comme un délit grave de faire passer des programmes pour des humains; je veux bien discuter avec un chatbot mais je veux savoir à qui je parle.
Moi la simple "suite d'instruction" dans le cas général, je dis que c'est un programme
Un algorithme écrit en pseudo-code, ça n'est pas un programme. Un programme est une implémentation concrète, les deux concepts ne sont pas équivalents. Pour moi, je rapproche "programme" de "logiciel", mais pas d'algorithme.
Ben non, un algo est une suite d'instruction qui résout un problème.
Ça n'est pas vrai, sauf avec une définition pathologique de "problème". Je trouve beaucoup plus clair de parler de "tâche". Par exemple, remplir un rectangle de pixels verts, c'est une tâche, mais pas un problème (le rectangle vert n'est pas la solution, puisque c'est l'énoncé). Pourtant, il va te falloir un algorithme pour remplir cette tâche. Un algorithme, c'est l'idée de la liste d'instructions nécessaires à faire une tâche. Tu peux implémenter cet algorithme dans un langage de programmation particulier et le compiler pour une plate-forme particulière, ça te donne un programme (un programme peut contenir beaucoup d'algorithmes).
Par contraste, un problème est un énoncé qui attend une réponse (non-triviale). Par exemple, la commande sleep est un programme qui implémente un algorithme qui effectue une tâche (attendre un certain temps), mais qui ne résout pas de problème. Par contre, le tri à bulle est un algorithme qui résout un problème (trier un vecteur), mais ça n'est pas un programme. Il faut implémenter cet algorithme pour obtenir un programme, qui fera autre chose en plus du tri à bulle (notamment, gérer les entrées/sorties).
et la non utilisation de "algorithme" ici est voulue.
C'est juste toi qui le dis, mais j'ai toujours entendu et compris "une heuristique" comme un simple raccourci de "un algorithme heuristique", et je pense que c'est ce que la plupart des gens sous-entendent.
quand le grand public dénonce "l'algorithme"
Tant mieux si tu comprends ce que le grand public appelle "les algorithmes" en général, parce que moi je ne comprends pas. L'algorithme "PageRank" de Google ne m'a jamais posé de problème particulier, par exemple. La seule chose qui me semble sensée, c'est de faire référence aux algorithmes qui déterminent l'ordre et la visibilité des contenus proposés sur les réseaux sociaux. Le problème est souvent que ces algorithmes sont conçus pour optimiser les revenus des plateformes, et ni l'expérience ni le bien-être des utilisateurs. Mais si on compare par exemple avec Mastodon, l'algorithme est simple (posts des utilisateurs suivis dans l'ordre chronologique), mais il n'optimise pas non plus le bien-être des utilisateurs (en tout cas, moi j'aimerais bien aussi avoir accès à des choses intéressantes qui viennent de l'extérieur du cercle des gens que je suis). On pourrait classer les algorithmes en fonction de critères (par exemple, est-ce qu'ils sont publics, est-ce qu'ils sont simples, sont-ils manipulables, sur quelles données ils se basent, quels sont les critères optimisés, sont-ils conçus pour manipuler les comportements, etc). Ça serait d'autant plus important pour les plateformes qui rémunèrent les auteurs de contenus, puisque les algorithmes créent le cadre de la concurrence.
Contrairement aux algorithmes qui sont historiquement des solutions exactes à des problèmes mathématiquement bien définis,
Ohlala, il faut quand même respecter un minimum les définitions des mots, sinon on ne va pas s'en sortir. Ceci dit, à ta décharge, le 2e paragraphe de l'article de Wikipédia en anglais, c'est un peu de la daube. Le reste de l'article est bon, c'est vraiment cette partie qui est naze (peut-être la cause du bandeau "personal reflexion"?) Comme dit dans la discussion de l'article, "'Algorithm' as used by non-computer-scientists / non-experts to discuss recommender systems in social media (which, surely, are implemented by large numbers of algorithms) is a technically-incorrect use of the word almost entirely unrelated to this article."
Un algorithme est une série d'instructions
Un algorithme d'optimisation est une série d'instructions visant à trouver la solution d'un problème
Parmi les algorithmes d'optimisation, il y a des algorithmes d'optimisation exacts (qui t'assurent de te fournir la ou les solutions du problèmes), et les algorithmes d'optimisation heuristiques (qui te donnent une solution approximative du problème, sans te garantir la précision et l'exhaustivité).
Je ne trouve pas la distinction heuristique/solution exacte particulièrement pertinente dans le contexte, parce que ça dépend simplement du problème à résoudre et de sa complexité mathématique. Par exemple, les logiciels qui jouent aux échecs sont des heuristiques, les logiciels qui jouent au morpion sont des solutions exactes, et je ne vois pas ce que ça change en pratique pour l'utilisateur.
Certains problèmes sont probablement voués à ne jamais être abordés autrement que par des heuristiques, parce qu'il n'existe pas de solution unique, seulement un ensemble plus ou moins grand de solutions acceptables. C'est par exemple le cas de la traduction. Je ne suis pas sûr du tout que les algorithmes tels que la suggestion de contenu soient des heuristiques. Si l'algorithme, c'est quelque chose comme "trier en ordre décroissant les vidéos sur la base d'un index I = W1*(popularité sur le site) + W2*(mots clés en commun avec les 50 dernières vidéos lues par l'utilisateur) + W3*(popularité parmi la communauté suivie par l'utilisateur)", ça semble facilement exécutable par une routine exacte. Les poids W1 W2 et W3 peuvent être calculés par n'importe quelle méthode ou ajustés arbitrairement.
Bref, tout ça pour dire que je ne suis pas convaincu que cette histoire d'heuristique aille bien loin.
Après, oui, "il faut le voir pour le croire". Sur le principe, ça parait vraiment étonnant; en théorie l'état de droit en France est quand même assez solide et il est normal de s'imaginer qu'on va sur le site officiel, on a une liste de documents, on apporte un de ces documents, et c'est bon. Mais en fait, non.
Une recherche rapide tombe sur le Décret n°2005-1726 relatif aux passeports, qui dit : "Le demandeur justifie de son domicile ou de sa résidence par tous moyens, notamment par la production d'un titre de propriété, d'un certificat d'imposition ou de non-imposition, d'une quittance de loyer, de gaz, d'électricité, de téléphone ou d'une attestation d'assurance du logement." C'est complètement flou, et vous constaterez que la liste est différente de celle de gouv.fr. D'ailleurs, gouv.fr invente plein de trucs : facture de moins d'un an, quittance de loyer issue d'un professionnel, document mentionnant le nom et le prénom, etc, probablement pour cadrer un peu les choses et éviter les refus. C'est vraiment du travail de cochon.
Par contraste, comparez avec le justificatif de domicile pour le permis de conduire : https://www.legifrance.gouv.fr/jorf/article_jo/JORFARTI000033736430 . Ça c'est super clair, la liste est exhaustive et précise. Mais notez que le permis est géré par les préfectures, alors que les passeports sont gérés par les mairies.
Un autre exemple d'arbitraire c'est la ressemblance de la photo. La qualité de la photo (contraste, flou, etc) est gérée par le service qui délivre les titres (CERT, ou un truc comme ça), mais c'est bien le fonctionnaire de mairie qui décide si la photo est ressemblante. Il a un rôle clé d'ailleurs, puisque c'est une étape critique du processus, et c'est assez inimaginable que ça soit si peu carré. Je crois qu'il y a des mairies équipées pour prendre les photos (ce qui me semble le plus logique), mais ça n'était pas le cas pour moi quand j'ai refait mon passeport, donc le fonctionnaire regarde la photo, te regarde, regarde la photo, et dit "mhh mmhhh", et voila. Et si tu es un peu noir par exemple, il peut dire "euuuhhh… je sais pas trop, c'est bien vous sur la photo?". D'ailleurs, c'est marrant que les gens "un peu" racistes trouvent à la fois que tous les noirs se ressemblent mais qu'ils ne ressemblent jamais à leur photo.
Évidemment deux PDF imprimés dont j'aurais pu changer montant ou adresse, mais c'est un autre sujet
Ça me rappelle une discussion sur l'idée qu'il n'est peut-être pas illégal de fournir un pdf modifié pour contenir des informations vraies, mais je conseillerais quand même de chercher un bon avocat :-)
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
J'avais l'impression que tu partais du principe que les IA/LMM c'était de la bouse et que ça n'était qu'un effet de mode, comme si les versions actuellement disponibles n'étaient capables de rien d'intéressant. C'est ça que je trouve paradoxal : soit c'est de la bouse et il n'y a aucune raison de craindre un effet à long terme sur la société, soit ça marche et ça va marcher de mieux en mieux et que c'est ça qui est "inquiétant". Mais en tout cas, moi ces modèles m'ont fait prendre conscience à quel point les employés du tertiaire étaient en théorie remplaçables, et que l'humain n'était pas si "intelligent" que ça quand on le prenait individuellement. En tout cas, certaines tâches qu'on pensait réservées à des élites intellectuelles (écrire des rapports d'expertise, synthétiser des documents, répondre spécifiquement à des demandes de support…) étaient à la portée de systèmes automatiques. Et pour moi, la raison principale qui expliquerait pourquoi certains nient ça avec insistance et prétendent que les LLM ne font rien d'intéressant, c'est parce qu'ils ont peur de ce qui pourrait advenir d'eux dans quelques années. Justement, parce que l'argument "les LLM ne font rien d'intéressant" ne tient pas quand on essaye de leur faire faire des choses intéressantes (et pas de les piéger pour tenter de démontrer qu'on est plus intelligent qu'eux).
Mais je me trompe peut-être, tu penses peut-être sincèrement que les LLM ne font rien de spécial, mais dans ce cas je ne suis pas d'accord : les LLM sont capables de trucs extraordinaires; actuellement ils ne sont qu'un outil parce qu'il faut corriger deux ou trois trucs après eux mais il ne s'en faut pas de beaucoup pour avoir quelque chose de prêt à la production directement.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
Ça n'est pas juste une limitation imposée par le distributeur du modèle? Rien n'empêche de sortir une version actualisée tous les mois ou tous les ans.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3. Dernière modification le 26 août 2024 à 18:54.
Rien ne garantit que le message soit compatible avec la morale du XXIe siècle, hein… Moi je comprends que Zeus il est très musclé, il a des grosses balloches pleines de testostérone, et que comme ça Europe elle ne peut pas résister (on comprend comme on veut), et que c'est comme ça que font les Dieux mâles dominants très virils. De toutes manières, après il la refile à un roi pour des raisons politiques, donc il n'était pas non plus très très amoureux.
Wikipédia ajoute que "À Gortyne, sous un platane qui depuis lors est toujours vert, Europe s'accouple avec Zeus, sous forme humaine cette fois"… soit c'est mal écrit, soit le "cette fois" est un peu inquiétant parce que je n'avais pas compris les détails de l'histoire comme ça.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
Probablement, si ton corpus d'apprentissage est à 95% hors de star wars et décrit star wars comme une oeuvre de fiction. Mais tu as plein d'exemples où ça n'est pas forcément le cas. Par exemple, quelle part du corpus décrit la mythologie monothéiste comme une oeuvre de fiction? De facto, une part substantielle des humains ne la considèrent pas comme de la fiction, qu'est-ce qu'une IA devrait répondre là-dessus?
Certes, mais ça n'est quand même pas facile de lui demander d'avoir un sens de la "vérité" quand le corpus contient de gros blocs cohérents dans lesquels les lois de la physique sont fausses. Pour le coup, être capable de classifier un corpus en "fiction" vs "réalité", ça c'est quand même un signe d'intelligence, non? Par exemple, si ton IA lit "L'histoire de Quiddich à travers les âges", jamais le livre ne s'identifie comme une oeuvre de fiction qui fait partir de l'univers de Harry Potter. Nous, on est cablés pour faire très facilement la différence; à 2 ans un gamin fait la différence entre une histoire fictionnelle et une histoire vraie. Mais un LLM doit faire émerger ça à partir de son corpus, ça n'a pas l'air facile. Surtout s'il faut évaluer si la biographie de Trump est une oeuvre de fiction, par exemple.
Les LLM prouvent que non; ils manipulent les syllogismes et se trompent rarement sur les raisonnement piégeux (du style "combien de temps faut-il à 9 femmes pour faire un enfant"). En fait, c'est assez facile de montrer qu'ils ne raisonnement pas; ils arrivent fréquemment à te donner la bonne réponse sans être capables de te donner un raisonnement correct quand tu leur demandes; ça ressemble plus à une intuition très efficace (du fait de la taille du corpus ingurgité), et une sorte de rationalisation a posteriori quand tu lui demandes explicitement.
Mais encore une fois, est-ce bien grave? Imagine que tu fournisses un service de diagnostic en ligne de pannes de bagnole. Tes experts donnent le bon diagnostic dans 90% des cas, à partir des informations fournies dans un chat. Ils vont raisonner, du style "C'est une 206 de 2010, on sait qu'il y a souvent des pannes dûes aux faisceaux sur ces modèles", etc. À côté, chatGPT ne sait même pas ce qu'est une bagnole, mais donne un résultat probabiliste basé sur autant d'indices qu'il peut percevoir (l'orthographe du client, la rapidité des réponses dans le chat…). S'il est précis à 95%, quel est le problème à lui laisser donner des réponses intuitives? Dans la plupart des applications, ce que tu souhaites, c'est avoir la bonne réponse à ton problème, et pas de t'assurer que cette réponse est construite sur un raisonnement solide.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 4.
Lui faire avaler la littérature scientifique plutôt que les logs de Twitter? Oui, en effet, je pense que ça serait mieux si tu veux lui faire recracher des trucs vrais. Mais je pense que le but c'était de passer le test de Turing, auquel cas mieux vaut sortir les mêmes idioties qu'un humain moyen.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3. Dernière modification le 26 août 2024 à 16:38.
En général, si tu lui demandes "es-tu sûr de ton raisonnement?", il va se corriger.
Mais bon, tout ça reste une forme de simulation de raisonnement, et je ne pense pas qu'il puisse réellement raisonner (dans le sens où on le conçoit). D'une manière plus générale, il n'a pas réellement de notion de vérité, puisqu'il ne connait que le corpus d'entrainement, il n'a aucun moyen de comparer ce corpus avec le monde réel.
Ce qui n'est pas très étonnant d'ailleurs. Si le corpus c'est l'univers de Star Wars, alors pour lui, la Force et les Jedi sont des trucs réels. C'est malvenu de lui reprocher ça, puisqu'un humain serait exactement dans la même situation, d'ailleurs. Comme il n'a pas accès au monde par ses propres sens, il ne peut que "croire" ce qu'on lui raconte.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
De toutes manières, essayer de faire "raisonner" un modèle de langage est absurde. Ça démontre en effet pas mal le genre de fantasmes que les gens peuvent avoir, mais on est d'accord que ça n'a aucun intérêt? Au mieux, tu peux espérer avoir une réponse correcte que le problème est suffisamment connu pour qu'il soit largement représenté dans les données d'entrainement.
Je pense que ça illustre aussi pas mal la mauvaise foi avec la quelle la question est traitée parmi la communauté qui s'intéresse à ces technologies. Les gens qui ont conduit ces études savent pertinemment que rien dans un modèle de langage ne lui permet de suivre un raisonnement mathématique. Tu peux conclure que "ah ah cette AI est stupide", mais celui qui est stupide est celui qui a conçu ce test idiot.
Pour tester un LLM, fais-lui écrire une lettre, raconter une courte histoire, résumer un texte… Regarde par exemple, je viens de faire le test : "écris un sonnet sur une panne d'embrayage". Voici le résultat:
*Sur la route déserte, un triste présage,
L'embrayage soudain décide de céder,
Et mon voyageur se voit tout arrêter,
Dans un silence lourd, pesant comme un orage.
Je cherche en vain un secours, un visage,
Le moteur agonise, prêt à m'abandonner,
Et sous le capot chaud, je commence à douter,
Qu'un miracle survienne dans ce sombre paysage.
Mais voilà qu'arrive un vieil artisan,
Aux mains tachées d'huile, au geste précis,
Qui d'un tour de clé redonne vie au moteur.
L'embrayage renaît, brillant artisan,
Je repars enfin, le cœur allégé,
Reprenant la route, loin de toute frayeur.*
Bon, il y a des problèmes mineurs sur certaines rimes, mais honnêtement, il faut être blasé pour ne pas être amusé par la performance du truc, non? Évidemment que ça n'est pas du Hugo, mais là encore tu as un résultat meilleur que quoi, 90% des gens?
Ouais c'est ça, les gens intelligents c'est ceux qui savent mener un raisonnement mathématique. On se demande bien pourquoi tant de livres ont été écrits sur le sujets alors que c'est tellement facile.
Plus prosaïquement, quand tu mets un humain à un poste de travail par exemple, tu te fous un peu de savoir comment il mène les raisonnements qui le conduisent à prendre les bonnes décisions. Personne ne s'est jamais demandé si Dédé de la compta, il pensait vraiment ou il simulait la pensée. Et heureusement, parce qu'à part mener à des situations débiles et inconfortables, je ne vois pas où ça peut te mener. Bah voila, c'est pareil avec les LLM: ils se comportent dans la plupart des situations comme un humain qui raisonne, avec ses limites, ses erreurs, ses biais, ses imperfections. C'est donc une IA dans la mesure où elle peut simuler l'intelligence, donner les mêmes réponses qu'un humain qu'on présume intelligent. Chercher plus loin, c'est de l'escroquerie, parce qu'on sait très bien que les LLM ne raisonnent pas, ils ne sont pas conçus pour raisonner, et quelle que soit la complexité de la question qu'on leur pose, on finira toujours par pouvoir montrer qu'ils "simulent" le raisonnement.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
On sait que ça va s'améliorer, mais on ne sait pas jusqu'où. Ça n'a rien à voir avec du "wishful thinking". Ça va s'améliorer, parce qu'on sait que les services professionnels sont largement supérieurs à ce qu'on peut avoir pour le grand public payant, ce qui est encore supérieur à ce qu'on a en gratuit. Il est donc possible d'avoir bien mieux que ce que la plupart d'entre nous a pu tester.
Tu confonds "on" et "je". Ça n'est pas parce que tu sais pas que personne ne sait.
En fait, je ne sais même pas comment tu peux tenir un tel discours sur la "médiocrité" des IA, ça me fait clairement penser à une sorte de déni. Est-ce que tu as essayé d'utiliser un outil grand public (type chatGPT) sans mauvaise volonté, sur une tâche pour laquelle il est "bon" (en gros, générer du texte)? Tu demandes la même chose à 100 humains au hasard dans la rue, tu penses que chatGPT se classe où? Franchement, il va très souvent être dans les quantiles tout en haut, 90%, 95%. Ça ne va pas valoir ce que pourraient produire les cracks du domaine, mais ça a largement, très largement même, être au moins équivalent à ce que produirait un humain. Comme je le disais plus haut, chatGPT a un niveau master dans beaucoup de domaines, ce qui n'est pas à la portée d'un être humain (je veux dire, niveau master, oui, mais pas dans tous les domaines).
Après, pense que tu es irremplaçable, que jamais une machine ne pourra t'égaler dans le futur, que tout ça est du flan, tu es libre de penser ce que tu veux. Mais pose-toi juste la question sur la part de ça qui est dû à un raisonnement rationnel, et la part qui espère juste ne pas vivre dans un monde où en effet, les machines seraient capables de fournir un travail intellectuel de qualité supérieure à la plupart des êtres humains?
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
Je ne sais pas ce que tu appelles "intéressantes". Si c'est du point de vue de la société, je t'accorde que ça n'est pas impressionnant, même si je pense qu'il y a énormément de potentiel au niveau des interfaces entre les consommateurs d'un service et l'équipe de développement (questions fréquentes, documentation, rapport de bugs, etc). Par contre, le fait que ces systèmes soient capables de générer des copies mieux que moyennes jusqu'au niveau master, les étudiants l'ont bien compris. La capacité à étendre ou à résumer un texte est aussi extrêmement impressionnante. Comme dit plus haut, c'est un outil : il faudra repasser derrière pour vérifier rapidement, et ça n'aura jamais aucune réelle créativité, puisqu'il s'agit d'outils de synthèse. Mais si on en reste à ce niveau, ça marche quand même plutôt bien, et on a toutes les raisons de penser que ça ne peut que s'améliorer (jusqu'où? Ça n'est pas très clair).
[^] # Re: Interface chaise clavier
Posté par arnaudus . En réponse au message Le dev, les proS et les bugS !. Évalué à 5.
Mais c'est aussi parce qu'on croit naïvement que d'avoir des communautés ouvertes c'est bien et qu'il n'y a pas besoin de prévoir des cas particuliers. Ça fait plus de 20 ans que ces cas comme ça existent sur Wikipédia par exemple, des contributeurs très (très très) motivés, qui produisent du contenu incompréhensible ou clairement contre-productif, qui interagissent de manière très inefficace avec le reste de la communauté, et qu'on ne peut pas bloquer ou ignorer parce que ça rend tout le monde mal à l'aise. C'est toute la balance complexe entre l'inclusion et la protection des membres de la communauté.
Honnêtement, j'ai toujours pensé que la meilleure solution est celle de prévoir dans l'interface la possibilité d'isoler ces contributeurs, de manière à ce qu'ils aient accès à une version personnalisée du site, qui contient tout le site, plus leurs contributions qui ne sont pas visibles pour les autres contributeurs. Je crois que sur Wikipédia il leur était proposé de contribuer dans des "bacs à sable", des versions des pages destinées à l'origine aux gros chantiers de remise en forme des articles (on travaille sur une version en développement avant de la mettre d'un coup en ligne, afin d'éviter que le lecteur tombe sur un truc en travaux). Du coup, hop, on crééait des bacs à sable, on disait aux contributeurs "plutôt que de te faire réverter dans la page principale, tu n'as qu'à travailler au calme dans cette page"; tout le monde était content, le contributeur avait accès à Wikipédia et il était le Dieu absolu sur sa page, et étrangement le fait que la page n'était pas indexée ni visible n'était pas un problème la plupart du temps. Donc voila, plutôt que de ban ou de moinsser, on pourrait "invisibiliser" les contributeurs trollesques, sans pour autant qu'on doive réellement décider s'ils sont malveillants ou s'ils souffrent d'un trouble qui rend leur contribution à une communauté problématique pour les autres. Ils pourraient alors continuer à interagir avec le site, poster des spams ou des textes qui troubleraient les autres contributeurs, et ça leur prendrait beaucoup de temps avant de se rendre compte que les autres ne le voient pas.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2.
Déja, est-ce qu'on parle de la qualité absolue de ce qui sort d'une IA, ou bien de la qualité relative par rapport aux données qu'elle a ingurgité? Si on nourrit une IA avec les pages de la Flat Earth Society, l'IA te dira que la terre est plate. Il n'y a pas de problème avec l'IA, juste un problème avec la qualité des données.
Ensuite, est-ce que l'argument est temporaire (du style, "pour l'instant, c'est pas assez fiable"), ou est-ce qu'il est définitif ("par principe, ça n'est pas fiable"). Enfin, quelle est la référence? Par exemple, une IA qui conduit une voiture, on sait qu'elle va avoir des accidents, la question est plutôt si elle a plus ou moins d'accident qu'un conducteur moyen, qu'un conducteur inexpérimenté, qu'un conducteur âgé, etc.
Du coup, il y a tellement d'arguments qui s'éparpillent partout sur l'échelle de l'argument foireux qu'à un moment, il est tentant de tout balancer, parce que la plupart sont des arguments de grand-mères à moustaches ("ce truc change le monde et je n'aime pas quand le monde change"). Et je suis d'accord aussi que beaucoup d'arguments sont contradictoires entre eux. "Ça ne fait que reformuler Wikipédia" vs "Ça n'aura jamais la fiabilité d'une page conçue par un humain", par exemple. Il y a également énormément d'arguments basés sur le traitement d'informations privées, qui pourraient être obtenues par un moteur de recherche : si Google te retourne la bonne réponse si tu demandes "Quel est le numéro de téléphone de Tartempion" ou "Est-ce que Tartempion est juif", alors c'est normal que chat GPT te donne également la bonne réponse, c'est ce qu'on attend de lui (et s'il ne la donnait pas, on dirait "ah ah c'est moins bien qu'une recherche Google").
Parce qu'une IA bien configurée peut aussi être au service de la vie privée. Justement, si elle a pour consigne de ne pas dévoiler d'informations privées, elle peut "filtrer" le contenu du web pour ne fournir que les informations pertinentes. Elle peut t'apporter des nuances ("selon certaines sources la Terre est plate, mais ce n'est pas l'avis des scientifiques"), etc. L'IA est un outil, c'est un outil tellement nouveau que peu savent comment il fonctionne et comment l'utiliser efficacement, c'est un outil tellement puissant que beaucoup en ont peur, et c'est un outil tellement récent qu'on n'a aucune protection légale, ni même aucune règle éthique, qui s'appliquerait aux excès. Mais une fois qu'on a retiré tous les argument superficiels (qui traduisent des peurs ou des fantasmes, tels que la peur de perdre son boulot), et les arguments qui se concentrent sur l'imperfection des implémentations disponibles actuellement ou sur les lacunes des bases de données qui servent à entraîner les logiciels, il reste beaucoup moins de questions à trancher. Une question majeure est celle de la responsabilité (qui est responsable, celui qui fournit l'IA, celui qui l'utilise, celui qui publie le résultat…), une autre question est celle de la légalité de l'usurpation (est-ce éthique d'utiliser une IA pour se faire passer pour un humain auprès d'un autre humain), etc. Mais tant qu'on ne se débarrasse pas des questions de grand-mères à moustaches, on aura du mal à s'intéresser au fond des choses.
[^] # Re: Interface chaise clavier
Posté par arnaudus . En réponse au message Le dev, les proS et les bugS !. Évalué à 5.
Selon toute vraisemblance, cette personne est "neuro-atypique". Nous n'avons pas les compétences pour poser un diagnostic (et si on les avait, on n'aurais pas le droit déontologiquement), mais on peut au moins faire preuve de bienveillance.
Ceci dit, je n'ai absolument rien compris à ce qu'il attend de nous sur cette entrée de forum. Qu'on lui dise qu'il n'y a pas de bug dans Linux?
[^] # Re: Pas le même paradigme
Posté par arnaudus . En réponse au message Avantages du C++ sur le C ?. Évalué à 4.
Je pense que ce qui n'est pas très clair pour beaucoup (y compris pour moi), c'est à quel point un langage comme C++ est multiparadigme, et à quel point il n'implique pas d'utiliser toutes ses possibilités. Ce n'est pas parce qu'une police de caractères propose des glyphes latins, grecs, et hébreux que c'est une bonne idée de mélanger tout ça dans le même texte.
Certains utilisent C++ comme un C amélioré (avec des classes à la place des struct, les opérateurs <<, les const et les références par exemple), d'autres comme un pur langage objet (encapsulation et héritage), d'autres ne jurent que par les algorithmes génériques à la STL, certains excluent les templates ou les exceptions, etc.
En théorie, j'ai l'impression les avantages majeurs de la POO se voient surtout sur les gros projets (travail indépendant sur des modules, évolutivité à long terme), surtout quand leur architecture générale a été conçue par des gens qui connaissent bien leur boulot (design patterns etc). Tant que tu as des exemples du style "class Voiture: public Vehicule", ça parait complètement déconnecté de ce dont tu as besoin pour écrire un programme lambda de 150 lignes.
Mais sur le fond, certaines possibilités offertes par le C++ sont quand même des trucs de niche, qui sont à des années lumière de ce qu'un programmeur peu expérimenté peut maitriser. Je crois qu'il m'a fallu des années pour comprendre par exemple que la surcharge des opérateurs n'était pas utile pour 99.9% des projets, ou qu'on pouvait faire du code propre sans template variadique. Et puis après j'ai arrêté le C++ parce que ça n'était pas l'outil dont j'avais besoin, et voila.
[^] # Re: Pas le même paradigme
Posté par arnaudus . En réponse au message Avantages du C++ sur le C ?. Évalué à 8.
En tout cas, il a l'air bien convaincu que l'esprit du Libre, c'est de coder en C, autrement, tu vas en prison.
Compte créé aujourd'hui, peut-être juste un troll? En tout cas, son manque de culture rend l'affirmation qu'il est développeur assez douteuse (par exemple, les problèmes liés au type de NULL, ça devrait être dans les cordes d'un developpeur C, non?)
[^] # Re: Pourquoi la voiture propose une maj en roulant...
Posté par arnaudus . En réponse au lien il paralyse Sète en lançant une mise à jour Tesla au feu rouge. Évalué à 8.
De toutes manières, l'info est passée par une série de témoins et de journalistes, donc il n'y a aucun moyen de savoir ce qui est vrai ou pas.
L'article dit que le frein à main n'est pas désactivable pendant la mise à jour, ce qui me semble poser d'éventuels problèmes de sécurité…
[^] # Re: Pas le même paradigme
Posté par arnaudus . En réponse au message Avantages du C++ sur le C ?. Évalué à 7.
Rassure-moi, c'est une caméra cachée ou un truc comme ça? :-)
En fait, quand tu demandais "quels sont les avantages du C++?", tu ne voulais pas une réponse, tu envoyais une bouteille à la mer pour savoir à quel point tu étais seul sur ton perchoir?
[^] # Re: Il y a des baffes qui se perdent...
Posté par arnaudus . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 2.
:-)
# Pas le même paradigme
Posté par arnaudus . En réponse au message Avantages du C++ sur le C ?. Évalué à 7.
En fait, tu es en train de demander quelque chose comme "quel est l'avantage du bateau sur la voiture?". On va te répondre "Il peut aller sur l'eau". Et tu vas dire "Bah je n'ai pas besoin d'aller sur l'eau, et puis avec un 4x4 je peux rouler dans les flaques".
Je ne sais pas si C++ est un bon langage objet, je le trouve verbeux, piégeux, hyper-complexe, et ses évolutions le rendent encore plus complexe et plus technique. Mais bon, le C++ moderne est un langage objet et ses dernières évolutions permettent une programmation générique assez poussée, et il est probable que tu n'aies aucune idée de ce que ça permet si tu les compares avec les enum et les struct de C.
Là, tu es en train de dire "sur ma voiture le volant est noir alors que sur les bateaux le volant est blanc, donc je ne vois pas l'intérêt d'acheter un bateau plutôt qu'une voiture".
Deux possibilités. La possibilité 1, c'est que des millions d'ingénieurs ont conçu, appris, amélioré, et utilisé dans des milliers de logiciels des concepts de programmation qui n'ont aucun intérêt. La possibilité 2, c'est que ta formation et ton expérience en programmation sont trop parcellaires pour que tu comprennes l'utilité de ces concepts, et même trop limitées pour que tu puisses comprendre ce qu'il te manque pour comprendre l'utilité de ces concepts.
J'ai ma petite idée sur la possibilité qui est la plus vraisemblable, mais je ne veux pas influencer :-)
Par contre, je pense que ça illustre pas mal le fait que tu n'as probablement pas besoin d'utiliser C++ pour tes projets, donc pas besoin de se poser trop de questions : n'apprends pas C++. Ceci dit, je ne pense pas que C soit un bon langage pour n'importe quoi d'autre que des applications très proches du système, et il y a quand même un côté "vieux grognon" à toujours pousser vers la compréhension fine du fonctionnement des ordinateurs quand on commence la programmation.
[^] # Re: Il y a des baffes qui se perdent...
Posté par arnaudus . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 7.
Si c'était vrai, il n'y aurait pas de différence notable entre les agents, ce qui n'est pas le cas. Et en fait, c'est presque pire, parce que les agents essayent d'anticiper les décisions arbitraires qui seront prises un étage au-dessus. Dans mon expérience, c'est la pire situation administrative, puisque les agents ne sont jamais récompensés pour leur efficacité; par contre, il peuvent être blâmés pour leurs erreurs. Du coup, ils vont mettre le curseur sur une attitude très, très prudente, à la limite de la rigidité psychologique. Contrairement à ce que tu supposes, il n'y a aucune marge de discussion possible, puisque l'agent te dis juste "ça, ça ne passera pas", et c'est tout. Tu ne peux pas lui répondre "mais si, ça passera", parce que tu n'en sais rien. Tu peux lui sortir la liste de gouv.fr, mais on va te répondre que c'est indicatif et que dans son expérience, ça ne passera pas.
En plus, si tu crois que les échelons supérieurs justifient leurs refus, tu te trompes complètement. Par exemple, ils vont refuser une quittance de loyer écrite en vert. L'agent de l'État civil ne saura pas si c'est parce que c'est une quittance de loyer, si c'est parce que c'est un document manuscrit, ou si c'est parce que c'est écrit en vert. Il va deviner, et va se mettre par exemple à refuser tous les documents manuscrits, ou tous les documents écrits en vert. Il va le dire à ses collègues qu'il forme sur le tas, il va le dire aux gens qui viennent déposer un dossier, qui vont le répéter à leurs proches ou sur les forums d'aide sur internet, et voila, tu as créé une sorte de "culture" fantaisiste, sans aucune base solide; tout le monde va penser, écrire, et confirmer "de source sûre" que les quittances de loyer ne sont pas valables alors que le problème était la couleur du stylo, ou le contraire.
[^] # Re: facho !
Posté par arnaudus . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 7.
Non mais ça, c'est parce que l'ennemi est bête. Il croit que c'est nous l'ennemi alors que c'est lui ! :-)
[^] # Re: Lae boulangèreuratriceuse qui calcule la monnaie exécute un algorithme
Posté par arnaudus . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 3.
Bah je pense que la définition du Larousse est bugguée :-)
Au-delà du "problème", il y a la question du "nombre fini d'opérations" qui me semble hautement questionnable, puisqu'il est justement impossible de déterminer si certains algorithmes vont se terminer ou non.
Mais pour être clair : le problème résolu par un algorithme n'est pas l'écriture de l'algorithme. Pour l'exemple du carré vert, en effet, "écrire un algorithme qui remplit un carré de pixels verts en un temps fini" est un problème. Mais ce problème, c'est le programmeur qui va le résoudre. L'algorithme, lui, va remplir le carré, ce qui est une tâche, mais pas un problème à résoudre. Un peu comme "demander son nom à l'utilisateur": l'algorithme ne doit pas fournir une solution à un problème.
Pour le reste, on ne va pas sodomiser les mouches avec des gants de boxe toute la journée. Tu prends l'exemple de A*, voila, A* c'est l'algorithme, et tu peux coder cet algo en C, en python, ou en brainfuck, c'est toujours A*.
[^] # Re: Mouais, pas convaincu
Posté par arnaudus . En réponse au lien 10 Reasons Why Technological Progress Is Now Reversing — Or How Silicon Valley Started Breaking Bad. Évalué à 10.
En fait, ça ressemble tellement à des marmonnements de vieux dans son dentier qu'il est difficile de trouver ça original ou nouveau. Je pense que l'arnaque dans ce genre de choses est de présenter ces choses là comme une pensée nouvelle, alors que je suis persuadé qu'en remplaçant les termes techniques par "machine à vapeur" la plupart des arguments ne paraitraient pas anachroniques au XIXe siècle.
Prends le coup de la puissance des entreprises par exemple. L'influence que peuvent avoir Apple ou Amazon sur les États n'est rien par rapport aux Compagnies des Indes, qui ont directement piloté les politiques impérialistes des pays occidentaux pendant deux siècles. La puissance des milliardaires a toujours également été au devant de la scène, en politique ou dans la fiction, avec parfois aussi ce petit arrière-goût d'antisémitisme. La plupart des points sont comme ça, le 1) par exemple sur la quête de vérité, comme si le XIXe et le XXe siècle n'avait pas produit "industriellement" de la désinformation scientifique (tabac, pesticides, psychanalyse, machins new-age…). Le 2), le spam à une échelle industrielle, comme si les boîtes aux lettres n'étaient pas pleines de prospectus débiles (et environnementalement injustifiables) depuis des décennies, comme si la propagande et la publicité n'étaient pas déja montées en puissance depuis des dizaines d'années… Ce truc décrit juste ce qu'est le monde depuis 200 ou 300 ans, comme si c'était mieux avant et que c'était de pire en pire, ce qui n'est qu'une illusion.
En fait, ce qui me semble beaucoup plus intéressant, c'est de parler de projet de société. Les GAFAM peuvent imposer leurs projets de société simplement parce que nous n'en avons pas. Une des raisons, c'est justement parce que ce genre de discours technophobe et réactionnaire est séduisant, y compris dans les communautés du libre : notre "projet" serait un vague retour à une situation qui n'a jamais existé, où les entreprises seraient gentilles et où les données privées n'auraient pas de valeur.
Dans un projet de société alternatif par exemple, j'aimerais qu'on m'explique comment on assure l'accès à des services numériques (messagerie, téléphonie, réseaux sociaux) à 5 milliards de personnes, par exemple. Parce que oui, bien sûr, nous on pourrait payer 20€/mois pour héberger ses mails ailleurs que chez Google, on pourrait payer pour utiliser un service similaire à Whatsapp, on pourrait payer un abonnement à TikTok ou à Youtube. Mais comment ça marcherait en Afrique, par exemple? Les multinationales "offrent" des services qu'on peut considérer maintenant comme quasiment basiques contre des données privées; et de nombreux être humains peuvent "payer" avec ces données alors qu'ils ne pourraient pas financer les serveurs ou la bande passante avec des vrais sous.
Personnellement, je suis sidéré par la nullité des débats autour de l'AI. "C'est bien", "c'est mal", "c'est dangereux", "ça va prendre des emplois"… Tout ça n'a aucun intérêt, c'est de la branlette de futurologue de plateau TV. Au contraire, il serait urgent de se concentrer non pas sur les applications de l'IA, qu'on ne peut absolument pas anticiper, mais sur la place qu'on lui assigne dans la société. Par exemple, je trouverais indispensable dès maintenant de créer un délit d'"usurpation d'humanité", puni d'une peine d'amende et de prison, pour quiconque mettant en place une interaction avec un programme informatique dont la nature n'est pas explicite. Ça laisserait tout le champ libre pour l'innovation, mais il serait totalement proscrit et considéré comme un délit grave de faire passer des programmes pour des humains; je veux bien discuter avec un chatbot mais je veux savoir à qui je parle.
[^] # Re: Lae boulangèreuratriceuse qui calcule la monnaie exécute un algorithme
Posté par arnaudus . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 3.
Un algorithme écrit en pseudo-code, ça n'est pas un programme. Un programme est une implémentation concrète, les deux concepts ne sont pas équivalents. Pour moi, je rapproche "programme" de "logiciel", mais pas d'algorithme.
Ça n'est pas vrai, sauf avec une définition pathologique de "problème". Je trouve beaucoup plus clair de parler de "tâche". Par exemple, remplir un rectangle de pixels verts, c'est une tâche, mais pas un problème (le rectangle vert n'est pas la solution, puisque c'est l'énoncé). Pourtant, il va te falloir un algorithme pour remplir cette tâche. Un algorithme, c'est l'idée de la liste d'instructions nécessaires à faire une tâche. Tu peux implémenter cet algorithme dans un langage de programmation particulier et le compiler pour une plate-forme particulière, ça te donne un programme (un programme peut contenir beaucoup d'algorithmes).
Par contraste, un problème est un énoncé qui attend une réponse (non-triviale). Par exemple, la commande sleep est un programme qui implémente un algorithme qui effectue une tâche (attendre un certain temps), mais qui ne résout pas de problème. Par contre, le tri à bulle est un algorithme qui résout un problème (trier un vecteur), mais ça n'est pas un programme. Il faut implémenter cet algorithme pour obtenir un programme, qui fera autre chose en plus du tri à bulle (notamment, gérer les entrées/sorties).
C'est juste toi qui le dis, mais j'ai toujours entendu et compris "une heuristique" comme un simple raccourci de "un algorithme heuristique", et je pense que c'est ce que la plupart des gens sous-entendent.
Tant mieux si tu comprends ce que le grand public appelle "les algorithmes" en général, parce que moi je ne comprends pas. L'algorithme "PageRank" de Google ne m'a jamais posé de problème particulier, par exemple. La seule chose qui me semble sensée, c'est de faire référence aux algorithmes qui déterminent l'ordre et la visibilité des contenus proposés sur les réseaux sociaux. Le problème est souvent que ces algorithmes sont conçus pour optimiser les revenus des plateformes, et ni l'expérience ni le bien-être des utilisateurs. Mais si on compare par exemple avec Mastodon, l'algorithme est simple (posts des utilisateurs suivis dans l'ordre chronologique), mais il n'optimise pas non plus le bien-être des utilisateurs (en tout cas, moi j'aimerais bien aussi avoir accès à des choses intéressantes qui viennent de l'extérieur du cercle des gens que je suis). On pourrait classer les algorithmes en fonction de critères (par exemple, est-ce qu'ils sont publics, est-ce qu'ils sont simples, sont-ils manipulables, sur quelles données ils se basent, quels sont les critères optimisés, sont-ils conçus pour manipuler les comportements, etc). Ça serait d'autant plus important pour les plateformes qui rémunèrent les auteurs de contenus, puisque les algorithmes créent le cadre de la concurrence.
[^] # Re: Lae boulangèreuratriceuse qui calcule la monnaie exécute un algorithme
Posté par arnaudus . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 3. Dernière modification le 21 août 2024 à 12:34.
Ohlala, il faut quand même respecter un minimum les définitions des mots, sinon on ne va pas s'en sortir. Ceci dit, à ta décharge, le 2e paragraphe de l'article de Wikipédia en anglais, c'est un peu de la daube. Le reste de l'article est bon, c'est vraiment cette partie qui est naze (peut-être la cause du bandeau "personal reflexion"?) Comme dit dans la discussion de l'article, "'Algorithm' as used by non-computer-scientists / non-experts to discuss recommender systems in social media (which, surely, are implemented by large numbers of algorithms) is a technically-incorrect use of the word almost entirely unrelated to this article."
Un algorithme est une série d'instructions
Un algorithme d'optimisation est une série d'instructions visant à trouver la solution d'un problème
Parmi les algorithmes d'optimisation, il y a des algorithmes d'optimisation exacts (qui t'assurent de te fournir la ou les solutions du problèmes), et les algorithmes d'optimisation heuristiques (qui te donnent une solution approximative du problème, sans te garantir la précision et l'exhaustivité).
Je ne trouve pas la distinction heuristique/solution exacte particulièrement pertinente dans le contexte, parce que ça dépend simplement du problème à résoudre et de sa complexité mathématique. Par exemple, les logiciels qui jouent aux échecs sont des heuristiques, les logiciels qui jouent au morpion sont des solutions exactes, et je ne vois pas ce que ça change en pratique pour l'utilisateur.
Certains problèmes sont probablement voués à ne jamais être abordés autrement que par des heuristiques, parce qu'il n'existe pas de solution unique, seulement un ensemble plus ou moins grand de solutions acceptables. C'est par exemple le cas de la traduction. Je ne suis pas sûr du tout que les algorithmes tels que la suggestion de contenu soient des heuristiques. Si l'algorithme, c'est quelque chose comme "trier en ordre décroissant les vidéos sur la base d'un index I = W1*(popularité sur le site) + W2*(mots clés en commun avec les 50 dernières vidéos lues par l'utilisateur) + W3*(popularité parmi la communauté suivie par l'utilisateur)", ça semble facilement exécutable par une routine exacte. Les poids W1 W2 et W3 peuvent être calculés par n'importe quelle méthode ou ajustés arbitrairement.
Bref, tout ça pour dire que je ne suis pas convaincu que cette histoire d'heuristique aille bien loin.
[^] # Re: Il y a des baffes qui se perdent...
Posté par arnaudus . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 5. Dernière modification le 21 août 2024 à 10:04.
Après, oui, "il faut le voir pour le croire". Sur le principe, ça parait vraiment étonnant; en théorie l'état de droit en France est quand même assez solide et il est normal de s'imaginer qu'on va sur le site officiel, on a une liste de documents, on apporte un de ces documents, et c'est bon. Mais en fait, non.
Une recherche rapide tombe sur le Décret n°2005-1726 relatif aux passeports, qui dit : "Le demandeur justifie de son domicile ou de sa résidence par tous moyens, notamment par la production d'un titre de propriété, d'un certificat d'imposition ou de non-imposition, d'une quittance de loyer, de gaz, d'électricité, de téléphone ou d'une attestation d'assurance du logement." C'est complètement flou, et vous constaterez que la liste est différente de celle de gouv.fr. D'ailleurs, gouv.fr invente plein de trucs : facture de moins d'un an, quittance de loyer issue d'un professionnel, document mentionnant le nom et le prénom, etc, probablement pour cadrer un peu les choses et éviter les refus. C'est vraiment du travail de cochon.
Par contraste, comparez avec le justificatif de domicile pour le permis de conduire : https://www.legifrance.gouv.fr/jorf/article_jo/JORFARTI000033736430 . Ça c'est super clair, la liste est exhaustive et précise. Mais notez que le permis est géré par les préfectures, alors que les passeports sont gérés par les mairies.
Un autre exemple d'arbitraire c'est la ressemblance de la photo. La qualité de la photo (contraste, flou, etc) est gérée par le service qui délivre les titres (CERT, ou un truc comme ça), mais c'est bien le fonctionnaire de mairie qui décide si la photo est ressemblante. Il a un rôle clé d'ailleurs, puisque c'est une étape critique du processus, et c'est assez inimaginable que ça soit si peu carré. Je crois qu'il y a des mairies équipées pour prendre les photos (ce qui me semble le plus logique), mais ça n'était pas le cas pour moi quand j'ai refait mon passeport, donc le fonctionnaire regarde la photo, te regarde, regarde la photo, et dit "mhh mmhhh", et voila. Et si tu es un peu noir par exemple, il peut dire "euuuhhh… je sais pas trop, c'est bien vous sur la photo?". D'ailleurs, c'est marrant que les gens "un peu" racistes trouvent à la fois que tous les noirs se ressemblent mais qu'ils ne ressemblent jamais à leur photo.
Ça me rappelle une discussion sur l'idée qu'il n'est peut-être pas illégal de fournir un pdf modifié pour contenir des informations vraies, mais je conseillerais quand même de chercher un bon avocat :-)