Si tu parles une fois des feux et tous les 2 jours de X, les gens pensent beaucoup à X et très peu aux feus.
Mouais, ce qui compte pour les médias, c'est l'audience, et donc ils vont parler de trucs qui vont scotcher les gens le plus possible. Le but d'un média n'est pas d'éduquer (enfin, sauf le service public, et encore c'est discutable parce qu'éduquer 30 personnes parce que tous les autres sont sur TF1, ça n'est pas idéal).
Moi je ne crois pas qu'on puisse éduquer les gens à se poser les bonnes questions en les abreuvant de reportages qui ne les intéressent pas. Ils vont juste passer sur "Les chtits à Miami" et ils ne s'intéresseront pas plus à tes feux de forêt.
Que les média fournissent déja des reportages de bonne qualité sur les sujets qu'ils veulent traiter, ça sera pas mal.
Pourquoi reste-t-il donc des gens qui rejettent tout ça?
Mon hypothèse, c'est que ça leur donne l'impression d'être importants. Pour être climatologue, il faut avoir un master, puis faire une thèse, puis publier des travaux importants dans le domaine, puis trouver un poste de professeur dans une université. Ça prend 30 ans, et il y a beaucoup de sélection.
Pour être climatoseptique ou covidoseptique, ça prend 5 minutes et un Ricard. Si ça te permet d'avoir ton petit public, de faire ton intéressant, jusqu'à parfois même te faire inviter sur des plateaux TV pour jouer le "contradicteur" face à des professionnels du domaine, pourquoi se priver? Ça n'est même pas clair à quel point ces gens croient ce qu'ils racontent.
Par exemple, pour moi, les têtes des mouvements "plastistes" sont dans cette situation idiote où ils doivent leur notoriété par la diffusion d'idées ridicules dont ils ont probablement assez honte, mais ils sont pris dans une sorte de "spirale du mensonge". D'ailleurs, toutes ces communautés le sont, puisque le premier qui va commencer à discuter de la remise en cause va se faire harceler; il y a même probablement une sorte de prime sociale à être le plus extrême possible et le plus imaginatif sur l'invention de nouveaux "complots". Seul ton entourage peut te sortir de là, la réalisation collective dans ces mouvements est impossible. D'une manière générale, gérer la dissonance cognitive c'est très dur quand tu as engagé plusieurs années de ta vie à défendre des idées absurdes.
Ça n'est pas l'utilisation d'un VPN qui est interdite, c'est l'accès à un site interdit.
L'utilisation d'un procédé technique pour faire quelque chose d'illégal dans ton pays n'a jamais été légal. Ça n'est pas le procédé technique qui est illégal, c'est juste l'action que tu effectues grâce à ce procédé. Les couteaux de cuisine sont légaux, mais tu ne peux pas planter ton voisin avec…
Je sais bien que certains sont shootés à un "internet de non-droit", avec l'idée que l'État n'a pas à mettre son nez entre ton clavier et le reste du monde, mais c'est une sorte de mythe auto-construit, qui ne repose sur aucun argument juridique. La liberté d'expression s'exerce avec sous sans VPN ou avec ou sans Tor, c'est un concept juridique.
Et au passage, pour la démocratie… C'est aussi la démocratie qui a justifié le passage vers une société de surveillance et de prévention, le "bon peuple" a décidé que le rôle de l'État était d'empêcher préventivement les crimes et délits : on met des ralentisseur sur les routes, on met des caméras de surveillance, etc. Pas étonnant que ça se passe aussi sur les réseaux. Le libertarisme n'a pas l'exclusivité de la démocratie…
Bah moi non plus alors, puisque la rétractation ou la publication d'erratums ne se justifie pas plus pour un article publié il y a 2 ans que pour un article de 200 ans.
En gros, on rétracte s'il y a fraude, pas si l'article est faux ou s'est basé sur un contexte scientifique erroné. Du coup, publier ces listes de "colosses aux pieds d'argile" n'a aucune sens, puisque ces articles sont publiés, et qu'on ne corrige pas les articles après publication. Ça revient à mettre en avant de manière irréversible des listes d'articles que l'auteur de la page suppose "potentiellement faux", sans qu'il ne soit possible de faire quoi que ce soit, et sans même de vérification manuelle des conséquences possibles de ces citations. Alors qu'il y a de nombreuses autres raisons pour qu'un article publié soit faux, et qu'au-delà d'un certain temps tous les articles sont faux pour une raison ou pour une autre, avec des erreurs qui sont bien plus graves que de citer un article rétracté.
En fait, mon argument est simple : tous les articles contiennent des erreurs, plus un article est vieux et plus il contient d'erreurs scientifiques. La citation d'un article rétracté est une erreur bénine, qui la plupart du temps est probablement sans conséquence sur la qualité scientifique de l'étude. Donc : ces listes n'ont pas vocation à aider qui que ce soit, elles servent à justifier une tentative de "nettoyer" la littérature scientifique avec un proxy indirect. Attention hein, j'ai regardé les premières pages de la liste et je suis convaincu en effet que la plupart de ces papiers sont moisis; beaucoup sont d'ailleurs rétractés et d'autres font visiblement partie de "cercles" de papiers moisis qui se citent les uns les autres. Mais le critère utilisé (la citation d'articles rétractés) n'est ni nécessaire ni suffisante pour juger de la qualité d'un article, et l'objectif avancé (la correction de la littérature scientifique) n'est ni réaliste ni même souhaitable (parce que la littérature se corrige par de nouvelles publications et pas par des addendums aux anciennes). Donc je reste sur le principe que ça n'est pas un outil utile, sauf peut-être aux éditeurs qui souhaitent trouver des raisons objectives pour rétracter des articles qu'ils savent pourris pour des raisons moins "chiffrables", mais j'en doute.
C'est faible comme argument, on peut maintenir un historique de révisions des articles en 2024
Ça n'est pas un problème technique, c'est un problème déontologique. Quand tu cites un article, tu ne cites pas un concept d'article, dont le contenu est potentiellement mouvant et qui pourrait ne plus contenir ce que tu mentionnes. Il y a une forme de tolérance dans les premiers mois à cause de la mise en ligne progressive de versions successives de l'articles (preprint - accepted manuscript - uncorrected proof - article définitif), mais à partir de ce moment là, un DOI = la version finale de l'article.
Par ailleurs tu supposes aussi un peu que tous les chercheurs sont tous au courant des derniers développements
Je ne comprends pas où tu veux en venir; au fil du temps les articles deviennent obsolètes; certaines études ne peuvent pas être répliquées, d'autres proposent des interprétations fausses, d'autres se sont intéressées à des problèmes qui ne peuvent pas être résolus… L'archive scientifique n'est pas "juste", elle est par essence fausse, et de plus en plus fausse. Personne n'est en charge de corriger l'archive, puisque le travail des scientifiques est de veiller à ce que les nouvelles publications soient moins fausses.
Donc je suppose en effet que tous les chercheurs sont au courant que les publications contiennent des erreurs, et ils sont au courant que leur travail consiste à vérifier les choses et de ne pas faire confiance aveuglément au premier machin qu'ils trouvent. Jamais personne ne publiera un erratum sur un papier de 1990 pour dire "Au fait, ces résultats n'ont pas pu être reproduits, ils sont probablement faux". Ça n'est pas comme ça que le processus scientifique s'archive. Ce qu'il se passe, c'est que quelqu'un publiera en 2024 "Contrairement à ce qu'on pensait en 1990 (ref), bla bla bla". Si tu ne lis que l'article de 1990, tu ne le sauras pas, et tu vas faire comme tout le monde, tu vas raconter ça en conférence, quelqu'un te dira après ton topo que tu devrais lire un article récent sur le sujet, tu vas le lire, tu vas bien avoir la honte un petit coup, et tu feras ensuite ta biblio correctement.
Après, toutes les discussions sont possibles : peut-être serait-il mieux d'avoir une littérature plus évolutive, peut-être les journaux devraient accepter les révisions continues, peut-être devrait-on moins publier et plus corriger l'existant, peut-être bla bla bli ou bla bla bla, mais non, ça n'est pas comme ça que ça fonctionne, tout le monde le sait, et tout le monde le prend en compte. Les études sont publiées chronologiquement, elles ne sont jamais retouchées après publication, et leurs éventuelles erreurs sont corrigées dans les publications ultérieures. La seule exception est le retrait d'une publication, mais en général c'est uniquement pour des raisons de fraude scientifique ou de droits d'auteur (ou parce que les auteurs ont découvert une énorme erreur, mais c'est beaucoup plus rare à ma connaissance).
De toutes manières, vu qu'il est devenu impossible de gérer le flux de nouvelles publications, comment pourrait-on imaginer devoir gérer le flux + le stock sur les 200 dernières années?
Je m'autocorrige quand même : mon raisonnement ne concerne évidemment pas les premiers articles de la liste, pour lesquelles il y a des dizaines de références rétractées, dont la plupart sont des auto-citations. C'est évident que ce qui pose le discrédit ici, ça n'est pas qu'il y a des références rétractées, c'est que les auteurs sont aussi auteurs des papiers rétractés.
Par contre, je confirme quand même que l'intention du site est assez malveillante; le titre du site est assez explicite, et il dit "These papers may be unreliable". Même avec le conditionnel, je ne suis pas d'accord : il y a une volonté de discrédit basé sur un proxy très douteux.
Par exemple, je ne vois pas pourquoi l'article intitulé "Retracted publications and their citation in dental literature: A systematic review" serait problématique. De tels "faux positifs" montre bien à quel point l'approche n'est pas fiable.
la recherche tire sa crédibilité de l'honnêteté scientifique
Oui
et de l'autosurveillance et auto-révision dans la mesure du possible
Non, en tout cas non dans le sens où la publication scientifique est incrémentale. La tendance à vouloir "revenir en arrière" n'est pas du tout nécessaire à la pratique scientifique, puisque c'est la nature même du processus scientifique d'être en perpétuelle évolution. La publication donne un point statique dans une série dynamique, et ce point statique n'a pas vocation à être modifié.
il y a matière à examiner si ça remet en cause ses conclusions, que ça plaise ou non
Tout à fait, de même qu'une nouvelle avancée théorique ou méthodologique, ou de la découverte d'un biais dans une méthode statistique. Mais jamais cela n'a justifié un "retour en arrière" dans la littérature. Normalement, les erratums sont destinés à corriger des erreurs lors du processus de publication (après que la mise en page ait été faite), typiquement, dans le numéro du journal qui suit la publication.
La discussion scientifique, elle, est traditionnellement exercée par des séries de commentaires et de réponses. Malheureusement, cette tradition est passée de mode, et de moins en moins d'éditeurs acceptent de publier des commentaires. Mais ça n'est pas très grave, puisque la discussion se traduira par des séries de publications qui noteront les limites des précédentes.
Mais rejeter l'outil sous prétexte que ça pourrait servir à la polémique en soi c'est desservir la science.
Mon argument, c'est que l'outil se base sur des éléments qui sont indépendants de la qualité scientifique des articles, et qu'il suggère qu'il faudrait "faire quelque chose". Or, 1) citer un travail rétracté n'indique en rien la qualité d'un travail scientifique, pour toutes les raisons que j'ai citées, et 2) le meilleur service qu'on peut rendre à la communauté scientifique est de ne surtout jamais altérer le principe du processus de publication, en modifiant l'auto-archivage de l'état des connaissances.
Pour prendre une analogie, corriger une publication existante, c'est comme modifier ton archive git parce qu'il y avait un bug. Tu corriges ton bug, tu peux commenter "Un bug avait été introduit dans le commit 1234abcd", mais le principe c'est de ne pas corriger ton archive.
C'est un peu comme dire "retraction watch" peut être utilisé pour décrédibiliser la science parce que ça pointe des brebis galeuses
Mais non justement, mon argument c'est le contraire. Ça pointe plutôt des travaux random qui ont le malheur de citer des travaux rétractés dans un contexte inconnu, alors qu'il n'y a probablement aucune corrélation entre la qualité d'un article et la citation d'un article rétracté. Et d'autre part, ça incite à "corriger" les archives pour ne plus apparaitre sur la liste, alors que corriger les archives est une procédure délétère pour la publication scientifique.
Si tu veux faire quelque chose de constructif, ça serait de fournir un outil pour que les éditeurs vérifient qu'il n'y a pas de travaux rétractés dans les citations au moment de la publication. Là il y a un moyen d'améliorer la qualité des travaux scientifiques avant la publication. Mais après, c'est trop tard, et essayer de bricoler des solutions à la gomme (erratum, dépublication, etc), c'est se tromper de cible tout en faisant perdre beaucoup de temps à beaucoup de monde.
En fait,je trouve ça extrêmement naïf (et peut-être même malveillant dans certaines circonstances) de penser que la solidité d'un travail scientifique peut être remis en cause par une citation vers un article rétracté. Il est courant que les articles citent plus de 50 références, et une étude ne devient pas en "argile" parce qu'une de ces 50 références est rétractée.
Déja, le contexte de la citation fait tout. Si c'est dans le style "on sait que le gène X affecte le diabète (Machin 2012, Truc 2015, Bidule 2020)", même si Bidule 2020 est rétracté, il reste les autres refs. Ça peut aussi être "Il est généralement considéré que le gène X n'affecte pas le diabète (Machin 2012, Truc 2015), même si le cotraire a déja été évoqué (Bidule 2020)", auquel cas ça renforce même l'argument; les auteurs ont juste bien travaillé et cité l'ensemble des travaux pertinents, même s'ils ont clairement des doutes sur le dernier.
Ensuite, même si la citation était centrale pour l'argumentation scientifique (du style "On a découvert récemment que X affectait le diabète dans les populations Européennes (Bidule 2020), et on essaye de prouver si c'est le cas aussi dans les populations Asiatiques"), le retrait de Bidule 2020 ne remet pas en cause les résultats de l'étude. Ça changera le contexte scientifique, mais les données sont les données; et si les auteurs ont bien bossé les résultats ne devraient pas changer, seule l'interprétation de ces résultats change. Du coup, c'est évident que le papier n'aurait pas été écrit de la même manière, mais il ne semble pas y avoir de problème fondamental avec l'établissement de la connaissance scientifique.
Le seul contexte qui me semble réellement problématique serait celui d'une méta-analyse, qui reprend les résultats de la littérature. Ceci dit, une méta-analyse bien faite agglomère des dizaines ou des centaines de résultats publiés, et il semble peu probable qu'une étude qui fait défaut puisse modifier substantiellement le résultat de l'analyse.
Attention hein, je ne dis pas que la science actuelle est solide, je pense justement que dans plusieurs disciplines, elle est construite sur du sable. Mais je ne crois pas que ça puisse être dû à l'existence de publications non-fiables. Le principal facteur selon moi est la prime à l'originalité : pour être financée, une étude doit être originale, et son porteur doit être une personnalité scientifique qui sort du lot, ce qui enrichit le corpus scientifique en idées farfelues, enrichit les laboratoires en personnalités plus ou moins toxiques et/ou carriéristes, crée de la compétition dans des contextes où la coopération aurait été plus constructive, et encourage la prolifération de résultats non-fiables parce que non-répliqués. Même si une partie des résultats faux publiés peut provenir d'inconduite scientifique claire (ce qui est sanctionné par la rétractation d'un article quand c'est découvert), je pense que la plupart des résultats faux ne sont pas attribuables à la mauvaise foi : erreurs de bonne foi, mauvaise formation, mauvaises pratiques, pratiques conformes à l'état de l'art mais erronées (on ne peut pas le savoir), biais d'échantillonnage, échantillons trop petits (manque de financement ou problèmes logistiques ou administratifs), cadre théorique faux, erreurs de mesure, manque de temps, ou juste pas de chance.
Je ne comprends vraiment pas le sens de ton commentaire.
Moi je le comprends très bien : ça consiste à nier que le pouvoir d'achat est une préoccupation bien plus répandue que les choses que le PO trouve préoccupantes (probablement, inégalités, problèmes environnementaux, ou immigration, en fonction de son bord politique).
Depuis très longtemps, les préoccupations des français, c'est le pouvoir d'achat et la sécurité. L'environnement, l'immigration, le chômage, etc., viennent bien plus loin, et c'est difficile pour les partis politiques, qui n'ont pas de solution pour le pouvoir d'achat ou la sécurité. Du coup, c'est plus facile de nier : "oui, ça ne veut rien dire", ou bien "quand les gens disent sécurité, ils pensent immigration", ce genre de trucs.
Moi, ce qui me troue, c'est que les gens ne comprennent pas forcément ce que ça veut dire, l'augmentation du pouvoir d'achat. Ça consiste à disposer de plus de biens ou de services en échange d'une heure de travail. Mais sans hausse de la productivité, c'est impossible que le pouvoir d'achat de tout le monde augmente : si un coiffeur met 20 minutes à faire une coupe au garagiste, et que le garagiste met 20 minutes à changer la roue de la voiture du coiffeur, une fois que tu as joué sur les charges (le salaire indirect), la TVA (les services collectifs), et la délocalisation de la production des outils, tu as une limite dure : si tu as deux coupes de cheveux pour le temps d'un changement de roue, c'est bien que le coiffeur doit travailler deux fois plus que le garagiste pour la même chose.
C'est juste moins direct quand c'est le prix des ordis made in China qui baisse, parce que c'est le pouvoir d'achat des ouvriers chinois ou des mineurs qui produisent les matières premières qui trinquent, mais voila, il faut bien comprendre ce qu'il y a derrière l'augmentation du pouvoir d'achat.
Tu veux m'inviter à un dîner avec des amis qui seront très intéressés par mon projet, c'est ça?
En tout cas, je crois en savoir assez sur ce qui peut être considéré comme sexuellement stimulant par mes conspécifiques pour refuser de faire une quelconque prédiction sur le succès éventuel d'un tel site :-S
De toute façon presque tout le monde utilise sa télé via une "box" de nos jours non?
C'est presque ça qui est bizarre; ça semble dangereux et inconfortable d'être espionné par sa télé, alors que le FAI qui fournit la box sait exactement ce que tu regardes, quand tu le regardes, et ajoute des pubs en surperposition ou en clips traditionnels avec la complicité des chaines TV sur les services de type "replay". En fait, dès que tu sors du réseau Hertzien, c'est évident que tous les intermédiaires qui fournissent le flux vidéo savent ce que tu regardes.
se demander si ça ne peut pas être considéré comme de la vente à perte si au final le constructeur marge via un service autre que la vente de l'appareil lui-même et facturé à un tiers.
C'est la revente à perte qui est interdite. Darty achète une télé à un industriel 200€, et ne peut pas facturer moins (en prenant en compte la TVA, les charges, etc). "Le prix d'achat effectif est le prix unitaire net figurant sur la facture d'achat, minoré du montant de l'ensemble des autres avantages financiers consentis par le vendeur exprimé en pourcentage du prix unitaire net du produit et majoré des taxes sur le chiffre d'affaires, des taxes spécifiques afférentes à cette revente et du prix du transport."
LG ne revend pas des télés, il les fabrique. Rien n'empêche un industriel de pratiquer les prix qu'il souhaite.
De toutes manières, même si c'était Darty qui jouait l'intermédiaire, je ne pense pas que ça irait bien loin. L'esprit de l'interdiction de la vente à perte, ça n'est pas pour défendre le consommateur, c'est pour interdire à un revendeur de tuer la concurrence par une perte volontaire sur chaque appareil vendu. Ça n'interdit pas les activités déficitaires, typiquement, les plans de financement peuvent prévoir plusieurs années d'activité déficitaire avant de dégager des bénéfices. Si tu as 10M€ de R&D avant de sortir une télé, les premiers milliers d'exemplaires seront écoulés "à perte" avant que tu commences à gagner de l'argent. Là, dans l'exemple, chaque télé vendue à 150€ va te rapporter 50€ par an, tu prévois un remplacement moyen à 4 ans, donc tu es à +150€ sur chaque appareil vendu, ça n'est pas "à perte".
Ça me rappelle le bazar que Free avait mis sur le marché des téléphones "gratuits" contre un engagement d'abonnement de plusieurs années, une pratique courante chez les concurrents. Il me semble qu'au final ça avait fait pshit, puisque ce modèle (qui ressemble à la LLD ou la LOA pour les voitures) n'est pas formellement un crédit, et que la location de l'équipement avec le service est standard dans ces technologiques (par exemple, la location de la box avec l'abonnement au FAI).
Bien sûr, on peut prendre tout au premier degré et trouver que ça devrait être interdit dans l'intérêt du consommateur, même si ça rend les produits plus chers. Mais il faut aussi ouvrir les yeux : les préoccupations majeures de nos concitoyens, c'est pas la vie privée, c'est le pouvoir d'achat. Or, ces entreprises proposent de valoriser les données personnelles contre des euros, et les données personnelles, ça ne coûte rien, et tu ne peux pas les valoriser toi-même. Tu peux bien sûr mettre un prix sur ta vie privée (par exemple, dire que 1€ n'est pas assez contre ton adresse email), mais tu ne peux pas échanger ces données privée en argent sans ces intermédiaires qui savent les valoriser. Bref, tout ça pour dire que ça n'est pas un choix aberrant de payer une télé 100€ + des données privées, au lieu de 500€. Peut-être que pour toi, les euros et les données privées n'ont pas le même taux de change et que tu ne considères pas que c'est une bonne affaire, mais ça reste une appréciation personnelle.
Probablement que rien n'empêche d'utiliser des outils comme les SVR ou plus modernes pour créer des catégories d'utilisateurs, de requêtes, de sites, et adapter le classement aux intérêts présumés du requérant.
Certes, mais du coup c'est pareil que les algos de recommandation des réseaux sociaux (c'est obscur, différents utilisateurs n'ont pas les mêmes réponses, ça classifie les utilisateurs dans des "bulles" de confort, etc).
Mais je pense que c'est assez insoluble. Les intérêts de l'utilisateur, du concepteur du moteur, des sites visités, et de la société sont incompatibles, donc soit un intérêt est privilégié par rapport aux autres, soit un compromis doit être fait. Quand quelqu'un cherche "soigner le cancer par les huiles essentielles", est-ce vraiment dans son intérêt de répondre à la question demandée? Ou "achat Mein Kampf dédicacé par Hitler"? Et quid de "site de streaming illégal"? "Adresse personnelle du ministre de l'intérieur"? On met la limite où? Les journaux en ligne jurent sur la tête de leurs grands parents que sans les cookies ils vont mourir dans les 2 jours qui viennent, et si c'était partiellement vrai? Du coup on change l'algo pour les refaire monter, parce que "Le Monde" avec cookies ça vaut peut-être "Le Blog de Dédé l'identitaire" sans cookies?
Lire vos commentaires me rappel quelques articles et interventions lues ici sur des tentatives de créer des web alternatifs, moins envahis par la publicité, le JavaScript, etc (je ne sais pas trop si ma description est claire, n’étant pas capable de retrouver une référence précise).
Le truc, c'est que bien sûr chacun est libre de faire un site avec la technologie qui lui plait. Linuxfr est assez exemplaire, mais même Wikipédia par exemple n'est vraiment pas mal.
Si tu devais concevoir un moteur de recherche indépendant, tu prendrais certainement en compte une partie de ces critères, notamment la rapidité d'ouverture des pages sur un browser lambda, la taille de code non-HTML, la présence de cookie walls, etc.
Note que le moteur de Google pénalise les pages bourrées de pub, les popups, etc. Mais depuis un paquet d'années Google n'investit plus vraiment dans la qualité de son moteur (pour plein de raisons, notamment commerciales), et que quand tu as en face de toi des SEO qui brassent des millions, tu risques d'avoir toujours une longueur de retard.
ils seraient obligés de se concentrer sur du contenu intéressant pour améliorer l’évaluation de leur signature.
C'est la différence entre le SEO "white hat" et le SEO "black hat", et ça existe depuis longtemps. C'est juste que produire du contenu intéressant n'est pas forcément possible, en fonction de ton business model. Et tu risques, aussi paradoxalement que ça puisse être, de perdre tes lecteurs. Un site de Pr0n qui te propose 75 pages documentées sur l'histoire de la représentation de la sexualité dans l'art, ça n'est probablement pas ce que tes lecteurs cherchent. On part tous du principe qu'on cherche des pages fournies et documentées, alors que ça n'est pas forcément le cas.
En fait, il semble impossible de savoir si l'auteur est sincère (et complètement dans sa bulle), ou si c'est un cynique qui se moque du monde.
Le principe du SEO est de tromper. Tromper les moteurs de recherche, en exploitant les failles des index de pertinence pour promouvoir du contenu moins pertinent, et bien sûr tromper les utilisateurs des moteurs de recherche, en mettant en avant des résultats différents de ceux qu'ils auraient souhaité. Le SEO oblige les moteurs de recherche à adapter leurs algorithmes régulièrement pour boucher les failles, sans pour autant y réussir parfaitement.
Et là, ouin ouin, ils semblent avoir trouvé des parasites plus efficaces qu'eux : les pages qui génèrent du contenu par IA et qui, probablement par le volume et la fréquence des mises à jour, attirent les moteurs de recherche mieux que les cercles de faux sites s'auto-indexant, ou autres techniques malhonnêtes destinées à tromper les logiciels d'indexation.
Finalement, depuis des années, les moteurs de recherche ont abandonné la lutte, en mettant en avant les liens "sponsorisés" et en ne portant qu'un intérêt minimal à la liste des sites qui suivent (et à la limite, moins cette liste est pertinente et plus les sites sponsorisés vont être attractifs). C'est dans cet espèce d'équilibre malsain que les moteurs et les SEO peuvent cohabiter, mais c'est bien entendu au détriment des internautes.
Existe-t-il des moteurs de recherche qui pénalisent les sites mettant en place des stratégies de SEO habituelles? C'est ce genre de moteurs qui aurait le plus de chances de donner des résultats pertinents.
J'ai noté que tu as parlé de "peur fantasmatique" de perdre son boulot puis que
"Après, pense que tu es irremplaçable", et là je suis pas sur de voir la cohérence.
J'avais l'impression que tu partais du principe que les IA/LMM c'était de la bouse et que ça n'était qu'un effet de mode, comme si les versions actuellement disponibles n'étaient capables de rien d'intéressant. C'est ça que je trouve paradoxal : soit c'est de la bouse et il n'y a aucune raison de craindre un effet à long terme sur la société, soit ça marche et ça va marcher de mieux en mieux et que c'est ça qui est "inquiétant". Mais en tout cas, moi ces modèles m'ont fait prendre conscience à quel point les employés du tertiaire étaient en théorie remplaçables, et que l'humain n'était pas si "intelligent" que ça quand on le prenait individuellement. En tout cas, certaines tâches qu'on pensait réservées à des élites intellectuelles (écrire des rapports d'expertise, synthétiser des documents, répondre spécifiquement à des demandes de support…) étaient à la portée de systèmes automatiques. Et pour moi, la raison principale qui expliquerait pourquoi certains nient ça avec insistance et prétendent que les LLM ne font rien d'intéressant, c'est parce qu'ils ont peur de ce qui pourrait advenir d'eux dans quelques années. Justement, parce que l'argument "les LLM ne font rien d'intéressant" ne tient pas quand on essaye de leur faire faire des choses intéressantes (et pas de les piéger pour tenter de démontrer qu'on est plus intelligent qu'eux).
Mais je me trompe peut-être, tu penses peut-être sincèrement que les LLM ne font rien de spécial, mais dans ce cas je ne suis pas d'accord : les LLM sont capables de trucs extraordinaires; actuellement ils ne sont qu'un outil parce qu'il faut corriger deux ou trois trucs après eux mais il ne s'en faut pas de beaucoup pour avoir quelque chose de prêt à la production directement.
ce que je trouve le plus limitant au final dans les LLM, c'est qu'elles fonctionnent sur des sets d'informations qui peuvent être périmées
Ça n'est pas juste une limitation imposée par le distributeur du modèle? Rien n'empêche de sortir une version actualisée tous les mois ou tous les ans.
Rien ne garantit que le message soit compatible avec la morale du XXIe siècle, hein… Moi je comprends que Zeus il est très musclé, il a des grosses balloches pleines de testostérone, et que comme ça Europe elle ne peut pas résister (on comprend comme on veut), et que c'est comme ça que font les Dieux mâles dominants très virils. De toutes manières, après il la refile à un roi pour des raisons politiques, donc il n'était pas non plus très très amoureux.
Wikipédia ajoute que "À Gortyne, sous un platane qui depuis lors est toujours vert, Europe s'accouple avec Zeus, sous forme humaine cette fois"… soit c'est mal écrit, soit le "cette fois" est un peu inquiétant parce que je n'avais pas compris les détails de l'histoire comme ça.
D'ailleurs si tu lui demandes si la force existe il te dira probablement que la force n'existe pas.
Probablement, si ton corpus d'apprentissage est à 95% hors de star wars et décrit star wars comme une oeuvre de fiction. Mais tu as plein d'exemples où ça n'est pas forcément le cas. Par exemple, quelle part du corpus décrit la mythologie monothéiste comme une oeuvre de fiction? De facto, une part substantielle des humains ne la considèrent pas comme de la fiction, qu'est-ce qu'une IA devrait répondre là-dessus?
Et puis ça ne change pas vraiment la logique, juste les lois de la physique en l'occurrence.
Certes, mais ça n'est quand même pas facile de lui demander d'avoir un sens de la "vérité" quand le corpus contient de gros blocs cohérents dans lesquels les lois de la physique sont fausses. Pour le coup, être capable de classifier un corpus en "fiction" vs "réalité", ça c'est quand même un signe d'intelligence, non? Par exemple, si ton IA lit "L'histoire de Quiddich à travers les âges", jamais le livre ne s'identifie comme une oeuvre de fiction qui fait partir de l'univers de Harry Potter. Nous, on est cablés pour faire très facilement la différence; à 2 ans un gamin fait la différence entre une histoire fictionnelle et une histoire vraie. Mais un LLM doit faire émerger ça à partir de son corpus, ça n'a pas l'air facile. Surtout s'il faut évaluer si la biographie de Trump est une oeuvre de fiction, par exemple.
"Est-ce qu'il y a besoin de "raisonner" (dans le sens d'encoder des règles de déduction valides) pour bien prédire"
Les LLM prouvent que non; ils manipulent les syllogismes et se trompent rarement sur les raisonnement piégeux (du style "combien de temps faut-il à 9 femmes pour faire un enfant"). En fait, c'est assez facile de montrer qu'ils ne raisonnement pas; ils arrivent fréquemment à te donner la bonne réponse sans être capables de te donner un raisonnement correct quand tu leur demandes; ça ressemble plus à une intuition très efficace (du fait de la taille du corpus ingurgité), et une sorte de rationalisation a posteriori quand tu lui demandes explicitement.
Mais encore une fois, est-ce bien grave? Imagine que tu fournisses un service de diagnostic en ligne de pannes de bagnole. Tes experts donnent le bon diagnostic dans 90% des cas, à partir des informations fournies dans un chat. Ils vont raisonner, du style "C'est une 206 de 2010, on sait qu'il y a souvent des pannes dûes aux faisceaux sur ces modèles", etc. À côté, chatGPT ne sait même pas ce qu'est une bagnole, mais donne un résultat probabiliste basé sur autant d'indices qu'il peut percevoir (l'orthographe du client, la rapidité des réponses dans le chat…). S'il est précis à 95%, quel est le problème à lui laisser donner des réponses intuitives? Dans la plupart des applications, ce que tu souhaites, c'est avoir la bonne réponse à ton problème, et pas de t'assurer que cette réponse est construite sur un raisonnement solide.
Dans un tel contexte, c'est peut-être plus intéressants de spécialiser des modèles sur telle ou telle tache au lieux d'avoir un gros gloubiboulga générique qui fera jamais mieux que le modèle spécialisé seul.
Lui faire avaler la littérature scientifique plutôt que les logs de Twitter? Oui, en effet, je pense que ça serait mieux si tu veux lui faire recracher des trucs vrais. Mais je pense que le but c'était de passer le test de Turing, auquel cas mieux vaut sortir les mêmes idioties qu'un humain moyen.
Ce qui n'est pas surprenant dans un tel cadre c'est qu'il ne soit pas vraiment capable de revenir en arrière et de remettre en cause son "raisonnement" en cas de résultat absurde parce qu'il n'y a pas de notion de "backtracking" dans une telle boucle ou il complète juste ce qui est entamé.
En général, si tu lui demandes "es-tu sûr de ton raisonnement?", il va se corriger.
Mais bon, tout ça reste une forme de simulation de raisonnement, et je ne pense pas qu'il puisse réellement raisonner (dans le sens où on le conçoit). D'une manière plus générale, il n'a pas réellement de notion de vérité, puisqu'il ne connait que le corpus d'entrainement, il n'a aucun moyen de comparer ce corpus avec le monde réel.
Ce qui n'est pas très étonnant d'ailleurs. Si le corpus c'est l'univers de Star Wars, alors pour lui, la Force et les Jedi sont des trucs réels. C'est malvenu de lui reprocher ça, puisqu'un humain serait exactement dans la même situation, d'ailleurs. Comme il n'a pas accès au monde par ses propres sens, il ne peut que "croire" ce qu'on lui raconte.
De toutes manières, essayer de faire "raisonner" un modèle de langage est absurde. Ça démontre en effet pas mal le genre de fantasmes que les gens peuvent avoir, mais on est d'accord que ça n'a aucun intérêt? Au mieux, tu peux espérer avoir une réponse correcte que le problème est suffisamment connu pour qu'il soit largement représenté dans les données d'entrainement.
Je pense que ça illustre aussi pas mal la mauvaise foi avec la quelle la question est traitée parmi la communauté qui s'intéresse à ces technologies. Les gens qui ont conduit ces études savent pertinemment que rien dans un modèle de langage ne lui permet de suivre un raisonnement mathématique. Tu peux conclure que "ah ah cette AI est stupide", mais celui qui est stupide est celui qui a conçu ce test idiot.
Pour tester un LLM, fais-lui écrire une lettre, raconter une courte histoire, résumer un texte… Regarde par exemple, je viens de faire le test : "écris un sonnet sur une panne d'embrayage". Voici le résultat:
*Sur la route déserte, un triste présage,
L'embrayage soudain décide de céder,
Et mon voyageur se voit tout arrêter,
Dans un silence lourd, pesant comme un orage.
Je cherche en vain un secours, un visage,
Le moteur agonise, prêt à m'abandonner,
Et sous le capot chaud, je commence à douter,
Qu'un miracle survienne dans ce sombre paysage.
Mais voilà qu'arrive un vieil artisan,
Aux mains tachées d'huile, au geste précis,
Qui d'un tour de clé redonne vie au moteur.
L'embrayage renaît, brillant artisan,
Je repars enfin, le cœur allégé,
Reprenant la route, loin de toute frayeur.*
Bon, il y a des problèmes mineurs sur certaines rimes, mais honnêtement, il faut être blasé pour ne pas être amusé par la performance du truc, non? Évidemment que ça n'est pas du Hugo, mais là encore tu as un résultat meilleur que quoi, 90% des gens?
Bref … "intelligence" est un terme qui veut dire bien des choses, mais sans raisonnement il me semble qu'on manque d'un ingrédient essentiel
Ouais c'est ça, les gens intelligents c'est ceux qui savent mener un raisonnement mathématique. On se demande bien pourquoi tant de livres ont été écrits sur le sujets alors que c'est tellement facile.
Plus prosaïquement, quand tu mets un humain à un poste de travail par exemple, tu te fous un peu de savoir comment il mène les raisonnements qui le conduisent à prendre les bonnes décisions. Personne ne s'est jamais demandé si Dédé de la compta, il pensait vraiment ou il simulait la pensée. Et heureusement, parce qu'à part mener à des situations débiles et inconfortables, je ne vois pas où ça peut te mener. Bah voila, c'est pareil avec les LLM: ils se comportent dans la plupart des situations comme un humain qui raisonne, avec ses limites, ses erreurs, ses biais, ses imperfections. C'est donc une IA dans la mesure où elle peut simuler l'intelligence, donner les mêmes réponses qu'un humain qu'on présume intelligent. Chercher plus loin, c'est de l'escroquerie, parce qu'on sait très bien que les LLM ne raisonnent pas, ils ne sont pas conçus pour raisonner, et quelle que soit la complexité de la question qu'on leur pose, on finira toujours par pouvoir montrer qu'ils "simulent" le raisonnement.
On sait que ça va s'améliorer, mais on ne sait pas jusqu'où. Ça n'a rien à voir avec du "wishful thinking". Ça va s'améliorer, parce qu'on sait que les services professionnels sont largement supérieurs à ce qu'on peut avoir pour le grand public payant, ce qui est encore supérieur à ce qu'on a en gratuit. Il est donc possible d'avoir bien mieux que ce que la plupart d'entre nous a pu tester.
on sait pas trop comment, on sait pas trop l'évaluer et on a pas de plans
Tu confonds "on" et "je". Ça n'est pas parce que tu sais pas que personne ne sait.
En fait, je ne sais même pas comment tu peux tenir un tel discours sur la "médiocrité" des IA, ça me fait clairement penser à une sorte de déni. Est-ce que tu as essayé d'utiliser un outil grand public (type chatGPT) sans mauvaise volonté, sur une tâche pour laquelle il est "bon" (en gros, générer du texte)? Tu demandes la même chose à 100 humains au hasard dans la rue, tu penses que chatGPT se classe où? Franchement, il va très souvent être dans les quantiles tout en haut, 90%, 95%. Ça ne va pas valoir ce que pourraient produire les cracks du domaine, mais ça a largement, très largement même, être au moins équivalent à ce que produirait un humain. Comme je le disais plus haut, chatGPT a un niveau master dans beaucoup de domaines, ce qui n'est pas à la portée d'un être humain (je veux dire, niveau master, oui, mais pas dans tous les domaines).
Après, pense que tu es irremplaçable, que jamais une machine ne pourra t'égaler dans le futur, que tout ça est du flan, tu es libre de penser ce que tu veux. Mais pose-toi juste la question sur la part de ça qui est dû à un raisonnement rationnel, et la part qui espère juste ne pas vivre dans un monde où en effet, les machines seraient capables de fournir un travail intellectuel de qualité supérieure à la plupart des êtres humains?
Le truc c'est que malgré tout ça on a pas vraiment fait de progrès sur les questions parce que les vraies applications intéressantes
Je ne sais pas ce que tu appelles "intéressantes". Si c'est du point de vue de la société, je t'accorde que ça n'est pas impressionnant, même si je pense qu'il y a énormément de potentiel au niveau des interfaces entre les consommateurs d'un service et l'équipe de développement (questions fréquentes, documentation, rapport de bugs, etc). Par contre, le fait que ces systèmes soient capables de générer des copies mieux que moyennes jusqu'au niveau master, les étudiants l'ont bien compris. La capacité à étendre ou à résumer un texte est aussi extrêmement impressionnante. Comme dit plus haut, c'est un outil : il faudra repasser derrière pour vérifier rapidement, et ça n'aura jamais aucune réelle créativité, puisqu'il s'agit d'outils de synthèse. Mais si on en reste à ce niveau, ça marche quand même plutôt bien, et on a toutes les raisons de penser que ça ne peut que s'améliorer (jusqu'où? Ça n'est pas très clair).
Mais c'est aussi parce qu'on croit naïvement que d'avoir des communautés ouvertes c'est bien et qu'il n'y a pas besoin de prévoir des cas particuliers. Ça fait plus de 20 ans que ces cas comme ça existent sur Wikipédia par exemple, des contributeurs très (très très) motivés, qui produisent du contenu incompréhensible ou clairement contre-productif, qui interagissent de manière très inefficace avec le reste de la communauté, et qu'on ne peut pas bloquer ou ignorer parce que ça rend tout le monde mal à l'aise. C'est toute la balance complexe entre l'inclusion et la protection des membres de la communauté.
Honnêtement, j'ai toujours pensé que la meilleure solution est celle de prévoir dans l'interface la possibilité d'isoler ces contributeurs, de manière à ce qu'ils aient accès à une version personnalisée du site, qui contient tout le site, plus leurs contributions qui ne sont pas visibles pour les autres contributeurs. Je crois que sur Wikipédia il leur était proposé de contribuer dans des "bacs à sable", des versions des pages destinées à l'origine aux gros chantiers de remise en forme des articles (on travaille sur une version en développement avant de la mettre d'un coup en ligne, afin d'éviter que le lecteur tombe sur un truc en travaux). Du coup, hop, on crééait des bacs à sable, on disait aux contributeurs "plutôt que de te faire réverter dans la page principale, tu n'as qu'à travailler au calme dans cette page"; tout le monde était content, le contributeur avait accès à Wikipédia et il était le Dieu absolu sur sa page, et étrangement le fait que la page n'était pas indexée ni visible n'était pas un problème la plupart du temps. Donc voila, plutôt que de ban ou de moinsser, on pourrait "invisibiliser" les contributeurs trollesques, sans pour autant qu'on doive réellement décider s'ils sont malveillants ou s'ils souffrent d'un trouble qui rend leur contribution à une communauté problématique pour les autres. Ils pourraient alors continuer à interagir avec le site, poster des spams ou des textes qui troubleraient les autres contributeurs, et ça leur prendrait beaucoup de temps avant de se rendre compte que les autres ne le voient pas.
Déja, est-ce qu'on parle de la qualité absolue de ce qui sort d'une IA, ou bien de la qualité relative par rapport aux données qu'elle a ingurgité? Si on nourrit une IA avec les pages de la Flat Earth Society, l'IA te dira que la terre est plate. Il n'y a pas de problème avec l'IA, juste un problème avec la qualité des données.
Ensuite, est-ce que l'argument est temporaire (du style, "pour l'instant, c'est pas assez fiable"), ou est-ce qu'il est définitif ("par principe, ça n'est pas fiable"). Enfin, quelle est la référence? Par exemple, une IA qui conduit une voiture, on sait qu'elle va avoir des accidents, la question est plutôt si elle a plus ou moins d'accident qu'un conducteur moyen, qu'un conducteur inexpérimenté, qu'un conducteur âgé, etc.
Du coup, il y a tellement d'arguments qui s'éparpillent partout sur l'échelle de l'argument foireux qu'à un moment, il est tentant de tout balancer, parce que la plupart sont des arguments de grand-mères à moustaches ("ce truc change le monde et je n'aime pas quand le monde change"). Et je suis d'accord aussi que beaucoup d'arguments sont contradictoires entre eux. "Ça ne fait que reformuler Wikipédia" vs "Ça n'aura jamais la fiabilité d'une page conçue par un humain", par exemple. Il y a également énormément d'arguments basés sur le traitement d'informations privées, qui pourraient être obtenues par un moteur de recherche : si Google te retourne la bonne réponse si tu demandes "Quel est le numéro de téléphone de Tartempion" ou "Est-ce que Tartempion est juif", alors c'est normal que chat GPT te donne également la bonne réponse, c'est ce qu'on attend de lui (et s'il ne la donnait pas, on dirait "ah ah c'est moins bien qu'une recherche Google").
Parce qu'une IA bien configurée peut aussi être au service de la vie privée. Justement, si elle a pour consigne de ne pas dévoiler d'informations privées, elle peut "filtrer" le contenu du web pour ne fournir que les informations pertinentes. Elle peut t'apporter des nuances ("selon certaines sources la Terre est plate, mais ce n'est pas l'avis des scientifiques"), etc. L'IA est un outil, c'est un outil tellement nouveau que peu savent comment il fonctionne et comment l'utiliser efficacement, c'est un outil tellement puissant que beaucoup en ont peur, et c'est un outil tellement récent qu'on n'a aucune protection légale, ni même aucune règle éthique, qui s'appliquerait aux excès. Mais une fois qu'on a retiré tous les argument superficiels (qui traduisent des peurs ou des fantasmes, tels que la peur de perdre son boulot), et les arguments qui se concentrent sur l'imperfection des implémentations disponibles actuellement ou sur les lacunes des bases de données qui servent à entraîner les logiciels, il reste beaucoup moins de questions à trancher. Une question majeure est celle de la responsabilité (qui est responsable, celui qui fournit l'IA, celui qui l'utilise, celui qui publie le résultat…), une autre question est celle de la légalité de l'usurpation (est-ce éthique d'utiliser une IA pour se faire passer pour un humain auprès d'un autre humain), etc. Mais tant qu'on ne se débarrasse pas des questions de grand-mères à moustaches, on aura du mal à s'intéresser au fond des choses.
[^] # Re: Pendant ce temps, au Brésil…
Posté par arnaudus . En réponse au lien Au Brésil, un juge ordonne la suspension de Twitter "X" . Évalué à 2.
Mouais, ce qui compte pour les médias, c'est l'audience, et donc ils vont parler de trucs qui vont scotcher les gens le plus possible. Le but d'un média n'est pas d'éduquer (enfin, sauf le service public, et encore c'est discutable parce qu'éduquer 30 personnes parce que tous les autres sont sur TF1, ça n'est pas idéal).
Moi je ne crois pas qu'on puisse éduquer les gens à se poser les bonnes questions en les abreuvant de reportages qui ne les intéressent pas. Ils vont juste passer sur "Les chtits à Miami" et ils ne s'intéresseront pas plus à tes feux de forêt.
Que les média fournissent déja des reportages de bonne qualité sur les sujets qu'ils veulent traiter, ça sera pas mal.
[^] # Re: Pendant ce temps, au Brésil…
Posté par arnaudus . En réponse au lien Au Brésil, un juge ordonne la suspension de Twitter "X" . Évalué à 10. Dernière modification le 02 septembre 2024 à 11:26.
Mon hypothèse, c'est que ça leur donne l'impression d'être importants. Pour être climatologue, il faut avoir un master, puis faire une thèse, puis publier des travaux importants dans le domaine, puis trouver un poste de professeur dans une université. Ça prend 30 ans, et il y a beaucoup de sélection.
Pour être climatoseptique ou covidoseptique, ça prend 5 minutes et un Ricard. Si ça te permet d'avoir ton petit public, de faire ton intéressant, jusqu'à parfois même te faire inviter sur des plateaux TV pour jouer le "contradicteur" face à des professionnels du domaine, pourquoi se priver? Ça n'est même pas clair à quel point ces gens croient ce qu'ils racontent.
Par exemple, pour moi, les têtes des mouvements "plastistes" sont dans cette situation idiote où ils doivent leur notoriété par la diffusion d'idées ridicules dont ils ont probablement assez honte, mais ils sont pris dans une sorte de "spirale du mensonge". D'ailleurs, toutes ces communautés le sont, puisque le premier qui va commencer à discuter de la remise en cause va se faire harceler; il y a même probablement une sorte de prime sociale à être le plus extrême possible et le plus imaginatif sur l'invention de nouveaux "complots". Seul ton entourage peut te sortir de là, la réalisation collective dans ces mouvements est impossible. D'une manière générale, gérer la dissonance cognitive c'est très dur quand tu as engagé plusieurs années de ta vie à défendre des idées absurdes.
[^] # Re: mi figue, mi raison
Posté par arnaudus . En réponse au lien Au Brésil, un juge ordonne la suspension de Twitter "X" . Évalué à 10. Dernière modification le 01 septembre 2024 à 10:29.
Ça n'est pas l'utilisation d'un VPN qui est interdite, c'est l'accès à un site interdit.
L'utilisation d'un procédé technique pour faire quelque chose d'illégal dans ton pays n'a jamais été légal. Ça n'est pas le procédé technique qui est illégal, c'est juste l'action que tu effectues grâce à ce procédé. Les couteaux de cuisine sont légaux, mais tu ne peux pas planter ton voisin avec…
Je sais bien que certains sont shootés à un "internet de non-droit", avec l'idée que l'État n'a pas à mettre son nez entre ton clavier et le reste du monde, mais c'est une sorte de mythe auto-construit, qui ne repose sur aucun argument juridique. La liberté d'expression s'exerce avec sous sans VPN ou avec ou sans Tor, c'est un concept juridique.
Et au passage, pour la démocratie… C'est aussi la démocratie qui a justifié le passage vers une société de surveillance et de prévention, le "bon peuple" a décidé que le rôle de l'État était d'empêcher préventivement les crimes et délits : on met des ralentisseur sur les routes, on met des caméras de surveillance, etc. Pas étonnant que ça se passe aussi sur les réseaux. Le libertarisme n'a pas l'exclusivité de la démocratie…
[^] # Re: Très réducteur
Posté par arnaudus . En réponse au lien Recherche scientifique : un outil pour éviter les « colosses aux pieds d’argile » (Abonnement). Évalué à 5.
Bah moi non plus alors, puisque la rétractation ou la publication d'erratums ne se justifie pas plus pour un article publié il y a 2 ans que pour un article de 200 ans.
En gros, on rétracte s'il y a fraude, pas si l'article est faux ou s'est basé sur un contexte scientifique erroné. Du coup, publier ces listes de "colosses aux pieds d'argile" n'a aucune sens, puisque ces articles sont publiés, et qu'on ne corrige pas les articles après publication. Ça revient à mettre en avant de manière irréversible des listes d'articles que l'auteur de la page suppose "potentiellement faux", sans qu'il ne soit possible de faire quoi que ce soit, et sans même de vérification manuelle des conséquences possibles de ces citations. Alors qu'il y a de nombreuses autres raisons pour qu'un article publié soit faux, et qu'au-delà d'un certain temps tous les articles sont faux pour une raison ou pour une autre, avec des erreurs qui sont bien plus graves que de citer un article rétracté.
En fait, mon argument est simple : tous les articles contiennent des erreurs, plus un article est vieux et plus il contient d'erreurs scientifiques. La citation d'un article rétracté est une erreur bénine, qui la plupart du temps est probablement sans conséquence sur la qualité scientifique de l'étude. Donc : ces listes n'ont pas vocation à aider qui que ce soit, elles servent à justifier une tentative de "nettoyer" la littérature scientifique avec un proxy indirect. Attention hein, j'ai regardé les premières pages de la liste et je suis convaincu en effet que la plupart de ces papiers sont moisis; beaucoup sont d'ailleurs rétractés et d'autres font visiblement partie de "cercles" de papiers moisis qui se citent les uns les autres. Mais le critère utilisé (la citation d'articles rétractés) n'est ni nécessaire ni suffisante pour juger de la qualité d'un article, et l'objectif avancé (la correction de la littérature scientifique) n'est ni réaliste ni même souhaitable (parce que la littérature se corrige par de nouvelles publications et pas par des addendums aux anciennes). Donc je reste sur le principe que ça n'est pas un outil utile, sauf peut-être aux éditeurs qui souhaitent trouver des raisons objectives pour rétracter des articles qu'ils savent pourris pour des raisons moins "chiffrables", mais j'en doute.
[^] # Re: Très réducteur
Posté par arnaudus . En réponse au lien Recherche scientifique : un outil pour éviter les « colosses aux pieds d’argile » (Abonnement). Évalué à 4.
Ça n'est pas un problème technique, c'est un problème déontologique. Quand tu cites un article, tu ne cites pas un concept d'article, dont le contenu est potentiellement mouvant et qui pourrait ne plus contenir ce que tu mentionnes. Il y a une forme de tolérance dans les premiers mois à cause de la mise en ligne progressive de versions successives de l'articles (preprint - accepted manuscript - uncorrected proof - article définitif), mais à partir de ce moment là, un DOI = la version finale de l'article.
Je ne comprends pas où tu veux en venir; au fil du temps les articles deviennent obsolètes; certaines études ne peuvent pas être répliquées, d'autres proposent des interprétations fausses, d'autres se sont intéressées à des problèmes qui ne peuvent pas être résolus… L'archive scientifique n'est pas "juste", elle est par essence fausse, et de plus en plus fausse. Personne n'est en charge de corriger l'archive, puisque le travail des scientifiques est de veiller à ce que les nouvelles publications soient moins fausses.
Donc je suppose en effet que tous les chercheurs sont au courant que les publications contiennent des erreurs, et ils sont au courant que leur travail consiste à vérifier les choses et de ne pas faire confiance aveuglément au premier machin qu'ils trouvent. Jamais personne ne publiera un erratum sur un papier de 1990 pour dire "Au fait, ces résultats n'ont pas pu être reproduits, ils sont probablement faux". Ça n'est pas comme ça que le processus scientifique s'archive. Ce qu'il se passe, c'est que quelqu'un publiera en 2024 "Contrairement à ce qu'on pensait en 1990 (ref), bla bla bla". Si tu ne lis que l'article de 1990, tu ne le sauras pas, et tu vas faire comme tout le monde, tu vas raconter ça en conférence, quelqu'un te dira après ton topo que tu devrais lire un article récent sur le sujet, tu vas le lire, tu vas bien avoir la honte un petit coup, et tu feras ensuite ta biblio correctement.
Après, toutes les discussions sont possibles : peut-être serait-il mieux d'avoir une littérature plus évolutive, peut-être les journaux devraient accepter les révisions continues, peut-être devrait-on moins publier et plus corriger l'existant, peut-être bla bla bli ou bla bla bla, mais non, ça n'est pas comme ça que ça fonctionne, tout le monde le sait, et tout le monde le prend en compte. Les études sont publiées chronologiquement, elles ne sont jamais retouchées après publication, et leurs éventuelles erreurs sont corrigées dans les publications ultérieures. La seule exception est le retrait d'une publication, mais en général c'est uniquement pour des raisons de fraude scientifique ou de droits d'auteur (ou parce que les auteurs ont découvert une énorme erreur, mais c'est beaucoup plus rare à ma connaissance).
De toutes manières, vu qu'il est devenu impossible de gérer le flux de nouvelles publications, comment pourrait-on imaginer devoir gérer le flux + le stock sur les 200 dernières années?
[^] # Re: Très réducteur
Posté par arnaudus . En réponse au lien Recherche scientifique : un outil pour éviter les « colosses aux pieds d’argile » (Abonnement). Évalué à 4.
Je m'autocorrige quand même : mon raisonnement ne concerne évidemment pas les premiers articles de la liste, pour lesquelles il y a des dizaines de références rétractées, dont la plupart sont des auto-citations. C'est évident que ce qui pose le discrédit ici, ça n'est pas qu'il y a des références rétractées, c'est que les auteurs sont aussi auteurs des papiers rétractés.
Par contre, je confirme quand même que l'intention du site est assez malveillante; le titre du site est assez explicite, et il dit "These papers may be unreliable". Même avec le conditionnel, je ne suis pas d'accord : il y a une volonté de discrédit basé sur un proxy très douteux.
Par exemple, je ne vois pas pourquoi l'article intitulé "Retracted publications and their citation in dental literature: A systematic review" serait problématique. De tels "faux positifs" montre bien à quel point l'approche n'est pas fiable.
[^] # Re: Très réducteur
Posté par arnaudus . En réponse au lien Recherche scientifique : un outil pour éviter les « colosses aux pieds d’argile » (Abonnement). Évalué à 6.
Oui
Non, en tout cas non dans le sens où la publication scientifique est incrémentale. La tendance à vouloir "revenir en arrière" n'est pas du tout nécessaire à la pratique scientifique, puisque c'est la nature même du processus scientifique d'être en perpétuelle évolution. La publication donne un point statique dans une série dynamique, et ce point statique n'a pas vocation à être modifié.
Tout à fait, de même qu'une nouvelle avancée théorique ou méthodologique, ou de la découverte d'un biais dans une méthode statistique. Mais jamais cela n'a justifié un "retour en arrière" dans la littérature. Normalement, les erratums sont destinés à corriger des erreurs lors du processus de publication (après que la mise en page ait été faite), typiquement, dans le numéro du journal qui suit la publication.
La discussion scientifique, elle, est traditionnellement exercée par des séries de commentaires et de réponses. Malheureusement, cette tradition est passée de mode, et de moins en moins d'éditeurs acceptent de publier des commentaires. Mais ça n'est pas très grave, puisque la discussion se traduira par des séries de publications qui noteront les limites des précédentes.
Mon argument, c'est que l'outil se base sur des éléments qui sont indépendants de la qualité scientifique des articles, et qu'il suggère qu'il faudrait "faire quelque chose". Or, 1) citer un travail rétracté n'indique en rien la qualité d'un travail scientifique, pour toutes les raisons que j'ai citées, et 2) le meilleur service qu'on peut rendre à la communauté scientifique est de ne surtout jamais altérer le principe du processus de publication, en modifiant l'auto-archivage de l'état des connaissances.
Pour prendre une analogie, corriger une publication existante, c'est comme modifier ton archive git parce qu'il y avait un bug. Tu corriges ton bug, tu peux commenter "Un bug avait été introduit dans le commit 1234abcd", mais le principe c'est de ne pas corriger ton archive.
Mais non justement, mon argument c'est le contraire. Ça pointe plutôt des travaux random qui ont le malheur de citer des travaux rétractés dans un contexte inconnu, alors qu'il n'y a probablement aucune corrélation entre la qualité d'un article et la citation d'un article rétracté. Et d'autre part, ça incite à "corriger" les archives pour ne plus apparaitre sur la liste, alors que corriger les archives est une procédure délétère pour la publication scientifique.
Si tu veux faire quelque chose de constructif, ça serait de fournir un outil pour que les éditeurs vérifient qu'il n'y a pas de travaux rétractés dans les citations au moment de la publication. Là il y a un moyen d'améliorer la qualité des travaux scientifiques avant la publication. Mais après, c'est trop tard, et essayer de bricoler des solutions à la gomme (erratum, dépublication, etc), c'est se tromper de cible tout en faisant perdre beaucoup de temps à beaucoup de monde.
# Très réducteur
Posté par arnaudus . En réponse au lien Recherche scientifique : un outil pour éviter les « colosses aux pieds d’argile » (Abonnement). Évalué à 10.
En fait,je trouve ça extrêmement naïf (et peut-être même malveillant dans certaines circonstances) de penser que la solidité d'un travail scientifique peut être remis en cause par une citation vers un article rétracté. Il est courant que les articles citent plus de 50 références, et une étude ne devient pas en "argile" parce qu'une de ces 50 références est rétractée.
Déja, le contexte de la citation fait tout. Si c'est dans le style "on sait que le gène X affecte le diabète (Machin 2012, Truc 2015, Bidule 2020)", même si Bidule 2020 est rétracté, il reste les autres refs. Ça peut aussi être "Il est généralement considéré que le gène X n'affecte pas le diabète (Machin 2012, Truc 2015), même si le cotraire a déja été évoqué (Bidule 2020)", auquel cas ça renforce même l'argument; les auteurs ont juste bien travaillé et cité l'ensemble des travaux pertinents, même s'ils ont clairement des doutes sur le dernier.
Ensuite, même si la citation était centrale pour l'argumentation scientifique (du style "On a découvert récemment que X affectait le diabète dans les populations Européennes (Bidule 2020), et on essaye de prouver si c'est le cas aussi dans les populations Asiatiques"), le retrait de Bidule 2020 ne remet pas en cause les résultats de l'étude. Ça changera le contexte scientifique, mais les données sont les données; et si les auteurs ont bien bossé les résultats ne devraient pas changer, seule l'interprétation de ces résultats change. Du coup, c'est évident que le papier n'aurait pas été écrit de la même manière, mais il ne semble pas y avoir de problème fondamental avec l'établissement de la connaissance scientifique.
Le seul contexte qui me semble réellement problématique serait celui d'une méta-analyse, qui reprend les résultats de la littérature. Ceci dit, une méta-analyse bien faite agglomère des dizaines ou des centaines de résultats publiés, et il semble peu probable qu'une étude qui fait défaut puisse modifier substantiellement le résultat de l'analyse.
Attention hein, je ne dis pas que la science actuelle est solide, je pense justement que dans plusieurs disciplines, elle est construite sur du sable. Mais je ne crois pas que ça puisse être dû à l'existence de publications non-fiables. Le principal facteur selon moi est la prime à l'originalité : pour être financée, une étude doit être originale, et son porteur doit être une personnalité scientifique qui sort du lot, ce qui enrichit le corpus scientifique en idées farfelues, enrichit les laboratoires en personnalités plus ou moins toxiques et/ou carriéristes, crée de la compétition dans des contextes où la coopération aurait été plus constructive, et encourage la prolifération de résultats non-fiables parce que non-répliqués. Même si une partie des résultats faux publiés peut provenir d'inconduite scientifique claire (ce qui est sanctionné par la rétractation d'un article quand c'est découvert), je pense que la plupart des résultats faux ne sont pas attribuables à la mauvaise foi : erreurs de bonne foi, mauvaise formation, mauvaises pratiques, pratiques conformes à l'état de l'art mais erronées (on ne peut pas le savoir), biais d'échantillonnage, échantillons trop petits (manque de financement ou problèmes logistiques ou administratifs), cadre théorique faux, erreurs de mesure, manque de temps, ou juste pas de chance.
[^] # Re: 1984
Posté par arnaudus . En réponse au lien Les écrans de télévision deviennent (encore plus) des espions fournisseurs de publicités. Évalué à 4.
Moi je le comprends très bien : ça consiste à nier que le pouvoir d'achat est une préoccupation bien plus répandue que les choses que le PO trouve préoccupantes (probablement, inégalités, problèmes environnementaux, ou immigration, en fonction de son bord politique).
Depuis très longtemps, les préoccupations des français, c'est le pouvoir d'achat et la sécurité. L'environnement, l'immigration, le chômage, etc., viennent bien plus loin, et c'est difficile pour les partis politiques, qui n'ont pas de solution pour le pouvoir d'achat ou la sécurité. Du coup, c'est plus facile de nier : "oui, ça ne veut rien dire", ou bien "quand les gens disent sécurité, ils pensent immigration", ce genre de trucs.
Moi, ce qui me troue, c'est que les gens ne comprennent pas forcément ce que ça veut dire, l'augmentation du pouvoir d'achat. Ça consiste à disposer de plus de biens ou de services en échange d'une heure de travail. Mais sans hausse de la productivité, c'est impossible que le pouvoir d'achat de tout le monde augmente : si un coiffeur met 20 minutes à faire une coupe au garagiste, et que le garagiste met 20 minutes à changer la roue de la voiture du coiffeur, une fois que tu as joué sur les charges (le salaire indirect), la TVA (les services collectifs), et la délocalisation de la production des outils, tu as une limite dure : si tu as deux coupes de cheveux pour le temps d'un changement de roue, c'est bien que le coiffeur doit travailler deux fois plus que le garagiste pour la même chose.
C'est juste moins direct quand c'est le prix des ordis made in China qui baisse, parce que c'est le pouvoir d'achat des ouvriers chinois ou des mineurs qui produisent les matières premières qui trinquent, mais voila, il faut bien comprendre ce qu'il y a derrière l'augmentation du pouvoir d'achat.
[^] # Re: Si seulement ?
Posté par arnaudus . En réponse au lien L’IA est-elle en train de tuer le SEO ? [un article SEO de plus sur l’IA]. Évalué à 4. Dernière modification le 28 août 2024 à 14:58.
Tu veux m'inviter à un dîner avec des amis qui seront très intéressés par mon projet, c'est ça?
En tout cas, je crois en savoir assez sur ce qui peut être considéré comme sexuellement stimulant par mes conspécifiques pour refuser de faire une quelconque prédiction sur le succès éventuel d'un tel site :-S
[^] # Re: 1984
Posté par arnaudus . En réponse au lien Les écrans de télévision deviennent (encore plus) des espions fournisseurs de publicités. Évalué à 10.
C'est presque ça qui est bizarre; ça semble dangereux et inconfortable d'être espionné par sa télé, alors que le FAI qui fournit la box sait exactement ce que tu regardes, quand tu le regardes, et ajoute des pubs en surperposition ou en clips traditionnels avec la complicité des chaines TV sur les services de type "replay". En fait, dès que tu sors du réseau Hertzien, c'est évident que tous les intermédiaires qui fournissent le flux vidéo savent ce que tu regardes.
C'est la revente à perte qui est interdite. Darty achète une télé à un industriel 200€, et ne peut pas facturer moins (en prenant en compte la TVA, les charges, etc). "Le prix d'achat effectif est le prix unitaire net figurant sur la facture d'achat, minoré du montant de l'ensemble des autres avantages financiers consentis par le vendeur exprimé en pourcentage du prix unitaire net du produit et majoré des taxes sur le chiffre d'affaires, des taxes spécifiques afférentes à cette revente et du prix du transport."
LG ne revend pas des télés, il les fabrique. Rien n'empêche un industriel de pratiquer les prix qu'il souhaite.
De toutes manières, même si c'était Darty qui jouait l'intermédiaire, je ne pense pas que ça irait bien loin. L'esprit de l'interdiction de la vente à perte, ça n'est pas pour défendre le consommateur, c'est pour interdire à un revendeur de tuer la concurrence par une perte volontaire sur chaque appareil vendu. Ça n'interdit pas les activités déficitaires, typiquement, les plans de financement peuvent prévoir plusieurs années d'activité déficitaire avant de dégager des bénéfices. Si tu as 10M€ de R&D avant de sortir une télé, les premiers milliers d'exemplaires seront écoulés "à perte" avant que tu commences à gagner de l'argent. Là, dans l'exemple, chaque télé vendue à 150€ va te rapporter 50€ par an, tu prévois un remplacement moyen à 4 ans, donc tu es à +150€ sur chaque appareil vendu, ça n'est pas "à perte".
Ça me rappelle le bazar que Free avait mis sur le marché des téléphones "gratuits" contre un engagement d'abonnement de plusieurs années, une pratique courante chez les concurrents. Il me semble qu'au final ça avait fait pshit, puisque ce modèle (qui ressemble à la LLD ou la LOA pour les voitures) n'est pas formellement un crédit, et que la location de l'équipement avec le service est standard dans ces technologiques (par exemple, la location de la box avec l'abonnement au FAI).
Bien sûr, on peut prendre tout au premier degré et trouver que ça devrait être interdit dans l'intérêt du consommateur, même si ça rend les produits plus chers. Mais il faut aussi ouvrir les yeux : les préoccupations majeures de nos concitoyens, c'est pas la vie privée, c'est le pouvoir d'achat. Or, ces entreprises proposent de valoriser les données personnelles contre des euros, et les données personnelles, ça ne coûte rien, et tu ne peux pas les valoriser toi-même. Tu peux bien sûr mettre un prix sur ta vie privée (par exemple, dire que 1€ n'est pas assez contre ton adresse email), mais tu ne peux pas échanger ces données privée en argent sans ces intermédiaires qui savent les valoriser. Bref, tout ça pour dire que ça n'est pas un choix aberrant de payer une télé 100€ + des données privées, au lieu de 500€. Peut-être que pour toi, les euros et les données privées n'ont pas le même taux de change et que tu ne considères pas que c'est une bonne affaire, mais ça reste une appréciation personnelle.
[^] # Re: Si seulement ?
Posté par arnaudus . En réponse au lien L’IA est-elle en train de tuer le SEO ? [un article SEO de plus sur l’IA]. Évalué à 5.
Certes, mais du coup c'est pareil que les algos de recommandation des réseaux sociaux (c'est obscur, différents utilisateurs n'ont pas les mêmes réponses, ça classifie les utilisateurs dans des "bulles" de confort, etc).
Mais je pense que c'est assez insoluble. Les intérêts de l'utilisateur, du concepteur du moteur, des sites visités, et de la société sont incompatibles, donc soit un intérêt est privilégié par rapport aux autres, soit un compromis doit être fait. Quand quelqu'un cherche "soigner le cancer par les huiles essentielles", est-ce vraiment dans son intérêt de répondre à la question demandée? Ou "achat Mein Kampf dédicacé par Hitler"? Et quid de "site de streaming illégal"? "Adresse personnelle du ministre de l'intérieur"? On met la limite où? Les journaux en ligne jurent sur la tête de leurs grands parents que sans les cookies ils vont mourir dans les 2 jours qui viennent, et si c'était partiellement vrai? Du coup on change l'algo pour les refaire monter, parce que "Le Monde" avec cookies ça vaut peut-être "Le Blog de Dédé l'identitaire" sans cookies?
[^] # Re: Si seulement ?
Posté par arnaudus . En réponse au lien L’IA est-elle en train de tuer le SEO ? [un article SEO de plus sur l’IA]. Évalué à 6.
Le truc, c'est que bien sûr chacun est libre de faire un site avec la technologie qui lui plait. Linuxfr est assez exemplaire, mais même Wikipédia par exemple n'est vraiment pas mal.
Si tu devais concevoir un moteur de recherche indépendant, tu prendrais certainement en compte une partie de ces critères, notamment la rapidité d'ouverture des pages sur un browser lambda, la taille de code non-HTML, la présence de cookie walls, etc.
Note que le moteur de Google pénalise les pages bourrées de pub, les popups, etc. Mais depuis un paquet d'années Google n'investit plus vraiment dans la qualité de son moteur (pour plein de raisons, notamment commerciales), et que quand tu as en face de toi des SEO qui brassent des millions, tu risques d'avoir toujours une longueur de retard.
C'est la différence entre le SEO "white hat" et le SEO "black hat", et ça existe depuis longtemps. C'est juste que produire du contenu intéressant n'est pas forcément possible, en fonction de ton business model. Et tu risques, aussi paradoxalement que ça puisse être, de perdre tes lecteurs. Un site de Pr0n qui te propose 75 pages documentées sur l'histoire de la représentation de la sexualité dans l'art, ça n'est probablement pas ce que tes lecteurs cherchent. On part tous du principe qu'on cherche des pages fournies et documentées, alors que ça n'est pas forcément le cas.
[^] # Re: Si seulement ?
Posté par arnaudus . En réponse au lien L’IA est-elle en train de tuer le SEO ? [un article SEO de plus sur l’IA]. Évalué à 10.
En fait, il semble impossible de savoir si l'auteur est sincère (et complètement dans sa bulle), ou si c'est un cynique qui se moque du monde.
Le principe du SEO est de tromper. Tromper les moteurs de recherche, en exploitant les failles des index de pertinence pour promouvoir du contenu moins pertinent, et bien sûr tromper les utilisateurs des moteurs de recherche, en mettant en avant des résultats différents de ceux qu'ils auraient souhaité. Le SEO oblige les moteurs de recherche à adapter leurs algorithmes régulièrement pour boucher les failles, sans pour autant y réussir parfaitement.
Et là, ouin ouin, ils semblent avoir trouvé des parasites plus efficaces qu'eux : les pages qui génèrent du contenu par IA et qui, probablement par le volume et la fréquence des mises à jour, attirent les moteurs de recherche mieux que les cercles de faux sites s'auto-indexant, ou autres techniques malhonnêtes destinées à tromper les logiciels d'indexation.
Finalement, depuis des années, les moteurs de recherche ont abandonné la lutte, en mettant en avant les liens "sponsorisés" et en ne portant qu'un intérêt minimal à la liste des sites qui suivent (et à la limite, moins cette liste est pertinente et plus les sites sponsorisés vont être attractifs). C'est dans cet espèce d'équilibre malsain que les moteurs et les SEO peuvent cohabiter, mais c'est bien entendu au détriment des internautes.
Existe-t-il des moteurs de recherche qui pénalisent les sites mettant en place des stratégies de SEO habituelles? C'est ce genre de moteurs qui aurait le plus de chances de donner des résultats pertinents.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
J'avais l'impression que tu partais du principe que les IA/LMM c'était de la bouse et que ça n'était qu'un effet de mode, comme si les versions actuellement disponibles n'étaient capables de rien d'intéressant. C'est ça que je trouve paradoxal : soit c'est de la bouse et il n'y a aucune raison de craindre un effet à long terme sur la société, soit ça marche et ça va marcher de mieux en mieux et que c'est ça qui est "inquiétant". Mais en tout cas, moi ces modèles m'ont fait prendre conscience à quel point les employés du tertiaire étaient en théorie remplaçables, et que l'humain n'était pas si "intelligent" que ça quand on le prenait individuellement. En tout cas, certaines tâches qu'on pensait réservées à des élites intellectuelles (écrire des rapports d'expertise, synthétiser des documents, répondre spécifiquement à des demandes de support…) étaient à la portée de systèmes automatiques. Et pour moi, la raison principale qui expliquerait pourquoi certains nient ça avec insistance et prétendent que les LLM ne font rien d'intéressant, c'est parce qu'ils ont peur de ce qui pourrait advenir d'eux dans quelques années. Justement, parce que l'argument "les LLM ne font rien d'intéressant" ne tient pas quand on essaye de leur faire faire des choses intéressantes (et pas de les piéger pour tenter de démontrer qu'on est plus intelligent qu'eux).
Mais je me trompe peut-être, tu penses peut-être sincèrement que les LLM ne font rien de spécial, mais dans ce cas je ne suis pas d'accord : les LLM sont capables de trucs extraordinaires; actuellement ils ne sont qu'un outil parce qu'il faut corriger deux ou trois trucs après eux mais il ne s'en faut pas de beaucoup pour avoir quelque chose de prêt à la production directement.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
Ça n'est pas juste une limitation imposée par le distributeur du modèle? Rien n'empêche de sortir une version actualisée tous les mois ou tous les ans.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3. Dernière modification le 26 août 2024 à 18:54.
Rien ne garantit que le message soit compatible avec la morale du XXIe siècle, hein… Moi je comprends que Zeus il est très musclé, il a des grosses balloches pleines de testostérone, et que comme ça Europe elle ne peut pas résister (on comprend comme on veut), et que c'est comme ça que font les Dieux mâles dominants très virils. De toutes manières, après il la refile à un roi pour des raisons politiques, donc il n'était pas non plus très très amoureux.
Wikipédia ajoute que "À Gortyne, sous un platane qui depuis lors est toujours vert, Europe s'accouple avec Zeus, sous forme humaine cette fois"… soit c'est mal écrit, soit le "cette fois" est un peu inquiétant parce que je n'avais pas compris les détails de l'histoire comme ça.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
Probablement, si ton corpus d'apprentissage est à 95% hors de star wars et décrit star wars comme une oeuvre de fiction. Mais tu as plein d'exemples où ça n'est pas forcément le cas. Par exemple, quelle part du corpus décrit la mythologie monothéiste comme une oeuvre de fiction? De facto, une part substantielle des humains ne la considèrent pas comme de la fiction, qu'est-ce qu'une IA devrait répondre là-dessus?
Certes, mais ça n'est quand même pas facile de lui demander d'avoir un sens de la "vérité" quand le corpus contient de gros blocs cohérents dans lesquels les lois de la physique sont fausses. Pour le coup, être capable de classifier un corpus en "fiction" vs "réalité", ça c'est quand même un signe d'intelligence, non? Par exemple, si ton IA lit "L'histoire de Quiddich à travers les âges", jamais le livre ne s'identifie comme une oeuvre de fiction qui fait partir de l'univers de Harry Potter. Nous, on est cablés pour faire très facilement la différence; à 2 ans un gamin fait la différence entre une histoire fictionnelle et une histoire vraie. Mais un LLM doit faire émerger ça à partir de son corpus, ça n'a pas l'air facile. Surtout s'il faut évaluer si la biographie de Trump est une oeuvre de fiction, par exemple.
Les LLM prouvent que non; ils manipulent les syllogismes et se trompent rarement sur les raisonnement piégeux (du style "combien de temps faut-il à 9 femmes pour faire un enfant"). En fait, c'est assez facile de montrer qu'ils ne raisonnement pas; ils arrivent fréquemment à te donner la bonne réponse sans être capables de te donner un raisonnement correct quand tu leur demandes; ça ressemble plus à une intuition très efficace (du fait de la taille du corpus ingurgité), et une sorte de rationalisation a posteriori quand tu lui demandes explicitement.
Mais encore une fois, est-ce bien grave? Imagine que tu fournisses un service de diagnostic en ligne de pannes de bagnole. Tes experts donnent le bon diagnostic dans 90% des cas, à partir des informations fournies dans un chat. Ils vont raisonner, du style "C'est une 206 de 2010, on sait qu'il y a souvent des pannes dûes aux faisceaux sur ces modèles", etc. À côté, chatGPT ne sait même pas ce qu'est une bagnole, mais donne un résultat probabiliste basé sur autant d'indices qu'il peut percevoir (l'orthographe du client, la rapidité des réponses dans le chat…). S'il est précis à 95%, quel est le problème à lui laisser donner des réponses intuitives? Dans la plupart des applications, ce que tu souhaites, c'est avoir la bonne réponse à ton problème, et pas de t'assurer que cette réponse est construite sur un raisonnement solide.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 4.
Lui faire avaler la littérature scientifique plutôt que les logs de Twitter? Oui, en effet, je pense que ça serait mieux si tu veux lui faire recracher des trucs vrais. Mais je pense que le but c'était de passer le test de Turing, auquel cas mieux vaut sortir les mêmes idioties qu'un humain moyen.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3. Dernière modification le 26 août 2024 à 16:38.
En général, si tu lui demandes "es-tu sûr de ton raisonnement?", il va se corriger.
Mais bon, tout ça reste une forme de simulation de raisonnement, et je ne pense pas qu'il puisse réellement raisonner (dans le sens où on le conçoit). D'une manière plus générale, il n'a pas réellement de notion de vérité, puisqu'il ne connait que le corpus d'entrainement, il n'a aucun moyen de comparer ce corpus avec le monde réel.
Ce qui n'est pas très étonnant d'ailleurs. Si le corpus c'est l'univers de Star Wars, alors pour lui, la Force et les Jedi sont des trucs réels. C'est malvenu de lui reprocher ça, puisqu'un humain serait exactement dans la même situation, d'ailleurs. Comme il n'a pas accès au monde par ses propres sens, il ne peut que "croire" ce qu'on lui raconte.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
De toutes manières, essayer de faire "raisonner" un modèle de langage est absurde. Ça démontre en effet pas mal le genre de fantasmes que les gens peuvent avoir, mais on est d'accord que ça n'a aucun intérêt? Au mieux, tu peux espérer avoir une réponse correcte que le problème est suffisamment connu pour qu'il soit largement représenté dans les données d'entrainement.
Je pense que ça illustre aussi pas mal la mauvaise foi avec la quelle la question est traitée parmi la communauté qui s'intéresse à ces technologies. Les gens qui ont conduit ces études savent pertinemment que rien dans un modèle de langage ne lui permet de suivre un raisonnement mathématique. Tu peux conclure que "ah ah cette AI est stupide", mais celui qui est stupide est celui qui a conçu ce test idiot.
Pour tester un LLM, fais-lui écrire une lettre, raconter une courte histoire, résumer un texte… Regarde par exemple, je viens de faire le test : "écris un sonnet sur une panne d'embrayage". Voici le résultat:
*Sur la route déserte, un triste présage,
L'embrayage soudain décide de céder,
Et mon voyageur se voit tout arrêter,
Dans un silence lourd, pesant comme un orage.
Je cherche en vain un secours, un visage,
Le moteur agonise, prêt à m'abandonner,
Et sous le capot chaud, je commence à douter,
Qu'un miracle survienne dans ce sombre paysage.
Mais voilà qu'arrive un vieil artisan,
Aux mains tachées d'huile, au geste précis,
Qui d'un tour de clé redonne vie au moteur.
L'embrayage renaît, brillant artisan,
Je repars enfin, le cœur allégé,
Reprenant la route, loin de toute frayeur.*
Bon, il y a des problèmes mineurs sur certaines rimes, mais honnêtement, il faut être blasé pour ne pas être amusé par la performance du truc, non? Évidemment que ça n'est pas du Hugo, mais là encore tu as un résultat meilleur que quoi, 90% des gens?
Ouais c'est ça, les gens intelligents c'est ceux qui savent mener un raisonnement mathématique. On se demande bien pourquoi tant de livres ont été écrits sur le sujets alors que c'est tellement facile.
Plus prosaïquement, quand tu mets un humain à un poste de travail par exemple, tu te fous un peu de savoir comment il mène les raisonnements qui le conduisent à prendre les bonnes décisions. Personne ne s'est jamais demandé si Dédé de la compta, il pensait vraiment ou il simulait la pensée. Et heureusement, parce qu'à part mener à des situations débiles et inconfortables, je ne vois pas où ça peut te mener. Bah voila, c'est pareil avec les LLM: ils se comportent dans la plupart des situations comme un humain qui raisonne, avec ses limites, ses erreurs, ses biais, ses imperfections. C'est donc une IA dans la mesure où elle peut simuler l'intelligence, donner les mêmes réponses qu'un humain qu'on présume intelligent. Chercher plus loin, c'est de l'escroquerie, parce qu'on sait très bien que les LLM ne raisonnent pas, ils ne sont pas conçus pour raisonner, et quelle que soit la complexité de la question qu'on leur pose, on finira toujours par pouvoir montrer qu'ils "simulent" le raisonnement.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
On sait que ça va s'améliorer, mais on ne sait pas jusqu'où. Ça n'a rien à voir avec du "wishful thinking". Ça va s'améliorer, parce qu'on sait que les services professionnels sont largement supérieurs à ce qu'on peut avoir pour le grand public payant, ce qui est encore supérieur à ce qu'on a en gratuit. Il est donc possible d'avoir bien mieux que ce que la plupart d'entre nous a pu tester.
Tu confonds "on" et "je". Ça n'est pas parce que tu sais pas que personne ne sait.
En fait, je ne sais même pas comment tu peux tenir un tel discours sur la "médiocrité" des IA, ça me fait clairement penser à une sorte de déni. Est-ce que tu as essayé d'utiliser un outil grand public (type chatGPT) sans mauvaise volonté, sur une tâche pour laquelle il est "bon" (en gros, générer du texte)? Tu demandes la même chose à 100 humains au hasard dans la rue, tu penses que chatGPT se classe où? Franchement, il va très souvent être dans les quantiles tout en haut, 90%, 95%. Ça ne va pas valoir ce que pourraient produire les cracks du domaine, mais ça a largement, très largement même, être au moins équivalent à ce que produirait un humain. Comme je le disais plus haut, chatGPT a un niveau master dans beaucoup de domaines, ce qui n'est pas à la portée d'un être humain (je veux dire, niveau master, oui, mais pas dans tous les domaines).
Après, pense que tu es irremplaçable, que jamais une machine ne pourra t'égaler dans le futur, que tout ça est du flan, tu es libre de penser ce que tu veux. Mais pose-toi juste la question sur la part de ça qui est dû à un raisonnement rationnel, et la part qui espère juste ne pas vivre dans un monde où en effet, les machines seraient capables de fournir un travail intellectuel de qualité supérieure à la plupart des êtres humains?
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
Je ne sais pas ce que tu appelles "intéressantes". Si c'est du point de vue de la société, je t'accorde que ça n'est pas impressionnant, même si je pense qu'il y a énormément de potentiel au niveau des interfaces entre les consommateurs d'un service et l'équipe de développement (questions fréquentes, documentation, rapport de bugs, etc). Par contre, le fait que ces systèmes soient capables de générer des copies mieux que moyennes jusqu'au niveau master, les étudiants l'ont bien compris. La capacité à étendre ou à résumer un texte est aussi extrêmement impressionnante. Comme dit plus haut, c'est un outil : il faudra repasser derrière pour vérifier rapidement, et ça n'aura jamais aucune réelle créativité, puisqu'il s'agit d'outils de synthèse. Mais si on en reste à ce niveau, ça marche quand même plutôt bien, et on a toutes les raisons de penser que ça ne peut que s'améliorer (jusqu'où? Ça n'est pas très clair).
[^] # Re: Interface chaise clavier
Posté par arnaudus . En réponse au message Le dev, les proS et les bugS !. Évalué à 5.
Mais c'est aussi parce qu'on croit naïvement que d'avoir des communautés ouvertes c'est bien et qu'il n'y a pas besoin de prévoir des cas particuliers. Ça fait plus de 20 ans que ces cas comme ça existent sur Wikipédia par exemple, des contributeurs très (très très) motivés, qui produisent du contenu incompréhensible ou clairement contre-productif, qui interagissent de manière très inefficace avec le reste de la communauté, et qu'on ne peut pas bloquer ou ignorer parce que ça rend tout le monde mal à l'aise. C'est toute la balance complexe entre l'inclusion et la protection des membres de la communauté.
Honnêtement, j'ai toujours pensé que la meilleure solution est celle de prévoir dans l'interface la possibilité d'isoler ces contributeurs, de manière à ce qu'ils aient accès à une version personnalisée du site, qui contient tout le site, plus leurs contributions qui ne sont pas visibles pour les autres contributeurs. Je crois que sur Wikipédia il leur était proposé de contribuer dans des "bacs à sable", des versions des pages destinées à l'origine aux gros chantiers de remise en forme des articles (on travaille sur une version en développement avant de la mettre d'un coup en ligne, afin d'éviter que le lecteur tombe sur un truc en travaux). Du coup, hop, on crééait des bacs à sable, on disait aux contributeurs "plutôt que de te faire réverter dans la page principale, tu n'as qu'à travailler au calme dans cette page"; tout le monde était content, le contributeur avait accès à Wikipédia et il était le Dieu absolu sur sa page, et étrangement le fait que la page n'était pas indexée ni visible n'était pas un problème la plupart du temps. Donc voila, plutôt que de ban ou de moinsser, on pourrait "invisibiliser" les contributeurs trollesques, sans pour autant qu'on doive réellement décider s'ils sont malveillants ou s'ils souffrent d'un trouble qui rend leur contribution à une communauté problématique pour les autres. Ils pourraient alors continuer à interagir avec le site, poster des spams ou des textes qui troubleraient les autres contributeurs, et ça leur prendrait beaucoup de temps avant de se rendre compte que les autres ne le voient pas.
[^] # Re: Wow
Posté par arnaudus . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2.
Déja, est-ce qu'on parle de la qualité absolue de ce qui sort d'une IA, ou bien de la qualité relative par rapport aux données qu'elle a ingurgité? Si on nourrit une IA avec les pages de la Flat Earth Society, l'IA te dira que la terre est plate. Il n'y a pas de problème avec l'IA, juste un problème avec la qualité des données.
Ensuite, est-ce que l'argument est temporaire (du style, "pour l'instant, c'est pas assez fiable"), ou est-ce qu'il est définitif ("par principe, ça n'est pas fiable"). Enfin, quelle est la référence? Par exemple, une IA qui conduit une voiture, on sait qu'elle va avoir des accidents, la question est plutôt si elle a plus ou moins d'accident qu'un conducteur moyen, qu'un conducteur inexpérimenté, qu'un conducteur âgé, etc.
Du coup, il y a tellement d'arguments qui s'éparpillent partout sur l'échelle de l'argument foireux qu'à un moment, il est tentant de tout balancer, parce que la plupart sont des arguments de grand-mères à moustaches ("ce truc change le monde et je n'aime pas quand le monde change"). Et je suis d'accord aussi que beaucoup d'arguments sont contradictoires entre eux. "Ça ne fait que reformuler Wikipédia" vs "Ça n'aura jamais la fiabilité d'une page conçue par un humain", par exemple. Il y a également énormément d'arguments basés sur le traitement d'informations privées, qui pourraient être obtenues par un moteur de recherche : si Google te retourne la bonne réponse si tu demandes "Quel est le numéro de téléphone de Tartempion" ou "Est-ce que Tartempion est juif", alors c'est normal que chat GPT te donne également la bonne réponse, c'est ce qu'on attend de lui (et s'il ne la donnait pas, on dirait "ah ah c'est moins bien qu'une recherche Google").
Parce qu'une IA bien configurée peut aussi être au service de la vie privée. Justement, si elle a pour consigne de ne pas dévoiler d'informations privées, elle peut "filtrer" le contenu du web pour ne fournir que les informations pertinentes. Elle peut t'apporter des nuances ("selon certaines sources la Terre est plate, mais ce n'est pas l'avis des scientifiques"), etc. L'IA est un outil, c'est un outil tellement nouveau que peu savent comment il fonctionne et comment l'utiliser efficacement, c'est un outil tellement puissant que beaucoup en ont peur, et c'est un outil tellement récent qu'on n'a aucune protection légale, ni même aucune règle éthique, qui s'appliquerait aux excès. Mais une fois qu'on a retiré tous les argument superficiels (qui traduisent des peurs ou des fantasmes, tels que la peur de perdre son boulot), et les arguments qui se concentrent sur l'imperfection des implémentations disponibles actuellement ou sur les lacunes des bases de données qui servent à entraîner les logiciels, il reste beaucoup moins de questions à trancher. Une question majeure est celle de la responsabilité (qui est responsable, celui qui fournit l'IA, celui qui l'utilise, celui qui publie le résultat…), une autre question est celle de la légalité de l'usurpation (est-ce éthique d'utiliser une IA pour se faire passer pour un humain auprès d'un autre humain), etc. Mais tant qu'on ne se débarrasse pas des questions de grand-mères à moustaches, on aura du mal à s'intéresser au fond des choses.