Journal [Trolldi] Vulgarisation sur l'IA pour décideur pressé

11
5
avr.
2024

Cher 'Nal,

Je fais un article-marque-page sur un post tout frais de Ploum où il est question d'un fantasme vieux comme le Talmud avec le Golem.

En bref: C'est trop tard d'investir sur l'IA pour faire fortune, le secteur va péter et pas en bien façon dystopie post-apocalyptique.

Le post peut servir pour donner un "avis différentiel" pour tempérer les tentations disruptives d'un chef ou d'un big boss qui ne jure que par les sacro-saintes Croissance et Progrès. À utiliser toutefois avec précaution pour ne pas heurter la sensibilité entrepreneuriale des décideurs.

Pour ma modeste part, je vais guetter les petites annonces pour récupérer de la techno neuromorphique de-la-mort-qui-tue à prix cassé. Ça peut servir pour créer ma propre agence de sécu et miser sur de potentiels juteux contrats.

Bsx,

Volts

  • # Les IA sont "sorties" trop tôt.

    Posté par  . Évalué à 2 (+0/-0).

    Ça a remué un peu tout le monde, mais personne n'était vraiment prêt ; c'est bien là que réside l'artificiel crépuscule à mon humble avis.

  • # Hallucinations hallucinantes

    Posté par  (site web personnel, Mastodon) . Évalué à 8 (+5/-0).

    Voilà qui répond à ma question, je me demandais ce que venaient faire les hallucinations là-dedans, la réponse est rien. Ce sont seulement des artefacts générés par l’IA.

    Néanmoins, je suggérerais à l’auteur de ce journal d’aller se laver le cerveau au savon pour avoir ironisé sur la Croissance et le Progrès, on ne rigole pas avec ces choses-là, sérieusement.

    « Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.

  • # Sur la fin ?

    Posté par  . Évalué à 10 (+12/-1). Dernière modification le 05 avril 2024 à 16:35.

    Tiré de ce post mastodon : https://piaille.fr/@royaards@newsie.social/112217332449100249

    Description (le alt semble ne pas passer) : Des personnes admirent un paysage de montagne verdoyant avec des lacs. Ce sont des images projetée sur des écrans géants à quelques mètres d'eux, masquant une terre désolée à l'extérieur et soutenu par des GPU géants dont un tuyau pour le refroidissement est directement planté dans la Terre, on devine qu'il tirent l'eau pour leur refroidissement directement dans les nappes.

    • [^] # Re: Sur la fin ?

      Posté par  (site web personnel) . Évalué à 2 (+1/-1).

      C'est assez discutable car ce n'est manifestement pas l'IT au sens large ni l'IA au sens restreint qui est à l'origine de l'éradication (bien entamée depuis 40 ans) de la vie sur terre. Ce serait plutôt nos régimes alimentaires qu'il faut interroger (et la sphère socio-économique autour de l'agro-industrie).

      Adhérer à l'April, ça vous tente ?

      • [^] # Re: Sur la fin ?

        Posté par  . Évalué à 9 (+8/-2).

        C'est une caricature. Le point c'est qu'au lieux d'agir vraiment on semble plus préoccupés par le besoin de construire des centrales nucléaires pour alimenter les industries de l'IA pour je ne sais quoi, reproduire de jolis documentaires animaliers synthétiques parce qu'en vrai ça devient dur ?

        L'IA c'est un peu le clou dans le cercueil. Ça se rajoute aux autres problèmes. Vous parlez sobriété ? "Non on veut juste plus de matos et de courant, promis ce sera remboursé aux centuple vous allez voir tous les problèmes qu'on va résoudre magiquement avec ça comme euh .. vous voyez quoi."

        • [^] # Re: Sur la fin ?

          Posté par  . Évalué à 3 (+1/-0).

          on semble plus préoccupés par le besoin de construire des centrales nucléaires pour alimenter les industries de l'IA pour je ne sais quoi

          Même pas.
          J'ai bien aimé la caricature en soit.

    • [^] # Re: Sur la fin ? - antithèse, c'est pas la fin

      Posté par  . Évalué à 2 (+0/-1).

      IA et les maths.

      Les maths c'est un cas particulier dans lequel on a un critère du vrai et du faux qui se rapproche de gagner et perdre aux échecs, avec des langages qui peuvent être manipulés par ces techniques à plusieurs niveaux.

      Terence Tao a un avis éclairé sur la question qu'il est peut être pertinent de partager ici : https://mathstodon.xyz/@tao/112221953164171331 (un toot avec plusieurs liens)

      En particulier ce draft d'article sur son blog qui fait une synthèse de l'existant et des perspectives que j'ai trouvé intéressant à titre personnel.

    • [^] # Re: Sur la fin ?

      Posté par  . Évalué à 7 (+6/-0).

      Cette image me rappelle "les vacances en boîte" lues dans un vieux Picsou Magazine

      Titre de l'image

      "Si tous les cons volaient, il ferait nuit" F. Dard

  • # Bel argumentaire mais incomplet

    Posté par  . Évalué à 10 (+8/-0).

    Je ne suis ni un spécialiste de l'IA, ni des technos derrière. L'article de Ploum est pertinent et argumenté (quoique avec des auto-références), et je pense qu'il a globalement raison. Il y a deux choses sur lesquelles on pourrait discuter :

    Et chaque patron découvrant ChatGPT se sent soudain dans l’urgence d’investir dans l’AI, de peur que le concurrent le fasse avant lui. C’est parfois très con un CEO. Surtout quand ça a peur de rater le coche.

    C'est un peu plus compliqué que ça. Le CEO est généralement loin d'être con. Mais qu'il ait peur de rater le coche, ça, c'est bien souvent le cas, et pourtant simple à comprendre: si Jules de chez Smith en face le fait et que ça marche, il coule. Donc, voyons ce que ça donne. Le CEO intelligent lancera des sondes, et verra ce que ça donne. J'ai eu un boss comme ça, et je pense que même aujourd'hui là où il bosse il continue de faire ça. Le CEO très con qui mise tout dans un seul truc, bah oui là il est très con, il va se gauffrer.

    Le deuxième point c'est que la valeur ajoutée de ces modèles d'IA est dans ce qu'elles sont : des outils, genre abstraction de grosse base de connaissance, à utiliser comme tels. C'est comme ça qu'on les utilise dans ma boite, avec en effet un chatGPT privé. C'est bluffant, mais ça ne reste qu'un outil. Je me suis surpris à lui demander des solutions sur des trucs que je maitrisais vraiment (des conf complexes de lb, proxies, clustering) et ça a fait mouche la plupart du temps.

    Ces IA s'appuient sur l'ensemble des connaissances à un instant T. Elles ne savent rien, ne comprennent rien, n'inventent rien (dans le sens où elles ne font que faire des corrélations basées sur des probabilités) même si les résultats peuvent laisser penser le contraire : elles ne sortiront et remodèleront que ce que que d'autres. Elle sont donc intrinsèquement limités et par leur modèle, et par les données très incomplètes qui les alimentent. Si on arrête d'alimenter (et qu'on reste coincé sur les connaissances de 2021) et qu'on n'utilise que ça, l'humanité est morte et n'évoluera plus. Comme ces étudiants stupides qui ne veulent plus apprendre parce que tout est sur Google (vécu, hein). Et si on l'alimente volontairement de conneries (imaginez une IA alimentée par Twitter ou Snapchat…) alors on rentrera dans une sorte d'idiocratie.

    Au pire, on débranchera la prise.

    • [^] # Re: Bel argumentaire mais incomplet

      Posté par  . Évalué à 1 (+1/-3).

      Le mot "compréhension" est mal défini. Réduire ça a de simple statistiques c'est rater le fait que ces "statistiques" sont nécessairement très bien structurées et reflètent la structure des données. Il y a des formes de "raisonnement" qui sont associées à ça, des généralisation, et des formes de raisonnement qui sont sans doute assez proches de raisonnement à base de règles.

      Et c'est sans doute des choses à partir desquelles on peut commencer à baser des raisonnement plus solides, avec les machines qui commencent à faire ce qu'elles avaient bien du mal à faire auparavant, travailler avec des données "du monde" (images par exemple), les décortiquer et en découvrir la structure de manière probablement similaire à ce qu'un cerveau humain ferait en partie. L'article que je liai l'autre jour A Phase Transition in Diffusion Models Reveals the Hierarchical Nature of Data parle de comment mettre en évidence ces structures que découvrent les réseaux de neurone et comment les mettre en évidence. Il y a fort à parier que ça implique des "règles floues" qui généralisent un peu les règles qu'on pourrait trouver dans des moteurs d'inférence, à part le fait qu'on est souvent incapable de les écrire explicitement et que la force des IAs c'est de gérées des données bruitées pour alimenter ces règles.

      Donc c'est ptete juste des statistiques mais elles sont tellement sophistiquées pour arriver à compresser les données de manière efficaces impliquent que les modèles reflètent beaucoup de ce qui est compréhensible du monde. Et qu'on soit sans doute capable à terme de coupler tout ça avec des moteurs d'inférence dont on va pouvoir contrôler un peu plus la correction, elles feront peut-être des ponts entre notre monde complexe et bruité pour en tirer des infos intéressantes et digestibles pour pouvoir en tirer des raisonnements d'une autre nature.

      En un sens, ptete qu'une IA "comprend" qu'un chien a des pattes et une queue.

    • [^] # Re: Bel argumentaire mais incomplet

      Posté par  . Évalué à 1 (+1/-3).

      Après, oui, l'IA manque sérieusement de surmoi et a un culot pas possible pour affirmer des choses fausses sans aucun doute, en son état actuel. Il y a quelques articles pour détecter les hallucinations.

      Le traitement du vrai et du faux est donc étrange ou inexistant, il manque clairement des trucs de ce côté. Il y a pas moyen avec un modèle de langue brut de croiser les information, le sourcage est souvent déficient. Pour aller au delà faudra des systèmes plus sophistiqués. On peut s'interroger sur le coût algorithmique nécessaire.

      • [^] # Re: Bel argumentaire mais incomplet

        Posté par  (site web personnel) . Évalué à 8 (+8/-0).

        L'IA ne manque pas de surmoi
        L'IA n'a pas de culot.
        L'IA n'a pas d'hallucination.
        L'IA ne connait ni vrai ni faux, ne sait pas faire de différence entre un roman et un livre d'histoire.

        L'IA n'est pas intelligente. D'ailleurs elle ne fait pas des raisonnements, n'a pas de logique.

        Arrêtez d'utilisez les métaphores commerciales de ces outils !!!

    • [^] # Re: Bel argumentaire mais incomplet

      Posté par  . Évalué à 4 (+2/-0).

      Je me suis surpris à lui demander des solutions sur des trucs que je maitrisais vraiment (des conf complexes de lb, proxies, clustering) et ça a fait mouche la plupart du temps.

      C'est sur ce point que je suis le plus craintif.
      On a l'expérience des GAFAM maintenant, leur implantation dans les mœurs entre autres.
      A un détail près les investissements actuels en IA sont colossaux par rapport à ceux des GAFAM il y 20ans, on peut s'attendre à une demande de retour sur investissement beaucoup plus prononcée.
      Je n'ai pas en tête de formulation adéquate à la sauce "Embrace, extend and extinguish" : se rendre indispensable, tuer la concurrence, régner en maître.

      • [^] # Re: Bel argumentaire mais incomplet

        Posté par  . Évalué à 5 (+4/-0). Dernière modification le 06 avril 2024 à 11:54.

        La technologie IA fait mouche. C'est l'impression qu'elle donne, à première vue.

        Exemple, tiré de ma pratique de la post-édition d'une traduction machine, une "tâche" que les prescripteurs pressés imposent aux prestataires humains.

        Le contexte : un projet de recrutement.

        Le texte :

        La réalisation de tels services repose, de manière analogue aux tâches qui devront être réalisées par l'agent faisant l'objet du présent recrutement, sur des capacités et des compétences d'organisation communes (…)

        Traduction IA :

        Die Erbringung solcher Dienstleistungen beruht - ähnlich wie die Aufgaben, die von dem/der hier eingestellten Bediensteten zu erfüllen sind - auf gemeinsamen organisatorischen Fähigkeiten und Kompetenzen.

        Erreur : "eingestellten", situe ici l'action du recrutement dans le passé, alors que la logique (tirée du contexte) impose le futur.

        Donc oui, effectivement, la technologie IA fait mouche : la plupart du temps… et en apparence.

        Mais en générant de manière prétendument intelligente des énoncés, elle produit des contresens inconstestables. Le moulinage d'immenses corpus de textes n'y change rien.

        Pour le consommateur de l'IA, la première lecture de la phrase générée donnera effectivement l'illusion d'un résultat correct. Ce sera probablement suffisant pour le commun des mortels et pour le décideur pressé. Une analyse plus approfondie démontrera les failles de la technologie. Des failles qui, de surcroît, ne sont ni systématiques ni prévisibles, car reposant sur un modèle non déterministe.

        • [^] # Re: Bel argumentaire mais incomplet

          Posté par  . Évalué à 0 (+0/-3).

          Le modèle est complètement déterministe, c'est la manière dont on l'utilise qui ne l'est pas forcément, pour générer de la variation. Il me semble qu'on "tire au hasard" parmi les suites les plus probables en fonction de la probabilité respectives de plusieurs suites possibles.

          • [^] # Re: Bel argumentaire mais incomplet

            Posté par  . Évalué à 0 (+1/-2). Dernière modification le 07 avril 2024 à 08:28.

            Si la transcription de cet échange (authentique) avec la bonne à tout faire Chat-GPT est déterministe, je veux bien manger mon chapeau :

            You
            Voici le texte à traduire :

            ChatGPT
            D'accord, veuillez fournir le texte que vous souhaitez traduire et je m'occuperai de la traduction pour vous.

            You
            Global Voices (GV): Su trabajo, Simone Veil, L'immortelle [Simone Veil, la Inmortal en español. Nota del editor: Inmortal hace referencia al miembro de la Academia Francesa] lo publicará el 27 de junio de 2018 Editions Marabulles. ¿Puedes contarnos acerca del contexto de esta obra y de su inspiración para la novela?

            ChatGPT
            Global Voices (GV) : Votre travail, Simone Veil, L'immortelle, sera publié le 27 juin 2018 aux Éditions Marabulles. Pouvez-vous nous parler du contexte de cette œuvre et de ce qui vous a inspiré pour le roman ?
            Pascal Bresson (PB) : L'idée de cette bande dessinée est née de mon admiration pour Simone Veil en tant que personnalité publique, mais aussi de mon désir de mettre en lumière son parcours exceptionnel, souvent méconnu du grand public. Avec cette œuvre, je souhaite rendre hommage à son combat pour les droits de l'homme et des femmes, ainsi qu'à son courage face aux épreuves de sa vie, notamment son expérience tragique dans les camps de concentration pendant la Seconde Guerre mondiale. Je pense qu'il est crucial de rappeler son histoire et son engagement, surtout dans le contexte politique actuel où les droits fondamentaux sont parfois remis en question.

            You
            Merci de traduire ce passage en français et rien d'autre :

            ChatGPT
            Global Voices (GV) : Votre travail, Simone Veil, L'immortelle, sera publié le 27 juin 2018 aux Éditions Marabulles. Pouvez-vous nous parler du contexte de cette œuvre et de ce qui vous a inspiré pour la novela ?

            Bilan : c'est fastidieux car on doit se coltiner les facéties de l'IA générative, qui, en matière de chapeau, tire du galurin en question, un texte tiré du néant.

            Et moi, pauvre humain, je dois quand même passer la serpillère derrière : "la novela", ça fait quand même tâche, avec tout le respect que je dois (ou pas) à l'IA.

            • [^] # Re: Bel argumentaire mais incomplet

              Posté par  . Évalué à 3 (+1/-1).

              C'est pas une question de déterminisme ça, le déterminisme c'est "même cause même effet", dans notre cas toujours la même réponse à la même question.

              La c'est plus la correction ou la cohérence qui sont en jeu. Oui il reste des moyens de les faire dérailler, pendant un temps c'était un jeu de trouver des moyens de le faire de manière systématique.

              Là ça démontre plutôt une autre propriété, quand il déraille tu peux l'amener à une réponse plus juste en reinjectant de l'information, et pour le coup c'est pas un défaut de tout. Le déterminisme n'est pas en cause parce que tu as réinjecté de l'information entre les deux tentatives, le problème (les causes) n'est plus exactement le même.

              • [^] # Re: Bel argumentaire mais incomplet

                Posté par  . Évalué à 1 (+0/-0). Dernière modification le 07 avril 2024 à 10:06.

                Je te concède que ma perception du déterminisme, qui est juste tirée de mon intuition, n'est pas nécessairement une référence, pour la caractérisation d'un système de raisonnement. J'accepte en tout cas que le mécanisme sous-jacent soit qualifié de déterministe.

                Mais quand même ! Quand, pour une même demande juste réitérée et à partir d'un texte en entrée identique, on obtient des réponses variables, alors, comment qualifier ce "comportement" de l'IA ? Ca ressemble fortement à de l'intelligence, avec de gros guillemets, mais je reconnais qu'on aborde ici un terrain glissant.

                Quoi qu'il en soit, c'est un détail dans l'histoire…

                • [^] # Re: Bel argumentaire mais incomplet

                  Posté par  . Évalué à 2 (+0/-1).

                  Le modèle a été confusé par le mélange des langues, et a probablement "oublié" si ça a un sens que la conversation avait lieux en français et que la réponse attendue était en français. Quand c'est explicite ça va mieux.

                  Par contre il y a très bien "su" ignorer sa propre réponse bien qu'elle soit dans le contexte de la discussion et ça n'a pas semble-t-il pollué la demande de correction. Ce qui n'est pas une évidence si c'est "juste" des stats.

                • [^] # Re: Bel argumentaire mais incomplet

                  Posté par  . Évalué à 2 (+0/-1).

                  Cela dit oui, il semble que le secteur avait au moins il y a quelques mois des difficultés à reproduire de manière sûre le fait que le modèle ait ou pas certaines capacité lors de deux sessions d'apprentissage. Il était difficile de garantir que la session d'après, si par exemple le modèle était pas trop mauvais pour faire des additions, la nouvelle génération ait le même "talent".

                • [^] # Re: Bel argumentaire mais incomplet

                  Posté par  . Évalué à 2 (+1/-0). Dernière modification le 09 avril 2024 à 13:07.

                  Il y a de l'aléatoire dans la sortie. Le modèle va prédire la probabilité de chaque token (grosso modo mot) de suivre le texte déjà entré. Les utilisations type ChatGPT vont ensuite choisir aléatoirement parmi les tokens de plus forte probabilité (avec une pondération).

                  Les différentes expériences ont montré qu'avec un peu d'aléatoire, les sorties avaient l'air plus naturelles que quand on prend toujours la plus probable. C'est empirique, surtout sur du ressenti relativement difficile à quantifier. Ca permet aussi de relancer les réponses et ça évite des effets "boucle" ou le modèle se met à prédire en boucle la même suite de mots (ça arrive pas mal sur les completions de clavier de smartphone qui ne gardent qu'un tout petit historique).

                  Donc en soit, l'algorithme donnant une probabilité à chaque token suivant est globalement déterministe (il peut y avoir des erreurs d'arrondis de float par exemple), mais celui cherchant à produire un texte naturel va ajouter un peu d'aléa.

  • # Exprimer ses craintes

    Posté par  (site web personnel) . Évalué à 0 (+0/-1).

    Ce n'est pas forcément les expliquer clairement..

    Utiliser des analogies peut être maladroit ok, ce que je constate c'est que ça semble gêner, ce qui est déjà habile de sa part. C'est la seconde fois qu'un journal dénonce… Il n'est pas assez de ton côté ?

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.