Journal Les AI des GAFAM sont-elles néfastes ?

Posté par  (site web personnel) . Licence CC By‑SA.
13
19
juin
2022

Récemment, on a beaucoup discuté de si un certain modèle de langage était sentient. Ce qui a été beaucoup moins discuté c'est les biais que ce modèle contient, l'effet que ce modèle a ou peut avoir sur les individus qui interagissent avec lui et sur la société en général.

Timnit Gebru et Margaret Mitchell examinent le problème depuis plusieurs années. En 2020, lorsqu'elles travaillaient chez Google, elles ont publié une étude sur le sujet (avec la professeure Emily M. Bender, ses étudiants et d'autres travailleurs de Google). Une de leurs conclusions est que les gens interagissant avec ce modèle risquent de l'anthropomorphiser et que, étant donné son jeu de données biaisé, cela risque de renforcer certaines discriminations. Elles en reparlent maintenant dans un article du Washington Post (lien archive.is pour éviter le paywall) que je vous invite à lire (en anglais mais j'ose espérer que la presse francophone relayera cela d'ici quelques jours/semaines).

Dans ce contexte, les discussions sur la sentience sont une distraction et il serait sans doute plus utile d'examiner l'effet que ces modèles de langage ont sur la société. On pourrait par exemple imaginer en entrainer un avec un jeu de données promouvant des vues politiques spécifiques et lui donner accès à quelques milliers de comptes Facebook/Twitter/Linuxfr.

Ou bien ou pourrait se focaliser sur l'utilisation de ces modèles pour résoudre des problèmes de société plutôt que de se monter le choux avec des « intelligence » artificielles qui donnent une bonne excuse à leurs créateurs pour se dédouaner de tout effet néfaste de ces modèles.

Avertissement : Je travaille chez Google mais pas dans ce domaine. Mes messages sur ce site web n'engagent que moi.

  • # Blast

    Posté par  . Évalué à 5.

    • [^] # Re: Blast

      Posté par  (site web personnel) . Évalué à 5.

      Et encore mieux avec leur instance PeerTube : Tay : L’intelligence artificielle devenue nazie en 24h sur Twitter

      PS : en 240p, c’est largement suffisant et votre pc, débit et les serveurs vous diront merci  ;)

      Ce message ne contient aucun degré. (sérieusement…! non, mais en vrai !! ok, peut-être un peu parfois mais pas là ☻ )

      • [^] # Re: Blast

        Posté par  . Évalué à 2.

        Ces chroniques sont tellement bien écrites, toujours un plaisir à regarder et écouter.
        Merci, je n'avais pas encore vu celle-la et en effet c'est mieux sur peertube !

    • [^] # Re: Blast

      Posté par  (site web personnel, Mastodon) . Évalué à 2.

      En même temps, vu que tay veut dire merde en malgache, de là à conclure une forme de prédestination de cette IA… le pas est facile à franchir :-)

  • # voire aussi

    Posté par  (site web personnel) . Évalué à 2.

  • # Une partie de la réponse est dans la question: Les GAFAM

    Posté par  (site web personnel) . Évalué à 10.

    Je pense qu'une partie du problème provient des GAFAM, et de leurs fonctionnements/modèles économiques néfastes en soi. Je ne vise pas à nier l'importance de l'outil en soi, qui ne peut être neutre car il répond à des choix de conception, sollicite des ressources, répond à des demandes, etc. mais je pense quand même que la question serait posée différemment si nous n'avions pas derrière de telles organisations.

    • [^] # Re: Une partie de la réponse est dans la question: Les GAFAM

      Posté par  . Évalué à 2.

      la question serait posée différemment

      Si je suis souvent critique à l'égard des GAFAM mais je ne comprends pas cette réponse. La critique et l'avertissement sur les conséquences est originaire de personnes travaillant pour Google. Si on regarde Google en tant qu'entité, c'est une autocritique et une réflexion faite sur les conséquences de leur propre travail.

      Je ne comprends pas en quoi le fait que cet outil soit développé par Google (ou un autre GAFAM) change la façon dont la question est posée ? Qu'est-ce qui aurait été différent si une entité étatique avait été derrière cet outil ? Un exemple d'actualité est Parcoursup dont la légitimité algorithmique est décriée de par les conséquences que ça peut avoir. Est-ce que la critique est plus difficile envers les GAFAM qu'envers les autres ?

      • [^] # Re: Une partie de la réponse est dans la question: Les GAFAM

        Posté par  . Évalué à 9.

        Parcoursup c’est très différent je pense. L’algorithme est contesté certes, mais c’est parce qu’il est très lent, que ça peut être très frustrant.

        On trouve même des argumentations « c’est pas l’algorithme le problème, c’est qu’il y a pas assez de place dans les filières

        Des classements sont fait par les filières il me semble, parfois il est contesté l’opacité de ces classement mais c’est pas l’algorithme lui même qui en est responsable.

        En comparaison des algorithmes des Gafam Parcoursup est infiniment plus transparent. Ce qui pose problème dans les algorithmes des gafams, c’est en partie leur opacité, leurs objectifs opaques, leur utilisation intrusive des données … Parcoursup on peut discuter démocratiquement de si c’est un système d’affectation des formations pertinent. Les algos des gafams … bon courage. Leur objectif est la maximisation des profits, c’est à peu près tout ce qu’on sait. Si on veut réduire les biais « populistes » qui font qu’ils risquent d’être tunés volontairement ou pas pour plaire au plus grand nombre en ignorant les minorités qui rapporteraient pas assez, va falloir légiférer ou compter sur la bonne volonté des Gafams (et dans une entreprise, il suffit pas qu’il y ait des employés de bonne volonté pour que la totalité du groupe le devienne)

      • [^] # Re: Une partie de la réponse est dans la question: Les GAFAM

        Posté par  (site web personnel) . Évalué à 9.

        La critique et l'avertissement sur les conséquences est originaire de personnes travaillant pour Google.

        Tu noteras que, comme expliqué dans l'article, ces personnes ont été évincées. On en a parlé ici à l'époque : https://linuxfr.org/users/space_e_man/journaux/google-demantele-son-ethique-et-tout-le-monde-s-en-fout

        pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.

  • # pas que les GAFAM

    Posté par  (site web personnel, Mastodon) . Évalué à 5.

    On pourrait par exemple imaginer en entrainer un avec un jeu de données promouvant des vues politiques spécifiques et lui donner accès à quelques milliers de comptes Facebook/Twitter/Linuxfr.

    N'était-ce pas cela l'affaire Cambridge Analytica ?

    Ou bien on pourrait se focaliser sur l'utilisation de ces modèles pour résoudre des problèmes de société plutôt que

    Pour en revenir à la problématique, Lê/Science4All nous a fait un top 5 très intéressant

    “It is seldom that liberty of any kind is lost all at once.” ― David Hume

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.