• # Vu, et pas complètement approuvé

    Posté par  . Évalué à 10.

    Même si le ton est divertissant, il y a quand même plein de raccourcis et de "rassurisme", avec parfois aussi un côté "on n'a rien inventé c'est juste des buzzwords" qui frôle le manque de respect pour les millions d'heures de R&D passées sur ces problèmes.

    Les trucs majeurs qui m'ont gêné:
    * On redéfinit l'intelligence au fil de l'eau de manière à exclure l'IA de ce qu'est "intelligent". Au XVIe siècle, faire une addition était propre à l'intelligence humaine. Quand on a inventé une machine qui le faisait, alors on a décidé qu'en fait c'était bête. Au XIXe siècle, le jeu d'échecs était le summum de l'intelligence humaine. Quand on a inventé un ordinateur capable de battre les humains, on a décidé qu'en fait les échecs ça n'était que du calcul. C'est le même argument fallacieux que "Dieu est dans les trous": il y a 500 ans, on ne comprenait pas grand chose du monde et Dieu était l'explication à tout; maintenant il ne reste que quelques îlots d'ignorance (début de l'univers, apparition de la vie), et il a fallu sans cesse changer les définitions pour lui laisser une place. Bref, redéfinir l'intelligence au fur et à mesure pour exclure de l'intelligence les choses que les ordinateurs sont capables de faire est fallacieux, et c'est pourtant exactement le discours qui est tenu.
    * Les IA sont bonnes à une tâche alors que les humains peuvent tout faire: déja ce n'est pas tout à fait vrai, parce que les humains ont besoin de formation et que certains humains ne seront jamais capables de faire certaines tâches indépendamment de la formation qu'ils reçoivent (devenir virtuose pour un instrument, ou sportif de haut niveau). Ensuite, en grande partie faux pour la série des "alpha" qui est pourtant utilisée comme exemple, puisque AlphaChess et AlphaGo sont (à peu près) le même algorithme, entrainé sur des jeux différents. C'est quand même très similaire à des humains entrainés à parler Allemand ou Cantonais. Enfin, l'argument ne fonctionne pas pour ChatGPT, puisque certes ChatGPT ne peut faire "que" de la conversation, mais il peut tenir cette conversation dans plusieurs langues, il peut fournir du code, créer de la musique, de la poésie, des oeuvres de fiction. Bref, c'est assez débile de dire qu'il est monotâche parce qu'il ne communique ses créations que par le biais de texte; un scénariste de série TV et un chercheur en physique quantique vont aussi communiquer par des textes alors que les tâches sous-jacentes représentent toute la diversité de la création humaine.
    * Le "rassurisme" est basé sur la négation du concept d'émergence; c'est très pratique pour faire de la rhétorique bien sûr, parce que le discours passe très bien, mais c'est hyper-douteux épistémologiquement parlant. Il y a du carbone et de l'azote partout dans notre environnement; vous n'allez pas avoir peur d'une molécule composée d'un atome de carbone et d'un atome d'azote. La vie est constituée de molécules organiques dont on connait la composition et qui n'ont rien de particulier, aucune raison d'imaginer que le vivant ait des propriétés différente des autres objets du monde physique, etc. Bref, l'argument de "ce n'est qu'une histoire de degrés", c'est un argument hyper fragile, parce qu'on sait que c'est un argument faux dans de nombreuses situations, et le comportement d'un système complexe ne varie pas linéairement avec sa complexité.
    * De nombreux arguments reposent sur un manque d'imagination. Par exemple, il est affirmé que jamais (en insistant sur "jamais") un système de conduite autonome serait capable de distinguer un vrai panneau STOP d'un mec qui porte un panneau STOP, alors que l'humain le fait trivialement. Outre le fait que c'est probablement faux pour l'humain (par exemple, la situation dans laquelle des ouvriers sont en train de poser un panneau STOP me semble insoluble pour un humain), il ne me semble pas du tout inconcevable qu'un algo puisse correctement trancher entre "il y a un stop" et "il n'y a pas de stop" dans cette situation. Il va intégrer des informations (absence ou présence de ligne de stop sur le sol, le panneau n'était pas là 3 secondes plus tôt, il semble associé au référentiel d'un piéton mais pas au référentiel du trottoir, etc), et du coup, l'idée de "jamais possible" dans un tel contexte me semble hyper-douteuse.
    * Enfin, l'argumentation présuppose un rejet du fonctionnalisme, alors qu'à ma connaissance la majorité des gens qui travaillent dans ou sur l'IA sont fonctionnalistes (peut-être parce que c'est la seule option opérationnelle dans lequel le concept d'IA a un sens). Si on n'est pas fonctionnaliste, par définition, l'intelligence ou la conscience ne peut pas exister en dehors d'un cerveau. Donc, par définiton, l'IA ne peut pas exister. C'est une conclusion qui dépend des prémisses, il n'y a rien de bien transcendant.

    Bon, bref, c'est distrayant, mais c'est quand même aussi beaucoup pas terrible et pas bien profond. La prémisse de la reflexion, c'est qu'il n'y a pas de problème, donc on peut accumuler des platitudes en changeant les définitions, en affirmant que telle ou telle tâche est absolument impossible à automatiser, etc., mais ça reste un procédé rhétorique, pas un moyen de comprendre la réalité et d'anticiper le potentiel (positif ou négatif) des systèmes qu'on appelle "IA".

    • [^] # Re: Vu, et pas complètement approuvé

      Posté par  (site web personnel) . Évalué à 9.

      Sans remettre en question le reste :

      avec parfois aussi un côté "on n'a rien inventé c'est juste des buzzwords" qui frôle le manque de respect pour les millions d'heures de R&D passées sur ces problèmes.

      Faut arrêter à balancer du "manque de respect" dès qu'on appeler un chat, un chat.
      Si tu me dis que tu as 18 ans et que je vois que tu en as 40, te dire que tu n'as pas 18 ans n'a rien à voir avec un manque de respect, et si manque de respect il y aurait ce serait plutôt de ta part d'essayer de me faire croire que tu as 18 ans (je te laisse conclure sur l' "IA").

      L' "IA" aujourd'hui c'est du mimétisme à coup de puissance énorme de calcul, rien d’intelligent dedans, plutôt une automatisation (et c'est déjà très bien) pour faire à pas cher des trucs que les humains feraient aussi mais pour plus cher, comment avant on a inventé la calculatrice (ton exemple) sans dire que la calculatrice est une forme d'IA malgré les heures de R&D pour créer une calculatrice.

      Exemples de mimétisme : dans les traductions, il arrive que la traduction dise exactement le contraire de l'original juste parce que la forme est "chopée" par les algos bourrins comme le contraire alors que même moi avec mon niveau archi bas ça me saute aux yeux que c'est faux (texte pas du tout cohérent). Pour les images il y a plein d'artefacts énormes qu'une intelligence de base aurait capté comme à corriger avant de publier et que du coup ce sont les humains qui doivent corriger l'algo. Les images sont "biens" car les intelligent on passé plein de temps à corriger des algorithmes.

      […] il ne me semble pas du tout inconcevable qu'un algo puisse correctement trancher entre "il y a un stop" et "il n'y a pas de stop" dans cette situation

      Parce qu'on aura codé la chose, oui. Une IA réelle apprendrait par elle-même mais ce qu'il y a actuellement n'est pas foutu de se "corriger". Bon exemple pour montrer le manque d'intelligence en soit.

      En attendant, un cône posé et ton "intelligence" est complètement perdue le temps que des humains codent.

      • [^] # Re: Vu, et pas complètement approuvé

        Posté par  . Évalué à 9. Dernière modification le 12 juillet 2023 à 12:12.

        Faut arrêter à balancer du "manque de respect" dès qu'on appeler un chat, un chat.

        Appelle ça "manque d'humilité" si tu préfères. Mais affirmer que le deep learning c'est la même chose qu'avant mais avec plus de données, ce n'est pas de la vulgarisation scientifique correcte. Prétendre qu'on pouvait prévoir qu'il serait impossible d'analyser le langage natural avec un système expert, c'est un manque d'humilité. Il confond ce qu'on peut comprendre maintenant qu'on sait, et ce qu'on pouvait prévoir quand on ne savait pas.

        Par contre, il y a un point super-important qu'il n'a pas vraiment évoqué, c'est la sur-communication. Beaucoup d'algorithmes présentés comme des IA ne sont pas des IA, beaucoup d'algorithmes présentés comme du deep-learning ne sont pas du deep-learning, etc. Par ailleurs, entrainer un algorithme correctement nécessite beaucoup de compétence, parce que certains algorithmes sont peu autonomes pour l'apprentissage. Associer IA et autonomie d'apprentissage est d'ailleurs un peu douteux, mais c'est une question de définition. Pour moi, Dall-E est un vrai algo d'IA (il simule une intelligence complexe), mais il est incapable d'apprendre tout seul, il lui faut des données annotées. Par contre, AlphaChess apprend tout seul, mais je ne suis pas sûr que ça soit une IA.

        Parce qu'on aura codé la chose, oui. Une IA réelle apprendrait par elle-même mais ce qu'il y a actuellement n'est pas foutu de se "corriger". Bon exemple pour montrer le manque d'intelligence en soit.

        Trois choses qui n'ont rien à voir:

        1) Coder vs Apprendre tout seul. C'est une fausse dichotomie. On va évidemment coder l'apprentissage autonome, mais un fois l'apprentissage autonome codé, ça va marcher tout seul.

        2) Les AI actuelles ne savent pas apprendre. C'est largement faux, on a déja évoqué les "alphaChess" et collègues, qui sont totalement autonomes une fois qu'ils connaissent les règles; ChatGPT apprend très bien (quand il dit un truc faux, il suffit de lui expliquer pourquoi et il adapte sa réponse). Et de toutes manières, l'apprentissage et l'IA ne sont pas la même chose. Tous les algorithmes Bayesiens (style détecteurs de spam, ou joueurs "ordinateur" dans les jeux vidéos) sont capables d'apprendre, pourtant ce ne sont pas des IA (ou alors des IA très très basiques).

        3) La question n'est pas de savoir si les systèmes de conduite autonomes ont des performances comparables à un conducteur humain, puisqu'il est évident que non sur de nombreux points, la question est sur le "jamais". Tu peux donner autant d'exemples que tu veux, ça ne fait que d'enfoncer des portes ouvertes (les algos ne peuvent pas faire la différence entre un sac plastique sur lequel on peut rouler et un animal qui traverse, etc). Tout le monde le sait, ça. La question, c'est d'être incapable d'imaginer un niveau d'autonomie supérieur, et là, ça ne me semble pas évident du tout (ou pire, ça me semble évident qu'assez rapidement les algos seront capables de faire la différence, et/ou qu'ils seront au moins capables de poser la question ("je viens d'éviter un objet que je ne connais pas, est-ce que j'ai bien fait: oui/non") pour adapter leur comportement.

        On peut aussi noter que les logiciels de conduite autonome sont soumis à des contraintes éthiques et réglementaires très différentes des logiciels de chatbot, et que forcément ils ont un tropisme vers la prudence. C'est ce tropisme qu'on va considérer comme "idiot", mais c'est peut⁻être le goût du risque de certains humains qui est objectivement "idiot". Rouler sur un sac plastique, c'est peut-être possible, mais il y a peut-être un objet dans le sac, ou le sac peut aller se coincer quelque part et endommager le véhicule, etc. C'est peut-être une situation dans laquelle il vaut mieux freiner, et se comporter comme une IA prudente, plutôt que comme un humain débile trop sûr de lui.

    • [^] # Re: Vu, et pas complètement approuvé

      Posté par  . Évalué à 3.

      Je crois qu'il ne parle pas de conscience et c'est un des points qui me gêne.

      Quand les RN de chatGPT tournent, ils ne font qu'un travail statistique, rien de plus.

      "Le mot le plus probable, s'il y en a plusieurs valables, on prend au pif, après une suite de mots."

      Quelle rapport il y a t'il entre des stats et la conscience ???
      Ça n'a rien à voir non ?

      Pourquoi toute cette hype autour de chatGPT ? Simplement, car on peut avoir l'impression qu'il y a de l'intelligence dans les réponses.
      Mais ce truc ne sait pas ce qu'il dit, ne sait pas pourquoi il le dit, il n'a pas d'intentions.

      Ce que je regrette aussi c'est qu'il n'a pas mis une frontière entre certains RNs. Certains font un super travail et sont fiable, par exemple dans la détection de cancers dans des images, ce n'est pas des RNs de type LLM qui font ça hein !!!

      • [^] # Re: Vu, et pas complètement approuvé

        Posté par  . Évalué à 6. Dernière modification le 12 juillet 2023 à 12:26.

        Quand les RN de chatGPT tournent, ils ne font qu'un travail statistique, rien de plus.

        Tu sembles bien certain que quand tu écris ces mots, tes neurones font autre chose qu'un travail statistique. Moi ça ne me parait pas du tout évident.

        Ce qui est clair, c'est que le fonctionnement du cerveau est très différent du fonctionnement d'un ordinateur, et sera probablement encore très différent pour plusieurs siècles. Donc si tu décides qu'il faut un cerveau ou un structure très similaire pour pouvoir parler d'intelligence ou de conscience, tu réponds déja à la question: par principe, tu refuses d'envisager la possibilité qu'un ordinateur qui ne fait que du calcul ou des statistiques par définition, puisse être considéré comme conscient ou intelligent.

        Personnellement, je trouve cette définition trop facile, parce qu'elle contient la réponse. Je considère comme conscient ou intelligent tout système qui agit conformément à ce qu'on pourrait attendre d'un être conscient ou intelligent—c'est une définition fonctionnaliste. Du coup, ChatGPT possède en grande partie les propriétés d'un système intelligent: il est capable de fournir une réponse adaptée en langage naturel à une grande diversité de requêtes, il est capable de s'adapter en fonction du contexte, il peut être créatif, etc. Il n'est peut-être pas équivalent à une intelligence humaine, mais il coche tellement de cases que je n'ai aucun scrupule à l'appeler "intelligent". Par contre, je suis d'accord aussi pour dire qu'en terme de conscience, c'est très douteux (mais le problème est aussi plus difficile, parce que même le fonctionnaliste le plus convaincu ne qualifierait pas de "conscient" un système qui ne fait que simuler ostensiblement la conscience, et par contraste il ne qualifierait pas de "non conscient" un système conçu pour affirmer de manière stéréotypée qu'il n'est pas conscient, comme la programmation de ChatGPT l'impose).

        Et pour revenir à la première affirmation, je suis complètement d'accord avec l'idée que mon cerveau fait des statistiques et du traitement de données la plupart du temps. Quand j'écris "la plupart du temps", je fais du chatGPT, je sais que "la plupart" est associé statistiquement à "du temps", je ne réfléchis pas au sens de "du" dans "du temps". J'ai entendu ou lu cette expression des milliers de fois, comme chatGPT, et mes neurones complètent la phrase, comme chatGPT. Je ne vois pas ce que j'ai de supérieur à chatGPT sur cette tâche précise (finir une phrase).

        • [^] # Re: Vu, et pas complètement approuvé

          Posté par  . Évalué à -3.

          ChatGPT n'a pas conscience de lui-même : KO technique ;p

          Pour développer un raisonnement, on ne fait pas que des statistiques, on cherche aussi les impacts possibles sur ce qu'on va ressortir comme connerie ;)

          Je peux aller chercher aussi le sujet : qu'est-ce que la vérité (abordé un peu dans la vidéo) ?
          On peut sortir une connerie en ayant conscience de le faire, pour manipuler ou induire une réflexion sur notre auditoire. On peut sortir une vérité, mais en face penser qu'elle n'en est pas une ("la terre est ronde" : en face : "il me dit une connerie")

      • [^] # Re: Vu, et pas complètement approuvé

        Posté par  . Évalué à 3. Dernière modification le 12 juillet 2023 à 16:42.

        ça veut dire quoi RN, dans ce contexte ?

    • [^] # Re: Vu, et pas complètement approuvé

      Posté par  . Évalué à 4. Dernière modification le 13 juillet 2023 à 16:39.

      il ne me semble pas du tout inconcevable qu'un algo puisse correctement trancher entre "il y a un stop" et "il n'y a pas de stop" dans cette situation. Il va intégrer des informations (absence ou présence de ligne de stop sur le sol, le panneau n'était pas là 3 secondes plus tôt, il semble associé au référentiel d'un piéton mais pas au référentiel du trottoir, etc), et du coup, l'idée de "jamais possible" dans un tel contexte me semble hyper-douteuse.

      C'est un problème achtement complexe. Dans un cas tu vois un gars avec un gilet orange qui brandit d'un coup un panneau stop. Est ce que tu t'arrêtes? Bah oui parce que c'est un ouvrier qui fait la circulation. Dans un autre cas tu vois un gars avec un gilet orange qui brandit d'un coup un panneau stop. Est ce que tu t'arrêtes? Bah non car c'est juste un piéton qui fait chier le monde.

      Sinon y'a d'autre cas plus compliqué mais qui peuvent se régler avec des aménagement

      Tu le vois le panneau 50 là ?

      https://www.google.fr/maps/@48.7811384,2.1696035,3a,75y,100.87h,98.6t/data=!3m6!1e1!3m4!1snwDIV17KVhxI72qoDTAQYw!2e0!7i16384!8i8192?entry=ttu

      Ben il est pas pour toi, t'es toujours limité à 90.

      Pour le reste je ne suis pas d'accord avec son interprétation qu'on y arrivera jamais. Son exemple de la place de l'étoile est justement un problème de communication de de forçage de passage; si il est, aujourd'hui inconcevable qu'un quelconque système autonome puisse la traverser aujourd'hui en heure de pointe, on peut avec les véhicule autonome avoir une discussion entre lesdits véhicules et donc optimiser au mieux le trafic. Faudra peut être prévoir au niveau de la place un réseau dédié auquel les véhicules se connectent et se soumettent à cet optimiseur. Tiens c'est une bonne idée je devrai aller la breveter ;)

      Et surtout même en cas de défaillance, le système restera plus sur que si c'est l'humain qui conduit. Avec l'avantage de pouvoir corriger tous les véhicules, ou à minima tous les véhicules futurs si un problème survient.

      De même le coup du boule avec le panneau Stop se corrige de la même façon avec un réseau local de gestion de congestion.

      Il ne faut pas décorner les boeufs avant d'avoir semé le vent

      • [^] # Re: Vu, et pas complètement approuvé

        Posté par  . Évalué à 4.

        Ben il est pas pour toi, t'es toujours limité à 90.

        Je connais plein d'endroits comme ça; je ne sais pas si je suis une AI mais ça me fait bugguer aussi.

        J'ai peur que la conduite autonome, encore pour un certain temps, ne puisse pas vraiment se régler sans une carte GPS de bonne qualité, par rapport à laquelle les informations des caméras seront analysées. On peut aussi envisager que les voitures partagent les "points noirs", qui pourront être mis à jour à la main.

        Pour le mec qui se ballade avec un panneau stop, c'est de toutes manières un problème pour tout le monde. On peut imaginer une blague avec un faux panneau stop, avec un panneau stop orange et pas rouge, etc. Les situations ambigües, c'est souvent, même pour les humains. Ce matin, c'était un ouvrier sur un chantier qui faisait signe aux voitures de passer au feu rouge dans une zone où on ne pouvait plus se croiser à cause du chantier. Il n'y a pas besoin de consulter le code pour savoir que si un flic mal luné passe par là, l'excuse du Village People torse nu avec son casque qui fait signe de passer, ça ne va pas marcher des masses. La voiture autonome va avoir tendance à être prudente et à rester bloquée à un feu coincé au rouge, pas exemple. C'est normal, et c'est même ce qu'on lui demande.

        Si on veut que la voiture autonome force le passage dans les embouteillages, alors il faudra aussi assumer les bosses sur la carrosserie. Je croyais que l'idée, c'était de conduire mieux qu'un humain, pas de se comporter comme un parisien au volant.

        Et puis, son truc, ça n'est pas censé être une expérience de pensée. En vrai, si on colle une voiture autonome sur la place de l'étoile, il se passe quoi? Parce que oui, elle pourrait peut-être rester bloquée, mais a-t-il vraiment essayé? Si ça se trouve elle s'en sort honorablement. C'est ça le problème avec les préjugés, on construit ses arguments sur ce qu'on pense qu'il est possible qu'il soit vrai, ça ne fait pas beaucoup avancer les choses.

  • # pas si simple

    Posté par  . Évalué à 4. Dernière modification le 12 juillet 2023 à 12:32.

    Pour un peu de matière à réflexion sur ce sujet, cette vidéo de Monsieur Phi.

    Comme le souligne un commentaire précédent, il me semble qu'une partie de ce (faux) problème provient du manque de définition pérenne de ce qu'on décide d'appeler "intelligence". On a un peu le même problème pour définir ce qu'est le vivant mais il semble y avoir plus d'efforts faits là-dessus (il y a peut-être même un consensus, je ne sais pas).

    Si cette définition implique d'être conscient et qu'on nie la conscience aux choses inertes, on dira forcément que l'intelligence artificielle n'existe pas.

    • [^] # Re: pas si simple

      Posté par  . Évalué à 4.

      Les vidéos de Mr Phi sont en effet infiniment supérieures, de tous les points de vue, à cette conférence :-)

      • [^] # Re: pas si simple

        Posté par  . Évalué à 1.

        Va voir la bio de phi et du type qui fait la conférence.

        Je constate pour ma part qu'aucun des détracteurs ici n'a vu la même conférence que moi. Car au-delà du ton provocateur il y a des arguments de fond auquel personne ne répond. Mais peut-être que savoir écouter le fond au-delà de la forme nécessite déjà un peu d'intelligence…

        • [^] # Re: pas si simple

          Posté par  . Évalué à 1.

          Cadre sup dans une entreprise de tech vs logicien muni d'une thèse de philo. C'est vrai, après tout, le dir com de Total a des argument 'achement intéressants sur le changeent climatique, pourquoi on écoute les climatologues? D'ailleurs, ceux qui disent que la com de Total est creuse et "greenwhashed" doivent manquer d'intelligence, c'est la seule explication. Heureusement que ni66 a tout plein d'intelligence à revendre.

          • [^] # Re: pas si simple

            Posté par  . Évalué à 0.

            Un logicien.

            • [^] # Re: pas si simple

              Posté par  . Évalué à 2. Dernière modification le 22 juillet 2023 à 21:48.

              Que vient faire Jean-Louis Krivine dans votre discussion ? J'ai énormément de respect pour cet homme, il fut mon maître et m'initia aux arcanes du lambda-calcul typé et à la correspondance de Curry-Howard (qui était le sujet central de sa recherche à la fin de sa carrière), mais je ne vois absolument pas ce qu'il vient faire dans votre discussion.

              Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

    • [^] # Re: pas si simple

      Posté par  . Évalué à 5.

      il me semble qu'une partie de ce (faux) problème […]

      Pour moi, c'est un faux problème puisque la réponse à la question dépend de la définition qu'on s'accorde à donner au mot "intelligence". Du coup, si le but est que cette réponse rassure, ou au contraire effraie, c'est stupide.

      On devrait plutôt d'analyser de quoi sont ou seront capables les IA et en fonction de ça, décider s'il y a lieu de réglementer/canaliser leur développement et/ou leur usage. Si certaines d'entre elles sont identifiées comme potentiellement dangereuses, peu me chaut de savoir si elles sont "intelligentes" ou pas. Idem pour les IA identifiées comme bénéfiques.

      • [^] # Re: pas si simple

        Posté par  . Évalué à 3.

        Idem pour les IA identifiées comme bénéfiques.

        Une AI qui fait ton boulot mieux que toi, c'est dangereux ou bénéfique?

        • [^] # Re: pas si simple

          Posté par  . Évalué à 5.

          C'est dangereusement bénéfique ;)

        • [^] # Re: pas si simple

          Posté par  . Évalué à 3.

          Je ne prétends pas savoir répondre à ta question.

          Je dis juste qu'il me paraît beaucoup plus important (voire urgent) de se donner des critères pour évaluer le bénéfice/risque d'une IA que de débattre à l'infini sur son éventuelle intelligence. Mettons-nous d'abord d'accord sur une définition de l'intelligence mais même à ce moment, ça ne nous avancera pas forcément pour décider quoique ce soit sur les IA (sauf à être capable d'établir un lien formel entre cette définition et le bénéfice/risque que ça induit).

          • [^] # Re: pas si simple

            Posté par  . Évalué à 4.

            C'était un peu ironique, mais tu proposes d'éviter un problème difficile (débattre de la définition de l'intelligence) pour attaquer un problème qui est autrement plus difficile (définir bénéfique/délétère en prenant en compte les externalités éthiques, sociales, techniques, environnementales, et économiques). Je suis d'avis que le problème 2 est totalement insoluble (trop de variables et trop de scénarios imprévisibles).

            • [^] # Re: pas si simple

              Posté par  . Évalué à 5. Dernière modification le 12 juillet 2023 à 21:27.

              Chercher une réponse au premier problème est évidemment intéressant d'un point de vue philosophique mais n'apporte rien de concret quant à l'attitude qu'on doit avoir vis à vis des IA (sauf à démontrer un lien formel entre l'intelligence telle qu'elle sera peut-être définie après moult débats et le rapport bénéfice/risque de l'IA dite intelligente). Ceci dit, je ne propose pas d'éviter ce débat, juste qu'on n'oublie pas qu'il est secondaire* et que sa mise en avant dans les médias ne tient qu'au fait que c'est vendeur car ça nourrit nos fantasmes et nos peurs (Matrix, etc…).

              * pour le moment du moins ; il n'est pas exclu qu'un jour on se pose la question du droit des IA "intelligentes" (un peu comme on commence à parler du droit des animaux d'élevage) si la question de leur "conscience" se pose.

              Faire une prévision météo "exacte" est un problème insoluble (la météo est un phénomène chaotique). On fait quand même des prévisions météo parce que c'est mieux que de ne pas en faire. C'est pareil pour l'évaluation du bénéfice/risque d'une IA : il faut la faire même si on sait que le résultat de l'évaluation sera impacté par les externalités que tu cites.

              Il me semble que c'est plus utile et urgent que de discuter du sexe des anges (l'intelligence des IA). Une IA dite non intelligente peut faire plus de mal si elle est connectée à des réseaux sensibles qu'une IA dite intelligente mais n'ayant qu'un écran comme moyen d'expression.

              • [^] # Re: pas si simple

                Posté par  . Évalué à 3.

                C'est pareil pour l'évaluation du bénéfice/risque d'une IA : il faut la faire même si on sait que le résultat de l'évaluation sera impacté par les externalités que tu cites.

                Bah du coup, franchement, je ne vois pas. Ce n'est pas la météo que tu demandes, pour la météo, on a un modèle physique, et des exabytes de données mondiales sur des dizaines d'années d'archives pour calibrer les modèles. Là, il faut juste prédire le futur de l'humanité. Tu vas interroger des dizaines d'experts dans plein de domaines qui vont te raconter un peu ce qu'ils veulent, et après tu vas devoir intégrer ça.

                Tu vas avoir au moins quatre cas, en fait. Un cas où l'IA ne fait qu'améliorer un algorithme existant. Typiquement, les prévisions météo. Dans ce cas, ce n'est pas très dur d'imaginer ce que serait un monde avec de meilleures prévisions météo, et ça ne fait pas très peur. Tu peux aussi avoir des moteurs de recherche encore plus performants, ça fait un peu peur mais pas tant que ça, et ça aurait très bien pu exister sans IA.

                Le deuxième cas, c'est quand on ne voit pas quel est le bénéfice, sauf pour des activités illégales. Par exemple, un générateur de spam, ou une analyse de vidéo qui permet de reconstituer le code des CB à partir du mouvement des bras des gens qui tapent leur code. OK, donc ces IA sont à bannir, mais ces IA ne seront probablement jamais distribuées dans le cadre légal qui permettrait à l'État de les contrôler.

                Le troisième cas, c'est une IA qui va remplacer le boulot d'un humain, dans le démarchage téléphonique, les hotlines, les cabinets de conseil, les administrations, etc. Là, il ne va pas y avoir trop d'effets directs, à part celui d'avoir un service plus fiable, plus reproductible, plus rapide, 24h/24, etc. Bien sûr, l'IA va aussi parfois faire des erreurs, mais probablement moins que les humains. Les externalités ne sont "que" sociales, et le dilemme est insoluble (on le sait, parce qu'on n'a jamais été capables de le résoudre pour les machines et les robots) : on décharge des gens d'une tâche répétitive, on améliore la rentabilité des entreprises et souvent la qualité du service, mais on prive des gens d'emploi; et gnagna chômage, et gnagna partage du temps de travail, et gnagna croissance, et gnagna néolibéralisme, et gnagna valeur travail, etc. Aucun consensus n'existera jamais sur ces questions; si on fait un moratoire le temps de décider qu'on n'arrivera jamais à se décider, les US ont pris 10 ans d'avance et + 50% de PIB par rapport à nous, le marché sera de toutes manières dominé par de nouveaux GAFAM, et on n'y aura rien gagné.

                Le quatrième cas, c'est les nouveaux services, qui ne remplacent rien de ce qui existe. Alors là, boite noire totale, on ne peut rien prédire, il n'y a aucun cadre, aucun modèle, c'est tout du pifomètre. Par contre, ce qui est certain, c'est que les pays qui auront autorisé ces nouveaux marchés vont bénéficier d'un boom économique, et qu'ils domineront le monde sur les 50 prochaines années. Nous on n'aura peut-être pas accès à ces technologies, ou seulement sur le darknet, et on sera heureux, si on arrive collectivement à gérer le déclassement dans le bonheur.

                Franchement, j'exagère à peine. Je pense qu'il est juste totalement impossible d'évaluer l'impact d'une technologie sur l'avenir. En essayant de faire ça, on va passer à côté des vrais problèmes, on va se faire doubler économiquement et technologiquement, ça ne nous amènera qu'à des débats stupides du style "technophile" vs "grand-mère à moustaches" sur lesquels on n'arrivera jamais à un consensus.

                Par "vrai problème", j'entends par exemple une loi qui interdit à un système automatique d'interagir avec un humain sans clairement s'identifier comme un système automatique, et une autre loi qui interdit de diffuser un document sans clairement l'identifier comme généré par un système automatique (et de faire des délits de ces actions, au même niveau que la tromperie ou l'escroquerie). Mais ça, ça concerne tous les algorithmes, donc pas besoin de parler d'IA.

                • [^] # Re: pas si simple

                  Posté par  . Évalué à 3.

                  Mon principal propos est qu'on arrête avec ces débats ou articles sur l'intelligence ou non des IA, surtout quand ils n'ont pas de visée philosophique mais qu'ils servent juste à vendre des vues ou à faire peur, sans qu'on puisse en tirer de conclusions pratiques.

                  Quand je dis qu'il faut essayer d'évaluer le bénéfice/risque des IA, c'est peut-être de ma faute mais tu le prends un peu trop comme une exigence d'évaluation formelle, impossible à faire, alors que moi je veux surtout dire que ça me paraît bien plus important d'y réfléchir que le débat sur l'intelligence.

                  Je n'y ai pas plus réfléchi que ça donc j'en resterai là mais je ne te suis pas sur le raisonnement "c'est quasiment impossible à faire donc ne le faisons pas" (du moins c'est un peu comme ça que je comprends ton commentaire). S'interroger, par exemple, sur ce vers quoi nous mènent les IA génératives (les gains qu'on peut en tirer, les risques potentiels, faut-il réglementer sur le sujet, etc…) me paraît pertinent, à défaut d'être sûr d'avoir des réponses qui font consensus.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.