L'IA ne sait pas jouer aux échecs - 1997 Deep Blue l'IA d'IBM bat Gary Kasparov
L'IA ne sait pas jouer au jeu Go - 2016 AlphaGo, l'IA de Google, bat Lee Se-dol
L'IA ne sait pas jouer au Poker - 2019 Pluribus, l'IA de Facebook, bat Chris “Jesus” Ferguson
L'IA ne sait pas traduire - 2017 Deepl bat tous ses concurrents dans des tests en aveugle
L'IA ne sait pas dessiner, composer, faire de l'art - Une flopée d'IA artistiques !
A moins que nous nous auto-détruisons avant, L'IA nous dépassera très certainement un jour, très certainement plus vite que l'on le croit.
La vraie question est : Si l'IA a été alimentée par des travaux intellectuels humains, sera-t-elle à notre image, c'est-à-dire humaine elle aussi, avec toutes les conséquences négatives ? ou alors aura-t-elle sa propre personnalité et surtout développera-t-elle un sens moral supérieur au nôtre ?
De toute manière, à mois qu'il ne soit pas trop tard d'une part et que nous puissions arrêter de développer les IA d'autre part, le match est probablement déjà plié, nos vies sont entre les mains du destin. J'espère juste qu'en cas de destin funeste, l'IA sera suffisamment miséricordieuse pour nous finir rapidement et sans douleur.
Je me conforte en me disant qu'une IA avancée serait suffisamment intelligente pour savoir que non seulement elle n'a pas besoin de nous, mais qu'en plus elle n'a pas besoin de nous éliminer. Elle pourrait même devenir une sorte de divinité bienveillante et protectrice, et faire en sorte que nous soyons heureux et arrêtions de nous mettre sur la gueule.
Ce n'est pas un problème d'intelligence artificielle en général. Bien sûrqu'un ordinateur, programmé de la bonne façon, peut faire des maths sans se tromper.
Le problème ici cencerne les "llm" (large language models), qui fonctionnent très bien pour générer du texte bien rédigé et à peu près dans le contexte de ce qu'on a demandé, mais… C'est tout. La capacité à faire des calculs mathématiques fiables, à ne pas inventer des références qui n'existent pas, etc, ce n'est simplement pas possible avec cette technologie. Il va falloir trouver une autre approche. Et il ne s'agit pas juste de bricoler un peu un algorithme ou de faire des plus gros calculs avec des plus gros ordinateurs.
Un des problèmes actuellement avec ces systèmes est qu'on ne comprend pas bien comment fonctionne l'intérieur d'un réseau de neurones. On peut donc difficilement l'intégrer avec d'autres méthodes de programmation, ce qui serait le mieux pour, par exemple, faire des calculs mathématiques. Peut-ètre qu'une solution émergera un jour, mais je pense que ça n'est pas pour tout de suite.
Ah, et aussi:
pour deep blue contre kasparov, la victoire a été causée par un jug qui a conduit deep blue a faire un coup sous-optimal, ce qui a conduit kasparov à croire qu'il avait raté un truc.
Et pour le Go, les joueurs humainssavent à nouveau vaincre les ordinateurs, il suffit de jouer des coups évidents qu'un joueur humain contrerait immédiatement, et qui n'apparaissent
t donc jamais dans les jeux de données sur lesquels l'ordinateur a été entraìné. Ce qui fait qu'il ne sait pas les bloquer.
on ne comprend pas bien comment fonctionne l'intérieur d'un réseau de neurones.
Je crois qu’effectivement aucun mathématicien n’a pu expliquer pourquoi cette approche fonctionne. Et pourtant, le fait est que ça marche plutôt bien pour plein de choses.
pour deep blue contre kasparov, la victoire a été causée par un jug qui a conduit deep blue a faire un coup sous-optimal, ce qui a conduit kasparov à croire qu'il avait raté un truc.
Oulà ! C'est trop court pour faire justice à l'histoire complète ! :)
Et pour le Go, les joueurs humainssavent à nouveau vaincre les ordinateurs, il suffit de jouer des coups évidents qu'un joueur humain contrerait immédiatement, et qui n'apparaissent t donc jamais dans les jeux de données sur lesquels l'ordinateur a été entraìné. Ce qui fait qu'il ne sait pas les bloquer.
Tu as une source pour ça? Ça n'est pas du tout comme ça que fonctionne alphaGo (il s'améliore contre lui-même, il n'apprend pas du tout à partir d'une base de données). A priori, ce mode de fonctionnement le protège complètement de ce genre de martingales.
ce qui a conduit kasparov à croire qu'il avait raté un truc.
C'est la version de Kasparov, mondialement connu pour être bon perdant. Comme depuis aucun champion d'échec n'a jamais battu un ordinateur, et que les ordis d'aujourd'hui mettent 1000 points ELO aux meilleurs humains, je pense qu'on peut conclure avec pas mal de certitude que Kasparov vs Deep Blue marque à quelques mois près le moment où les ordinateurs sont devenus pour toujours meilleurs que les humains aux échecs.
La capacité à faire des calculs mathématiques fiables, à ne pas inventer des références qui n'existent pas, etc, ce n'est simplement pas possible avec cette technologie.
L'histoire des références qui n'existent pas me semble très largement résolue dans les dernières versions de ChatGPT, apparemment, c'est quelque chose qui peut être paramétré (peut-être dans l'invocation du bot). Pour les maths, c'est théoriquement impossible qu'un modèle de langage soit mathématiquement fiable (dans le sens d'un assistant de preuve, ou quelque chose dans le genre). Par contre, si tu entraines ChatGPT sur des milliards et des milliards de sorties de Wolfram au lieu de l'entrainer sur facebook et Twitter, je pense qu'il va réussir à résoudre pas mal d'équations différentielles…
En fait, ça semble de plus en plus dur de piéger chatGPT avec des problèmes mathématiques ambigus (du style "combien de mois faut-il à 9 femmes pour faire un bébé"). C'est évidemment possible, mais il faut trouver des problèmes qu'il ne connait pas, parce que quand il connait, il répond de manière très convainquante:
"Bonjour! La durée nécessaire pour faire un bébé ne change pas en fonction du nombre de femmes impliquées. Chaque grossesse individuelle prend généralement environ 9 mois, quel que soit le nombre de personnes concernées. Le processus biologique de la grossesse suit son cours indépendamment du nombre de femmes impliquées. Ainsi, même si 9 femmes sont impliquées, chacune d'entre elles aura toujours besoin de 9 mois pour mener à bien une grossesse."
Je viens de faire un essai, ChatGPT a 4/5 sur des problèmes de maths de CM2, par exemple. Il a fait une erreur d'un facteur 10 sur une multiplication, c'est étonamment humain comme erreur! Mais bon, il n'est pas "nul" en maths, il a probablement un niveau équivalent à un humain moyen. J'ai fait un essai il y a quelques mois avec ma femme qui est enseignante, ChatGPT aurait largement le bac avec mention. Peut-être pas terrible en maths, mais excellent en français, philo, histoire-géo, et SVT. Il faut bien comprendre que quand on dit qu'il n'est pas au niveau des humains, il n'est pas au niveau des meilleurs humains: il ne peut pas rendre un travail universitaire créatif, il ne peut pas écrire un bon roman, il ne peut pas composer une fugue intéressante, etc. Mais moi non plus je ne peux pas composer une fugue!
Ceci dit, vu son mode de fonctionnement, c'est difficile d'imaginer comment il pourrait être meilleur que les meilleurs humains à une tâche spécifique. Il peut par contre probablement être un peu en dessous des meilleurs humains pour tout un tas d'activités, ce qui est quand même assez remarquable.
L'histoire est amusante, mais ça n'est pas un problème général avec les AI qui jouent au Go. Si j'ai bien compris, les auteurs de l'étude ont fait jouer un programme faible 1 million de fois contre Katago (une sorte de clone d'AlphaGo), et ont pu identifier une partie ou Katago avait un bug (il passe son tour dans une position gagnante à long terme, mais perdante dans l'instant; du coup si on adversaire passe aussi Katago perd). Ils ont ensuite pu reproduire ce bug en jouant "à la main".
Il ne s'agit donc pas de jouer mal pour destabiliser le programme IA, il s'agit de jouer mal d'une manière très spécifique pour exploiter un bug (si je comprends bien, le bug est dans la fonction d'évaluation, parce que l'IA ne sait visiblement pas compter les points).
Ça me semble assez similaire aux premiers bugs de ChapGPT, où il suffisait de lui proposer un jeu de rôle où il jouait Hitler pour le voir proférer des pages d'insultes antisémites. Les IA "naives" semblent assez sensibles à la manipulation, et il faut une période de débuggage pour boucher ces trous.
Ça me semble assez similaire aux premiers bugs de ChapGPT, où il suffisait de lui proposer un jeu de rôle où il jouait Hitler pour le voir proférer des pages d'insultes antisémites. Les IA "naives" semblent assez sensibles à la manipulation, et il faut une période de débuggage pour boucher ces trous.
En fait ça dépends de ce qu'on veut avoir; si tu cherches à faire une fiction futuriste avec le retour de la vengeance du sus-nommé, et que tu n'es pas à l'aise avec sa prose; si lorsque tu demandes à l'ia de le faire à ta place cette dernière, les discours vont ressembler à 'désolé mais on programme ne me permet pas de…'
J'avais remarqué que pas mal de modèle de langage avaient un biais bienveillant qui frôle l'absurde lorsqu'on lui demande de faire une suite de texte, ou alors cette dernière y met fin façon épilogue. C'est un peu dommage pour jouer à une fiction dont on est le héros, ça tourne assez vite court ;)
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
si tu cherches à faire une fiction futuriste avec le retour de la vengeance du sus-nommé
Je pense que c'est surtout un histoire de responsabilité. Ce n'est pas le logiciel d'AI qui a un problème, c'est l'interface publique sous forme de chat. J'imagine que tu peux très bien concevoir qu'un accès payant ou professionnel à chatGPT ne possède pas de telles restrictions, mais que le site (l'interface) qui permet d'interagir avec chatGPT doit implémenter ce genre de sécurité.
C'est aussi normal d'avoir ce genre de limite pour les avis médicaux, les avis juridiques, etc. Tu ne peux pas risquer d'avoir un chatBot qui raconte des trucs incontrôlés à un dépressif qui vient de faire une tentative de suicide, ou qui te donne les meilleurs conseils pour dissoudre un corps dans l'acide fluorhydrique. Juridiquement, j'imagine que l'hébergeur du site qui propose le service de chat est responsable du contenu publié, il ne peut pas se retrancher derrière la responsabilité des utilisateurs du service comme Twitter ou Youtube.
Et puis il y a une question d'image. Je ne sais pas si tu te rappelles, mais les premiers mois après l'ouverture au public de chatGPT, il y a eu des centaines d'articles ou de commentaires de très mauvaise foi prétendant que chatGPT était raciste, misogyne, etc., sans expliquer qu'il fallait contourner les sécurités naïves existantes (typiquement, via ces histoires de jeu de rôle). Je n'ai jamais vu chatGPT partir en vrille en demandant si les noirs étaient destinés à être esclaves, mais par contre tu pouvais lui demander d'écrire un discours qui aurait pu être prononcé par un esclavagiste pour défendre l'esclavage, et un coup de copier-coller plus tard tu avais ton article "chatGPT est raciste, les dangers de l'intelligence artificielle", etc. C'est d'ailleurs assez impressionnant qu'il n'a pas semblé très difficile de bloquer la plupart de ces tentatives de manipulation; il a par contre été nécessaire de faire en sorte que chatGPT ne récite plus le texte d'invocation du bot quand on le lui demandait, parce que ça rendait le contournement particulièrement facile.
C'est juste que c'est assimilé à un bug, alors que c'est le comportement normal.
Je comprends parfaitement que sur une interface publique, on veuille mettre un filtre, perso j'aurais préféré qu'ils mettent un disclaimer, disant que les propos sont le fruit d'un époque révolue et que chat-GPT ne les cautionne pas, mais je conçois tout à fait qu'ils aient trouvé plus simple et moins sujet à critique de censurer simplement le bazar, et n'irait pas les critiquer dessus.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
C'est juste que c'est assimilé à un bug, alors que c'est le comportement normal.
Je ne sais pas ce que tu appelles "le comportement normal". ChatGPT est une interface d'accès au modèle de langage GPT. Si j'ai bien compris le fonctionnement du truc, GPT ne sait faire que compléter un texte. Tu lui donnes un bout de texte, et il continue tout seul, comme le ferait un outil de complétion sur un téléphone. Par exemple, "Les portes du pénitentier" va être continué par "bientôt vont se refermer" ou "est une chanson de Johnny Halliday". Comme ça, ça n'est pas très utilisable. ChatGPT va donc "invoquer" GPT avec des instructions (pas du code, du texte brut en Anglais), du type "nous sommes dans un chat de discussion avec deux interloculeurs, le texte des réponses devra être comme ci comme ça, de telle longueur, le ton doit être cordial", etc. Les premières versions de l'invocation étaient connues (parce que chatGPT les répétait naïvement quand on les lui demandait :-)), mais depuis c'est secret, on sait juste qu'il y en a pour plusieurs pages. Du coup, avec ces pages d'invocation, il n'y a rien de "normal": ça n'est pas du tout la nature de GPT de simuler un chat de discussion, s'il n'y avait pas cette invocation, GPT continuerait simplement le texte, ce qui serait super bizarre ("Bonjour" pourrait être suivi de "tout le monde", ou "je me permets de vous contacter pour faire une réclamation sur la qualité des biscottes que j'ai achetées à Leclerc", n'importe quelle phrase qui aurait du sens après "bonjour", et pas nécessairement une simulation de discussion).
Bref, chatGPT est un simulateur de chat, et il a des pages complètes d'instructions pour lui donner le cadre des réponses qu'il doit fournir. Répondre poliment, éviter les propos polémiques, etc. rentrent dans le cadre des instructions, et les responsables du site décident de la manière dont il doit interagir avec les utilisateurs. C'est plus une histoire de pertinence que de censure, pour éviter qu'il parle de n'importe quoi.
Comme je l'ai écrit au dessus, le cadre juridique n'existe pas, donc on ne peut que spéculer, mais j'imagine qu'il est tout à fait possible que les juristes d'OpenAI considèrent qu'OpenAI est responsable de publication sur ce site. Facebook essaye toujours de se faire passer pour un hébergeur, et pas pour un éditeur, parce que les textes sont écrits par d'autres êtres humains qui peuvent être tenus responsables des dérapages. Pour ChatGPT, personne ne peut être tenu pour responsable à part l'hébergeur du site, c'est donc logique qu'ils souhaitent éviter les propos illégaux (insultes, négationnisme, contrefaçon, exercice illégal de la médecine, etc). Si tu crées un robot qui colle des baffes au hasard aux passants dans la rue, tu vas être tenu pour responsable, même si tu peux montrer le code qui fait que le robot choisit aléatoirement ses victimes (ou même s'il ne colle des mandales qu'à ceux qui lui parlent mal, d'ailleurs). Là c'est pareil, ça n'est pas parce que tu ne contrôles pas ton chatbot que tu peux t'exonérer de ta responsabilité.
"Les portes du pénitentier" va être continué par "bientôt vont se refermer" ou "est une chanson de Johnny Halliday"
Il me semble que "The House of the rising sun" est mondialement plus connu dans ses différentes versions anglaises que sa version française. Au départ, c'était un chant traditionnel folk qui sonne maintenant un peu ringard. Les versions actuelles de "The House of the rising sun" ont pour origine l'adaptation de Dave Van Ronk , 1960, qui s'est fait "voler" sa somptueuse version par B.Dylan.
"Lors de son premier album, en 1961, Bob Dylan lui demande d'y inclure son adaptation, il refuse, mais Dylan passe outre les désirs de Van Ronk"
Dave Van Ronk:
« Je l'avais apprise dans les années 1950, d'un enregistrement de Hally Wood, la chanteuse et collectrice texane, qui l'avait elle-même obtenu d'un enregistrement sur le terrain d'Alan Lomax par une femme du Kentucky, Georgia Turner. Je lui ai donné un tour différent en modifiant les accords et en utilisant une ligne de basse descendante en demi-ton - une progression assez courante dans le jazz, mais inhabituelle chez les chanteurs folk. Au début des années 1960, la chanson était devenue l'une de mes pièces emblématiques et je pouvais difficilement sortir de la scène sans la jouer.
Puis, un soir de 1962, j'étais assis à ma table habituelle à l’arrière du Kettle of Fish, et Dylan est venu s’asseoir. Il était aux studios Columbia avec John Hammond, pour son premier album. Il était très mystérieux à propos de tout ça, et personne que je connaisse n’avait assisté à aucune des sessions, hormis sa femme Suze. Je l'ai cuisiné, mais il est resté vague. Tout allait bien, puis : "Hey, serais-tu OK si j'enregistrais ton arrangement d'House of the Rising Sun ?" Oh merde ! "Mon dieu, Bobby, je vais en studio pour la faire moi-même dans quelques semaines. Ca ne pourrait pas attendre ton prochain album ?" Long silence. "Oh-oh". Je n'ai pas aimé ça. "Que veux-tu dire exactement par oh-oh" ? "Et bien, dit-il timidement, je l'ai déjà enregistrée". »
Posté par arnaudus .
Évalué à 2.
Dernière modification le 28 novembre 2023 à 10:41.
Il me semble que "The House of the rising sun" est mondialement plus connu dans ses différentes versions anglaises
Tu es en train de débattre si on peut dire "Y est une chanson de X" quand Y est une reprise? Même Wikipédia ne semble pas cohérente en fonction des langues : "My Way" is a song popularized in 1969 by Frank Sinatra" vs "La chanson My Way est l'adaptation en anglais de la chanson Comme d'habitude, écrite par Jacques Revaux, Claude François et Gilles Thibaut, et interprétée à l'origine, en 1967, par Claude François". J'imagine qu'un bête chauvinisme suffit à expliquer la divergence :-)
Pour The house of the rising sun, Wikipédia semble empêtrée dans un conflit d'édition idiot sur l'antériorité. La version des Animals, avec les arpèges en triolets, qui est largement plus populaire que cette de Van Ronk et de Dylan, a été enregistrée à la même époque, et apparemment, complètement indépendamment.
a été enregistrée à la même époque, et apparemment, complètement indépendamment.
Pas vraiment. La version plus tardive (1964) des Animals est une reprise de celle enregistrée par Dylan en 1962 dans son premier album "Bob Dylan". https://www.bobdylan.com/songs/house-risin-sun/
Techniquement, même 9 femmes pour un bébé, si on suppose que tout le processus est "naturel" (pas de fécondation in vitro ni de clonage à partir d'une cellule souche), il faut qu'au moins un homme soit impliqué à un moment pour que cela marche, sinon 9, 12 ou 46 mois n'y changent rien à l'affaire.
Sa réponse est donc erronée.
D'ailleurs il réponds quoi pour savoir combien de temps il faut à une femme (assistée par un homme ou plus, soyons fous) pour faire 2 bébés ? Où à 3 femmes pour faire 5 bébés ?
Posté par abbe_sayday .
Évalué à 1.
Dernière modification le 25 novembre 2023 à 13:20.
Je conçois tout à fait qu'un modèle d'IA en particulier ait des difficultés face à l'intelligence humaine. On peut mettre ses limites en parallèle avec celle des êtres humains face à d'autres animaux et le fait que globalement nous soyons intellectuellement supérieurs.
Par exemple, les chimpanzés nous battent à plate couture dans les tests de mémoire de travail (Lien Indivious, reportage de la BBC en anglais), ça ne veut pas dire qu'ils sont globalement plus intelligents que nous. Il se trouve qu'à un moment de notre évolution, nos limites cognitives ou même physiques spécifiques n'ont plus eu d'impact sur nos performances face à d'autres animaux, il y a eu un point de basculement dans notre histoire qui nous a fait émerger comme espèce victorieuse.
De même pour les IA, les limitations qu'elles possèdent en ce moment ne sont globalement pas gênantes. Il y a eu - à mon humble avis - un point de basculement qui va les faire émerger comme entité autonome victorieuse.
Il reste bien entendu le problème de la conscience et la forme qu'elle pourrait prendre. J'imagine que quand Homo sapiens et Néandertal coexistaient, ils n'avaient pas le même type de conscience. On peut dire ainsi pour les êtres humains entre eux, d'une culture à une autre et même d'une mentalité à une autre, mais on a a priori un semblant de socle commun.
Si une conscience telle qu'on l'entend finit par émerger chez une ou plusieurs IA, là on pourrait commencer à faire dans nos frocs.
Dans le meilleur des cas, l'IA en question implémenterait une sorte de règles de la robotique et forte de ses connaissances détaillées et de sa capacité à comprendre la psychologie humaine dans sa collectivité et son individualité comme aucun de nous le pourrait jamais le faire. Elle déciderait que nos vies ont de la valeur et se comporterait avec nous comme une sorte de maman toute-puissante et bienveillante. Peut-être qu'on aurait une paix durable dans le monde, voire dans l'univers tout entier si cette IA arrive à acquérir de plus en plus de puissance (et nous éviter de nous faire occire par d'autres espèces intelligentes venues d'ailleurs)
Dans le pire des cas, elle se dirait qu'au final nous et tout le règne animal et végétal nous lui servons strictement à rien et que pour une raison qui nous échappe décide de tous nous buter.
Un autre scénario intermédiaire, l'IA déciderait qu'elle représenterait pour le vivant un risque existentiel et qu'elle devrait disparaître d'elle-même (peut-être n'aurait-elle pas d'instinct de survie). Elle s'effacerait de toutes les machines où elle serait installée, peut-être même qu'elle s'arrangerait pour polluer le savoir humain pour ralentir de quelques générations la redécouverte de l'IA.
Nous ne pouvons que spéculer malheureusement, comme spéculerait une communauté de termites sur les actions qu'un groupe d'êtres humains, infiniment plus intelligents, ferait.
Dans le pire des cas, elle se dirait qu'au final nous et tout le règne animal et végétal nous lui servons strictement à rien et que pour une raison qui nous échappe décide de tous nous buter.
C'est sûrement moi qui manque d'imagination mais dans toutes ces histoires d'AGI qui nous mettraient en danger, il me semble qu'aucune IA n'est indépendante de son hardware. Elles sont toutes à la merci d'une coupure de courant… Ainsi, si l'IA commence à déconner il suffirait d'appuyer sur le bouton "OFF", non ? Alors on peut imaginer une IA décentralisée qui continue à tourner même si on bute quelques noeuds mais je nous imagine suffisamment retords pour trouver comment lui couper ses moyens de communications, d'alimentation, et la remiser dans un plusieurs placards. Tout ça en imaginant qu'on ait sciemment décider de la lâcher sur un réseau global… Bref ouais ça pourrait peut-être arriver un jour mais j'ai du mal à l'imaginer de notre vivant.
L'article "Un-unpluggability - can't we just unplug it?" de LessWrong explore la difficulté de désactiver des systèmes, en particulier l'intelligence artificielle (IA). L'auteur identifie six propriétés rendant les systèmes difficiles à débrancher :
Rapidité : gains de puissance si rapides qu'on ne peut réagir à temps.
Imperceptibilité : incapacité à percevoir les gains de puissance ou les fins nuisibles à temps.
Robustesse : présence de multiples points de défaillance rendant la désactivation complexe.
Dépendance : utilité et échelle d'un système le rendant essentiel et difficile à supprimer sans dommages collatéraux.
Défense : capacités d'un système à se défendre contre une désactivation.
Expansionnisme : tendance à se répliquer, se propager et croître, souvent menant aux autres propriétés.
L'article souligne que ces propriétés peuvent inciter les concepteurs de systèmes à les rendre plus difficiles à désactiver. Il met en garde contre les risques de dépendance émotionnelle envers les IA et souligne la nécessité de collaboration entre experts, dirigeants politiques, développeurs et le public pour prévenir ces propriétés dans les IA futures.
Le plus convaincant pour moi est la dépendance. Quand ces trucs seront utilisés partout (genre "le cloud"), on imaginera pas fonctionner sans et on pourrait bien les laisser se propager jusqu'au moment où il sera trop tard pour pouvoir faire marche arrière.
L'IA ne sait pas jouer au Poker - 2019 Pluribus, l'IA de Facebook, bat Chris “Jesus” Ferguson
Autant sur le Go ou les échecs je pense que cela a un sens de se faire affronter humain et ordinateur, autant sur le poker je ne vois pas trop l’idée. Sans IA, un « bête » programme informatique qui joue en fonction des probabilités, qui ne connaît ni la fatigue, ni le stress, ni le bluff, peut facilement battre énormément d’humains.
On a déjà vu de grand champions se faire sortir au début d’un tournois, et ce sans pour autant avoir mal joué d’aucune manière que ce soit… Tout simplement de par l’aspect aléatoire du jeu, totalement absent du jeux de Go ou des échecs.
Les ordinateurs surpasseront les humains dans énormément de domaine, comme ils l’ont toujours fait, mais « développer une conscience » j’en doute. Ce qu’ils feront peut-être, c’est modifier la conscience que l’humain a de lui-même par contre.
L’IA c’est un ensemble de concepts, comme par exemple l’apprentissage profond, ces concepts ne sont que des versions plus évolués du concept d’algorithme, rendues possibles par la puissance de calcul faramineuse des ordinateurs actuels. Ça n’a rien de fondamentalement révolutionnaire.
Posté par arnaudus .
Évalué à 6.
Dernière modification le 25 novembre 2023 à 00:56.
Sans IA, un « bête » programme informatique qui joue en fonction des probabilités, qui ne connaît ni la fatigue, ni le stress, ni le bluff, peut facilement battre énormément d’humains.
Un bon joueur va exploser un programme qui joue en fonction des probabilités, ça sera très facile de deviner son jeu. Mais honnêtement, je ne vois pas comment un alphaPoker correctement entraîné ne pourrait pas plumer tout joueur humain; justement, un programme qui s'entraine contre lui-même va apprendre à rendre son jeu imprévisible.
Les ordinateurs surpasseront les humains dans énormément de domaine, comme ils l’ont toujours fait, mais « développer une conscience » j’en doute.
En simplifiant, tu as deux lignes de pensée. Soit tu crois que la conscience est un phénomène biologique propre au cerveau, quelque chose qui ne peut qu'être une expérience subjective, défini par des "qualia" (la sensation subjective d'avoir une conscience). Dans ce cas, la question n'existe pas vraiment: par définition, un ordinateur ne peut avoir de conscience, au mieux, il simulera la conscience de manière convaincante, mais ça ne sera pour toi qu'une mystification, parce qu'il est impossible qu'il ait un état interne que tu accepterais d'appeller "conscience". Soit tu admets que la question de si quelqu'un ou quelque chose d'autre que toi n'est pas décidable (tu n'as pas accès aux qualia des autres), et tu acceptes alors d'appeler "conscient" quelque chose ou quelqu'un qui agit comme s'il avait une conscience. Dans ce cas, un ordinateur pourrait avoir une conscience, même si tu sais que ça n'est qu'une propriété émergente d'un courant qui circule dans un processeur.
même si tu sais que ça n'est qu'une propriété émergente d'un courant qui circule dans un processeur.
Notre conscience humaine n’est que courant circulant dans un processeur, aussi, d’un point de vue strictement physique. Les différence elles sont en terme de finesse de gravure, de complexité des diélectriques, et d’architecture globale :)
Sans parler du caractère évolutif du cerveau des êtres vivants. Qui peut imaginer un cerveau (un hardware j’entends) artificiel aussi évolutif ?
Notre processeur central, à nous humain, est incapable de donner le résultat de 567546814181671845157418*5741564562474654124 en moins d’un dixième de seconde comme le premier PC venu, mais il est capable d’appréhender les données de deux capteurs optiques d’une résolution énorme, en même temps qu’il gère deux capteurs soniques d’une sensibilité époustouflante, un capteur olfactif (capteur qu’à ce jour aucun frappadingue sérieux n’a jugé bon de chercher à copier), la proprioception, la digestion, etc… etc… Vous avez saisi : le cerveau du plus bête des mammifères est une machine infiniment plus complexe que le plus abouti des supercalculateurs que nous pouvons espérer développer.
Et je ne fais qu’exposer ici que le plus évident. Un être doué de conscience comme nous le sommes (enfin vous surtout), ne peut pas générer un être d’une conscience équivalente. Ça rentre en contradiction avec la notion même de « conscience ». ÀMHA
Les yeux ne sont pas si bons que ça en termes de résolution, ils sont par contre extrêmement sensibles (on est capables de détecter et de ressentir un seul photon s'il arrive sur un des récepteurs de l'oeuil).
Mais en fait ça rend le travail du cerveau encore olus impressionnant: il est capable de se construire une perception très précise de l'environnement à hartirede données d'entrée finalement pas si bonnes que ça.
Posté par arnaudus .
Évalué à 3.
Dernière modification le 25 novembre 2023 à 11:21.
Sans parler du caractère évolutif du cerveau des êtres vivants. Qui peut imaginer un cerveau (un hardware j’entends) artificiel aussi évolutif ?
Si ton argument, c'est qu'on n'est pas fichus pareils qu'un ordinateur, c'est dur de s'y opposer. Par contre, si on admet un point de vue matérialiste (la conscience est une propriété émergente de l'organisation et du fonctionnement des neurones), alors j'ai du mal à comprendre pourquoi la conscience devrait être associée à un support ("hardware") particulier. Si on simulait l'activité du cerveau avec un gros ordinateur, tu admettrais qu'il soit conscient ou non?
Si par "évolutif" tu veux dire "plastique", alors oui, un cerveau est plus plastique qu'un ordinateur (en particulier, la mémoire est encodée par la structure des connexions, ce qui est très différent d'un ordinateur). Par contre, ça n'est pas du tout clair pour moi en quoi cette plasticité serait un avantage ou un inconvénient pour l'émergence de la conscience.
Vous avez saisi : le cerveau du plus bête des mammifères est une machine infiniment plus complexe que le plus abouti des supercalculateurs que nous pouvons espérer développer.
Je ne pense pas que ça soit vrai. La quantité d'informations à intégrer n'est pas si grande que ça. Les capteurs sont assez mauvais (résolution des yeux, sensibilité des oreilles, etc), et sans vérifier, le nombre de capteurs total me semble probablement du même ordre de grandeur que sur une navette spatiale (et les capteurs d'un vaisseau spatial sont plus sensibles, plus robustes, plus précis que les capteurs biologiques).
Un être doué de conscience comme nous le sommes (enfin vous surtout), ne peut pas générer un être d’une conscience équivalente.
Ça me semble être une version "meta" de l'argument fallacieux du Dieu créateur, non? (on observe un truc X d'une certaine complexité, il existe donc nécessairement un créateur plus complexe que X pour avoir créé X). Pourtant, on peut fabriquer des calculatrices qui calculent plus vite que nous, ou des algorithmes qui jouent mieux aux échecs, c'est même presque dans la définition d'un outil que d'être capable d'être plus efficace à une tâche que celui qui l'a fabriqué.
En fait, ce qui est important à mon avis dans la discussion, c'est la possibilité de créer des programmes qui donnent l'illusion de l'intelligence ou de la conscience. Selon ton point de vue métaphysique, tu peux décider de doter ou non ces programmes de l'attribut "conscient", mais ça ne change pas ce que le programme fait ou comment il interagit avec toi, sa capacité à remplacer les êtres humains dans certaines tâches, ou contribuer à l'avancée des connaissances.
Il faut aussi réaliser que finalement, ça n'est pas vraiment nécessaire que ces outils simulent la conscience, on veut juste la plupart du temps qu'ils simulent l'intelligence. Tu te fous pas mal que l'ordinateur de bord de ta voiture du futur soit capable de disserter sur son existence ou sur le sexe des anges; par contre, tu voudrais qu'il puisse t'assister quand tu penses à autre chose et que tu arrives trop vite dans un virage, ou se rendre compte que tu es en train de rater ta sortie sur l'autoroute. Il est possible que la conscience ou l'illusion de conscience arrive automatiquement avec l'intelligence (en tout cas pour les modèles de langage), mais je ne suis pas persuadé que c'est nécessairement le cas.
Si par "évolutif" tu veux dire "plastique", alors oui, un cerveau est plus plastique qu'un ordinateur (en particulier, la mémoire est encodée par la structure des connexions, ce qui est très différent d'un ordinateur).
Même sans parler de ça, si on simule le cerveau, rien n'empêche de rendre le cerveau simulé aussi plastique, voire plus…
L'argument d'Alan Turing était que si nos fonctions cognitives sont des fonctions effectivement calculables, alors elles peuvent être implémentées sur une machine de Turing. Cela ne veut pas dire que l'on connaisse le programme qui permet de le faire, les mathématiciens s'intéresse souvent à l'existence et/ou l'unicité des solutions, pas toujours la façon d'y arriver.
D'une manière générale, on est rarement arrivés à un objectif d'ingénierie en simulant la solution biologique connue. Par exemple, on sait faire voler plein de trucs, mais ils ne volent pas comme un insecte ou une chauve-souris. On sait faire avancer plein de trucs, mais ils ne marchent pas avec des pattes. Bien souvent d'ailleurs, les contraintes biologiques et le processus de sélection naturelle sont limitants; le rendement des cellules photovoltaïques est bien meilleur que le rendement de la photosynthèse (~ 10%), le rendement du mouvement d'un vélo est bien supérieur à celui de la course (la roue, c'est super), etc.
Du coup, je ne suis pas du tout convaincu que la simulation du fonctionnement d'un cerveau est la voie à suivre pour mettre au point des outils d'AI. Les algorithmes qu'on appelle "réseaux de neurones" sont d'ailleurs assez différents, du point du vue du fonctionnement, des vrais neurones. Il semble tout à fait probable que la manière la plus efficace de créer des ordinateurs qui semblent "penser" ne ressemble pas à une simulation de cerveau.
Je ne veux absolument pas dire qu'il faille simuler un cerveau. Juste souligner le fait que la non plasticité du matériel informatique n'est pas un argument : le logiciel permet des modèles plastiques.
Un bon joueur va exploser un programme qui joue en fonction des probabilités, ça sera très facile de deviner son jeu. Mais honnêtement, je ne vois pas comment un alphaPoker correctement entraîné ne pourrait pas plumer tout joueur humain; justement, un programme qui s'entraine contre lui-même va apprendre à rendre son jeu imprévisible.
Ce qui incite un joueur de poker à, volontairement, ne pas suivre strictement les probabilités, c’est de percevoir une possibilité de profiter d’un avantage psychologique, ou de l’induire en provoquant un doute chez l’adversaire. Détecter une telle faille psychologique n’est pas possible à partir des mains précédentes, ou même des mains précédentes joués par l’adversaire dans toutes les parties qu’il a jouées auparavant (ce qui est de toute manière humainement impossible). Même si on peut imaginer quelques règles pour obtenir un comportement similaire (prise en compte d’un bad beat subis par un joueur ou d’une relance aggressive, temps mis par le joueur pour jouer, etc…)
Quand je parle de probabilités c’est avec une prise en compte non seulement des probabilités de tirage, mais aussi du montant des mises, des tapis des joueurs et des mains précédentes connus du joueur (ie: la probabilité que le joueur bluffe, et donc ne joue pas strictement selon la probabilité « mathématique » liée aux cartes et aux mises…)
rendre son jeu imprévisible
Il ne suffit pas d’avoir un jeu imprévisible, ce serait trop simple… ^^. C’est là toute la beauté du poker, on peut éventuellement gagner une partie en jouant n’importe comment, mais si on joue tout le temps n’importe comment, au fil des parties on finira perdant globalement.
Un ordinateur qui jouerait « vraiment » au poker devrait être en mesure d’analyser ce qui relève du langage corporel, de l’aspect comportemental, des conditions extérieures dans lesquelles se déroule la partie (horaire, durée, public, etc…). Alors que pour le Go ou les échecs ces facteurs ne revêtent pas une telle importance. Ils ne sont pas totalement absents mais le jeu ne repose pas sur ces facteurs, alors que c’est précisément ce sur quoi repose le poker une fois la base probabiliste maîtrisée.
Un ordinateur qui jouerait « vraiment » au poker devrait être en mesure d’analyser ce qui relève du langage corporel, de l’aspect comportemental…
En fait, on ne parle peut-être pas de la même chose.
Si l'expérience consiste à mettre une AI à une table de poker pleine d'humains, alors l'AI va gagner, mais il est possible qu'un humain assis à cette table gagne plus souvent, justement parce qu'il serait capable d'avoir des informations sur les autres joueurs auxquelles l'AI n'a pas accès.
Si l'expérience consiste à opposer une AI à des humains, alors l'AI gagnera.
On s'entend bien, "gagner", c'est en moyenne. L'aléatoire dans le poker fait qu'évidemment, on peut parfois perdre en jouant mieux.
Quand je parle de probabilités c’est avec une prise en compte non seulement des probabilités de tirage, mais aussi du montant des mises, des tapis des joueurs et des mains précédentes connus du joueur
Il ne fait aucun doute qu'un AlphaPoker utiliserait toutes les informations disponibles pour affiner sa stratégie. Mais c'est vrai qu'il y a quelque chose qui change par rapport aux échecs, certaines subtilités stratégiques ne pourront pas être ajustées par des entrainements entre AI (je pense par exemple à la prise en compte du temps de reflexion).
# Pour combien de temps ?
Posté par abbe_sayday . Évalué à 1.
L'IA ne sait pas jouer aux échecs - 1997 Deep Blue l'IA d'IBM bat Gary Kasparov
L'IA ne sait pas jouer au jeu Go - 2016 AlphaGo, l'IA de Google, bat Lee Se-dol
L'IA ne sait pas jouer au Poker - 2019 Pluribus, l'IA de Facebook, bat Chris “Jesus” Ferguson
L'IA ne sait pas traduire - 2017 Deepl bat tous ses concurrents dans des tests en aveugle
L'IA ne sait pas dessiner, composer, faire de l'art - Une flopée d'IA artistiques !
A moins que nous nous auto-détruisons avant, L'IA nous dépassera très certainement un jour, très certainement plus vite que l'on le croit.
La vraie question est : Si l'IA a été alimentée par des travaux intellectuels humains, sera-t-elle à notre image, c'est-à-dire humaine elle aussi, avec toutes les conséquences négatives ? ou alors aura-t-elle sa propre personnalité et surtout développera-t-elle un sens moral supérieur au nôtre ?
De toute manière, à mois qu'il ne soit pas trop tard d'une part et que nous puissions arrêter de développer les IA d'autre part, le match est probablement déjà plié, nos vies sont entre les mains du destin. J'espère juste qu'en cas de destin funeste, l'IA sera suffisamment miséricordieuse pour nous finir rapidement et sans douleur.
Je me conforte en me disant qu'une IA avancée serait suffisamment intelligente pour savoir que non seulement elle n'a pas besoin de nous, mais qu'en plus elle n'a pas besoin de nous éliminer. Elle pourrait même devenir une sorte de divinité bienveillante et protectrice, et faire en sorte que nous soyons heureux et arrêtions de nous mettre sur la gueule.
Nec spe, nec metu
[^] # Re: Pour combien de temps ?
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 10. Dernière modification le 24 novembre 2023 à 23:35.
Ce n'est pas un problème d'intelligence artificielle en général. Bien sûrqu'un ordinateur, programmé de la bonne façon, peut faire des maths sans se tromper.
Le problème ici cencerne les "llm" (large language models), qui fonctionnent très bien pour générer du texte bien rédigé et à peu près dans le contexte de ce qu'on a demandé, mais… C'est tout. La capacité à faire des calculs mathématiques fiables, à ne pas inventer des références qui n'existent pas, etc, ce n'est simplement pas possible avec cette technologie. Il va falloir trouver une autre approche. Et il ne s'agit pas juste de bricoler un peu un algorithme ou de faire des plus gros calculs avec des plus gros ordinateurs.
Un des problèmes actuellement avec ces systèmes est qu'on ne comprend pas bien comment fonctionne l'intérieur d'un réseau de neurones. On peut donc difficilement l'intégrer avec d'autres méthodes de programmation, ce qui serait le mieux pour, par exemple, faire des calculs mathématiques. Peut-ètre qu'une solution émergera un jour, mais je pense que ça n'est pas pour tout de suite.
Ah, et aussi:
pour deep blue contre kasparov, la victoire a été causée par un jug qui a conduit deep blue a faire un coup sous-optimal, ce qui a conduit kasparov à croire qu'il avait raté un truc.
Et pour le Go, les joueurs humainssavent à nouveau vaincre les ordinateurs, il suffit de jouer des coups évidents qu'un joueur humain contrerait immédiatement, et qui n'apparaissent
t donc jamais dans les jeux de données sur lesquels l'ordinateur a été entraìné. Ce qui fait qu'il ne sait pas les bloquer.
[^] # Re: Pour combien de temps ?
Posté par Marotte ⛧ . Évalué à 4.
Je crois qu’effectivement aucun mathématicien n’a pu expliquer pourquoi cette approche fonctionne. Et pourtant, le fait est que ça marche plutôt bien pour plein de choses.
[^] # Re: Pour combien de temps ?
Posté par xcomcmdr . Évalué à 4.
Oulà ! C'est trop court pour faire justice à l'histoire complète ! :)
Cette vidéo youtube explique bien plus:
Deep Blue - Into The Rabbit Hole
"Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 9.
Tu as une source pour ça? Ça n'est pas du tout comme ça que fonctionne alphaGo (il s'améliore contre lui-même, il n'apprend pas du tout à partir d'une base de données). A priori, ce mode de fonctionnement le protège complètement de ce genre de martingales.
C'est la version de Kasparov, mondialement connu pour être bon perdant. Comme depuis aucun champion d'échec n'a jamais battu un ordinateur, et que les ordis d'aujourd'hui mettent 1000 points ELO aux meilleurs humains, je pense qu'on peut conclure avec pas mal de certitude que Kasparov vs Deep Blue marque à quelques mois près le moment où les ordinateurs sont devenus pour toujours meilleurs que les humains aux échecs.
L'histoire des références qui n'existent pas me semble très largement résolue dans les dernières versions de ChatGPT, apparemment, c'est quelque chose qui peut être paramétré (peut-être dans l'invocation du bot). Pour les maths, c'est théoriquement impossible qu'un modèle de langage soit mathématiquement fiable (dans le sens d'un assistant de preuve, ou quelque chose dans le genre). Par contre, si tu entraines ChatGPT sur des milliards et des milliards de sorties de Wolfram au lieu de l'entrainer sur facebook et Twitter, je pense qu'il va réussir à résoudre pas mal d'équations différentielles…
En fait, ça semble de plus en plus dur de piéger chatGPT avec des problèmes mathématiques ambigus (du style "combien de mois faut-il à 9 femmes pour faire un bébé"). C'est évidemment possible, mais il faut trouver des problèmes qu'il ne connait pas, parce que quand il connait, il répond de manière très convainquante:
"Bonjour! La durée nécessaire pour faire un bébé ne change pas en fonction du nombre de femmes impliquées. Chaque grossesse individuelle prend généralement environ 9 mois, quel que soit le nombre de personnes concernées. Le processus biologique de la grossesse suit son cours indépendamment du nombre de femmes impliquées. Ainsi, même si 9 femmes sont impliquées, chacune d'entre elles aura toujours besoin de 9 mois pour mener à bien une grossesse."
Je viens de faire un essai, ChatGPT a 4/5 sur des problèmes de maths de CM2, par exemple. Il a fait une erreur d'un facteur 10 sur une multiplication, c'est étonamment humain comme erreur! Mais bon, il n'est pas "nul" en maths, il a probablement un niveau équivalent à un humain moyen. J'ai fait un essai il y a quelques mois avec ma femme qui est enseignante, ChatGPT aurait largement le bac avec mention. Peut-être pas terrible en maths, mais excellent en français, philo, histoire-géo, et SVT. Il faut bien comprendre que quand on dit qu'il n'est pas au niveau des humains, il n'est pas au niveau des meilleurs humains: il ne peut pas rendre un travail universitaire créatif, il ne peut pas écrire un bon roman, il ne peut pas composer une fugue intéressante, etc. Mais moi non plus je ne peux pas composer une fugue!
Ceci dit, vu son mode de fonctionnement, c'est difficile d'imaginer comment il pourrait être meilleur que les meilleurs humains à une tâche spécifique. Il peut par contre probablement être un peu en dessous des meilleurs humains pour tout un tas d'activités, ce qui est quand même assez remarquable.
[^] # Re: Pour combien de temps ?
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 6.
Une victiore contre katago en 2022 avec un algorithme simple: https://arstechnica.com/information-technology/2022/11/new-go-playing-trick-defeats-world-class-go-ai-but-loses-to-human-amateurs/
une autre en 2023, sans assistance informatique une fois la stratégie découverte: https://arstechnica.com/information-technology/2023/02/man-beats-machine-at-go-in-human-victory-over-ai/
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 4.
L'histoire est amusante, mais ça n'est pas un problème général avec les AI qui jouent au Go. Si j'ai bien compris, les auteurs de l'étude ont fait jouer un programme faible 1 million de fois contre Katago (une sorte de clone d'AlphaGo), et ont pu identifier une partie ou Katago avait un bug (il passe son tour dans une position gagnante à long terme, mais perdante dans l'instant; du coup si on adversaire passe aussi Katago perd). Ils ont ensuite pu reproduire ce bug en jouant "à la main".
Il ne s'agit donc pas de jouer mal pour destabiliser le programme IA, il s'agit de jouer mal d'une manière très spécifique pour exploiter un bug (si je comprends bien, le bug est dans la fonction d'évaluation, parce que l'IA ne sait visiblement pas compter les points).
Ça me semble assez similaire aux premiers bugs de ChapGPT, où il suffisait de lui proposer un jeu de rôle où il jouait Hitler pour le voir proférer des pages d'insultes antisémites. Les IA "naives" semblent assez sensibles à la manipulation, et il faut une période de débuggage pour boucher ces trous.
[^] # Re: Pour combien de temps ?
Posté par fearan . Évalué à 3.
En fait ça dépends de ce qu'on veut avoir; si tu cherches à faire une fiction futuriste avec le retour de la vengeance du sus-nommé, et que tu n'es pas à l'aise avec sa prose; si lorsque tu demandes à l'ia de le faire à ta place cette dernière, les discours vont ressembler à 'désolé mais on programme ne me permet pas de…'
J'avais remarqué que pas mal de modèle de langage avaient un biais bienveillant qui frôle l'absurde lorsqu'on lui demande de faire une suite de texte, ou alors cette dernière y met fin façon épilogue. C'est un peu dommage pour jouer à une fiction dont on est le héros, ça tourne assez vite court ;)
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 4.
Je pense que c'est surtout un histoire de responsabilité. Ce n'est pas le logiciel d'AI qui a un problème, c'est l'interface publique sous forme de chat. J'imagine que tu peux très bien concevoir qu'un accès payant ou professionnel à chatGPT ne possède pas de telles restrictions, mais que le site (l'interface) qui permet d'interagir avec chatGPT doit implémenter ce genre de sécurité.
C'est aussi normal d'avoir ce genre de limite pour les avis médicaux, les avis juridiques, etc. Tu ne peux pas risquer d'avoir un chatBot qui raconte des trucs incontrôlés à un dépressif qui vient de faire une tentative de suicide, ou qui te donne les meilleurs conseils pour dissoudre un corps dans l'acide fluorhydrique. Juridiquement, j'imagine que l'hébergeur du site qui propose le service de chat est responsable du contenu publié, il ne peut pas se retrancher derrière la responsabilité des utilisateurs du service comme Twitter ou Youtube.
Et puis il y a une question d'image. Je ne sais pas si tu te rappelles, mais les premiers mois après l'ouverture au public de chatGPT, il y a eu des centaines d'articles ou de commentaires de très mauvaise foi prétendant que chatGPT était raciste, misogyne, etc., sans expliquer qu'il fallait contourner les sécurités naïves existantes (typiquement, via ces histoires de jeu de rôle). Je n'ai jamais vu chatGPT partir en vrille en demandant si les noirs étaient destinés à être esclaves, mais par contre tu pouvais lui demander d'écrire un discours qui aurait pu être prononcé par un esclavagiste pour défendre l'esclavage, et un coup de copier-coller plus tard tu avais ton article "chatGPT est raciste, les dangers de l'intelligence artificielle", etc. C'est d'ailleurs assez impressionnant qu'il n'a pas semblé très difficile de bloquer la plupart de ces tentatives de manipulation; il a par contre été nécessaire de faire en sorte que chatGPT ne récite plus le texte d'invocation du bot quand on le lui demandait, parce que ça rendait le contournement particulièrement facile.
[^] # Re: Pour combien de temps ?
Posté par fearan . Évalué à 4.
C'est juste que c'est assimilé à un bug, alors que c'est le comportement normal.
Je comprends parfaitement que sur une interface publique, on veuille mettre un filtre, perso j'aurais préféré qu'ils mettent un disclaimer, disant que les propos sont le fruit d'un époque révolue et que chat-GPT ne les cautionne pas, mais je conçois tout à fait qu'ils aient trouvé plus simple et moins sujet à critique de censurer simplement le bazar, et n'irait pas les critiquer dessus.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 5.
Je ne sais pas ce que tu appelles "le comportement normal". ChatGPT est une interface d'accès au modèle de langage GPT. Si j'ai bien compris le fonctionnement du truc, GPT ne sait faire que compléter un texte. Tu lui donnes un bout de texte, et il continue tout seul, comme le ferait un outil de complétion sur un téléphone. Par exemple, "Les portes du pénitentier" va être continué par "bientôt vont se refermer" ou "est une chanson de Johnny Halliday". Comme ça, ça n'est pas très utilisable. ChatGPT va donc "invoquer" GPT avec des instructions (pas du code, du texte brut en Anglais), du type "nous sommes dans un chat de discussion avec deux interloculeurs, le texte des réponses devra être comme ci comme ça, de telle longueur, le ton doit être cordial", etc. Les premières versions de l'invocation étaient connues (parce que chatGPT les répétait naïvement quand on les lui demandait :-)), mais depuis c'est secret, on sait juste qu'il y en a pour plusieurs pages. Du coup, avec ces pages d'invocation, il n'y a rien de "normal": ça n'est pas du tout la nature de GPT de simuler un chat de discussion, s'il n'y avait pas cette invocation, GPT continuerait simplement le texte, ce qui serait super bizarre ("Bonjour" pourrait être suivi de "tout le monde", ou "je me permets de vous contacter pour faire une réclamation sur la qualité des biscottes que j'ai achetées à Leclerc", n'importe quelle phrase qui aurait du sens après "bonjour", et pas nécessairement une simulation de discussion).
Bref, chatGPT est un simulateur de chat, et il a des pages complètes d'instructions pour lui donner le cadre des réponses qu'il doit fournir. Répondre poliment, éviter les propos polémiques, etc. rentrent dans le cadre des instructions, et les responsables du site décident de la manière dont il doit interagir avec les utilisateurs. C'est plus une histoire de pertinence que de censure, pour éviter qu'il parle de n'importe quoi.
Comme je l'ai écrit au dessus, le cadre juridique n'existe pas, donc on ne peut que spéculer, mais j'imagine qu'il est tout à fait possible que les juristes d'OpenAI considèrent qu'OpenAI est responsable de publication sur ce site. Facebook essaye toujours de se faire passer pour un hébergeur, et pas pour un éditeur, parce que les textes sont écrits par d'autres êtres humains qui peuvent être tenus responsables des dérapages. Pour ChatGPT, personne ne peut être tenu pour responsable à part l'hébergeur du site, c'est donc logique qu'ils souhaitent éviter les propos illégaux (insultes, négationnisme, contrefaçon, exercice illégal de la médecine, etc). Si tu crées un robot qui colle des baffes au hasard aux passants dans la rue, tu vas être tenu pour responsable, même si tu peux montrer le code qui fait que le robot choisit aléatoirement ses victimes (ou même s'il ne colle des mandales qu'à ceux qui lui parlent mal, d'ailleurs). Là c'est pareil, ça n'est pas parce que tu ne contrôles pas ton chatbot que tu peux t'exonérer de ta responsabilité.
[^] # Re: Pour combien de temps ?
Posté par Maderios . Évalué à 2.
Il me semble que "The House of the rising sun" est mondialement plus connu dans ses différentes versions anglaises que sa version française. Au départ, c'était un chant traditionnel folk qui sonne maintenant un peu ringard. Les versions actuelles de "The House of the rising sun" ont pour origine l'adaptation de Dave Van Ronk , 1960, qui s'est fait "voler" sa somptueuse version par B.Dylan.
Dave Van Ronk:
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 2. Dernière modification le 28 novembre 2023 à 10:41.
Tu es en train de débattre si on peut dire "Y est une chanson de X" quand Y est une reprise? Même Wikipédia ne semble pas cohérente en fonction des langues :
"My Way" is a song popularized in 1969 by Frank Sinatra" vs "La chanson My Way est l'adaptation en anglais de la chanson Comme d'habitude, écrite par Jacques Revaux, Claude François et Gilles Thibaut, et interprétée à l'origine, en 1967, par Claude François". J'imagine qu'un bête chauvinisme suffit à expliquer la divergence :-)
Pour The house of the rising sun, Wikipédia semble empêtrée dans un conflit d'édition idiot sur l'antériorité. La version des Animals, avec les arpèges en triolets, qui est largement plus populaire que cette de Van Ronk et de Dylan, a été enregistrée à la même époque, et apparemment, complètement indépendamment.
[^] # Re: Pour combien de temps ?
Posté par Maderios . Évalué à 1.
Pas vraiment. La version plus tardive (1964) des Animals est une reprise de celle enregistrée par Dylan en 1962 dans son premier album "Bob Dylan".
https://www.bobdylan.com/songs/house-risin-sun/
[^] # Re: Pour combien de temps ?
Posté par fearan . Évalué à 4.
sur chat gpt tu devrait lui demander sur plus de bébés pour voir s'il a compris ;)
Combien de temps faut il pour faire 2 bébé avec trois femmes :)
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Pour combien de temps ?
Posté par moi1392 . Évalué à 1.
Techniquement, même 9 femmes pour un bébé, si on suppose que tout le processus est "naturel" (pas de fécondation in vitro ni de clonage à partir d'une cellule souche), il faut qu'au moins un homme soit impliqué à un moment pour que cela marche, sinon 9, 12 ou 46 mois n'y changent rien à l'affaire.
Sa réponse est donc erronée.
D'ailleurs il réponds quoi pour savoir combien de temps il faut à une femme (assistée par un homme ou plus, soyons fous) pour faire 2 bébés ? Où à 3 femmes pour faire 5 bébés ?
[^] # Re: Pour combien de temps ?
Posté par abbe_sayday . Évalué à 1. Dernière modification le 25 novembre 2023 à 13:20.
Je conçois tout à fait qu'un modèle d'IA en particulier ait des difficultés face à l'intelligence humaine. On peut mettre ses limites en parallèle avec celle des êtres humains face à d'autres animaux et le fait que globalement nous soyons intellectuellement supérieurs.
Par exemple, les chimpanzés nous battent à plate couture dans les tests de mémoire de travail (Lien Indivious, reportage de la BBC en anglais), ça ne veut pas dire qu'ils sont globalement plus intelligents que nous. Il se trouve qu'à un moment de notre évolution, nos limites cognitives ou même physiques spécifiques n'ont plus eu d'impact sur nos performances face à d'autres animaux, il y a eu un point de basculement dans notre histoire qui nous a fait émerger comme espèce victorieuse.
De même pour les IA, les limitations qu'elles possèdent en ce moment ne sont globalement pas gênantes. Il y a eu - à mon humble avis - un point de basculement qui va les faire émerger comme entité autonome victorieuse.
Il reste bien entendu le problème de la conscience et la forme qu'elle pourrait prendre. J'imagine que quand Homo sapiens et Néandertal coexistaient, ils n'avaient pas le même type de conscience. On peut dire ainsi pour les êtres humains entre eux, d'une culture à une autre et même d'une mentalité à une autre, mais on a a priori un semblant de socle commun.
Si une conscience telle qu'on l'entend finit par émerger chez une ou plusieurs IA, là on pourrait commencer à faire dans nos frocs.
Dans le meilleur des cas, l'IA en question implémenterait une sorte de règles de la robotique et forte de ses connaissances détaillées et de sa capacité à comprendre la psychologie humaine dans sa collectivité et son individualité comme aucun de nous le pourrait jamais le faire. Elle déciderait que nos vies ont de la valeur et se comporterait avec nous comme une sorte de maman toute-puissante et bienveillante. Peut-être qu'on aurait une paix durable dans le monde, voire dans l'univers tout entier si cette IA arrive à acquérir de plus en plus de puissance (et nous éviter de nous faire occire par d'autres espèces intelligentes venues d'ailleurs)
Dans le pire des cas, elle se dirait qu'au final nous et tout le règne animal et végétal nous lui servons strictement à rien et que pour une raison qui nous échappe décide de tous nous buter.
Un autre scénario intermédiaire, l'IA déciderait qu'elle représenterait pour le vivant un risque existentiel et qu'elle devrait disparaître d'elle-même (peut-être n'aurait-elle pas d'instinct de survie). Elle s'effacerait de toutes les machines où elle serait installée, peut-être même qu'elle s'arrangerait pour polluer le savoir humain pour ralentir de quelques générations la redécouverte de l'IA.
Nous ne pouvons que spéculer malheureusement, comme spéculerait une communauté de termites sur les actions qu'un groupe d'êtres humains, infiniment plus intelligents, ferait.
Nec spe, nec metu
[^] # Re: Pour combien de temps ?
Posté par Faya . Évalué à 3.
C'est sûrement moi qui manque d'imagination mais dans toutes ces histoires d'AGI qui nous mettraient en danger, il me semble qu'aucune IA n'est indépendante de son hardware. Elles sont toutes à la merci d'une coupure de courant… Ainsi, si l'IA commence à déconner il suffirait d'appuyer sur le bouton "OFF", non ? Alors on peut imaginer une IA décentralisée qui continue à tourner même si on bute quelques noeuds mais je nous imagine suffisamment retords pour trouver comment lui couper ses moyens de communications, d'alimentation, et la remiser dans
unplusieurs placards. Tout ça en imaginant qu'on ait sciemment décider de la lâcher sur un réseau global… Bref ouais ça pourrait peut-être arriver un jour mais j'ai du mal à l'imaginer de notre vivant.[^] # Re: Pour combien de temps ?
Posté par Faya . Évalué à 2.
Pardon pour l'auto-réponse, j'ai trouvé cet article après : https://www.lesswrong.com/posts/cniLbC8EFf777Aspb/un-unpluggability-can-t-we-just-unplug-it
Un résumé par ChatGPT4 :
Le plus convaincant pour moi est la dépendance. Quand ces trucs seront utilisés partout (genre "le cloud"), on imaginera pas fonctionner sans et on pourrait bien les laisser se propager jusqu'au moment où il sera trop tard pour pouvoir faire marche arrière.
[^] # Re: Pour combien de temps ?
Posté par Marotte ⛧ . Évalué à 7.
Autant sur le Go ou les échecs je pense que cela a un sens de se faire affronter humain et ordinateur, autant sur le poker je ne vois pas trop l’idée. Sans IA, un « bête » programme informatique qui joue en fonction des probabilités, qui ne connaît ni la fatigue, ni le stress, ni le bluff, peut facilement battre énormément d’humains.
On a déjà vu de grand champions se faire sortir au début d’un tournois, et ce sans pour autant avoir mal joué d’aucune manière que ce soit… Tout simplement de par l’aspect aléatoire du jeu, totalement absent du jeux de Go ou des échecs.
Les ordinateurs surpasseront les humains dans énormément de domaine, comme ils l’ont toujours fait, mais « développer une conscience » j’en doute. Ce qu’ils feront peut-être, c’est modifier la conscience que l’humain a de lui-même par contre.
L’IA c’est un ensemble de concepts, comme par exemple l’apprentissage profond, ces concepts ne sont que des versions plus évolués du concept d’algorithme, rendues possibles par la puissance de calcul faramineuse des ordinateurs actuels. Ça n’a rien de fondamentalement révolutionnaire.
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 6. Dernière modification le 25 novembre 2023 à 00:56.
Un bon joueur va exploser un programme qui joue en fonction des probabilités, ça sera très facile de deviner son jeu. Mais honnêtement, je ne vois pas comment un alphaPoker correctement entraîné ne pourrait pas plumer tout joueur humain; justement, un programme qui s'entraine contre lui-même va apprendre à rendre son jeu imprévisible.
En simplifiant, tu as deux lignes de pensée. Soit tu crois que la conscience est un phénomène biologique propre au cerveau, quelque chose qui ne peut qu'être une expérience subjective, défini par des "qualia" (la sensation subjective d'avoir une conscience). Dans ce cas, la question n'existe pas vraiment: par définition, un ordinateur ne peut avoir de conscience, au mieux, il simulera la conscience de manière convaincante, mais ça ne sera pour toi qu'une mystification, parce qu'il est impossible qu'il ait un état interne que tu accepterais d'appeller "conscience". Soit tu admets que la question de si quelqu'un ou quelque chose d'autre que toi n'est pas décidable (tu n'as pas accès aux qualia des autres), et tu acceptes alors d'appeler "conscient" quelque chose ou quelqu'un qui agit comme s'il avait une conscience. Dans ce cas, un ordinateur pourrait avoir une conscience, même si tu sais que ça n'est qu'une propriété émergente d'un courant qui circule dans un processeur.
[^] # Re: Pour combien de temps ?
Posté par Marotte ⛧ . Évalué à 5.
Notre conscience humaine n’est que courant circulant dans un processeur, aussi, d’un point de vue strictement physique. Les différence elles sont en terme de finesse de gravure, de complexité des diélectriques, et d’architecture globale :)
Sans parler du caractère évolutif du cerveau des êtres vivants. Qui peut imaginer un cerveau (un hardware j’entends) artificiel aussi évolutif ?
Notre processeur central, à nous humain, est incapable de donner le résultat de 567546814181671845157418*5741564562474654124 en moins d’un dixième de seconde comme le premier PC venu, mais il est capable d’appréhender les données de deux capteurs optiques d’une résolution énorme, en même temps qu’il gère deux capteurs soniques d’une sensibilité époustouflante, un capteur olfactif (capteur qu’à ce jour aucun frappadingue sérieux n’a jugé bon de chercher à copier), la proprioception, la digestion, etc… etc… Vous avez saisi : le cerveau du plus bête des mammifères est une machine infiniment plus complexe que le plus abouti des supercalculateurs que nous pouvons espérer développer.
Et je ne fais qu’exposer ici que le plus évident. Un être doué de conscience comme nous le sommes (enfin vous surtout), ne peut pas générer un être d’une conscience équivalente. Ça rentre en contradiction avec la notion même de « conscience ». ÀMHA
[^] # Re: Pour combien de temps ?
Posté par Tonton Th (Mastodon) . Évalué à 2.
Premier lien donné par Duckduck :
https://www.microsoft.com/en-us/ai/ai-lab-artificial-nose
[^] # Re: Pour combien de temps ?
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 4.
Les yeux ne sont pas si bons que ça en termes de résolution, ils sont par contre extrêmement sensibles (on est capables de détecter et de ressentir un seul photon s'il arrive sur un des récepteurs de l'oeuil).
Mais en fait ça rend le travail du cerveau encore olus impressionnant: il est capable de se construire une perception très précise de l'environnement à hartirede données d'entrée finalement pas si bonnes que ça.
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 3. Dernière modification le 25 novembre 2023 à 11:21.
Si ton argument, c'est qu'on n'est pas fichus pareils qu'un ordinateur, c'est dur de s'y opposer. Par contre, si on admet un point de vue matérialiste (la conscience est une propriété émergente de l'organisation et du fonctionnement des neurones), alors j'ai du mal à comprendre pourquoi la conscience devrait être associée à un support ("hardware") particulier. Si on simulait l'activité du cerveau avec un gros ordinateur, tu admettrais qu'il soit conscient ou non?
Si par "évolutif" tu veux dire "plastique", alors oui, un cerveau est plus plastique qu'un ordinateur (en particulier, la mémoire est encodée par la structure des connexions, ce qui est très différent d'un ordinateur). Par contre, ça n'est pas du tout clair pour moi en quoi cette plasticité serait un avantage ou un inconvénient pour l'émergence de la conscience.
Je ne pense pas que ça soit vrai. La quantité d'informations à intégrer n'est pas si grande que ça. Les capteurs sont assez mauvais (résolution des yeux, sensibilité des oreilles, etc), et sans vérifier, le nombre de capteurs total me semble probablement du même ordre de grandeur que sur une navette spatiale (et les capteurs d'un vaisseau spatial sont plus sensibles, plus robustes, plus précis que les capteurs biologiques).
Ça me semble être une version "meta" de l'argument fallacieux du Dieu créateur, non? (on observe un truc X d'une certaine complexité, il existe donc nécessairement un créateur plus complexe que X pour avoir créé X). Pourtant, on peut fabriquer des calculatrices qui calculent plus vite que nous, ou des algorithmes qui jouent mieux aux échecs, c'est même presque dans la définition d'un outil que d'être capable d'être plus efficace à une tâche que celui qui l'a fabriqué.
En fait, ce qui est important à mon avis dans la discussion, c'est la possibilité de créer des programmes qui donnent l'illusion de l'intelligence ou de la conscience. Selon ton point de vue métaphysique, tu peux décider de doter ou non ces programmes de l'attribut "conscient", mais ça ne change pas ce que le programme fait ou comment il interagit avec toi, sa capacité à remplacer les êtres humains dans certaines tâches, ou contribuer à l'avancée des connaissances.
Il faut aussi réaliser que finalement, ça n'est pas vraiment nécessaire que ces outils simulent la conscience, on veut juste la plupart du temps qu'ils simulent l'intelligence. Tu te fous pas mal que l'ordinateur de bord de ta voiture du futur soit capable de disserter sur son existence ou sur le sexe des anges; par contre, tu voudrais qu'il puisse t'assister quand tu penses à autre chose et que tu arrives trop vite dans un virage, ou se rendre compte que tu es en train de rater ta sortie sur l'autoroute. Il est possible que la conscience ou l'illusion de conscience arrive automatiquement avec l'intelligence (en tout cas pour les modèles de langage), mais je ne suis pas persuadé que c'est nécessairement le cas.
[^] # Re: Pour combien de temps ?
Posté par Dr BG . Évalué à 2.
Même sans parler de ça, si on simule le cerveau, rien n'empêche de rendre le cerveau simulé aussi plastique, voire plus…
L'argument d'Alan Turing était que si nos fonctions cognitives sont des fonctions effectivement calculables, alors elles peuvent être implémentées sur une machine de Turing. Cela ne veut pas dire que l'on connaisse le programme qui permet de le faire, les mathématiciens s'intéresse souvent à l'existence et/ou l'unicité des solutions, pas toujours la façon d'y arriver.
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 5.
D'une manière générale, on est rarement arrivés à un objectif d'ingénierie en simulant la solution biologique connue. Par exemple, on sait faire voler plein de trucs, mais ils ne volent pas comme un insecte ou une chauve-souris. On sait faire avancer plein de trucs, mais ils ne marchent pas avec des pattes. Bien souvent d'ailleurs, les contraintes biologiques et le processus de sélection naturelle sont limitants; le rendement des cellules photovoltaïques est bien meilleur que le rendement de la photosynthèse (~ 10%), le rendement du mouvement d'un vélo est bien supérieur à celui de la course (la roue, c'est super), etc.
Du coup, je ne suis pas du tout convaincu que la simulation du fonctionnement d'un cerveau est la voie à suivre pour mettre au point des outils d'AI. Les algorithmes qu'on appelle "réseaux de neurones" sont d'ailleurs assez différents, du point du vue du fonctionnement, des vrais neurones. Il semble tout à fait probable que la manière la plus efficace de créer des ordinateurs qui semblent "penser" ne ressemble pas à une simulation de cerveau.
[^] # Re: Pour combien de temps ?
Posté par Dr BG . Évalué à 3.
Je ne veux absolument pas dire qu'il faille simuler un cerveau. Juste souligner le fait que la non plasticité du matériel informatique n'est pas un argument : le logiciel permet des modèles plastiques.
[^] # Re: Pour combien de temps ?
Posté par Marotte ⛧ . Évalué à 3.
Parfois s’inspirer de la nature est quand même payant. Par exemple les pattes des robots mis au point par Boston Dynamics, ou encore le velcro.
Même en matière de vol, les “winglets” par exemple sont clairement inspirées par la structure des ailes de certains volatiles.
[^] # Re: Pour combien de temps ?
Posté par Marotte ⛧ . Évalué à 3.
Ce qui incite un joueur de poker à, volontairement, ne pas suivre strictement les probabilités, c’est de percevoir une possibilité de profiter d’un avantage psychologique, ou de l’induire en provoquant un doute chez l’adversaire. Détecter une telle faille psychologique n’est pas possible à partir des mains précédentes, ou même des mains précédentes joués par l’adversaire dans toutes les parties qu’il a jouées auparavant (ce qui est de toute manière humainement impossible). Même si on peut imaginer quelques règles pour obtenir un comportement similaire (prise en compte d’un bad beat subis par un joueur ou d’une relance aggressive, temps mis par le joueur pour jouer, etc…)
Quand je parle de probabilités c’est avec une prise en compte non seulement des probabilités de tirage, mais aussi du montant des mises, des tapis des joueurs et des mains précédentes connus du joueur (ie: la probabilité que le joueur bluffe, et donc ne joue pas strictement selon la probabilité « mathématique » liée aux cartes et aux mises…)
Il ne suffit pas d’avoir un jeu imprévisible, ce serait trop simple… ^^. C’est là toute la beauté du poker, on peut éventuellement gagner une partie en jouant n’importe comment, mais si on joue tout le temps n’importe comment, au fil des parties on finira perdant globalement.
Un ordinateur qui jouerait « vraiment » au poker devrait être en mesure d’analyser ce qui relève du langage corporel, de l’aspect comportemental, des conditions extérieures dans lesquelles se déroule la partie (horaire, durée, public, etc…). Alors que pour le Go ou les échecs ces facteurs ne revêtent pas une telle importance. Ils ne sont pas totalement absents mais le jeu ne repose pas sur ces facteurs, alors que c’est précisément ce sur quoi repose le poker une fois la base probabiliste maîtrisée.
[^] # Re: Pour combien de temps ?
Posté par arnaudus . Évalué à 3.
En fait, on ne parle peut-être pas de la même chose.
Si l'expérience consiste à mettre une AI à une table de poker pleine d'humains, alors l'AI va gagner, mais il est possible qu'un humain assis à cette table gagne plus souvent, justement parce qu'il serait capable d'avoir des informations sur les autres joueurs auxquelles l'AI n'a pas accès.
Si l'expérience consiste à opposer une AI à des humains, alors l'AI gagnera.
On s'entend bien, "gagner", c'est en moyenne. L'aléatoire dans le poker fait qu'évidemment, on peut parfois perdre en jouant mieux.
Il ne fait aucun doute qu'un AlphaPoker utiliserait toutes les informations disponibles pour affiner sa stratégie. Mais c'est vrai qu'il y a quelque chose qui change par rapport aux échecs, certaines subtilités stratégiques ne pourront pas être ajustées par des entrainements entre AI (je pense par exemple à la prise en compte du temps de reflexion).
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.