Sondage pour vous, un logiciel d'intelligence artificielle, c'est quoi ?

Posté par . Licence CC by-sa.
12
4
juil.
2018

L'intelligence artificielle est le "buzz word" du moment, et on nous le sert à toutes les sauces.
Mais pour vous, un logiciel d'intelligence artificielle, c'est quoi ?

  • un logiciel qui n'existe pas encore :
    355
    (18.1 %)
  • un ensemble de if-then-else un peu complexe :
    485
    (24.8 %)
  • un logiciel qui peut se faire passer pour un humain :
    154
    (7.9 %)
  • un logiciel qui peut se faire passer pour un dauphin :
    105
    (5.4 %)
  • un logiciel innovant par ses algorithmes :
    220
    (11.2 %)
  • un logiciel qui fait des choses pour lesquelles il n'a pas été conçu :
    329
    (16.8 %)
  • un humain dans une boite :
    109
    (5.6 %)
  • je comprendre pas. Parse error line 1 :
    199
    (10.2 %)

Total : 1956 votes

La liste des options proposées est volontairement limitée : tout l'intérêt (ou son absence) de ce type de sondage réside dans le fait de forcer les participants à faire un choix. Les réponses multiples sont interdites pour les mêmes raisons. Il est donc inutile de se plaindre au sujet du faible nombre de réponses proposées, ou de l'impossibilité de choisir plusieurs réponses. 76,78% des sondés estiment que ces sondages sont ineptes.
  • # Vaporware Expert ?

    Posté par . Évalué à 10.

    Un consensus émergera-t-il ?
    L'IA : le Vaporware du XXIè siècle, ou le nouveau nom des systèmes experts ?

    Yth :)

  • # Heuristique

    Posté par . Évalué à 4.

    L'IA, ça peut recouper plusieurs choses. De mon point de vue, il y a tout d'abord tout un tas de trucs bien déterministes, comme alpha-bêta, avec lesquels je n'ai pas de problèmes, c'est juste de l'algorithmique bien pensée.

    D'un autre côté, il y a en revanche, tout un tas de trucs qui se rapprochent plus de méta-heuristiques (réseaux de neurones par exemple) qui donnent certes des résultats impressionnants mais qui restent des heuristiques : on ne sait pas trop pourquoi et comment ça marche mais ça marche. La hype est de ce côté là en ce moment et c'est problématique, parce qu'on fait croire qu'une méta-heuristique peut traiter n'importe quel problème et le résoudre de manière «intelligente» (et quand je dis «on», je ne parle pas de tous les chercheurs sérieux du domaine). C'est rapprocher l'informatique d'une sorte de magie, c'est très malsain. Une heuristique, ça peut aussi ne pas marcher sur certains cas.

    • [^] # Re: Heuristique

      Posté par . Évalué à 7.

      Une heuristique, ça peut aussi ne pas marcher sur certains cas.

      Moué, c’est pas un argument dans le cas présent. Une théorie scientifique, ça peut aussi ne pas marcher dans certains cas, et un être humain se trompe parfois.

      Seulement voilà, on fait attaquer ces algos à des problèmes qu’on est bien incapable de spécifier correctement ou mathématiquement. Du coup la dichotomie « heuristique / algo exact » ne fonctionne pas. On est capable de dire qu’un programme est exact quand il résouds dans tous les cas un problème spécifié mathématiquement. Donne moi les spécifications de la reconnaissance de forme non supervisée? Quand bien même tu en aurais, elles seraient probablement un pale reflet du problème qu’on essaye de résoudre, conçues uniquement parce qu’on sait les résoudre.

    • [^] # Re: Heuristique

      Posté par . Évalué à 5.

      Le deep learning, qui a relancé la mode de l'IA, c'est la détermination automatique des "features" avec l'aide de beaucoup d'exemples (big data) ou d'un simulateur (cf alphazero).

      "La première sécurité est la liberté"

    • [^] # Re: Heuristique

      Posté par (page perso) . Évalué à 3.

      Moué. Pour moi, les réseaux de neurones, c'est de l'apprentissage machine, qui est un tout petit ensemble de l'IA, qui cherche à approximer une fonction inconnue à partir d'exemples. Et on sait très bien comment ça marche. Le problème, c'est qu'on ne sait pas comment interpréter les neurones individuellement (ou en groupe) dans beaucoup de cas, et on ne peut donc pas manuellement optimiser le machin.

  • # Un programme qui créée un autre programme

    Posté par . Évalué à 0.

    Selon moi, l'intelligence artificielle est un programme qui créée un autre programme, à partir d'un jeu de règles et de données, des données externes ou qu'il créée lui-même. Par exemple AlphaZero est un programme capable de créer un programme capable de jouer aux échecs à partir de ses règles et un grand nombre de parties.

    • [^] # Re: Un programme qui créée un autre programme

      Posté par . Évalué à 2.

      Le programme qui créé un programme, c'est assez proche de ce qu'on appelait dans les années 80 un système expert : on lui donne des règles (par exemple les règles de déplacement des pièces aux échecs), sous forme de prédicats, une position de départ et il détermine les coups possibles. Ce qui est "nouveau", c'est cette faculté d'améliorer la façon de jouer en refaisant des parties données, mais on y réfléchissait déjà en 80.
      On avait moins de moyens (argent et machines) et de temps, personne ne prenait cela au sérieux.

      • [^] # Re: Un programme qui créée un autre programme

        Posté par . Évalué à 1.

        avant les ordinateurs d'echecs ce que l'on améliorait c'etait sa fonction d'évaluation et le programme pour elaguer l'arbre des positions possibles
        la force augmentait en fonction de sa puissance de cacul
        l'autre point aussi etait son repertoire d'ouverture puis les base de données de finales
        ici pas de repertoire pas de fonction d'evaluation compliquées

  • # Une IA c'est plus qu'un algorithme

    Posté par . Évalué à 8. Dernière modification le 05/07/18 à 13:47.

    Une IA, c'est un programme qui trouve des solutions a des problème qu'on lui a décrit mais ou on ne lui a pas donné de procédure bien défini pour trouver la solution. On ne peux pas prédire la réponse d'une IA car sa réponse dépendra de son expérience et de multiples paramètres complexes.

  • # un logiciel qui n’existe pas encore

    Posté par . Évalué à 1.

    puisqu’il devrait s’écrire seul suite a de nombreuse interaction électrique aléatoire donc intelligente.

    Merci aux personnes qui mon aidé a trouvé des solutions pour essayer d’écrire sans faute d’orthographe.

    • [^] # Re: un logiciel qui n’existe pas encore

      Posté par . Évalué à 2.

      Donc l'homme n'est pas intelligent puisqu'il ne sait pas se fabriquer ni même se comprendre.

      • [^] # Re: un logiciel qui n’existe pas encore

        Posté par . Évalué à 1.

        tu veux dire que la femme est plus intelligente que l’homme ?
        c’est sexiste ce que tu dis.

        j’aurais remplacé homme par humain.

        Merci aux personnes qui mon aidé a trouvé des solutions pour essayer d’écrire sans faute d’orthographe.

  • # Un tas d'opérateurs d'algèbre linéaire qui produit des réponses ?

    Posté par (page perso) . Évalué à 10.

    XKCD

  • # Réponse supplémentaire

    Posté par . Évalué à 4.

    Un logiciel auquel on veut faire des tas de choses pour lesquelles il n'a pas été conçu

    Mais en vrai, cette définition couvre bien plus que les IA…

  • # il manque ...

    Posté par . Évalué à 3.

    une neuromatrice !

  • # Intelligence art

    Posté par (page perso) . Évalué à 10.

    Entendu dans un interview d'une spécialiste de l'intelligence artificielle, Londres, 2018:

    Question: Are you afraid of the possible outcomes of Artificial Intelligence?
    Answer: Actually, I am more concerned by natural stupidity.

  • # Peut-être que...

    Posté par . Évalué à 2.

    Sans vouloir insinuer quoique ce soit, oui, c'est un terme galvaudé, oui, c'est la hype qui veut voir l'IA partout et nul part mais… qui sait ? On a bien réussi à simuler des cerveaux de mammifères. Donc bon. J'ai déjà eu à faire avec des réseaux neuronaux et les résultats sont spectaculaires. Un neurone est très facile à simuler, son fonctionnement est bien plus simple qu'il n'y parait. Ce qu'on ne sait pas prévoir c'est le résultat de l'accumulation du processus de fonctionnement d'un réseau de neurones. C'est juste ça.

  • # Tentative

    Posté par . Évalué à 3.

    Je me lance: c’est un logiciel capable de se créer une représentation interne (abstraite) pertinente du problème qu’il doit résoudre, et de tirer parti efficacement de sa représentation pour trouver des solutions. Il va sans dire qu’il devra être capable de s’adapter à une vaste classe de problème à résoudre. Éventuellement il sera capable d’interagir avec son environnement quand il n’a rien de particulier à faire pour s’y habituer et être prêt quand on lui demandera de résoudre un problème qui implique une interaction dans cet environnement. Éventuellement il devra s’occuper de lui même afin de perdurer dans cet environnement par ses propres moyens.

    • [^] # Re: Tentative

      Posté par . Évalué à 3. Dernière modification le 10/07/18 à 11:23.

      En fait il y a plusieurs écoles. Le modèle que tu décris est "computationel" (en franglais dans le texte), c'est voir l'automate comme un ordinateur input --> calcul --> output, (voir, décider, agir) en se basant sur un modèle interne (représentation) manipulable algorithmiquement et qui représente la réalité. C'est le modèle des systèmes experts (où le modèle est construit par l'humain), mais pas que.

      Les gens du constructivisme, interactivisme et autre piagetiens voient plus le modèle comme étant l'environnement en lui même. L'agent n'a pas une représentation interne, manipulable par calcul, mais un ensemble de connaissances qui résument son expérience et lui permette de choisir une action qui lui semble utile. L'apprentissage par renforcement est sûrement une des approches qui permettra éventuellement d'arriver à ça.

      Le Bayésianisme est à mon sens proche de cette dernière approche mais je ne suis pas sur de ce que j'avance. On a un modèle incomplet, qui concerne les espérances (tel situation devrait conduire à tel résultat) et on affine le modèle avec l'expérience (on met éventuellement des modèles en concurrence).

      Il n'y a pas des frontières si nettes que ça entre tout cela, bien sur.

      • [^] # Re: Tentative

        Posté par . Évalué à 4.

        Pas tellement, j’emploie « modèle » pas forcément dans le sens ou tu l’entends. Un modèle interne peut émerger d’une manière que le concepteur de l’algorithme n’a pas prévue, par exemple dans l’organisation d’un réseau de neurone, qu’on ne comprend même pas et donc qu’on est bien incapable d’exploiter en dehors du cadre d’utilisation classique. L’idée c’est qu’une technique d’IA doit laisser suffisamment d’espace à l’algorithme pour qu’un tel modèle puisse émerger, pas qu’on ait un modèle tout fait auquel un humain puisse naturellement donner un sens.

  • # Intuition et Logique

    Posté par . Évalué à 3.

    Pour moi la différence entre les "algorithmes" et l'apprentissage automatique est que le premier fait plus appel à la logique déductive et le deuxième à l'induction.

    La logique déductive a des règles de type si A alors B qui doivent toujours fonctionner. On peut alors, dans une situation donnée, déduire des faits ce que l'on doit faire avec certitude (si le système n'a pas de bug). C'est ce que tente de faire un programmeur qui conçoit un algorithme. Il fabrique les règles et les implémente.

        homme −[conçoit]🠆 algorithme −[accomplit]🠆 tâche
          🠅                                🠅
        données connues               données réelles
    

    L'induction par contre dit plutôt, vu que, pour le moment, chaque fois que j'ai vu A, B était vrai, quand je verrais A, je prédirais B. C'est beaucoup plus proche de ce qu'est sûrement l'intuition, si utile aux humains, mais aussi trompeuse (voir thinking fast and slow). L'apprentissage automatique relève de ce type d'approche. Bien sûr, ceci est implémenté avec un algorithme déductif (car la machine de turing est ainsi faite) mais cet algorithme sert à apprendre le deuxième *algorithme" qui lui est de type inductif.

        homme −[conçoit]🠆 algorithme d'apprentissage −[apprend]🠆 algorithme inductif −[accomplit]🠆 tâche
                                                          🠅                                🠅
                                                       données connues               données réelles
    

    L'apprentissage automatique a permis clairement de résoudre des tâches jusqu'ici vues comme propre de l'homme (reconnaissance d'image, de son, début de modélisation sémantique du langage), surpassant largement les algorithmes de la première catégorie.

    Mais maintenant qu'est-ce que l'IA ? Les premiers épisodes de la série sur l'IA de science4all (youtube) essayent de répondre à cette question. Selon leur auteur, Lé, il semble que le test de Turing soit une des réponses les plus satisfaisantes : une machine qui, mise à part les caractéristiques physiques, semblerait être un humain. (voir son argument sur le fait qu'une simulation parfaite est bel et bien le phénomène en lui même).

    Est-ce que l'apprentissage automatique sera la base de la résolution de ce problème ? Perso je pense qu'il est probable qu'il en soit au moins la colonne vertébrale (mais lui même "se base" éventuellement d'autre techniques: statistiques, calcul bayésien, minimisation/maximisation d'entropie, etc…)

    • [^] # Re: Intuition et Logique

      Posté par . Évalué à 3.

      Il est sans doute nécessaire d’apprendre d’une manière ou d’une autre pour être capable de s’adapter à une grande variété de situation différente. On est tous limités d’une manière ou d’une autre, en vitesse de raisonnement ou de calcul et en mémoire, humains comme machines. Exploiter « au mieux » ces ressources dans une grande variété de situation doit nécessité d’optimiser ses mécanismes de réponse, ne serait-ce que « mettre en cache » le résultat d’un calcul ou garder une idée en tête pour éviter de le refaire quand on en a besoin, ou d’autres mécanismes plus complexes qui n’implique pas nécessairement d’erreur, comme l’apprentissage de contrainte.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.