Journal "Intelligence artificielle", vraiment?

6
25
mar.
2018

"Le terme intelligence artificielle n'est pas bon" dixit Cédric Villani. Épaulé dans mes idées par un matheux d'une telle pointure, me voici rassuré… :)
https://twitter.com/twitter/statuses/977691165872087041
Et comme sciences et philosophies se rejoignent parfois, je ressors ce lien qui porte l'estocade:
"L'intelligence artificielle n'existe pas!"
https://www.lexpress.fr/actualite/sciences/l-intelligence-artificielle-n-existe-pas_1956669.html

  • # Commentaire bookmark

    Posté par  (site web personnel) . Évalué à 10.

    À noter également (c'est l'actualité du moment), que philosophie magazine présente son dossier du mois sur l'intelligence artificielle. Avec à l'intérieur un dossier sur un questionnement de la morale face à l'intelligence artificielle, en déroulant le problème suivant :

    si Google met en vente un véhicule programmé, dans certains cas pour se crasher contre un mur [plutôt que de percuter un piéton,] je serai très réticent à l'idée de monter à bord et n'y mettrai jamais mes enfants. Les gens ne passeront-ils à la voiture autonome que si elle sauve toujours son ou ses passagers, même quand c'est immoral ?

    La question n'est pas de savoir si l'intelligence artificielle existe ou non, mais de savoir quelle place donner à ces logiciels qui interragissent avec nos comportements dans la société (algorithme d'évaluation d'espérance de vie chez une compagnie d'assurance, algorithme de conduite automobile etc).

    Personnellement, je pense que l'intelligence relance les questions sur le logiciel libre : le problème n'est plus seulement de savoir qui de l'utilisateur ou du logiciel à le contrôle (résumé de la pensée de Stallman), mais devient sociétal : les logiciels qui interagissent avec la société doivent pouvoir être contrôlés, non seulement par les utilisateurs, mais également pour l'ensemble des sujets qui contribuent à enrichir la base de données et modifier les comportements de ces algorithmes.

    • [^] # Re: Commentaire bookmark

      Posté par  (site web personnel, Mastodon) . Évalué à 10.

      Les ingénieurs de Google on déjà répondu à cette question : si la voiture détecte un obstacle, elle freine, point barre. Si c'est trop tard (comme l'exemple récent chez Uber), tant pis. Et c'est exactement ce qu'on attend d'elle. Aucune considération philosophique ou morale à avoir.

      • [^] # Re: Commentaire bookmark

        Posté par  . Évalué à 4.

        Chez Tesla, la voiture freine ET essaye d'éviter l'obstacle. Je ne sais pas comment le véhicule se comporte s'il y a plusieurs obstacles à la suite cependant. Mais la volonté des devs est bien d'éviter un maximum de dégâts, humains et matériels.

        Maintenant, il y a sans doute une considération philosophique d'un point de vue utilitariste à avoir derrière.

        La majeure partie des morts l'était déjà de son vivant et le jour venu, ils n'ont pas senti la différence.

        • [^] # Re: Commentaire bookmark

          Posté par  (site web personnel) . Évalué à 3.

          Chez Google (enfin Waymo) aussi si il est possible d'éviter. Là on parle du cas hypothétique où ce n'est pas possible. Les expériences de pensée où il faut choisir entre tuer X ou tuer Y. La réponse de Google est que ces scenarii sont irréalistes et que de toute façon, le but c'est de ne pas arriver dans une telle situation.

          C'est un peu comme demander 'il vaut mieux dereferencer un pointeur nul où libérer deux fois la même zone mémoire ?'. Il vaut mieux ne faire ni l'un ni l'autre en codant en Rust 😉

      • [^] # Re: Commentaire bookmark

        Posté par  . Évalué à 7.

        Et c'est exactement ce qu'on attend d'elle. Aucune considération philosophique ou morale à avoir.

        Pourquoi est-ce que c'est ce qu'on attend d'elle? Et ce sont les ingenieurs de google qui disent qu'ils ont decide ca sans consideration philosophique ou moral? Genre parce que c'est plus facile et ca coute moins cher, le reste on s'en tape.

        • [^] # Re: Commentaire bookmark

          Posté par  . Évalué à 10.

          Très certainement pour des raisons pratiques ET éthiques:
          Si la voiture freine et ne fait rien d'autre, elle est prévisible et aucun jugement n'est à faire.

          À partir du moment où on décide que dans certaines circonstances, elle peut éviter l'obstacle, on ouvre justement la boite de Pandore et on se retrouve avec des problèmes qui n'ont pas de "bonne" solution.

          D'un point de vue pratique, laisser la voiture décider si elle évite l'obstacle est une garantie de procès sans fin aux issues plus ou moins aléatoires:
          La voiture évite le piéton qui se jette sous la voiture, la voiture qui arrivait derrière dans la file d'à côté n'a plus le temps de l'éviter ni de s'arrêter, accident, le passager de cette deuxième voiture, un enfant en bas âge, meurt.
          N'aurait-il pas mieux valu sacrifier la vie du candidat au suicide que de tuer cet enfant innocent?
          Tu pourras argumenter dans tous les sens que tu veux, tu vas te retrouver avec un système censé suivre une logique déterminée par accumulation de données et moteur de prise de décision d'un côté et un tsunami d'émotions de l'autre.
          Combien de temps avant que quelqu'un propose que les IA apprennent à identifier le degré de responsabilité du piéton qui se retrouve devant elles? Quelle quantité de faux positifs et autres erreurs s'en suivraient?

          Un comportement déterminé, systématique et prévisible et la seule façon qu'auront les constructeurs de se prémunir contre une course après des exigences variées et inévitablement contradictoires.

          • [^] # Re: Commentaire bookmark

            Posté par  . Évalué à 8.

            Un comportement déterminé, systématique et prévisible et la seule façon qu'auront les constructeurs de se prémunir contre une course après des exigences variées et inévitablement contradictoires.

            Le seul truc duquel ça prémunit, c'est à l'ingé de réfléchir et lui permettre de répondre "la voiture a réagit comme attendu" en cas de pépin qui ne manquera pas d'arriver.

            Sinon ça ne me semble pas la panacée pour répondre à un juge et en quoi ça prémunirait contre des exigences variées et contradictoires. C'est fondamentalement un choix parmi d'autre qui n'est pas moins soumis aux mêmes questionnements.

          • [^] # Re: Commentaire bookmark

            Posté par  . Évalué à 10.

            Un comportement prévisible, ça permet aussi aux autres de s'adapter, qu'ils soient humains ou robot.

            « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

      • [^] # Re: Commentaire bookmark

        Posté par  (site web personnel) . Évalué à 8.

        Le jour où Google voudra faire rouler ses voitures sur les routes de Tartousie (pays où il est de devoir de chaque citoyen de secourir les membres de la famille royale, quitte à se sacrifier pour), le problème se posera. Et qui te dit que les ingénieurs n'ont pas mis en place un test dans la voiture, qui va envoyer la voiture dans le mur plutôt que d'écraser un salarié Google ?

        Je peux dérouler le fil des questions, mais le fond est le même : ce qui est vrai à un instant T à un lieu donné n'est pas vérité générale… Une fois que la technologie sera suffisamment avancée pour identifier les piétons (et elle le sera un jour), on peut tout imaginer.

        Nous vivons dans un monde où selon ce que tu es prêt à payer, tu n'auras pas la même espérance de vie (alimentation, santé) ; poussons le cynisme jusqu'au bout !

        • [^] # Re: Commentaire bookmark

          Posté par  . Évalué à 2.

          Nous vivons dans un monde où selon ce que tu es prêt à peux payer, tu n'auras pas la même espérance de vie (alimentation, santé) ; poussons le cynisme jusqu'au bout !

          Poussons le cyniMSe encore plus loin

    • [^] # Re: Commentaire bookmark

      Posté par  (site web personnel) . Évalué à 6.

      Personnellement, je pense que l'intelligence relance les questions sur le logiciel libre : […]

      Oui ça les relance et le mot est très bien choisi parceque la plupart de ces questions n'ont plus ou moins rien à voir avec ce qu'on comprend comme “intelligence artificielle” aujourd'hui.

      L'exemple de l'assurance que tu donnes est éloquent: pour comprendre le risque qu'il assure l'assureur construit un modèle – et c'est souvent un modèle statistique qui permet à l'assureur de dire quelque chose comme “je suis sûr à 95% de ne pas perdre plus de 1 million d'euros d'ici le mois prochain.” Le fait qu'on utilise un ordinateur pour réaliser ce calcul est largement anodin, et la vraie question qui se cache derrière est celle de la collecte et de l'utilisation des données individuelles par des organisations: qu'il s'agisse de l'État, de l'assurance maladie ou de sociétés complètement privées, faut-il tout laisser faire ou bien règlementer les traitements possibles – et quelles sont les “bonnes” limites à utiliser dans ce dernier cas?

    • [^] # Re: Commentaire bookmark

      Posté par  . Évalué à 4.

      • [^] # Re: Commentaire bookmark

        Posté par  . Évalué à 1.

        merci pour le lien, j'ai aussi trouvé un nouveau site à visiter plus régulièrement ;)

    • [^] # Re: Commentaire bookmark

      Posté par  (site web personnel) . Évalué à 2.

      Ces réflexions me rappellent un article d'il y a quelques années dans le "monde diplomatique" au sujet des robots et de leurs place dans notre société, particulièrement leur acceptations.

      Un exemple m'avait frappé (figuratif): les portiques et leurs situations cocasses. Quand une personne se prend une porte automatique dans la figure alors qu'elle passe, s'il n'y a pas de mal, on en rit ( ou sourit discrètement). Mais, s'il s'agit d'un portier qui aurait fait cette mauvaise manipulation, on aurait blâmé le portier.

      En résumé, on pardonne beaucoup aux robots, plus qu'on n'en pardonnerait à des humains.

      Dommage que je n'arrive pas à remettre la main sur cet article, il était très bien construit (par un journaliste humain).

      • [^] # Re: Commentaire bookmark

        Posté par  . Évalué à 2.

        En résumé, on pardonne beaucoup aux robots, plus qu'on n'en pardonnerait à des humains.

        C’est aussi parce qu’on ne comprend pas le fonctionnement de la technologie qui nous entours. Du coup « c’est un bug, c’est normal ».

      • [^] # Re: Commentaire bookmark

        Posté par  . Évalué à 5.

        En même temps, qui engueulerait une porte automatique (en étant sobre) ?

    • [^] # Re: Commentaire bookmark

      Posté par  . Évalué à 0.

      La seule chose qu'on demande a la voiture intelligente est de conduire,
      pas de prendre des decisions ethiques.
      En cas de probleme grave (exception), il faudra essayer de stopper le vehicule (freinage maximun), pas choisir entre un mur, des enfants ou un ravin.

      • [^] # Re: Commentaire bookmark

        Posté par  (site web personnel) . Évalué à 3.

        Surtout que la façon de posé la question est idiote : "mur ou enfants" ?

        Or la machine a une infinité de choix possible, qui va sans doute se réduire à freiner un max, tout en tentant d'éviter l'obstacle en passant entre les 2.

        "La première sécurité est la liberté"

        • [^] # Re: Commentaire bookmark

          Posté par  (site web personnel) . Évalué à 4.

          Surtout que la façon de posé la question est idiote : "mur ou enfants" ?

          Ce qui m'amuse c'est qu'on demande à la voiture de décider lors de situations qui n'arrivent pas vraiment dans la vraie vie. Et où l'humain de toute façon ne peut prendre une décision rationnel dans un délai si court.

          Des situations où on doit choisir en terme d'accident entre la peste et le choléra, cela doit être une probabilité assez infime par rapport aux accidents de la vie réelle. Et sans compter qu'un principe de base de la conduite (et que l'IA va normalement mieux respecter que l'être humain) est d'adapter la vitesse aux circonstances.

          Si la voiture est dans une situation où l'évitement d'un obstacle n'est pas possible, elle adaptera sa vitesse pour permettre un freinage d'urgence efficace. Ce qu'un conducteur devrait faire aussi pour éviter un accident.

          • [^] # Re: Commentaire bookmark

            Posté par  (site web personnel) . Évalué à 3.

            elle adaptera sa vitesse pour permettre un freinage d'urgence efficace. Ce qu'un conducteur devrait faire aussi pour éviter un accident.

            Oui, mais ce n'est pas possible dans les faits. J'avais lu un article sur un test d'une Google car, elle était trop prudente sur les risques de collision, donc le conducteur devait reprendre la main pour chaque insertion dans un trafic dense, sinon la voiture ne passait jamais.

            "La première sécurité est la liberté"

            • [^] # Re: Commentaire bookmark

              Posté par  . Évalué à 2.

              Là, tu atteins réellement les limites de la conduite automatique, quelle que soit l'«intelligence» du système. En particulier, les conducteurs interprètent les règles de manière créative en cas de circonstances exceptionnelles (bouchons, accident, passage d'un véhicule d'urgence…); par ailleurs, on a des intuitions empathiques sur l'état d'esprit des autres conducteurs (celui-là roule comme un petit vieux, celui-là à l'air bourré, ouhlala l'Audi avec des vitres teintées a l'air de rouler comme un c…, par contre la Clio va me laisser passer). Je doute qu'un système automatique puisse anticiper que quelqu'un a des chances de céder la priorité ou savoir quand forcer pour passer à une intersection encombrée, puisque c'est toujours des situations où il faut prendre la décision de violer une règle du code de la route, ou prendre le risque d'un accrochage.

              Un autre exemple, c'est quand les conducteurs empruntent la bande d'arrêt d'urgence pour ne pas encombrer une autoroute ou une voie rapide quand une sortie est bouchée. Ça arrive souvent en région Parisienne, et sans ce type de comportement, la fluidité du trafic serait vraiment compromise (sans compter que les différentiels de vitesse peuvent être assez importants, et c'est dangereux). Comment une Google car se comporterait? Je ne pense pas qu'elle puisse imaginer anticiper la sortie et se mettre à la queue derrière les voitures sur la BAU, elle irait jusqu'à la sortie normale, et s'arrêterait en plein milieu des voies. On atteint vraiment une limite du système, mais j'imagine que les gens s'habitueraient aussi à la présence de véhicules autonomes et apprendraient à anticiper leur comportement, quitte à en profiter parfois (le respect scrupuleux de la lettre du code de la route peut permettre aux autres d'abuser un peu…).

              • [^] # Re: Commentaire bookmark

                Posté par  (site web personnel) . Évalué à 3.

                Je crois que tu sous estimes ce qu'il est possible de faire avec le deep learning. Toutes ses règles non écrites peuvent se déduire du comportement des autres automobilistes, surtout si c'est courant. L'IA peut tout à fait avoir des statistiques de comportement en fonction du type de voiture qu'elle reconnait.

                "La première sécurité est la liberté"

                • [^] # Re: Commentaire bookmark

                  Posté par  . Évalué à 3.

                  J'imagine que c'est possible, mais il y a aussi d'autres considérations, par exemple la responsabilité en cas de violation volontaire du code de la route. J'assumerais, je pense, la responsabilité d'un accident si j'ai un peu trop forcé à un rond-point, par exemple. Mais je ne sais pas si ça serait la même chose si c'était la voiture qui avait pris cette décision. Quelque part, il y a quand même des différences entre la machine et toi, sur l'intégrité physique, sur la responsabilité légale et morale en cas de blessure d'un tiers, etc.

                  Cas n°1: le passager de la voiture est une femme en train d'accoucher qui va à la maternité. Est-ce que tu veux que la voiture force les priorités? Est-ce que tu veux qu'elle grille les feux rouges?
                  Cas n°2: tu es en retard pour une réunion de boulot. Mêmes questions.
                  Cas n°3: tu es en retard pour un entretient d'embauche. Mêmes questions.
                  Cas n°4: la voiture n'a pas de passagers, elle rentre toute seule chez elle. Mêmes questions.
                  Cas n°5: la voiture n'a pas de passagers, mais elle va chercher ta fille de 13 ans qui est tout seule à l'extérieur de la boîte de nuit où elle a essayé d'entrer à 3h du mat. Mêmes questions.

                  Tu peux en faire défiler autant que tu veux. Sur le fond, oui, tu pourrais entrainer (en théorie) une IA à adopter le "bon" comportement (ou du moins, un comportement indiscernable de celui d'un être humain confronté aux mêmes situations, avec le problème de l'énorme variation entre les comportements d'êtres humains), mais est-ce que c'est réellement ce que tu veux, et est-ce réellement souhaitable du point de vue de la société? Est-ce que tu n'exigerais pas d'un véhicule autonome qu'il soit plus raisonnable, qu'il ne dépasse jamais les limites de vitesse, qu'il anticipe les comportements des mauvais conducteurs même si ça revient à laisser systématiquement passer les bagnoles qui forcent les priorités? Est-ce que rester bloqué à un stop pendant 10 minutes parce que la circulation ne permet pas de passer sans forcer n'est pas le comportement attendu d'un robot? Mimer le comportement humain est une chose (difficile, mais faisable), mais je ne sais même pas si c'est ce que doit faire une voiture autonome.

                  • [^] # Re: Commentaire bookmark

                    Posté par  (site web personnel) . Évalué à 3.

                    Quelque part, il y a quand même des différences entre la machine et toi, sur l'intégrité physique, sur la responsabilité légale et morale en cas de blessure d'un tiers, etc.

                    C'est comme pour n'importe quel outil. La responsabilité va sur le propriétaire sauf si l’outil a un défaut de conception, comme pour les voitures actuelles…

                    (ou du moins, un comportement indiscernable de celui d'un être humain confronté aux mêmes situations, avec le problème de l'énorme variation entre les comportements d'êtres humains),

                    Oui et tu peux rajouter aussi des grandeurs externes comme l’intérêt général : une voiture qui grille un feu, c'est quand même super dangereux.

                    Est-ce que rester bloqué à un stop pendant 10 minutes parce que la circulation ne permet pas de passer sans forcer n'est pas le comportement attendu d'un robot?

                    Le problème ne se pose même pas. Personne n’achèterait une voiture qui conduit comme ça.

                    "La première sécurité est la liberté"

                    • [^] # Re: Commentaire bookmark

                      Posté par  . Évalué à 3.

                      C'est comme pour n'importe quel outil.

                      Non, justement, l'IA prend des décisions indépendamment de ta responsabilité, et c'est ça qui fait une grosse différence. Un outil peut être défectueux, mais la défectuosité n'est pas son comportement normal, c'est un accident.

                      Une voiture autonome qui force à une intersection, ça n'est pas du tout pareil qu'une bagnole qui n'a plus de freins. Une voiture n'est jamais censée ne plus avoir de freins, c'est évidemment une défaillance. Par contre, si la voiture est conçue pour voler une priorité quand ça fait 30 secondes qu'elle n'arrive pas à passer, ça n'est pas une défaillance de l'IA : it's not a bug, it's a feature. Et le dilemme, il est là, est-ce que tu accepterais de monter dans une bagnole conduite par un robot créatif, qui prend ses décisions sur une base probabiliste? Genre "si je passe maintenant, il y a 999 chances sur 1000 qu'on ne se prenne pas le poids lourd dans la tronche"?

                      Personne n’achèterait une voiture qui conduit comme ça.

                      Mais est-ce quelqu'un achèterait une voiture qui cartonne les autres en forçant aux intersections? Je crois simplement qu'il ne faut pas que les voiture autonomes simulent les comportements humains. Il faut qu'elles restent "bêtes", dans une certaine mesure, et qu'elles soient prévisibles et précautionneuses. Sinon, elles vont foutre les jetons à tout le monde.

                    • [^] # Re: Commentaire bookmark

                      Posté par  . Évalué à 3.

                      C'est comme pour n'importe quel outil. La responsabilité va sur le propriétaire sauf si l’outil a un défaut de conception, comme pour les voitures actuelles…

                      Le problème ne se pose même pas. Personne n’achèterait une voiture qui conduit comme ça.

                      Personne n'achèterait une voiture pour laquelle ils seraient considérés comme responsables en cas d'accident (surtout s'il cause la mort d'un tiers) alors qu'ils ne peuvent rien y faire. ;-)

                      Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

                      • [^] # Re: Commentaire bookmark

                        Posté par  . Évalué à 2.

                        Pourtant, les gens possèdent des chiens, et si ton chien tue quelqu'un pendant ton absence, tu es considéré comme responsable mais tu ne peux rien y faire. Je pense juste que ce qui est acceptable pour un animal ou un autre être humain (capacité à prendre des décisions de manière indépendante) est simplement inconcevable pour un outil conçu par des ingénieurs. Il est évident qu'on n'accepterait pas qu'un chien artificiel puisse mordre des enfants par accident, alors qu'un vrai chien peut le faire.

                        • [^] # Re: Commentaire bookmark

                          Posté par  . Évalué à 3. Dernière modification le 05 avril 2018 à 17:47.

                          Certes, mais la société et le propriétaire de l'animal considèrent que ce dernier est en mesure de pouvoir agir afin d'éviter une telle situation; si elle se produit alors c'est que les mesures de préventions n'avaient pas été prises et le propriétaire est considère a priori comme responsable. Dans le cas de la voiture totalement autonome, en dehors de ne jamais s'en servir (ce qui réduit grandement son utilité), je ne vois pas comment le propriétaire pourrait éviter le risque d'accident.

                          Sinon, au sens propre du terme, une machine ne prend pas de décision : c'est là une représentation quelque peu anthropomorphique de ce que l'on nomme improprement1 intelligence artificielle. ;-)


                          1. Villani a raison, le terme intelligence est mal choisi pour qualifier ces systèmes. 

                          Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

  • # Et l'apprentissage automatique?

    Posté par  . Évalué à 4.

    Pour pouvoir penser, il faut oublier. Impossible, par exemple, de réfléchir à ses clients si on les connaît tous. Il faut s'en détacher, les ranger dans des boîtes. Aucune de ces boîtes n'est vraie, il s'agit de catégories, et c'est très bien comme ça. Ce dont vous vous souvenez échappe à votre contrôle.

    Les IA oublient de nos jours. C'est un peu le principe de la regression lineaire: tu lis une fois toute les donnees, et tu n'en retiens que deux parametres de ta droite. Les donnees sont alors oubliees et on n'utilise que cette droite.

    D'une maniere generale le philosophe passe completement a cote de cette approche par apprentissage qui a fait enormement de progres ces dernieres annees et qui est au centre de l'attention.

    A mon avis Le de Science4All pose le probleme bien mieux et tiens compte bien mieux des dernieres techniques utilisees. Ici sur la specifite humaine de l'intelligence humaine: https://www.youtube.com/watch?v=QzCj0BSWUNI

    • [^] # Re: Et l'apprentissage automatique?

      Posté par  (site web personnel) . Évalué à 5.

      Les IA oublient de nos jours. C'est un peu le principe de la regression lineaire: tu lis une fois toute les donnees, et tu n'en retiens que deux parametres de ta droite. Les donnees sont alors oubliees et on n'utilise que cette droite.

      Cette comparaison a sa limite parceque dans la régression linéaire ou plus généralement dans les modèles statistiques, on essaie d'atterrir sur un petit nombre de paramètres “explicatifs” qui par construction représentent les paramètres essentiels du problème. Ces paramètres suffisent à expliquer les évaluations faites par le modèle, permettent de faire de l'analyse qualitative et leur évolution au fil du temps peut aussi révéler des informations intéressantes.

      Dans les mécanismes d'apprentissage comme par exemple les réseaux de neurones on a un très grand nombre de paramètres qui n'ont de plus a priori rien à voir avec les lois internes supposées de la situation étudiée. Avec pour conséquence qu'il est largement impossible d'expliquer l'influence de tel ou tel paramètre spécifique sur les résultats du calcul.

      • [^] # Re: Et l'apprentissage automatique?

        Posté par  . Évalué à 2.

        Cette comparaison a sa limite parceque dans la régression linéaire ou plus généralement dans les modèles statistiques, on essaie d'atterrir sur un petit nombre de paramètres “explicatifs” qui par construction représentent les paramètres essentiels du problème. Ces paramètres suffisent à expliquer les évaluations faites par le modèle, permettent de faire de l'analyse qualitative et leur évolution au fil du temps peut aussi révéler des informations intéressantes.

        Pourrais tu etre un peu plus specifique?

        Tu veux dire que quand le modele lineaire marche on apprend que le systeme etudie obeis une loi lineaire, mais quand un reseau de neurone marche, on n'apprend rien du tout?

        Mais en general le reseau de neurones n'a pas un souvenir precis des entrees traitees, et c'est comparable a la regression lineaire. Tu n'es pas d'accord avec ca?

        • [^] # Re: Et l'apprentissage automatique?

          Posté par  (site web personnel) . Évalué à 6.

          Pourrais tu etre un peu plus specifique?

          Et bien pour prendre un exemple simple de modèle statistique on sait que la distribution du nombre d'habitants des villes dans un pays suit essentiellement une distribution de Pareto ce qui concrètement signifie qu'on peut trouver deux paramètres (la moyenne x_m et le poids des petites contribution \alpha) pour que l'histogramme de la distribution des populations ressemble beaucoup à une de ces courbes:

          Exemples de distribution de Pareto.

          (Ressemble beaucoup cela veut dire mathématiquement que l'intégrale de la différence carrée des deux fonctions correspondantes est très petite – ou en moins terre à terre, que la distance hilbertienne entre ces deux fonctions est petite.)

          Contrairement à ce qui se passe dans le cas des réseaux de neurones on a peu de paramètres dans le modèle et on sait leur donner un sens: l'un est la taille moyenne et l'autre quantifie la contribution des très petites communes dans la distribution: pour un démographe c'est aussi un nombre intéressant à suivre dans le temps, on peut s'en servir pour faire de l'analyse qualitative et quand on se pose des questions qui font intervenir cette distribution, on sait quels sont les paramètres intéressants à utiliser pour fabriquer une valeur approchée, etc.

          Si on sort de cette exemple peut-être un peu “scolaire” même si je trouve qu'il illustre bien la problématique on peut voir des livres plus pointus sur la modélisation, par exemple en modèles financiers The SABR/LIBOR Market Model: Pricing, Calibration and Hedging for Complex Interest-Rate Derivatives de Rebonato, McKay et White, une part significative du livre est consacrée justement à comparer les modèles possibles entre eux et à discuter si on peut interpréter les paramètres de ces modèles dans la situation qu'ils prétendent décrire.

          Dans le cas d'un réseau de neurones on se retrouve dans une situation bien différente parceque presque par définition on travaille avec un plus grand nombre de paramètres: au lieu de faire une analyse a priori très poussée du système étudié et de la construction d'un modèle pour ensuite déterminer ces paramètres on paramètre un espace de modèles et on cherche le bon modèle dedans.

          Ceci dit la comparaison entre ces deux situations est très limitée car les champs d'application de ces deux outils sont assez différents.

        • [^] # Re: Et l'apprentissage automatique?

          Posté par  . Évalué à 4. Dernière modification le 25 mars 2018 à 23:35.

          Un article récent a montré que si on assignait des classes aléatoires aux images dans un problème de reconnaissance d'images, les architectures actuelles arrivaient à apprendre parfaitement l'ensemble d'apprentissage (mais évidemment, ça ne marche plus ensuite sur d'autres jeux de données). Donc les réseaux de neurones actuels ont en fait un souvenir assez précis de leurs données d'entrée.

      • [^] # Re: Et l'apprentissage automatique?

        Posté par  . Évalué à 5.

        C'est clairement un des paradoxes actuels du deep-learning : les modèles ont parfois plus d'hyper-paramètres que le nombre d'exemples fournis et pourtant ils semblent bien généraliser (mais ont du coup aussi des grosses faiblesses comme l'on montré les attaques adverses récentes, exemple Fooling Image Recognition with Adversarial Examples (youtube)).

        Il y a donc pas mal de boulot théorique si on veut bien comprendre et maîtriser le phénomène. Ceci dit on peut penser que les contraintes mises sur le réseau (Batch Normalisation et d'autres contraintes) permettent de se contraindre à nouveau sur un espace de solutions limité (évitant la sur-interprétation).

      • [^] # Re: Et l'apprentissage automatique?

        Posté par  . Évalué à 2.

        Avec pour conséquence qu'il est largement impossible d'expliquer l'influence de tel ou tel paramètre spécifique sur les résultats du calcul.

        Je crois que impossible est un bien grand mot et qu'il y a des sociétés spécialisées dans le reverse engenering de réseau de neurones. Mais ça reste balbutiant.

  • # L'ordinateur est rationnel, et alors ?

    Posté par  . Évalué à 8.

    Il me semble que les gens qui pensent que l’ordinateur est 100% rationnel ont loupé une étape actuelle du développement de l’apprentissage automatique. Je ne dis pas qu’on a déjà prouvé que l’IA est possible, je dis que l’argument de “l’ordinateur ne fait que des choses rationnelles” est complètement nul.

    S’il est vrai que les instructions dans la puce se déroulent de façon 100% rationnelle, rien n’empêche que des comportements dit “irrationnels” apparaissent de manière émergent (les équations du chaos apparaissent à partir d’équations très simple comme la Suite logistique.

    Les systèmes experts étaient 100% rationnels, les réseaux de neurones ne le sont pas forcément. Il est désormais admis que l’utilisation du hasard a un rôle très important dans les réseaux de deep-learning. Voir par exemple Information Theory of Deep Learning de Naftali Tishby.

    Si l’on utilise l’apprentissage automatique c’est bien parce-qu’ils permettent des calculs qui donnent des résultats proches de ce qu’on peut appeler l’intuition (c’est-à-dire des raisonnements basés sur l’induction et non sur la déduction).

    Je ne peux que recommander les vidéos de la chaîne science4all qui a une série dédiée à ce sujet.

    • [^] # Re: L'ordinateur est rationnel, et alors ?

      Posté par  . Évalué à -10.

      L'ordinateur ne fait que ce qu'il a été programmé pour faire. Toute l'intelligence est dans son créateur, l'ordinateur ou le programme d'IA en est dépourvu.

    • [^] # Re: L'ordinateur est rationnel, et alors ?

      Posté par  (site web personnel) . Évalué à 5.

      J'ai l'impression que tu confond rationalité et prévisibilité. Un système expert est complètement prévisible : il te donnera toujours la même réponse à une situation donnée, et cette réponse sera optimale car le système est conçu pour prendre sa décision sur la base de la totalité d'information disponible.

      Aujourd'hui on est capable de créer des systèmes capable de prendre des décisions sur une base d'information partielle : les IAs. Pour autant, le processus de décision sera toujours rationnel dans le sens où il peut être expliqué en prenant en compte la base d'information dont disposait l'IA au moment de prendre sa décision. À ce niveau, le résultat n'est plus prévisible.

      Pour autant, on reste toujours dans le cadre de la raison : j'imagine mal un robot s'emporter au poker et faire tapis parce qu'il a perdu le pli d'avant sur un coup de malchance (et même si c'est c'était le cas, nous resterions encore dans le cadre de la raison : cela aurait simplement été pensé en amont)

      • [^] # Re: L'ordinateur est rationnel, et alors ?

        Posté par  (site web personnel) . Évalué à 5.

        J'ai envie de discuter un peu sur l'idée de décision, parceque comme dans la dernière phrase de ce texte de Markel, décision, responsabilité et justification vont souvent de pair:

        "Da wir uns unseres Bewusstseins nicht entledigen können, wenn wir Menschen bleiben wollen, sind wir in allem, was wir tun, grundsätzlich darauf angewiesen, es mit guten, vor uns selbst oder anderen rechtfertigungsfähigen Grnden zu tun, und sei dies auch im Alltagsfall nur die begründetet Überzeugung, dass das, worum es geht, ganz unsere eigene Sache sei und niemand anderen etwas angehe oder betreffe. Zwar befreien uns Gewohnheiten und Gemeinschaftstraditionen aus der fürwahr schreckenerregenden Lage, vor allem, was wir tun, immer erst begründend nachzudenken. Doch bleibt es wahr, dass wir, wenn wir das, was wir wollen, aus freien Stücken oder von außen veranlasst in Zweifel ziehen, dazu gezwungen sind, uns zwischen verschiedenen Möglichkeiten zu entscheiden. Wer dann nicht einfach würfeln oder raten will, dem bleibt nur eins: Er muss sich von der Richtigkeit der einen oder anderen Denk- und Handlungsalternative überzeugen, und dazu bedarf es sicherer Kenntnisse und guter Gründe. Wer nichts weiß, kann keine Entscheidung treffen, er kann daher auch nicht verantwortlich sein. VErantwortung tragen heißt, gezwungen zu sein, sich ausreichende Kenntnisse zu verschaffen, um eine Entscheidung rechtfertigen zu können."

        Markel, Hubert: Wissenschaft. Zur Rede gestellt, München 1989, S. 22.

        La dernière phrase est “Exercer sa responsabilité implique d'être contraint à se renseigner suffisamment pour être capable de justifier de sa décision.” et justement, même si on n'associe pas systématiquement l'idée de responsabilité à celle de décision dans la vie quotidienne, il me semble que dans le cadre d'une discussion sur l'intelligence artificielle, c'est justement la notion de responsabilité attachée à celle décision qui nous aide à comprendre la différence entre une décision d'une part et une déduction ou un calcul d'autre part. Dans un problème qui serait si parfaitement compris qu'on puisse en examiner tous les aspects par un calcul, quelle place reste-t'il à la responsabilité? Dans un tel cas on ne pourrait jamais faire le reproche à quiconque de se fier au résultat du calcul, ce qui revient à décharger cette personne de toute responsabilité. Sous cet éclairage, ce qui me semble donc faire partie de l'idée de décision est justement que celle-ci doit contenir une part qui n'est pas purement rationnelle – autrement on n'y associerait ni responsabilité, ni justification.

        • [^] # Re: L'ordinateur est rationnel, et alors ?

          Posté par  (site web personnel) . Évalué à 2.

          Il faut que je réfléchisse en détail à ce que tu dis, mais cette phrase me parait particulière dangereuse :

          Dans un problème qui serait si parfaitement compris qu'on puisse en examiner tous les aspects par un calcul, quelle place reste-t'il à la responsabilité? Dans un tel cas on ne pourrait jamais faire le reproche à quiconque de se fier au résultat du calcul, ce qui revient à décharger cette personne de toute responsabilité.

          Ça lève plein de signaux d'alertes, que je vais prendre le temps d'analyser :)

      • [^] # Re: L'ordinateur est rationnel, et alors ?

        Posté par  . Évalué à 2.

        Merci pour le point sur prévisibilité et rationalité. Je vais te laisser arbitre, j'avoue ne pas avoir assez de background sur l'étymologie pour aller trop loin sur ces pistes.

        Ceci dit, comme Lé l'évoque dans ses vidéos sur le machine learning, même dans les systèmes physiques composés de molécules, même si on élimine l'incertitude fondamentale dû à la mécanique quantique, à un moment donné, tu ne peux plus te baser sur la prévisibilité des composants du système car ils sont trop nombreux et les différentes interactions possibles encore plus nombreuses. L'énergie de l'univers ne te permet plus alors de calculer "par simulation" les issues possible. Tu es alors obligé de passer à un niveau d'échelle supérieur où tu te bases sur les comportements émergents pour calculer, comportements qui ne sont alors pas toujours prévisible (cas du comportement chaotique, par exemple).

        j'imagine mal un robot s'emporter au poker et faire tapis parce qu'il a perdu le pli d'avant sur un coup de malchance

        En fait c'est un point intéressant. Moi je pense qu'une IA pourrait le faire. Peut-être pas dans ce sens avec les modèles actuels, mais des choses irrationnelles peuvent très bien arriver quand on est loin des repères du système (les limites connues dans les systèmes d'apprentissage). Il y a plein de comportements intéressants dans le monde du reinforcement learning (qui par nature explore beaucoup de situation, éventuellement incongrues) comme le demi puma qui marche sur la tête cité dans Deep Reinforcement learning doesn't work yet. Mais des modèles qui incluraient du stress (qui porte à une recherche de solution nouvelles) pourrait bien impliquer des “coup de sang”.

        Un point intéressant ceci dit est éventuellement on ne voudra pas de telles IA qui ont des comportements trop irrationnels, voir trop intelligent, car ils ne nous seraient simplement pas utiles. Voir par exemple cet article où l'auteur pense qu'on ne veut pas d'une IA avec qui pourrait avoir des opinions différente des nôtres.

    • [^] # Re: L'ordinateur est rationnel, et alors ?

      Posté par  . Évalué à 4.

      L'ordinateur est logique. Il respecte la logique formelle et il ne connaît que ça. Hannah Arendt distingue de la rationalité. La logique formelle n'est qu'un mode de raisonnement spécifique. La rationalité est beaucoup plus vaste. Un raisonnement peut être logique (totale cohérence interne) mais faux (non conforme à la réalité).

      Demande a un libéral de t'expliquer l'économie et tu comprendras.

      C'est ainsi qu'Hannah Arendt parle du totalitarisme (je suis en train d'écouter une conférence dessus).

      https://youtu.be/4eEiIuqInY4

      Il se trouve que j'ai récemment dû m'intéresser au management moderne. Entre autre par dispositifs de finalités, de processus et d'enrôlement. Il s'agit d'une remise au goût du jour de l'organisation scientifique du travail (La comédie humaine du travail Danièle Linhart), mais pour du travail hautement qualifié. Ces dispositifs reposent beaucoup sur des SI : saisie et reporting d'indicateurs quantitatifs, suivi des procédures et normes, analyse des performances individuelles, objectifs chiffrés, contrôles automatisés (contrôle qualité d'un code par exemple…). Ces dispositifs sont purement logiques, possiblement inspiré des pratiques métiers détournées (cycles de développement d'un projet informatique par exemple) mais sont trivialement irrationnels pour qui a déjà travaillé sous l'autorité de ce genre de dispositif, universellement critiqué y compris par ceux-là même qui en sont à l'origine (Le management désincarné Marie-Anne Dujarier).

      Le client est aussi ciblé par ce management en ce qu'il est explicitement impliqué dans la production du service ou du bien qu'il consomme (la billetterie automatique est l'exemple le plus évident, remplir des questionnaires, des évaluations des services consommés, faire le dernier assemblage d'un produit acheté, etc.).

      • [^] # Re: L'ordinateur est rationnel, et alors ?

        Posté par  . Évalué à 3.

        Oui je pense que tu soulève un point clairement intéressant (dommage que tu partes d'une note négative sur ton karma).

      • [^] # Re: L'ordinateur est rationnel, et alors ?

        Posté par  . Évalué à 1.

        Cette idée est intéressante, pour ajouter un élément le traitement médiatique de ces sujets me semble biaisé. On nous le présente comme une chose inéluctable alors que ce n'est pas gagné.
        Et ça sent la défosse de responsabilité : c'est pas moi c'est l'intélligence artificielle ;D

  • # Bêtise naturelle

    Posté par  . Évalué à -2. Dernière modification le 25 mars 2018 à 18:44.

    me voici rassuré…

    Tu avais si peur de penser par toi même ?

    Blague à part, il n'a jamais été prouvé à ma connaissance que ces algorithmes étaient des intelligences. Quelques tests factuels et extrêmement simple à mettre en œuvre, par exemple pour une IA d'échec de go ou que sais-je encore.

    Sans pré-apprentissage :

    Face a un débutant, qui gagnera les parties ? Selon quel rythme de progression ? Qui aura l'initiative des coups innovants ?

    Et face à un joueur de très bon niveau, combien de partie faudra-t-il à la machine pour que son apprentissage dépasse le niveau de "son maître" ?

    Est-ce que une IA face à elle-même ou une autre IA équivalente et capable de faire des coups innovants? reconstruire le corpus des parties humaines ? Seulement une partie restreinte du corpus ?

    Est-ce qu'une machine a été capable de jouer une partie originale par rapport au corpus appris, ou est-ce qu'elle se contente d'imiter les parties connues ?

    Que se passe-t-il lorsqu'on fait jouer la meilleure IA contre elle-même ? Est-elle capable de créer une partie inconnue jusqu'alors ?

    Parce que bon faire avaler à une IA tout le corpus des parties jouées humaines, puis dire qu'elle a réussi à battre un homme seul (fusse-t'il le meilleur) cela relève de la tautologie.

    Ce délire qu'il y a sur l'IA ce n'est qu'une immense bulle de marketing faite pour légitimer l'immense bulle financière qu'il y a sur la Silicon Valley : capitalisation qui bat tous les records et totalement délirantes vis-à-vis du poids économique réel des entreprises.

    Dans le genre y'a l'Hyperloop qui présente comme innovante une très très vieille idée toujours restée à l'état de prototype. Le voyage dans l'espace idem on est encore loin de la capacité de la Saturn et on ne sait plus la faire (et la scalability c'est un peu plus compliqué dans l'aérospatial que dans l'informatique). Et je ne parle pas des autres délires transhumanistes… qui reposent souvent sur du flan avant tout ciblé pour faire miroiter des ROI de fou à des 《investisseurs》 en mal de placements financiers à deux chiffres… Tout ceci bien sûr massivement subventionné par l'État US (

    À côté de ça Apple doit faire des stocks de métaux rares, le dépassement du pic pétrolier remet en cause la possibilité d'alimenter tout ça, et les high-tech ont de plus en plus de mal à concevoir les produits (smartphone défectueux). Il n'y a pas assez de minerais sur terre pour produire les batteries des Tesla autant que nécessaire en prenant pour base le volume de voitures en circulation.

    Notre civilisation industrielle repose entièrement sur la machine à vapeur. Et rien d'autre. Or on arrive à la fin de cette ère (quelques décennies, même les vieux connaîtront…).

    La bonne nouvelle ? 《 on aura tout fait péter avec de pouvoir entamer sérieusement la seconde moitié des réserves naturelles d'hydrocarbures. Ça veut dire que le réchauffement climatique n'est pas un problème en fait. 》 Petite pub pour hors-serie.net qui vaut mieux amha que les gesticulations médiatiques d'un mathématicien-directeur-député totalement déconnecté des réalités matérielles de ce monde (c'est que pour les ploucs ça).

    • [^] # Re: Bêtise naturelle

      Posté par  . Évalué à 6.

      Est-ce qu'une machine a été capable de jouer une partie originale par rapport au corpus appris, ou est-ce qu'elle se contente d'imiter les parties connues ?

      Que se passe-t-il lorsqu'on fait jouer la meilleure IA contre elle-même ? Est-elle capable de créer une partie inconnue jusqu'alors ?

      Les dernieres IA de jeux s'entrainent sans l'aide de corpus humain. J'ai l'impression que ca t'a echappe.

      Tu peux aller voir sur wikipedia AlphaGo_Zero

      Il s'agit d'une version développée sans l'aide de données provenant de parties jouées entre humains, ni de connaissances autres que les règles du jeu, et plus forte que n'importe quelle version précédente. En jouant contre lui-même, AlphaGo Zero a dépassé la force de la version d’AlphaGo du match contre Lee Se-dol en trois jours en gagnant par 100 jeux à 0, a atteint le niveau d’AlphaGo Master en 21 jours, et a dépassé toutes les anciennes versions en 40 jours.

      • [^] # Re: Bêtise naturelle

        Posté par  . Évalué à 2.

        Puisqu'elles sont capables d'élaborer leur propre corpus ça amène des questions. Ce serait marrant de comparer le nombre de parties jouées par l'IA au nombre possible de parties "raisonnablement" bien jouées, et au nombre de parties humaines jouées de tout temps (un ordre de grandeur du moins).

        De même se concentrer sur la courbe d'apprentissage reste valable…

        Le fait que l'ordinateur ait plus de mal à jouer avec un corpus initial humain devra être analysé et compris. L'intelligence ne se mesure pas dans la capacité à battre un adversaire humain (c'est déjà un bon point que l'IA sache se faire un corpus) mais dans le processus d'apprentissage.

        Autrement dit il faut démontrer qu'il s'agit d'autres chose qu'une manière ultra optimisée de faire du forçage brut : jouer des parties en masse et conserver les meilleures. Or on a tout de même le sentiment qu'il ne s'agit que de ça finalement. Certes les algos sont sophistiqués. Mais au final ça reste bête et méchant : on fait du traitement de masse. Comme toujours en informatique. On a juste trouvé le moyen de rendre performant le traitement de masse à un type de problème particulier (et accessoirement ce ne sont pas seulement les progrès algorithmiques qui l'ont permis mais aussi l'amélioration des capacités des machines).

        Ce type d'algo m'a toujours paru être taillé pour intéresser les GAFAM qui doivent analyser (valoriser devrais-je dire) les immenses jeux de données récoltés et accumulés (Big data, tout ça, ce n'est pas un hasard si la mode est passé de l'un à l'autre). Il s'agit donc plus d'un enjeu économique assez banal dont on a ravalé la façade pour ne pas trop avoir à parler des enjeux qui se cachent derrière : exploitations des données privées et/ou individuelles.

        Pour revenir au sujet il faut aussi noter qu'un jeu ce sont des mouvements et des règles le plus simple possible, avec un objectif lui aussi clairement défini. Ça facilite grandement le traitement informatique.

        • [^] # Re: Bêtise naturelle

          Posté par  (site web personnel) . Évalué à 6.

          Il n'est absolument pas question de traitement de masse, tu as 20 ans de retard. Le traitement de masse c'était deep blue d'IBM (minmax amélioré). Lors d'une partie, Deep blue évlue des millions de fois plus de position par seconde que Alpha Zero (parcours d'arbre montecarlo (?) avec statistique trouvé par apprentissage). Celui-ci est pourtant infiniment meilleur joueur.

          "La première sécurité est la liberté"

          • [^] # Re: Bêtise naturelle

            Posté par  . Évalué à -6.

            Wikipedia parle de plusieurs millions de parties pourtant… Volume innateignable par un être humain (mais lui va ruser pour apprendre plus efficacement).

            • [^] # Re: Bêtise naturelle

              Posté par  (site web personnel) . Évalué à 3.

              Un truc qui serait intéressant, du coup, ce serait d'évaluer l'intelligence d'un tel algo en lui laissant s'entraîner que sur un nombre de parties correspondant au nombre de parties jouées par un joueur humain. S'il perd, c'est qu'il est plus bête, au sens, il a besoin de s'entraîner sur plus de parties. Après, c'est sûr, d'un point de vue pratique une telle comparaison est artificielle, vu que la machine peut se permettre de s'entraîner plus, car plus rapide.

              • [^] # Re: Bêtise naturelle

                Posté par  . Évalué à 2.

                d'un point de vue pratique une telle comparaison est artificielle

                Je pense que ça pose aussi problème d’un point de vue théorique. Faudrait définir un « un tel algo » déjà. Un algo type « min max » consiste à dérouler les coups possibles de l’adversaires, puis ses réactions possibles à ces coups etc. En gros, ça consiste à jouer virtuellement des parties … Faudrait pas que ta définition interdise à l’ordi de jouer un algo de base pour les jeux ou de faire une simulation de monté carlo :)

              • [^] # Re: Bêtise naturelle

                Posté par  . Évalué à 3.

                Faudrait aussi que la machine ait des sens, ait pu passer une vingtaine d'années en compagnie d'autres machines avec une machine enseignante, ait pu jouer à des centaines de jeux avant (jouer, c'est quand même un truc qu'on fait beaucoup)… bref c'est quand même super délicat de comparer "l'intelligence" d'une machine avec celle d'un humain, et je doute que le nombre de parties compte tant que ça. AlphaGo c'est même pas un bébé en terme de connaissances ingurgitées sur le monde, le logiciel n'a vu que du Go, et contre lui même. A ton avis, faut combien de partie à un humain, jamais sorti d'une salle noire et silencieuse, à qui tu fournis une table de Go et la possibilité de jouer contre lui même pour produire un jeu non ridicule ?

                Est-ce que c'est de l'intelligence, sans doute pas… de la bétise… c'est quand même très insultant pour une sacré prouesse inimaginable y a 10 ans.

              • [^] # Re: Bêtise naturelle

                Posté par  (site web personnel) . Évalué à 5.

                C'est toujours amusant de voir que les gens veulent changer la définition précédente de "l'intelligence" dés que la machine dépasse l'humain.

                "La première sécurité est la liberté"

            • [^] # Re: Bêtise naturelle

              Posté par  (site web personnel) . Évalué à 3.

              Pour l'apprentissage, oui, j'avais calculé 3 milliards de parties d'après leur sujet d'étude. Par contre, quand il joue, il utilise les mêmes table, et la vitesse d'évaluation est de l'ordre de 30 000 itérations par seconde.

              "La première sécurité est la liberté"

      • [^] # Re: Bêtise naturelle

        Posté par  . Évalué à 3.

        Dans les trois premiers jours, AlphaGo Zero a joué 4,9 millions de jeux contre lui-même en succession rapide.

        Donc en dehors du fait que les parties ne sont pas des parties joues par des humains, le principe est tout de même toujours le même, l'accumulation de données et de tris dedans pour optimiser la sortie.

        Il n'y a aucune "intelligence" la dedans enfin dans ce que moi j'entend par le mot intelligence et j'ai probablement totalement tord :).

        • [^] # Re: Bêtise naturelle

          Posté par  . Évalué à 4.

          L’humain aussi apprend en jouant des parties, en quelque sorte en accumulant des données … d’ailleurs les meilleurs sont parfois paumés quand on les sort de leur zone de confort en jouant des coups « bêtes » mais inattendus. Ils font donc un « tri » pour se concentrer sur les parties à priori les plus intéressantes. D’ailleurs ce tri a peut-être été déjà fait par d’autres : ils se concentrent sur les ouvertures qui ont été déterminées par des joueurs d’avant leur époque.

          Le truc qui serait convaincant c’est de déterminer ce que fait l’humain que ne font pas les machines pour être efficaces avec moins d’exemples.

          • [^] # Re: Bêtise naturelle

            Posté par  . Évalué à 2.

            Oui bien sur l'humain fait ca aussi mais bon tu me montres un seul humain qui utilise 100% de son temps a ne jouait que au Go?
            Cela n'existe pas.

            La on a inculque une tache et une seule tache et il la repete ad-vitam eternam et il devient meilleur. C'est vraiment une definition de l'intelligence? Je trouve ca … tres limite.

            Le cote technique est assez impressionant je ne dis pas le contraire mais on parle de probleme complex mais en fait simple car blanc ou noire. Tu perds ou tu gagnes. La vie humaine est faite d'autre chose et c'est bien souvent les zones grises qui sont preponderantes et qui font que c'est la que l'intelligence devient importante (sans parler de la creativite etc.).

            Ce que l'on appel IA aujourdhui sont tres tres tres loin de ce genre de problematique. Elles s'attaquent a des problemes tres bien delimites, tres bien codifies et elles apprennent jusqu'au moment ou l'apprentissage arrive a un certains niveau mais apres cela ne va pas vraiment plus loin.

            • [^] # Re: Bêtise naturelle

              Posté par  . Évalué à 7.

              La vie humaine est faite d'autre chose et c'est bien souvent les zones grises qui sont preponderantes et qui font que c'est la que l'intelligence devient importante

              Moui, avec ce point de vue l’intelligence se définit par « ce que peut faire l’humain que ne peuvent pas faire les machines ». Il y a 10 ans on définissait un objectif pour l’IA par ce que pouvaient faire les humains que ne pouvaient pas mieux faire les machines : jouer au go. Maintenant que ce n’est plus le cas on considère que jouer au go est « simple » et ne nécessite pas d’intelligence ? C’est un peu trop simple à mon avis.

              Justement en ce qui concerne les « zones grises » le go est un jeu ou la combinatoire fait que certains choix sont un peu « gris » : on ne peut se concentrer que sur une certaine zone du plateau à la fois, et il faut faire des choix genre « je continue à batailler ici ou je vais carrément ailleurs parce que c’est probablement plus intéressant ? »

              La combinatoire fait que ces choix sont hautement non triviaux et les analyses des évolutions des progrès de l’algo ont montré qu’il passaient par des phases qui ressemblent à ce que peut faire un humain qui apprend le go avant de le dépasser et d’inventer des stratégies que l’humain n’avait pas encore apprises … Ça a toute l’apparence de la créativité de mon point de vue.

              Ce que l'on appel IA aujourdhui sont tres tres tres loin de ce genre de problematique.

              Ça se discute. Si on prend le processus d’apprentissage du go, justement, à certaines phases d’apprentissage l’algo devait considérer que pour gagner, il était intéressant d’atteindre une certaine position. Avant de changer d’avis plus tard et de considérer que d’autres étaient plus intéressantes, de son point de vue. On peut y voir, étant donné un objectif final, une subdivision en différents objectifs qui ne sont plus du blanc et noir : c’est intéressant d’atteindre telle position, surtout si l’adversaire n’est pas allé à côté, mais pas tellement si cette autre place est prise.

              Je pense que les méthodes qu’on a appliqué au go sont pas loin d’être capable d’apprendre à jouer à n’importe quel jeu, de la même manière qu’un gamin peut jouer à n’importe quel jeu.

              La vie humaine est faite d'autre chose et c'est bien souvent les zones grises qui sont preponderantes et qui font que c'est la que l'intelligence devient importante (sans parler de la creativite etc.).

              Importante pourquoi ? Ça pose le problème de la finalité de la vie, et là on est dans un problème philosophique sur lequel on est à peu près sur qu’il faille être intelligent pour le comprendre, mais pas que ne pas le comprendre est une manifestation de bêtise. Un organisme vivant est capable de transmettre la vie par exemple, mais c’est assez largement indépendant de l’intelligence, c’est une caractéristique de la vie elle même. C’est ça l’objectif ? La capacité à choisir des objectifs est autant liée à la question du libre arbitre qu’à l’intelligence.

              Mais le truc c’est qu’ici tu compares un être humain dont l’univers est très ouvert, évidemment le monde est plus vaste qu’un plateau de go, à un algo qui a des entrées sorties assez limitées. Techniquement comment se comperteraient ce type d’algos si ils avaient accès à peu près aux même informations que nous et si ils avaient un corps à peu près avec les mêmes capacités motrices ? C’est techniquement impossible à l’heure actuelle, mais là encore c’est pas trop une limitation liée à l’intelligence de l’algo en elle même.

              On sait déjà qu’ils sont capables de faire des prédictions dont un humain est assez incapable quand ils peuvent avaler de grands jeux de données, ce dont un humain serait incapable, qui définissent des mondes de très grande taille : https://www.college-de-france.fr/site/stephane-mallat/Challenges-2017-2018.htm À tel point qu’on a pas trop d’idée de comment fonctionne un réseau de neurone qui marche bien sur ces données. Un humain serait bien en peine d’avaler toutes ces données par lui même sans l’aide de la machine. Autrement dit dans des conditions dans lesquelles la machine est avantagée (elle « vit » dans un monde de donnée naturellement, moins bien dans notre monde physique, alors qu’on a bien du mal à « vivre » dans un monde de données), elle produit des objets que l’humain est bien incapable de comprendre (à l’heure actuelle). Il existe donc des univers dans lesquelles elle aurait sans doute plus de chance de survie que l’homme, si il y avait un concept de survie dedans, avec de grandes capacité d’adaptations …

              Enfin c’est pas tout à fait vrai, parce que pour faire fonctionner tout ça faut encore un humain qui va choisir le bon algo d’apprentissage sur les données et le bon traitement. Mais on tend vers l’autonomisation de la machine dans l’apprentissage des méthodes intéressantes à appliquer sur les données.

              Après il leur manque clairement des trucs. On est capable de s’auto-observer, les réseaux de neurones n’ont pas vraiment d’information sur eux même, ils seraient bien en peine de se faire un modèle d’eux même et de « comprendre » comment ils fonctionnent. En même temps nous on comprend pas tout non plus de notre fonctionnement même si on peut s’automodéliser … mais pour le coup encore une fois on est pas très équitable dans la comparaison.

              • [^] # Re: Bêtise naturelle

                Posté par  . Évalué à 4.

                Maintenant que ce n’est plus le cas on considère que jouer au go est « simple » et ne nécessite pas d’intelligence ? C’est un peu trop simple à mon avis.

                Ça n'est pas trop simple, c'est juste la preuve que l'IA progresse et que les gens qui prétendent le contraire sont obligés de recourir à l'argument "du trou incomblé", argument qui s'est par exemple avéré comme historiquement fallacieux pour l'existence de Dieu. Il n'y a pas de raison que ça ne soit pas la même chose pour l'IA ; l'argument consiste à dire que l'intelligence humaine est en substance supérieure à l'intelligence artificielle, la preuve en est du nombre de choses que nous savons faire et qu'un ordinateur ne sait pas. Or, la liste se réduit peu à peu, au fil des progrès de l'IA. Par exemple, un jalon majeur est le test de Turing. Vous imaginez quoi ; le jour où on fait passer le test de Turing avec succès à un ordinateur, vous pensez que les tenants de l'"IA n'est pas de l'intelligence" vont dire : "OK, on rend les armes, l'IA existe vraiment"? Non, ils vont continuer à prétendre que nos tests sont imparfaits et qu'il existe encore des domaines où l'Homme est supérieur ("un algorithme n'est qu'un programme, et c'est toujours un Homme qui a écrit le programme", qui va devenir "OK, un ordi sait écrire un programme plus efficacement qu'un humain, mais c'est toujours un Homme qui a écrit le programme qui sait écrire un programme mieux qu'un Homme", etc). Exactement de la même manière dont les croyants n'ont pas changé d'un pouce avec les progrès en physique ou en biologie, si on tient pour acquis que l'intelligence humaine ne peut pas être égalée, on va toujours trouver un "trou" à combler, en espérant gagner assez de temps pour être mort quand le dernier trou sera comblé, j'imagine.

                • [^] # Re: Bêtise naturelle

                  Posté par  . Évalué à 3. Dernière modification le 26 mars 2018 à 19:57.

                  Ou ais-je dis que cela ne progressais pas?

                  Par contre, non je ne considere pas que aujourd'hui on est la moindre intelligence artificiel fonctionnel.

                  Et considerer le test de Turing comme le test ultime je pense que c'est aussi tres reducteurs mais bon chacun sa definition de l'intelligence.

                  Et puis si l'on compare avec certains humains les algos actuels se debrouillent pas si mal :)

                  • [^] # Re: Bêtise naturelle

                    Posté par  . Évalué à 3. Dernière modification le 27 mars 2018 à 17:55.

                    Et considerer le test de Turing comme le test ultime je pense que c'est aussi tres reducteurs mais bon chacun sa definition de l'intelligence.

                    Ce n'est pas une question de définition, c'est une question de mesure. Ton objectif, c'est de déterminer si un logiciel peut être qualifié d'"intelligent". Le consensus parmi les informaticiens et les logiciens, c'est qu'on ne peut pas examiner le fonctionnement d'un algorithme pour déterminer ça, pour la simple raison qu'un algorithme, aussi sophistiqué soit-il, reste un algorithme. Turing le premier, mais bien d'autres après lui, ont donc admis qu'on ne pouvait qualifier un programme d'intelligent que par sa capacité à donner l'illusion de l'intelligence, pour la simple et bonne raison que c'est exactement ce qu'on fait avec des organismes vivants.

                    Si tu penses que le test de Turing est imparfait (quoi que ça puisse vouloir dire), alors tu peux certainement définir d'autres tests d'intelligence. Quelque chose qu'un ordinateur doit "passer" pour pouvoir être qualifié d'intelligent à tes yeux.

                    Le coup de "ah oui mais non, il passe le test mais ça n'est pas du tout comme ça que j'aurais voulu qu'il le passe", ça ne peut pas être un vrai argument, parce que tu ne fais que de trouver des excuses. Et encore une fois, aujourd'hui, des programmes font correctement des choses qu'on pensait impossibles (ou seulement réservées à des intelligences humaines) auparavant, comme jouer aux échecs ou au go, conduire une voiture, donner l'illusion d'une conversation dans un chat pendant quelques échanges, traduire un texte dans une autre langue…

                    On n'aura pas, un jour, une étape franchie qui puisse signifier que ça y est, on dispose d'intelligences artificielles. C'est juste que progressivement, les algorithmes grignottent une frontière, et en sont déja à un niveau qui était qualifié d'intelligence artificielle il y a plusieurs années. Évidemment, toi, tu peux décider de reculer la limite au fur et à mesure, mais ça n'est pas du jeu, tu «triches» pour maintenir l'argument de la non-intelligence de ces programmes.

                    Pourtant, entre Alpha et différents exemples bluffants de reconnaissance d'image par des réseaux de neurones, je trouve qu'on peut raisonnablement commencer à admettre qu'on est face à des embryons d'intelligences artificielles. À partir d'une photo, dire "c'est un oiseau", c'est, étymologiquement parlant, de l'intelligence : le programme est capable de reconnaitre une structure générique et d'intégrer une matrice de pixels en information abstraite.

                    • [^] # Re: Bêtise naturelle

                      Posté par  . Évalué à 3.

                      De tout de facon, que l'on considere le test de Turing comme un test d'intelligence ou pas la question n'est meme pas la car, que je sache, aucune "IA" actuelle ne le passe ce test si?

                      Je ne dis pas que les taches que les algos actuels arrivent a faire ne sont pas impressionnantes. Et ce qu'ils vont arriver a faire ne va aller que vers une complixite des taches de plus en plus importantes.

                      Donc oui c'est impressionnant et ce n'est que le debut mais de la a dire qu'ils sont "intelligent" parcequ'ils excellent dans un tache bien donne, tres complexe mais tres bien limite aussi. Ca c'est autre chose … de mon point de vue.

              • [^] # Re: Bêtise naturelle

                Posté par  (site web personnel) . Évalué à 4.

                Moui, avec ce point de vue l’intelligence se définit par « ce que peut faire l’humain que ne peuvent pas faire les machines ».

                Sans aller jusque là on peut quand-même s'accorder sur le fait que même si les progrès réalisés dans les dernières années sont très impressionnants ils se concentrent sur quelques problèmes assez particuliers et que sur certaines manifestations de l'intelligence les “intelligences artificielles” sont au point mort.

                Ce qui m'intéresse beaucoup et que j'ai trouvé assez bien formulé dans le libre d'Annie Le Brun Le trop de réalité c'est le raisonnement analogique. C'est un peu étrange à dire mais il me semble que la poésie et la recherche mathématiques ont une chose très importante en commun, c'est qu'elles sont structurées par les métaphores: en poésie on prend du plaisir à rapprocher des choses distinctes sur une caractéristique qu'ils partagent intimement, et en recherche mathématique c'est souvent la recherche de cette caractéristique partagée qui permet de transposer la solution qu'on connaît bien d'un problème classiques à un nouveau contexte. (Je n'ai pas d'exemple facile à donner ;) )

                • [^] # Re: Bêtise naturelle

                  Posté par  . Évalué à 3.

                  ils se concentrent sur quelques problèmes assez particuliers

                  J'ai plutôt l'impression du contraire : sur certains problèmes spécifiques, les "intelligences artificielles" calent, mais sur beaucoup, les avancées sont assez impressionnantes. Le truc, c'est que ça n'avance pas forcément de la manière qu'on imaginait ; par exemple, dans plusieurs domaines, les progrès sont plus liés à l'accès à des bases de données gigantesques qu'à des algorithmes qui "comprennent" réellement ce qu'ils font (traduction automatique, conduite automatique…). Mais, n'empêche, le but est atteint, et encore une fois, affirmer qu'un programme n'est pas intelligent parce qu'il applique "bêtement" un algorithme, c'est pareil que de dire qu'on n'est pas intelligents parce qu'on ne fait que réagir à des stimulations neuronales. En plus, chez nous, c'est pire, parce qu'une bonne partie de ce qu'on appelle notre "intelligence" se base sur du hardware spécialisé (reconnaissance des visages, motricité…).

                  Le contexte historique est important : il y a 50 ans, on pensait qu'un programme qui était fort aux échecs était un objectif concret vers l'intelligence artificielle. On ne peut pas dire aujourd'hui "ah oui mais gagner au Go n'est pas du tout un signe d'intelligence", parce qu'avant que ça soit concret, on pensait que ça en était un. La traduction automatique, on pensait que c'était de l'intelligence artificielle, on ne va pas changer du jour au lendemain notre fusil d'épaule parce qu'il existe des algorithmes capables de le faire de manière presque convaincante.

                  • [^] # Re: Bêtise naturelle

                    Posté par  . Évalué à 3.

                    Les problemes ou il y a eu le plus de progres ce sont des problemes ou beaucoup de moyen ont ete mis pour comprendre les mecanismes sous jacent et donc permettre de codifie et donc de faire un algo de comment ces taches se realisent.

                    Les taches vraiment complexe (processus de creation artistique par exemple) ben ca c'est pas (trop) encore (?) codifie donc pas encore implemente.

                    Quand on voit les problemes pour implementer ne serait-ce que la conduite ou la traduction de langues (et la ce sont des domaines ou il y a des moyens gigantesques qui sont mis dedans) cela me fait dire que l'on est encore tres tres loin de codifie tout ce qui fait ce que generalement on considere les champs de l'intelligence humaine.

                    • [^] # Re: Bêtise naturelle

                      Posté par  . Évalué à 4.

                      Les problemes ou il y a eu le plus de progres ce sont des problemes ou beaucoup de moyen ont ete mis pour comprendre les mecanismes sous jacent et donc permettre de codifie et donc de faire un algo de comment ces taches se realisent.

                      Euh, l'alternative, c'est quoi? De la R&D sans moyens? Ça me semble évident (quasiment tautologique) de dire que les domaines qui progressent sont les domaines où les investissements sont les plus gros.

                      processus de creation artistique par exemple

                      Non, mais là, c'est hors catégorie. Tu parles de trucs que seulement une infime minorité d'êtres humains sont capables de faire, et même où on ne sait pas vraiment si une «œuvre» a une valeur réelle en dehors de celle que lui donne l'observateur.

                      En gros, tu es en train de demander à ce qu'une IA comprenne pour nous un problème philosophique et/ou neurologique profond.

                      Et puis, en plus, ça n'est pas tout à fait vrai. En utilisant les résultats d'un apprentissage de type "deep learning" et en inversant le processus, il est possible de reconstruire des images à partir des réseaux de neurones (https://nerdist.com/why-are-googles-neural-networks-making-these-brain-melting-images/), images qui ont au moins un certain attrait et dénotent d'une créativité. Ce sont clairement des œuvres de l'esprit au sens de la propriété intellectuelle, par exemple.

                      et la ce sont des domaines ou il y a des moyens gigantesques qui sont mis dedans

                      Mouais, alors il faudrait comparer avec d'autres choses. Les progrès sur la thérapie du cancer par rapport aux moyens, bof bof, hein… La compréhension du fonctionnement des génomes, un peu pareil. L'ambition de développement d'une IA générique, c'est énorme par rapport aux plus gros programmes de recherche et développement ; s'il faut l'équivalent de plusieurs programmes Appolo, ça ne m'étonnerait pas. Je ne vois rien de disproportionné ; beaucoup d'argent est investi, mais il y a derrière des progrès réels.

                      Personne n'a dit que c'était facile, mais encore une fois, on arrive progressivement à passer des étapes qu'on pensait impossibles ou très difficiles, et qu'on caractérisait sans aucun doute comme des étapes importantes dans l'élaboration de programmes intelligents.

                      • [^] # Re: Bêtise naturelle

                        Posté par  . Évalué à 5.

                        Je soupconne que tu as du mal a comprendre mon propos. Les algo que l'on appelle aujourd'hui ne sont pas de l'IA et en sont tres tres tres loin et c'est une enorme erreur de pretendre le contraire pour pas mal de raison.

                        Je comprend le pourquoi c'est fait, c'est plus facile car plus sexy de recuperer des sous par des investisseurs (etats ou prives) pour de l'IA que pour des algorithmes perfectionnes.

            • [^] # Re: Bêtise naturelle

              Posté par  (site web personnel) . Évalué à 3.

              > La on a inculque une tache et une seule tache et il la repete ad-vitam eternam et il devient meilleur. C'est vraiment une definition de l'intelligence? Je trouve ca … tres limite.

              Les meilleurs humains dans leurs domaines passent généralement plus de temps sur leur problème qu'autrui. C'est un désavantage que nous soyons obligés d'apprendre à parler, marcher, lire, etc, quand on souhaite devenir le meilleur skieur. Je pense qu'on pourrait apprendre à Alpha Go à reconnaître des chats et à composer de la musique, à en faire un produit "intelligent", mais ça serait au détriment de ses capacités à jouer au go.

              À partir de combien de tâches solvables qualifierais-tu un système d'intelligent ? Si on fait une machine qui reproduit le comportement d'un animal "con mais intelligent" donné, aura-t-on une machine intelligente ?

              (je ne m'attends évidemment pas à ce que tu définisses "intelligence" de manière définitive, hein. Ce sont des questions plutôt rhétoriques que je pose.)

              • [^] # Re: Bêtise naturelle

                Posté par  . Évalué à 3.

                Je pense qu'on pourrait apprendre à Alpha Go à reconnaître des chats et à composer de la musique, à en faire un produit "intelligent", mais ça serait au détriment de ses capacités à jouer au go

                Pourquoi ? Au contraire, faire jouer à différent jeux et avoir différentes interactions permet probablement de se sortir de minima locaux dans nos stratégies développées sur un seul jeu. N'importe quelle discipline scientifique requiert un tronc commun assez large, et beaucoup d'avancées scientifiques sont/permettent des utilisations de méthodes venant d'autres disciplines (les liens bio/chimie/physique/informatique/maths sont particulièrement féconds par exemple).

                Je pense que la critique n'est pas tellement qu'il n'apprend que sur le jeu de Go, mais que tout le travail en amont a déjà été fait : définir le jeu de Go. En général c'est trouver une définition et des règles qui prennent la majorité du "temps de calcul humain", d'ailleurs l'algorithmique ne sert à priori qu'à permettre d'effectuer, après tout ce précalcul, les opérations élémentaires pour obtenir un résultat.

                À partir de combien de tâches solvables qualifierais-tu un système d'intelligent ?

                La définition d'intelligence qui je pense est utilisée communément n'est pas de comptabiliser le nombre de tâches (ta question était bien sarcastique ?). Quand tu as déjà défini les tâches, tu évites discrètement mais sûrement le problème à mon sens. J'ai l'impression qu'intuitivement on "mesure" « l'intelligence » par l'adaptabilité : la reconnaissance de problèmes et la capacité à les résoudre (pas de source vu que c'est une impression).

                D'ailleurs je crois (corrigez-moi si je dis quelque chose de faux) que très peu de gens diraient qu'un joueur professionnel est "très intelligent", c'est un maître, un pro, mais un "génie" ?

                C'est peut-être un texte un peu long, surtout pour ne pas dire grand chose au final. Néanmoins j'aime bien l'idée que l'intelligence ne peut se définir que par l'interaction avec un environnement. En effet, cela semble bien capturer ce sentiment selon lequel "le joueur électronique de Go est très fort, mais pas intelligent", car son interaction est limitée aux interactions du jeu de Go, dans un format rigide auquel il ne peut s'adapter.

                PS: si un philosophe passait par là et pouvait donner des références à lire sur le sujet, je serai ravi !

                • [^] # Re: Bêtise naturelle

                  Posté par  (site web personnel) . Évalué à 2.

                  Pourquoi ? Au contraire, faire jouer à différent jeux et avoir différentes interactions permet probablement de se sortir de minima locaux dans nos stratégies développées sur un seul jeu.

                  Non, car en gros, pour apprendre deux fois plus de choses, il faut deux fois plus de temps (et de données). Un apprentissage se fait a détriment de l'autre.
                  Et même si tu avais la possibilité d'entraîner deux modèles en même temps pour résoudre deux problèmes différents, il faudrait je pense en entraîner un troisième qui les combine pour apprendre comment ils peuvent intéragir. Et ça, c'est probablement du temps passé à ne pas améliorer les capacités brutes de résolution du problème initial. Pour un problème bien défini comme le go, je pense que c'est préférable de ne faire que du go, sans perdre de temps à apprendre à faire du vélo.

                  • [^] # Re: Bêtise naturelle

                    Posté par  (site web personnel) . Évalué à 7.

                    Non, car en gros, pour apprendre deux fois plus de choses, il faut deux fois plus de temps (et de données). Un apprentissage se fait a détriment de l'autre.

                    Pour une machine peut-être mais pas pour un être humain. Par exemple en musique si on apprend à changer on peut recycler beaucoup de compétences dans son apprentissage d'un instrument, et vice-versa. En fait les deux apprentissages se stimulent. C'est aussi vrai dans d'autres situations mais je pense que l'exemple de la musique est un des moins discutables.

                    • [^] # Re: Bêtise naturelle

                      Posté par  (site web personnel) . Évalué à 2.

                      si on apprend à changer

                      Il faut bien entendu lire “si on apprend à chanter”

                    • [^] # Re: Bêtise naturelle

                      Posté par  (site web personnel) . Évalué à 3.

                      Tu apprends le nouvel instrument plus vite, oui. Mais le temps que tu passes dessus est du temps passé à ne pas travailler le premier, ce qui est le point initial que je discutais : plus tu apprends de choses, plus ça prend de temps à partir du début de l'expérience pour être un expert dans l'un des domaines. C'est un problème d'ordonnancement :

                      Si ca prend 10h d'entraînement phrases pour faire un detecteur de spam, et 10h pour faire un générateur de descriptions d'images, alors il faudra certainement au moins 20 heures pour entraîner un modèle qui reconnait le spam et sait générer des descriptions d'images aussi bien. En 10h total, ton modèle combiné ne pourra pas être aussi bon, car il n'aura vu que la moitié des données qui lui permettent d'apprendre… Mais avec 20h, tu pourrais largement améliorer ton détecteur de spam original (attendu que tu as des bonnes données, etc.)

                      • [^] # Re: Bêtise naturelle

                        Posté par  (site web personnel) . Évalué à 4.

                        Tu apprends le nouvel instrument plus vite, oui. Mais le temps que tu passes dessus est du temps passé à ne pas travailler le premier, ce qui est le point initial que je discutais :

                        Non seulement tu apprends le nouvel instrument plus vite mais en plus travailler l'instrument permet aussi de devenir un meilleur chanteur, et vice-versa. C'est assez facile d'en voir des raisons évidentes parcequ'il y a plein de sous-compétences communes comme l'écoute, le rythme, et la présence (ou concentration) et ce qui est surprenant ou fascinant est que l'humain reconnaît ces sous-compétences plus ou moins intuitivement et y réinvestit adroitement ses connaissances.

                        En programmation c'est pareil, parceque quand on connaît bien 2 ou 3 langages on apprend très rapidement d'autres et on peut réutiliser directement beaucoup de ses compétences de programmeur – et de même travailler sur un nouveau langage permet même de faire des progrès dans les langages qu'on connaît déjà.

                        En 10h total, ton modèle combiné ne pourra pas être aussi bon, car il n'aura vu que la moitié des données qui lui permettent d'apprendre…

                        Oui, et c'est bien pour ça que mon commentaire précédent commence par Pour une machine peut-être mais pas pour un être humain. ;)

                    • [^] # Re: Bêtise naturelle

                      Posté par  . Évalué à 4.

                      Non, car en gros, pour apprendre deux fois plus de choses, il faut deux fois plus de temps (et de données). Un apprentissage se fait a détriment de l'autre.

                      Pour une machine peut-être mais pas pour un être humain.

                      En fait il se trouve que pour un machine aussi ! C'est un sujet de recherche très actif qu'on appelle le transfert learning, et on le fait par exemple en apprenant à traduire en même temps qu'on apprends à classifier des textes (en gros on réutilise une partie du modèle (du réseau de neurone) dans les deux tâches, en s'entraînant alternativement entre l'une et l'autre). L'avantage est de mieux apprendre et généraliser des propriétés de bases des données réelles (on se situe souvent au niveau de ce qu'on appelle automatic feature extraction, ou extraction automatique des caractéristiques, ce qui, selon certains (dont Andrew Ng), a fait la force du deep learning − c'est une des propriétés des auto-encoders par exemple).

                      • [^] # Re: Bêtise naturelle

                        Posté par  (site web personnel) . Évalué à 2.

                        Le transfer learning n'a d'intérêt que pour des tâches similaires, non ? Pas tellement applicable pour transformer un détecteur de photos de chat en système de recommendation musicale.

                        Le principe n'est pas "apprendre autre chose", mais plutôt "factoriser les parties communes de l'apprentissage". Mon commentaire initial disait qu'apprendre à parler ou lire n'était pas vraiment une utilisation rentable de notre temps pour apprendre à skier (il n'y a qu'à voir les jeux paralympiques), et donc que l'intelligence définie comme étant la capacité à résoudre des problèmes différents n'était pas une bonne définition, et qu'une machine pouvait selon moi être "intelligente" même si elle ne s'appliquait qu'à un seul problème.

                        • [^] # Re: Bêtise naturelle

                          Posté par  . Évalué à 2.

                          A condition que l’espace de recherche du problème soit suffisamment vaste ou que l’approche s’adapte à d’autres problèmes. On a des algos spécifiques et efficaces pour des problèmes bien circonscrit et on parle pas d’IA. Dans le cas de l’apprentissage profond on parle d’intelligence parce que l’approche s’applique relativement bien à plein de problème de classification, bien que pris deux à deux ces problèmes sont relativement éloignés.

                          On pourrait peut-être adapter cette approche « d’adaptabilité » avec une notion d’équivalence de modélisation, par exemple on sait qu’une instance d’un pb NP-complet s’exprime de manière équivalente comme une instance de n’importe quel autre problème NP-complet. Du coup on a un gros pouvoir d’expression dans cette classe. Bien résoudre un seul problème NP-complet, potentiellemet c’est donc bien résoudre n’importe lequel (a condition que les instances transformées d’autres problème soient dans les instances que « l’IA » sait bien résoudre, mais c’est une hypothèse un peu comprise dans l’énoncé :) )

                          Tout ça pour dire que je te rejoins dans l’esprit, sachant qu’en nuançant on peut dire « résoudre n’importe quel problème « difficile » ». Sachant que qui peut le plus peut le moins, donc l’approche est probablement applicable à bien des problèmes plus faciles.

                        • [^] # Re: Bêtise naturelle

                          Posté par  . Évalué à 3.

                          Le principe n'est pas "apprendre autre chose", mais plutôt "factoriser les parties communes de l'apprentissage".

                          Mais comment peux-tu déterminer a priori ces parties communes ?
                          Et d'ailleurs, quand tu dis :

                          Mon commentaire initial disait qu'apprendre à parler ou lire n'était pas vraiment une utilisation rentable de notre temps pour apprendre à skier

                          En réalité tu disais aussi marcher … ce qui est clairement une première étape intéressante pour le contrôle de l'équilibre et de la coordination des mouvements en général. Je tiens juste à faire remarquer que la discussion avance bel et bien, on va certainement converger vers quelque chose :-).

                          Après, comment choisir ce qui est "trop éloigné" pour être "efficacement utilisé" ? C'est peut-être facile pour des problèmes très fermés comme des jeux de société (et encore, je ne suis pas convaincu) … mais pour des problèmes mal définis, ouverts ou tout simplement qui n'existent pas encore (parce que la machine va se retrouver à devoir résoudre des choses non prévues) …

                          et qu'une machine pouvait selon moi être "intelligente" même si elle ne s'appliquait qu'à un seul problème.

                          Je reste persuadé que résoudre un problème, même parfaitement n'est pas de l'intelligence. C'est le processus qui amène à cette solution qu'il faut qualifier: est-ce adaptable/stable, comment se déroule l'interaction avec les utilisateurs, est-ce capable d'abstraire pour construire de nouveaux sous problèmes ?

      • [^] # Re: Bêtise naturelle

        Posté par  . Évalué à 1.

        Bien que les résultats d'AlphaGo_Zero soient impressionnants, le terme IA est survendu. Ça ne reste que des programmes et des algorithmes, le fait qu'ils soient compliqués n'y change rien : ils restent cantonné aux domaines pour lesquels ils ont été programmé.
        L'apprentissage d'alphaGo_zero c'est le résultat d'un programme qui a optimisé un réseau de neurone pour un problème donné.

        Par exemple est ce que l'intelligence artificiel d'AlphaGo_Zero aurait était capable de faire de même sans qu'on lui programme les règles du jeux ? En ne lui laissant qu'observer des parties.
        Un humain saura apprendre et déduire simplement en observant, les IA actuelles en sont incapables … (ou je me trompe ?).

        • [^] # Re: Bêtise naturelle

          Posté par  (site web personnel) . Évalué à -2. Dernière modification le 26 mars 2018 à 19:04.

          Justement AlphaGo Zero a appris sans connaître les règles du jeu (contrairement à AlphaGo).

          cf : https://deepmind.com/blog/alphago-zero-learning-scratch/

          The system starts off with a neural network that knows nothing about the game of Go. It then plays games against itself, by combining this neural network with a powerful search algorithm.

          • [^] # Re: Bêtise naturelle

            Posté par  (site web personnel) . Évalué à 4.

            Je doute que la citation que tu donnes veuille dire que le programme n’inclut pas les règles du jeu, mais plutôt qu’il a accès uniquement aux règles du jeu et à rien d’autre (pas d’exemples de parties, pas de stratégies, etc.).
            Sinon je me demande comment Deepmind a pu commencer à faire jouer le programme contre lui-même à un jeu sans lui en donner les règles ;)

          • [^] # Re: Bêtise naturelle

            Posté par  . Évalué à 5.

            Justement AlphaGo Zero a appris sans connaître les règles du jeu (contrairement à AlphaGo).

            Abstract du papier pointé par ton lien :

            Here we introduce an algorithm based solely on reinforcement learning, without human data, guidance or domain knowledge beyond game rules)

            • [^] # Re: Bêtise naturelle

              Posté par  . Évalué à 5.

              Ce qui est … evident… car sinon cela voudrait dire que l'aglo est vraiment intelligent car il a reussi a recreer les regles du jeu de Go a partir de … rien et la c'est meme plus intelligent mais carrement esprit superieur de faire de la retro-engenierie sans la moindre infos!

              • [^] # Re: Bêtise naturelle

                Posté par  . Évalué à 5.

                Ceci dit, ce n’est pas si faux que ça.

                Le cœur de l’algo en lui-même n’a pas connaissance des règles du jeu. Par exemple, aux échecs, AlphaZero n’a nulle part la connaissance explicite qu’un cavalier peut se déplacer de deux cases vers la gauche et d’une case vers le haut en un mouvement. Tout ce qu’il a, c’est d’un côté en entrée une matrice 8x8 qui se trouve être à 1 quand un cavalier est présent dans la case correspondante, et en sortie une matrice 8x8 qui, quand elle est à 1, est interprétée par le moteur d’échecs (dont AlphaZero n’a pas connaissance) par "déplacer le cavalier présent à cette case de deux cases vers la gauche et une case vers le haut". Mais nulle part AlphaZero lui-même n’a de notion de cavalier et de déplacements légaux associés à cette pièce. Ou de règles de captures. Tout ceci, il doit l’apprendre.

                • [^] # Re: Bêtise naturelle

                  Posté par  . Évalué à 3. Dernière modification le 28 mars 2018 à 10:12.

                  Si tes matrices contiennent des mouvements de pieces non autorises ca risque d'etre plus difficile de "recreer" les regles. Donc en fait comme tes matrices ne contiennent que (ou en enorme majorite c'est facile d'eliminer les "outliers") des mouvements autorises cela est une facon differente de lui fournir les regles que celle ecrites sur un papier pour un etre humain. Donc les regles du jeu ont ete donne d'une facon comprehensible par l'algorithme.

                • [^] # Re: Bêtise naturelle

                  Posté par  . Évalué à 4.

                  Le cœur de l’algo en lui-même n’a pas connaissance des règles du jeu.

                  Je ne sais pas trop comment interpréter ça, mais plus loin dans le papier (p360) il est écrit :

                  AlphaGo Zero is provided with perfect knowledge of the game rules. These are used during MCTS, to simulate the positions resulting from a sequence of moves, and to score any simulations that reach a terminal state.

              • [^] # Re: Bêtise naturelle

                Posté par  (site web personnel) . Évalué à 2.

                Une intelligence artificielle qui créerait des jeux pour se divertir quand elle s'ennuie?

                • [^] # Re: Bêtise naturelle

                  Posté par  (site web personnel) . Évalué à 3.

                  Cela serait possible à terme, mais je ne vois pas l'intérêt pour les êtres humains de créer des IA qui sont conscientes d'elle-même ou qui ont des envies ou des pulsions.

                  "La première sécurité est la liberté"

        • [^] # Re: Bêtise naturelle

          Posté par  (site web personnel) . Évalué à 5.

          Bien sûr que tu te trompes, un algo pourrait déduire des règles de l'observation d'un certain nombre de parti. Mais c'est rarement ce qu'on lui demande.

          "La première sécurité est la liberté"

          • [^] # Re: Bêtise naturelle

            Posté par  . Évalué à 3.

            J'avoue que j'ai du mal à conceptualiser un algo qui pourrait comprendre les règles de n’importe quel jeux simplement en observant des parties. Et dans cette phrase je ne met pas en doute ce que tu dis : je reconnais ma propre limite. Tu as donc sans doute raison; même si ça m'embête un peu.

    • [^] # Re: Bêtise naturelle

      Posté par  . Évalué à 5.

      )

      • [^] # Re: Bêtise naturelle

        Posté par  . Évalué à -6.

        Ouai dans la parenthèse je voulais signaler que c'est via la NASA comme client que l'État verse les subventions. C'est important de le signaler parce qu'en ce moment y'a pas mal de propagande pour nier cette réalité. Il faut que l'initiative ait l'air de venir du privé. En réalité le privé est incapable de financer de tels programmes. La première monétisation prévue c'est l'accès Internet je crois.

  • # mauvais

    Posté par  (site web personnel) . Évalué à 10.

    L'article de l'express est assez mauvais. On dirait que l'auteur a une vision très très vague de ce qu'est le machine learning et le deep learning. Il en tire des conclusions qui sortent de nul part.

    "La véritable IA n'existera jamais, car le monde est inconnaissable."

    "Il n'est pas rationnel d'être à 100% rationnel, or un ordinateur est à 100% rationnel."

    "Ceux qui tireront leur épingle du jeu seront ceux qui continueront d'ajouter de la valeur. … Bref, de tous les métiers relevant de la création. "

    Comme si une large de part de la création n'était pas simplement un agrégat de solution existante adapté aux contraintes externe !

    "La première sécurité est la liberté"

    • [^] # Re: mauvais

      Posté par  (site web personnel) . Évalué à 5.

      C'est triste de toujours revoir sortir les mêmes arguments simplistes auxquels des réponses claires et pertinentes ont pourtant déjà été donné depuis plus de 30 ans. Je lis en ce moment 'Gödel, Escher et Bach' et il est impressionnant de voir à quel point ce genre de discussions autour de l'IA n'ont pas évolué (alors que l'IA elle-même a énormément progressé). Détail amusant: Une des spéculations de Hofstadter à l'époque était qu'un ordinateur ne pourrait pas gagner aux échecs sans être une IA généraliste !

      • [^] # Re: mauvais

        Posté par  . Évalué à 3.

        et il est impressionnant de voir à quel point ce genre de discussions autour de l'IA n'ont pas évolué

        Les discussions évoluent. C’est juste que le grand public a constamment 30 ans de retard, donc si tu compares les discussions quasi-académiques d’il y a 30 ans et les discussions du grand public d’aujourd’hui, ça donne cette impression.

        Le "Godel, Escher, Bach" (c’est à dire une vulgarisation des débats contemporains) de ~2010 c’est "Rationality: From AI to Zombies", pas l’express…

        • [^] # Re: mauvais

          Posté par  . Évalué à 3.

          Le problème ici c'est que l'on interroge un philosophe, donc un académique, qui ne semble pas non plus avoir un argument très à jour contre l'IA. J'ai moi même retourné ce genre de critique à un article sur lequel je suis tombé sur Academia il y a peu.

          J'ai fait mon retour à cet article en mode amical, car personnellement je ne me sens ni supporter ni détracteur de l'intelligence artificielle générale. (D'ailleurs pour moi cet article avait un bon point : le risque que l'IA redéfinisse à la baisse ce qu'est l'intelligence humaine, la réduisant dans ses composantes, qui sont multiples). Il y a clairement plein d'exagération du coté des supporter de Intelligence Artificielle Générale (un optimisme forcené, des arguments très très extrapolés), bizarrement lié à une belle bulle spéculative. Donc personnellement je voudrais surtout que le débat soit de qualité.

          • [^] # Re: mauvais

            Posté par  (site web personnel) . Évalué à 3.

            À noter que la personne interrogée par l'Express, Luc de Brabandere, n'est, selon Wikipedia, ni philosophe de formation ni du domaine académique, il est ingénieur civil en Mathématiques Appliquées, formé à l’UCL.

  • # Villani et son domaine de compétence…

    Posté par  . Évalué à -2.

    Hum, oui…

    Aussi de Cédric Villani :

    « Quand le mouvement d'Emmanuel Macron a surgi, je me suis retrouvé dans plusieurs fondamentaux de son programme : engagement pro-européen, dépassement des clivages gauche/droite, rapprochement de la société civile avec le monde politique… »

    Et encore, même dans son domaine de compétence, parfois, il fait vraiment de la peine à entendre :

    « S'abstenir, c'est donner la moitié de son vote à Marine Le Pen »

    Pitié…

    Sutor, ne supra crepidam. Littéralement, « Cordonnier, pas plus haut que la chaussure », phrase dite par un peintre grec à un cordonnier qui s’apprêtait à critiquer sa toile.

    • [^] # Re: Villani et son domaine de compétence…

      Posté par  . Évalué à 1.

      Ajout :
      Je suis aussi d'accord avec ce qu'il dit sur L'IA hein ?

      Je dis juste que d'une manière générale, dès qu'on sort de son domaine d'expertise, sa position n'est pas plus pertinente que celle de n'importe qui, comme il l'a montré avec brio en parlant de politique.

    • [^] # Re: Villani et son domaine de compétence…

      Posté par  . Évalué à 6. Dernière modification le 26 mars 2018 à 17:45.

      « S'abstenir, c'est donner la moitié de son vote à Marine Le Pen »

      Sauf que c'est ce que le journaliste a compris. La citation réelle est bien plus subtile:

      « Et pour ce qui est du score, s’abstenir est équivalent à répartir sa voix entre Emmanuel Macron et Marine Le Pen. Dit autrement : retirer son vote à Emmanuel Macron, par représailles, c’est équivalent à consacrer la moitié de sa voix à soutenir Marine Le Pen. »

      Et ça… c'est presque juste (ça n'est juste qu'asymptotiquement, je crois). Retirer sa voix quand il y a déja x votants pour le candidat A et y pour B, ça fait passer la fréquence de (x+1)/(x+y+1) à x/(x+y). Consacrer la moitié de sa voix à B (et donc, logiquement, l'autre moitié à A, ou à personne?), ça fait passer la fréquence de x/(x+y) à (x+0.5)/(x+y+1) (ou x/(x+y+0.5) en fonction de l'interprétation). Quand on fait les ratios avant/après, c'est numériquement très proche (beaucoup plus proche que les âneries habituelles), mais ça n'est exact que si on fait une approximation asymptotique (x et y grands).

      Mais bon, la boulette reste beaucoup moins grosse que ce qu'avait compris le boulet de journaliste.

      • [^] # Re: Villani et son domaine de compétence…

        Posté par  (site web personnel) . Évalué à 2.

        Même la version du journaliste n'est pas stupide, si l'idée est de répondre à l'argument 'je ne fais pas de choix en ne votant pas'. L'abstention est un choix qui consiste à dire que toutes les options se valent.

        Je compare ça aux expériences de pensée du genre 'tramway' dans lesquelles on a le choix entre agir et tuer 1 personne ou ne rien faire et en tuer 2 (et variantes). Ne pas agir n'est pas moralement meilleur que d'agir, c'est un choix.

        Ne pas voter ne veut pas dire ne pas avoir participé au résultat.

        • [^] # Re: Villani et son domaine de compétence…

          Posté par  . Évalué à 3.

          Même la version du journaliste n'est pas stupide

          Si, c'est stupide parce que c'est faux. C'est simplement mathématiquement faux. Si quand tu t'abstenais c'était comme si tu votais pour les deux moitié-moitié, alors chaque abstention ramènerait le score général vers 50/50, ce qui n'est pas le cas. Donc non, c'est faux, et c'est profondément stupide.

          Et Villani est bien trop intelligent pour tomber dans ce piège.

          • [^] # Re: Villani et son domaine de compétence…

            Posté par  (site web personnel) . Évalué à 3.

            Sauf qu'au final, le score final on s'en fout. Un président élu avec 51% à autant de pouvoir qu'un président élu à 80÷. J'en vois déjà qui vont me dire que non, qu'un haut score lui donne plus de poids politique. Sauf qu'en pratique c'est faux. Chirac malgré son score écrasant face à Le Pen n'avait pas plus de pouvoir que pour son quinquennat précédent, ou que Sarkozy lors du suivant. C'est pareil pour Macron pourtant largement élu.

            Donc au final, ce qui compte c'est l'écart en nombre de voix, et dans ce cas, (+0, +0) est équivalent à (+.5, +.5).

            • [^] # Re: Villani et son domaine de compétence…

              Posté par  . Évalué à 1.

              On le voit bien avec le cas Trump aux USA… et ceux qui n'ont pas vote pour Clinton mais pour le 3eme partis (qui fait deco) parceque "Sanders" et ben si ils ont a la fin fait elire l'autre cretin et lui ont donc donne leur voix.

              J'ose esperer que aujourd'hui ils sont content…

        • [^] # Re: Villani et son domaine de compétence…

          Posté par  . Évalué à 4.

          Même la version du journaliste n'est pas stupide, si l'idée est de répondre à l'argument 'je ne fais pas de choix en ne votant pas'. L'abstention est un choix qui consiste à dire que toutes les options se valent.

          L'abstention est un choix, mais ce n'est pas le choix de dire que toutes les options se valent. Ca peut exprimer beaucoup de chose differentes. Tout comme voter Macron peut exprimer des choses differentes.

          • [^] # Re: Villani et son domaine de compétence…

            Posté par  (site web personnel) . Évalué à 1.

            D'un point de vue utilitariste (ce que j'ai oublié de préciser effectivement). Ne pas choisir c'est ne pas préférer une option et donc qu'elles se valent. Si tu préfères une option alors tu dois voter pour elle.

            • [^] # Re: Villani et son domaine de compétence…

              Posté par  . Évalué à 2.

              D'un point de vue utilitariste (ce que j'ai oublié de préciser effectivement). Ne pas choisir c'est ne pas préférer une option et donc qu'elles se valent. Si tu préfères une option alors tu dois voter pour elle.

              Ca c'est selon ton calcul. Si t'abstenir est conforme a tes convictions il y a de bonne chance que tu aie plus facile a communiquer sur ton choix, creer une narration interpellante et ainsi promouvoir tes idees.

              • [^] # Re: Villani et son domaine de compétence…

                Posté par  (site web personnel) . Évalué à 1.

                C'est pas relatif à un calcul. Le point de vue utilitariste consiste à s'intéresser à l'utilité de son action, à son impact. Ici, l'impact c'est l'issue du vote (espérer un impact de l'abstention me semble illusoire au vue de l'absence de conséquence du niveau déjà élevé). Après, tu peux ne pas être utilitariste et fonder ta morale sur d'autres principes (c'est d'ailleurs le cas de la majorité des gens).

          • [^] # Re: Villani et son domaine de compétence…

            Posté par  . Évalué à 1.

            Ca peut exprimer beaucoup de chose differentes

            Ouais, ou ça veut aussi exprimer qu'on n'a pas envie de s'exprimer. C'est bien de fermer sa gu… quand on a rien à dire, c'est très bien. Sauf qu'il n'y a aucune raison que ça s'arrête aux élections, parce que si ça revient à ne pas s'exprimer un jour et emmerder le monde pendant les 5 ans qui suivent en allant raconter partout qu'on voulait dire quelque chose, je ne vois pas l'intérêt.

            • [^] # Re: Villani et son domaine de compétence…

              Posté par  . Évalué à 4.

              Sauf qu'il n'y a aucune raison que ça s'arrête aux élections, parce que si ça revient à ne pas s'exprimer un jour et emmerder le monde pendant les 5 ans qui suivent en allant raconter partout qu'on voulait dire quelque chose, je ne vois pas l'intérêt.

              Tu peux emmerder les gens aussi quand tu as vote. Je ne vois pas trop ce qui est specifique a l'abstention.

              • [^] # Re: Villani et son domaine de compétence…

                Posté par  . Évalué à 1.

                Disons que quand tu t’exprimes pas un jour ou on (la société) te demande explicitement ton avis, qui est d’ailleurs dédié à ça, c’est étrange de le faire quand on le demande pas particulièrement.

              • [^] # Re: Villani et son domaine de compétence…

                Posté par  . Évalué à -1.

                C'est un point de vue, mais pour moi, l'abstention + ouvrage de tronche est le comportement typique du fumiste. Le mec qui ne dit rien pendant les réunions, mais qui fait toujours chier après, parce qu'il n'est jamais d'accord. Son objectif n'est pas de changer les choses, c'est simplement d'adopter une posture.

                Sur le fond, il y a deux grandes catégories d'abstentionnistes. Ceux qui s'en foutent pendant et après l'élection, comportement que je n'apprécie pas particulièrement, mais qui ne me choque pas plus que ça, et ceux qui ne votent pas et qui passent leur temps à critiquer. Et ceux-là, au boulot c'est des nuisibles, et dans la société, c'est pareil. «Ouais, alors, quand je m'abstiens, je veux dire que…». Bah non. On s'en fout, tu avais un moment pour t'exprimer (y compris pour te présenter si tu trouves qu'aucun de la tripotée de branquignolles de toutes les couleurs possibles du spectre politique ne vaut le coup), tu as choisi de ne pas le faire (ou alors, tu avais piscine?), tu t'es mis volontairement hors-jeu du débat démocratique. J'aimerais bien savoir s'il existe dans l'histoire de l'humanité quelque chose de positif qui s'est passé parce que quelqu'un a choisi de ne pas faire l'effort de faire quelque chose (désobéir à un ordre, c'est un effort; faire grève, c'est un effort. Rester chez soi le jour des élections, non).

                • [^] # Re: Villani et son domaine de compétence…

                  Posté par  . Évalué à -6.

                  Je suis bien d'accord. Moi d'ailleurs, je ne me contente pas du bout de papier qu'ils me donnent au bureau de vote. Puis c'est quoi cette manie de mettre le nom d'un inconnu dessus ? Alors je prends une belle feuille A4, et je m'exprime… je m'exprime comme tu peux pas savoir, et recto-verso, et en tout petit.

                  Une fois j'ai même voulu faire un programme complet. Huit pages que ça m'a pris. Mon problème c'était les enveloppes : ridiculement petites. Alors je suis venu avec la mienne. Mais z'en ont pas voulu. Dois-je dénoncer la censure selon toi ?

          • [^] # Re: Villani et son domaine de compétence…

            Posté par  (site web personnel) . Évalué à 1.

            L'abstention est un choix, mais ce n'est pas le choix de dire que toutes les options se valent.

            Si on ne pense pas que toutes les options se valent et donc qu'on en préfère une, il faut soit avoir des trucs très importants à faire, soit ne pas avoir le droit de voter, soit n'en avoir rien à faire, soit être un peu concon pour s'abstenir, non?

          • [^] # Re: Villani et son domaine de compétence…

            Posté par  . Évalué à 2.

            L'abstention est un choix

            C'est plus compliqué que cela:
            Voter, c'est être actif, c'est faire l'effort de se déplacer pour glisser un bulletin dans l'urne. C'est parfois se faire violence.
            S'abstenir, c'est être passif, c'est ne rien changer à son mode de vie habituel du dimanche, la chaise, le canapé, la plage, la ballade, etc… Je doute donc du fait que l'abstention soit un choix. C'est le plus souvent l'option des fainéants. Bien sûr, il y a des exceptions, l'abstentionnisme militant, cela existe mais c'est rare.

            Poster une information ne signifie pas nécessairement adhésion

            • [^] # Re: Villani et son domaine de compétence…

              Posté par  . Évalué à 2.

              Il y a aussi l'abstention d'une grosse partie des gens qui estiment que voter Machin ou Truc ne changera strictement rien à leur vie. Pour simplifier, ils estiment que les candidats sont minables, ce que les 30 dernières années de médias ont eu fortement tendance à leur démontrer.
              Ils ont raison ou pas, c'est la principale cause d'abstention.

              On a donc le camp des "Ne pas voter c'est laisser les autres choisir à notre place".
              Et le camps des "Ceux qui votent sont de grands naïfs".
              Mon avis perso est que les deux camps ont de forts arguments en leur faveur.

      • [^] # Re: Villani et son domaine de compétence…

        Posté par  . Évalué à -10.

        2 choix. 100% de chances de voter fasciste.
        => abstention

        • [^] # Re: Villani et son domaine de compétence…

          Posté par  . Évalué à 6.

          Tu devrais "legerement" revoir ce qu'est la definition de fascisme…

          • [^] # Re: Villani et son domaine de compétence…

            Posté par  . Évalué à -8.

            Ou pas…

            • [^] # Re: Villani et son domaine de compétence…

              Posté par  . Évalué à 3.

              Rester dans son ignorance et dans son outrance permet en effet de ne jamais remettre en cause les énormités qu'on trolle sur Internet. «Car quand on est convaincu qu'on a raison. On a plus besoin de se casser l'cul a réflechir.», Super D. «Le club des catholiques».

              • [^] # Re: Villani et son domaine de compétence…

                Posté par  . Évalué à -9.

                Ou ptet que j'en sais plus que toi…

                • [^] # Re: Villani et son domaine de compétence…

                  Posté par  . Évalué à 1.

                  La vieille theorie du complot que toi soit est au courant des illuminati qui controlent le monde?

                  Ah oui… bon courage.

                • [^] # Re: Villani et son domaine de compétence…

                  Posté par  . Évalué à 7.

                  Tu te conduis comme un troll, tu argumentes comme un enfant, tu réponds à toute tentative de discussion par des pirouettes… Mais peut-être que sous cette apparence rustre tu caches un être riche et complexe, intelligent, cultivé, rationnel, ouvert, charismatique et humble? Ton humilité est telle que tu ne souhaites pas nous humilier sous la puissance de tes arguments, alors tu préfères te faire passer pour un boulet—chose que tu réussis en effet à merveille?

                  • [^] # Re: Villani et son domaine de compétence…

                    Posté par  . Évalué à -10.

                    CQFD.

                    • [^] # Re: Villani et son domaine de compétence…

                      Posté par  . Évalué à -6.

                      Arf je cherchais le terme que j'ai entendu récemment. De 《La (dis)qualification haineuse》 c'est ce à quoi tu t'emploies. J'ai exprimé une opinion inhabituelle. Je n'ai pas voulu en débattre, je n'ai pas cherché à te faire changer d'opinion non plus. Et ça ça te fous en rogne, qu'un autre puisse avoir un avis différent du tien. Sans que tu puisses rien y faire.

                      D'où ton caca nerveux.

                      D'où mon CQFD.

                      • [^] # Re: Villani et son domaine de compétence…

                        Posté par  . Évalué à 3. Dernière modification le 28 mars 2018 à 11:17.

                        Je n'ai pas compris. qu'as-tu démontré qui mérite un CQFD ?

                        Et sinon, quel est l’intérêt d'émettre une "opinion inhabituelle" de manière sibylline sans aucune argumentation ?

                        penses-tu que celui qui la reçoit va essayer de comprendre ce que tu veux dire et se dire : "s'il affirme ainsi ce qui semble au premier abord une grosse connerie, c'est qu'il a dû y réfléchir profondément et ça vaut la peine que j'y réfléchisse aussi, peut-être a-t-il raison" ?

                        • [^] # Re: Villani et son domaine de compétence…

                          Posté par  . Évalué à -9.

                          Tiens, dernière scène en date. Alors que les étudiants commencent à se réveiller contre la politique de Macron. Paf! Comme par hasard des fachos attaquent une AG estudiantine. Histoire de bien "expliquer" aux autres ce qui leur arrivera s'ils sont trop remuants vis-à-vis de la politique de Macron.

                          Fort heureusement ces gens là, qui n'ont pas plus de cervelle qu'une moule bourrée (condition sine qua non pour faire partie de la bande, c'est un critère de recrutement chez eux), ont oublié qu'ils pouvaient être filmés. Du coup difficile de la refaire à l'envers comme ils l'ont fait pour Méric.

                          • [^] # Re: Villani et son domaine de compétence…

                            Posté par  . Évalué à 2.

                            Tiens, dernière scène en date. Alors que les étudiants commencent à se réveiller contre la politique de Macron. Paf! Comme par hasard des fachos attaquent une AG estudiantine. Histoire de bien "expliquer" aux autres ce qui leur arrivera s'ils sont trop remuants vis-à-vis de la politique de Macron.

                            Tu parles des evenements de la faculte de droit a Montpellier? Tu penses que c'est organise depuis le gouvernement national?

                            J'ai l'impression que les auteurs ne sont pas traites specialement avec complaisance, ce qui me ferait plutot penser que c'est plutot une initiative personnelles des gens sur place.

                            • [^] # Re: Villani et son domaine de compétence…

                              Posté par  . Évalué à -10.

                              Il est prouvé que c'est l'État qui a organisé la ratonade. Par la figure du doyen de l'université. Doyen qui a été maintenu en place sans que ces opinions, connues de tous, furent remises en question.

                              C'est l'affirmation trop "publique" et trop "cash" des dites opinions qui a été sanctionnée. Tactique coutumière dans le FN, qu'on appelle habituellement, contre toute évidence, la dé-diabolisation.

                          • [^] # Re: Villani et son domaine de compétence…

                            Posté par  . Évalué à 4.

                            des fachos attaquent une AG estudiantine

                            Quelques erreurs se sont glissées dans ta phrase. Je refais :
                            4 étudiants (d'extrême droite selon les informations fournies par la presse) organisent une bonne baston pour vider un amphi occupé illégalement par des étudiants qui, avec de nombreux autres, empêchent par la force depuis plusieurs jours les autres de suivre les cours.

                            Cela n'excuse rien, mais se plaindre de l'usage de la force alors qu'on en fait soi-même usage… comment dire, c'est un truc de gamin qui vient de se prendre un retour de manivelle.

                            "On est traité de fachos, de nazis de SS, juste parce que notre avis est différent. J'ai même changé mon nom sur Facebook pour ne pas être traqué."
                            On parle là d'un étudiant qui, avant la baston, voulait suivre les cours.

                            "La présidente de la corpo de droit a même engagé un avocat car elle s'est fait suivre plusieurs fois dans la rue."

                            Et ne surtout pas prétendre que ceux qui bloquent les cours sont pacifiques : personne n'a pu entrer en cours, donc ils sont forcément très convaincants si vous voyez ce que je veux dire.
                            Mais pourtant ils n'ont frappé personnes eux :
                            - ça reste à prouver que personne ne s'est pris une grosse mandale pour avoir voulu forcer les barrages
                            - ceux qui veulent suivre les cours ne sont probablement pas assez stupides pour affronter les énervés qui montent des baricades. Donc ils ne prennent pas de coups
                            - ils sont hyper agressifs "en ligne" et n'ont aucune hésitation à foutre une partie de la vie des autres en l'air (perdre une année, balancer des informations privées, etc)

                            • [^] # Re: Villani et son domaine de compétence…

                              Posté par  . Évalué à -9.

                              Et les battes c'était pour faire un spin-off amateur de Walking-dead.

                              • [^] # Re: Villani et son domaine de compétence…

                                Posté par  . Évalué à 4.

                                C'était pour déloger les 10% d'imbéciles qui pourrissait la vie des 90% restant.
                                Visiblement ça a bien fonctionné. Illégal, mais rapide et efficace.

                                Et je suis bien d'accord avec toi à propos de l'attitude des forces de l'ordre : la police n'est pas intervenue pour déloger ceux qui bloquaient et occupaient illégalement les locaux. C'est scandaleux non ? :-)

                                Je pense que tu utilises ta lorgnette dans un seul sens.
                                Retournes-là et tu comprendras peut-être le point de vue d'autres personnes. Ca ne veut pas dire que tu seras d'accord avec, rassures toi tu ne vas pas voter à droite tout de suite.

      • [^] # Re: Villani et son domaine de compétence…

        Posté par  (site web personnel) . Évalué à 2. Dernière modification le 27 mars 2018 à 23:06.

        Et ça… c'est presque juste […]

        À mon avis tu vas chercher beaucoup trop loin. S'il parle du second tour il est raisonnable de penser que l'équivalence dont il parle ne tient compte que du classement et si on considère qu'un abstentionniste donne 0 voix, 1/2 voix (ou douze trilliards d'ailleurs) à chacun des deux candidats, cela ne change pas l'ordre d'arrivée des deux candidats.

        Par contre si cette autre façon de compter garde l'ordre, cela ne garde pas “l'information de range deux” qu'est le score du candidat. (Et c'est aussi raisonnable de penser que Villani est largement au courant.)

    • [^] # Re: Villani et son domaine de compétence…

      Posté par  . Évalué à -7. Dernière modification le 26 mars 2018 à 21:19.

      Sutor, ne supra crepidam. Littéralement, « Cordonnier, pas plus haut que la chaussure », phrase dite par un peintre grec à un cordonnier qui s’apprêtait à critiquer sa toile.

      Depuis lors le peintre ne trouva plus rien à redire à ses chaussures, bien que ses pieds lui faisaient un mal de chien.

    • [^] # Re: Villani et son domaine de compétence…

      Posté par  (site web personnel) . Évalué à 2.

      Mouais, ce peintre grec, il parlait latin ? Ça me parait louche comme citation.

    • [^] # Re: Villani et son domaine de compétence…

      Posté par  . Évalué à 2.

      phrase dite par un peintre grec à un cordonnier qui s’apprêtait à critiquer sa toile.

      Il était assez con, ton peintre polyglotte. J'ai le droit et la légitimité de critiquer la bouffe de la cantine même si je ne suis pas cuistot, j'ai le droit et la légitimité de dire que tel logiciel est plein de bugs même si je ne suis pas programmeur. C'est vraiment l'argument du professionnel incompétent, ton truc. Si le cordonnier est son client, il peut se plaindre de tout, et l'autre n'a qu'à refaire le taf.

  • # "Intelligence artificielle", pourquoi pas?

    Posté par  . Évalué à 2.

    C'est déjà difficile de dire si un humain est vraiment intelligent. Le plus simple, c'est de savoir à quel point il est con.

    Plus sérieusement, en IA ,dans l'industrie pendant mes études on essayaient plutôt de développer des systèmes qui soient capable de s'adapter à différent paramètre ou d'aider au diagnostique. Le système apprenait comme un humain, par rapport à différent paramètre et un historique, il voit si le résultat obtenu est le résultat attendu.
    Ça revient à un simulateur de personnel expérimenté avec les biais mauvaise journées et caractère de merde en moins.

    Quand il s’agit d'un humain on aurait tendance à considérer qu'il est intelligent,s'il comprend vite le lien entre les paramètres et le résultat. Est-ce suffisant pour parler d'intelligence?

    Finalement, est-ce qu'il ne faudrait pas commencer par définir intelligence?

    • [^] # Re: "Intelligence artificielle", pourquoi pas?

      Posté par  . Évalué à 1.

      Finalement, est-ce qu'il ne faudrait pas commencer par définir intelligence?

      Excellente question. L'intelligence humaine inclut également la sensibilité, les sentiments. Que sont les sentiments? C'est vaste, infini, indéfinissable…
      Pour cette raison, je pense que l'on devrait plutôt parler d'intelligence "numérique", et non "artificielle".

      Poster une information ne signifie pas nécessairement adhésion

      • [^] # Re: "Intelligence artificielle", pourquoi pas?

        Posté par  (site web personnel) . Évalué à 3.

        Finalement, est-ce qu'il ne faudrait pas commencer par définir intelligence?

        C'est justement la difficulté : personne n'arrive à la même. D'où la blague de dire que intelligence est tout ce qui n'arrive pas à faire un ordinateur.

        Excellente question. L'intelligence humaine inclut également la sensibilité, les sentiments. Que sont les sentiments? C'est vaste, infini, indéfinissable…

        Non justement, les sentiments sont assez bien connu. Il y a moins d'une dizaine de base, qui varient en intensité. Pour avoir coder des "robots", j'ai l'impression que les sentiments servent à faire quelques choses plutôt que rien, quand il n'y a pas assez d'informations pour prendre une décision rationnelle.

        "La première sécurité est la liberté"

  • # deep learning << machine learning << artificial intelligence

    Posté par  . Évalué à 0.

    Je crois qu'il est bon de le rappeller ici.
    Tout le monde mettant l'etiquette IA sur n'importe quoi…

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.