Journal AlphaGo remporte le premier match contre Lee Sedol

Posté par . Licence CC by-sa
36
9
mar.
2016

Le jeu de Go est considéré comme un des plus difficile à jouer pour un ordinateur car le nombre de possibilités est quasiment infini, plus grand que le nombre d'atomes dans l'univers parait-il.
Pourtant la règle est simple, pour résumer, on pose chacun son tour des pierres sur un damier de 19x19, le but est d'avoir des territoires plus grands que son adversaire. Si on entoure les pierres de l'adversaire on en fait des prisonnières et cela nous constitue un territoire qui lui-même devra être assez solide etc.
Il y a en gros deux tactiques, soit on consolide son territoire soit on attaque celui de l'autre. Si on attaque trop on risque de se fragiliser si on n'attaque pas assez on risque d'être trop petit. Tout est dans l'équilibre.

Pour résoudre le problème de l'infinité de solutions le robot emploi la méthode de l'auto aprentissage (machine learning). En gros, si je ne dis pas trop de bêtise, c'est la méthode empirique. Le robot ne sait pas trop jouer, parce que son programmeur non plus, alors il joue un peu au hasard, il élimine les mauvaises solutions et il garde les meilleures et ainsi de suite. A force de jouer comme un malade (contre lui-même) et de pomper toutes les ressources de milliers de procs (de Google) il finit par ne plus faire d'erreur.
Ce qui est révolutionnaire c'est que ce genre de méthode permettrait de résoudre des problèmes sans pour autant qu'on sache en coder l'algorithme.

Ca fait peur hein ?

Alors pour se rassurer on regarde la partie. Et si encore une fois j'ai bien suivi, il semblerait que le robot utilise de préférence la méthode pacifique plutôt que d'attaquer… Ouf !

Maintenant, suspens, il reste 4 parties pour les départager…

Le lien que j'ai trouvé le plus intéressant (mais en anglais)
http://www.wired.com/2016/03/googles-ai-wins-first-game-historic-match-go-champion/

Les commentaires de la partie en français à venir ce soir sur KGS (par un 7dan). Le jeu de Go a cela d'intéressant qu'il est assez facile de suivre une partie même si on a un niveau débutant.
http://animations.jeudego.org/2016/03/08/commentaire-parties-alphago/

Google et Facebook étaient tous les deux en lice, c'est donc Google qui a pris une longueur d'avance, ce qui n'était pas du tout prévu aussi rapidement. Il y a peu de temps on estimait à une dizaine d'année pour en arriver là.

Autant le dire tout de suite, le programme n'a pas été écrit en Go, c'est plutôt l'inverse, le jeu aurait inspiré les auteurs (Less is exponentially more). J'arrête là ma propagande.

  • # Machine Learning

    Posté par . Évalué à 7. Dernière modification le 09/03/16 à 19:23.

    Ce qui est révolutionnaire c'est que ce genre de méthode permettrait de résoudre des problèmes sans pour autant qu'on sache en coder l'algorithme.

    Ca fait peur hein ?

    Le "Machine Learning" c'est pas tout récent, ça a été défini en 1959 comme étant la "capacité des ordinateurs a apprendre tout seuls sans être explicitement programmés" mais ça a pas mal été appliqué ces dernières années à travers diverses méthodes et algorithmes. Le filtre à spam intelligent de GMail, la recherche d'images, les propositions de produits et d'applications aux utilisateurs des Apple/Google Play/Netflix stores ou les voitures qui se conduisent toutes seules en sont quelques exemples.

    C'est déjà partout et on l'utilise tous les jours sans même s'en rendre compte :)

    • [^] # Re: Machine Learning

      Posté par . Évalué à 2.

      Toutafé Le Machine Learning ça fait un moment que cela existe mais ce qui manquait dans l'apprentissage machine c'était un accès simple et peu coûteux pour entraîner ces foutus algorithmes.

      AlphaGo c'est un mix entre du Machine Learning et d'autres méthodes comme Monte-Carlo

    • [^] # Re: Machine Learning

      Posté par . Évalué à 10.

      Il ne faut pas s'emballer non plus. Le programme "de base" joue très bien au go et battrait la plupart des joueurs amateurs. Il possède une énorme base de données de parties jouées par des pros, et connait des millions d'ouvertures et de patterns. D'après ce que j'ai compris, le machine learning a surtout permis de passer d'un très bon programme à un programme imbattable. Mais dans tous les cas, on reste très très loin d'un programme qui apprend tout seul un jeu qu'il ne connait pas.

      • [^] # Re: Machine Learning

        Posté par . Évalué à -1.

        Pas d'accord sur ce point.

        Une des but du machine learning c'est justement de permettre à un programme d'apprendre par lui même le fonctionnement d'un environnement par essai successif. Le programme test des actions et reçoit des retours favorables ou défavorables et au bout de pas mal d'itération il "comprend" comment fonctionner de manière optimale.

        Pour se faire une idée il y a les vidéos de Deepmind montrant un programme apprenant à jouer à un jeu vidéo :
        - http://www.theverge.com/2015/2/25/8108399/google-ai-deepmind-video-games
        - https://www.youtube.com/watch?v=V1eYniJ0Rnk

        • [^] # Re: Machine Learning

          Posté par . Évalué à 8.

          Pas d'accord sur ce point.

          Pas d'accord sur quoi? Lis l'article dans Nature (28 janvier 2016), figure 4. Tu as une évaluation de la force du programme par rapport aux autres programmes de Go, et la force d'AlphaGo avec ou sans les différents composants de l'algorithme. Si je comprends bien, les versions sans machine learning se placent déja au niveau amateur et battent une bonne partie des programmes du marché.

          En gros, on est très très très loin de l'idée d'un algo qui apprend un jeu tout seul. AlphaGo est un programme qui, de base, sait jouer au Go. Les composants d'IA ont "simplement" élevé son niveau au-delà des meilleurs humains… au Go. Les meilleurs joueurs de Go peuvent donc écraser Alpha Go au morpion, aux échecs, ou à un concours d'œufs brouillés.

          • [^] # Re: Machine Learning

            Posté par (page perso) . Évalué à 5.

            En gros, on est très très très loin de l'idée d'un algo qui apprend un jeu tout seul.

            Aujourd'hui l'intelligence artificielle est sur toutes les lèvres et fait beaucoup fantasmer mais la réalité est souvent très terre à terre comme tu le rappelles. De plus, même si les avancées du machine learning sont très enthousiasmantes, il ne faut pas oublier que cela sert essentiellement à de l'estimation (parier sur la valeur la plus plausible d'une quantité inconnue) ou la reconnaissance de forme (classification, comptage, détection) mais ces activités sont très loin de constituer la palette totale des activités de l'intelligence.

          • [^] # Re: Machine Learning

            Posté par . Évalué à 1.

            Je parlais de Deepmind qui a fait une démonstration - voir les liens donnés - d'un de leur logiciel capable d'apprendre à jouer à quelques jeux.

            • [^] # Re: Machine Learning

              Posté par . Évalué à 5. Dernière modification le 10/03/16 à 13:07.

              Ah OK, on ne parlait pas de la même chose. En fait, je n'ai pas compris à partir de Wikipédia combien de programmes l'entreprise Deepmind développait, ni le lien entre AlphaGo et les softs qui jouent aux jeux vidéos.

              D'une manière générale, j'ai toujours des doutes sur les grandes envolées lyriques sur l'IA. Il faut quand même avouer que le développement d'IA utiles dans la vie quotidienne reste très très limitée, et qu'on en est encore au stade des promesses malgré des décennies de développement et d'investissement. En plus, j'ai l'impression qu'il y a très peu de visibilité ; quelque chose qui paraissait insurmontable est en passe d'être résolu (véhicules automobiles autonomes), alors que d'autres choses qui paraissaient possibles, voire quasiment triviales, restent encore assez virtuelles (correction grammaticale, compréhension d'un texte écrit).

              En ce qui concerne AlphaGo, par exemple, on peut saluer la prouesse tout en admettant qu'il ne s'agit que d'un système expert sophistiqué. En particulier, AlphaGo n'a pas appris à jouer au Go tout seul, il a juste ingurgité des millions de parties jouées par des experts humains, joué des millions de parties contre lui-même, et reste capable de parcourir des arbres de possibilité plusieurs milliers de fois plus vite qu'un humain. Il ne fait aucun doute qu'un humain capable de disposer d'autant d'informations serait bien meilleur qu'AlphaGo.

              • [^] # Re: Machine Learning

                Posté par . Évalué à 2.

                Y a plus qu'à essayer soit-même !
                https://www.tensorflow.org/

              • [^] # Re: Machine Learning

                Posté par . Évalué à 3.

                Pour comparer, la question est donc "combien de parties Lee Sedol a-t-il jouées et étudiées ?"

                • [^] # Re: Machine Learning

                  Posté par . Évalué à 6.

                  Ce nombre est clairement inférieur à celui d'AlphaGo.

                  Mais il est important de noter qu'AlphaGo a appris sur les parties disponibles sur KGS (un serveur de Go très prisé). Il a donc appris sur 160.000 parties entre les meilleurs joueurs de KGS (n'ayant pas les droits pour s'appuyer sur les parties professionnelles). La majorité de ces parties sont jouées par des amateurs, certes fort mais loin du niveau des professionnels du calibre de Lee Sedol.

                  Il est donc très intéressant de voir que malgré une base de jeu "exemple" plus faible que le niveau de son adversaire, il est arrivé à obtenir un niveau équivalent (pour ne pas dire supérieur).

                  • [^] # Re: Machine Learning

                    Posté par . Évalué à 2. Dernière modification le 13/03/16 à 23:03.

                    Dans le commentaire officiel de 1ere ou 2eme partie, une personne de Deepmind parlait d'ailleurs du futur projet de reconstruire une version de AlphaGo qui n'utiliserait pas cette base de données de parties humaines mais seulement des matchs joué contre lui-même. Et qu'ils seraient curieux de voir si les mouvements joués seraient plus originaux encore.

              • [^] # Re: Machine Learning

                Posté par . Évalué à 0.

                Je suis d'accord avec ton commentaire general mais circonspect sur ce point.

                quelque chose qui paraissait insurmontable est en passe d'être résolu (véhicules automobiles autonomes),

                Il y a 20 ans, les pros de l'auto savaient faire rouler des voiures sans pilotes sur des routes equipees de capteur avec un taux d'erreurs residuelles faibles, mais rendant la mise en place d'un service purement automatise' impossible (sans compter la question du cout). Se posait aussi la difficulte' de la sortie du cadre prescrit (travaux sur la route, deviation…) qui bloquait le systeme.

                Sauf information technique supplementaire, j'ai l'impression qu'on en est exactement au meme point. On a remplace' les capteurs sur la route par une panoplie d'images filmees en amont par google par un vehicule specialise'. Les images filmees en temps reel par la google car sont comparees aux images preenregistrees par la voiture specialise'. Bref, on a change' le type d'installation en amont ( un film plutot que des capteurs sur la route) mais le principe reste le meme : on ne circule que sur un parcours predetermine' et correctement balise' en amont. Les problemes restent les memes ( cout, travaux ou autre imprevu sur la route, erreurs residuelles potentiellement mortelles…).

                Je n'ai pas vu d'information quantifiee montrant qu'on a progresse' sur chacun des points, Une google car autonome reste totalement bloquee si on doit faire 20 metres et rouler sur l'herbe parce que le conducteur de devant a laisse' tomber un objet de son cofffre, on doit rester attentif a cause des erreurs residuelles, etc, etc… Par contre, au niveau marketing, je vois qu'il y a eu de gros progres :-)

                • [^] # Re: Machine Learning

                  Posté par . Évalué à 4.

                  Je pense que tu sous estimes grandement la capacité des IA.

                  Regarde par exemple cette vidéo. La voiture évalue la trajectoire de tout les objets qu'elle voit sur ses caméras et anticipe leurs mouvements. On peut voir la voiture passer à coté de cyclistes et l'un d'eux va faire le signe de tourner à gauche, la voiture réagit immédiatement et ralentit. On est loin d'une voiture qui se contente simplement de suivre des traceurs magnétiques sur la route.

                  Il est important de noter que, même si certains comportements ont été pré-programmés, beaucoup de ces comportements (a l'image d'AlphaGo) ont été appris par expérience de l'IA.

                  • [^] # Re: Machine Learning

                    Posté par . Évalué à -3.

                    Il y a 20 ans aussi les voitures circulaient dans un environnment complexe et s'adaptaient. Sans doute le font elles mieux aujourd'hui, mais on ne nous donne aucune info technique pour comparer. Pour l'instant, je vois du marketing…

                    Il y a des progres "gratuits" qui ne sont pas lie's a la problematique directement ( l'electronique et le traitement du signal, la capacite' de calcul des proc). Mais est-ce que a materiel egal on a progressé ? Peut etre qu'on a progresse' vraiment, peut etre de presque rien, difficile de dire …

                    Je ne dis pas qu'il n'y a pas de progres. Je dis que je vois la blogosphere s'enflammer sur un truc "closed source" sur lequel on n'a pas d'info technique serieuse.

                    • [^] # Re: Machine Learning

                      Posté par . Évalué à 7.

                      Pour l'instant, je vois du marketing

                      Je trouve quand même que tu es d'une rare mauvaise foi :-) À moins de tomber dans une théorie du complot, il semble indéniable que plusieurs entreprises ont mis au point des bagnoles capables de conduire toutes seules dans des conditions de sécurité qui semblent relativement acceptables. Bordel, des bagnoles qui conduisent toutes seules! C'est une tâche hyper complexe, apprendre à conduire pour nous reste une épreuve longue et stressante, et je pense que beaucoup d'experts sont un peu sur le cul d'imaginer que d'ici quelques années on va croiser des vraies voitures autonomes dans les rues. Les problèmes majeurs qu'il reste à résoudre sont probablement liés à la sécurité et aux risques juridiques.

                      un truc "closed source" sur lequel on n'a pas d'info technique serieuse.

                      Sauf que ça n'est pas Kévin-dans-son-garage qui mène la danse. Cette histoire de jeu de Go montre quand même que quand Google s'y met, il ne fait pas semblant. On peut reprocher énormément de choses à Google, mais certainement pas l'incompétence technique.

                      • [^] # Re: Machine Learning

                        Posté par . Évalué à 1.

                        Bordel, des bagnoles qui conduisent toutes seules!

                        Il faut ajouter "sur une route connue"… C'est comme si ayant appris à conduire à Bourg-en-Bresse je ne saurais pas conduire ailleurs à moins que quelqu'un m'enseigne préalablement toutes les routes de cet ailleurs.

                        apprendre à conduire pour nous reste une épreuve longue et stressante

                        Certes, mais :

                        • au moins, nous, on sait conduire sur des routes qu'on ne connaît pas
                        • si pour la machine ce n'est pas stressant (hahaha), cela reste très long et coûteux : une machine très puissante, qui consomme beaucoup de matière et d'énergie (merci Google) et qui s'est enrichie d'une base de donnée colossale (merci l'open access et les humains) pendant très longtemps.
                        • [^] # Re: Machine Learning

                          Posté par . Évalué à 4.

                          Quand je vois les centaines d'accident idiots sur youtube "Dashcam russia", la peine qu'ont certains conducteurs pour faire des manoeuvres simples et d'autres bizarreries de conducteurs humains.
                          Je me permets de nuancer ton propos sur cet avantage qu'auraient les humains :-)

                        • [^] # Re: Machine Learning

                          Posté par . Évalué à 1.

                          Il faut ajouter "sur une route connue"… C'est comme si ayant appris à conduire à Bourg-en-Bresse je ne saurais pas conduire ailleurs à moins que quelqu'un m'enseigne préalablement toutes les routes de cet ailleurs.

                          Tout ce dont tu as besoin, c'est le tracé des routes existantes et de la reconnaissance d'images en temps réel. Ton GPS Garmin sait déjà où il va, et on sait faire le second. Faut juste mettre le tout ensemble en 2-3 lignes de code et le résultat ressemble à ça (voir vers 4:05 par exemple).

                          • [^] # Re: Machine Learning

                            Posté par . Évalué à 0.

                            Non justement le gps ne suffit pas. Le principe est de comparer les images temps reel aux images prises avec une voiture specialisee. Il faut de multiples passages en amont avant de lancer une google car. Il faut filmer metre par metre, sur chaque route sous des prises de vues differentes, pour croiser les images et obtenir une bonne description de l'espace ambiant. Il y a bien plus de travail que pour google map car il ne suffit pas d'une vue, il faut une description precise.

                            C'est pour ca que ce n'est pas clair que cette technologie soit plus simple a mettre en oeuvre que des capteurs. Si un nouveau feu tricolore apparait par exemple, ca pose probleme, si un batiment apparait la ou il y avait un square, ca pose probleme. Il faut maintenir une enorme base de donnees et la mettre a jour en continu en fonction de l'evolution du paysage et de l'architecture.

                            • [^] # Re: Machine Learning

                              Posté par . Évalué à 0.

                              Tout pareil pour les humains.

                              Après une phase d'apprentissage (apprendre à connaître une ville en voiture) on 'être humain' passe assez rapidement en mode "pilote automatique".
                              Quelques recherches google montrent qu'il y a souvent des accidents dans les quartiers où la signalisation a été changée. Je me suis fait avoir plusieurs fois à vouloir passer dans une rue alors qu'elle était devenue à sens unique. L'avertissement du policier m'a permis de corriger rapidement le tir…

                              • [^] # Re: Machine Learning

                                Posté par . Évalué à 2.

                                Oui, je suis d'accord. 90% du temps, on est en pilotage automatique et on peut penser a autre chose en conduisant.

                                Le pb de la gg car, c'est qu'en territoire inconnu, elle s'arrete. Quand tu vois des travaux, tu fais un detour de quelques metres, tu montes sur un trottoir ou tu deboites et passe temporairement de l'autre cote' de la route. La google car, non. Elle s'arrete et il faut qu'un humain la prenne en main. Un responsable de chez gg repondait benoitement: " c'est un pb sur lequel il faut qu'on travaille".

                                En ce moment, le logiciel de chaque gg car emet un signal vers le central quand il y a rencontre avec une situation inconnue et ils viennent refilmer pour avoir des images a jour.

                                • [^] # Re: Machine Learning

                                  Posté par . Évalué à 3.

                                  Une voiture qui roule à 37km/h et qui ne monte pas sur les trottoirs, c'est plutôt une feature qu'un problème. Ca obligerait à un peu plus de responsabilité du côté des aménagements ce qui ne serait pas plus mal.

                                  • [^] # Re: Machine Learning

                                    Posté par . Évalué à 2.

                                    37km/h, c'est la vitesse max, pas la vitesse moyenne. On n'a pas d'info sur la vitesse moyenne, gg ne communique pas dessus.

                                    Avec un velo, un vitesse max de 37, c'est plus ou moins ce qu'on fait, et la vitesse moyenne est plutot moins de 20. En velo, on perd du temps quand la vitesse est grande, sans feux, mais on gagne du temps par rapport a la voiture dans les situations ou la circulation est dense. On sait qu'a chaque difficulte', le logiciel de la voiture se met en vitesse minimum. Si la voiture a une vitesse de pointe qui est celle d'un bon velo, mais qu'elle ralentit dans les situations un peu tendues la ou le velo est a son avantage, il est possible que la vitesse moyenne soit significativement plus faible que celle d'un velo.

                                    • [^] # Re: Machine Learning

                                      Posté par (page perso) . Évalué à 6.

                                      Et quand les voitures seront conduites automatiquement, on pourra s'amuser à leur couper la route à vélo :p

                                • [^] # Re: Machine Learning

                                  Posté par . Évalué à 5.

                                  Oui, je suis d'accord. 90% du temps, on est en pilotage automatique et on peut penser a autre chose en conduisant.

                                  et

                                  La google car, non. Elle s’arrête et il faut qu'un humain la prenne en main.

                                  Tu ne trouve pas ça sympa ? Une voiture qui fait 90% du travail et qui te laisse la main quand ça devient trop complexe pour elle. Elle fait ton boulot mieux que toi parce qu'elle reste vigilante quand tu l'es moins et te laisse la main quand c'est compliqué et que toi tu es frais.

                                  Il y a une obligation à ce que ce soit entièrement automatisé ou c'est juste le plaisir de mettre au défit les industriels ?

                                  Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

                                  • [^] # Re: Machine Learning

                                    Posté par . Évalué à 4.

                                    Je suis d'accord, il n'y a pas d'obligation a ce que ce soit entierement automatise'. Mais dans ce cas, il faut que le prix soit en accord. On est bien d'accord que personne ne va payer 150 mille euros pour une voiture qui roule en moyenne a la vitesse d'un velo, qui roule sur 1% du reseau routier, et qui te demande de reprendre la main regulierement.

                                  • [^] # Re: Machine Learning

                                    Posté par . Évalué à 4.

                                    Il me semble avoir entendu parler d'une obligation que ce soit entièrement automatisé pour pouvoir dégager la responsabilité du passager, sinon c'est trop ambigu en cas problème.
                                    Sinon, imaginons un passager de taxi qui aurait une certaine responsabilité sur la conduite…

                                    • [^] # Re: Machine Learning

                                      Posté par . Évalué à 1.

                                      C'est un faux problème à mon avis, les avions sont partiellement automatisés depuis très longtemps.

                                      Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

                                  • [^] # Re: Machine Learning

                                    Posté par (page perso) . Évalué à 7.

                                    Il y a une obligation à ce que ce soit entièrement automatisé

                                    Ça permet d'aller boire un verre hors de chez soi.

                                    « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

                                  • [^] # Re: Machine Learning

                                    Posté par (page perso) . Évalué à 5. Dernière modification le 12/03/16 à 11:19.

                                    Il y a une obligation à ce que ce soit entièrement automatisé ou c'est juste le plaisir de mettre au défi les industriels ?

                                    J'ai entendu évoquer les raisons suivantes :

                                    • permettre à des gens ne pouvant conduire de se déplacer de manière autonome (aveugles par exemple, ce qui concernait des employés de Google)
                                    • éviter la mise en danger de personnes distraites/inattentives au volant : a priori lors des premiers tests avec des caméras embarquées, Google aurait découvert que ses employés étaient plus préoccupés par leur ordi/smartphone ou se retournaient pour ramasser un portable tombé à l'arrière du véhicule, bref que l'attention était parfois inexistante pendant de longues secondes et que le temps de réaction pouvait être de plusieurs secondes voire d'une dizaine de seconde. Ça peut marcher avec le pilotage automatique d'un avion qui alerte un pilote entraîné en cas de situation dangereuse dans un contexte de circulation limitée dans le ciel, mais beaucoup moins bien une voiture avec un conducteur qui fait autre chose sur une route où on peut croiser plein d'objets, de piétons/véhicules, etc. Du coup leur conclusion aurait été d'opter directement pour un véhicule totalement autonome, parce que les humains ne sont pas fiables :).
                                    • [^] # Re: Machine Learning

                                      Posté par . Évalué à 2.

                                      Ah mais je ne dis pas que ça n'a pas d'intérêt, je suis juste que même si on y arrive pas encore, ça peut déjà être très utile.

                                      Pour ton second point c'est ce qui est pointé du doigt plus haut. Si sur un trajet de 2h, la voiture conduit 1h30 et tu conduit 30 minutes, tu sera moins fatigué, plus alerte et ta capacité de concentration plus grande.

                                      Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

                                      • [^] # Re: Machine Learning

                                        Posté par (page perso) . Évalué à 9.

                                        Le second point concernait surtout le fait d'avoir un véhicule qui se débrouille seul, sauf en cas de souci, donc le fait de dire à l'improviste « en fait je ne sais pas faire M. l'humain, reprends la situation en main en urgence », qui conduirait le plus souvent à « trop tard, proutch » (c'est comme de dire à un humain qu'il n'a qu'à déclencher son airbag lui-même en cas de choc). C'est différent de planifier 75% du chemin fait par l'ordi et 25% par l'humain, prédéfini avant le départ.

                                        • [^] # Re: Machine Learning

                                          Posté par . Évalué à 3.

                                          Je pense que ce n'est pas démesuré de dire la voiture se débrouille hors agglomération sauf quand elle demande l'aide du conducteur (dans un tel cas elle s'arrête d'elle-même comme le font déjà certaines voitures).

                                          Après moi je m'en fou je conduit pas mais je minerai vachement plus sur ce que font les autres constructeurs, c'est à dire d'automatiser des bouts (l'arrêt automatique, la régulation de la vitesse, le parking,…) et d'en faire de plus en plus.

                                          Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

                            • [^] # Re: Machine Learning

                              Posté par . Évalué à 4.

                              Non justement le gps ne suffit pas.

                              On ne parle probablement pas de la même chose ici. En fait, pour avoir fait un peu de la reconnaissance d'images en ML, je ne sais pas d'où tu sors cet argument qu'il faut absolument les images originelles de Google Street View. Il suffit d'un dataset assez gros et assez varié pour entraîner ton algorithme (par ex. un réseau de neurone tout ce qu'il y a de plus classique) pour reconnaître des objets dans une image.

                              Le défi des voitures automatisées est l'aspect temps réel du traitement, la prédiction du mouvements des objects détectés et des actions à entreprendre pour éviter un accident.

                      • [^] # Re: Machine Learning

                        Posté par . Évalué à 3.

                        Plusieurs universitaires ont pris la parole pour dire que la voiture totalement autonome ce n'est ni pour demain, ni pour apres demain. Je vois que dans la vie reelle, descendre a moins d'1 minutes d'ecart entre 2 trains qui se suivent, c'est tres difficile sans baisser drastiquement les vitesses, alors qu'il y a pourtant un pilote dans le train et que ce n'est pas "completement autonome".

                        Tiens par exemple, je cherche la vitesse moyenne. Je trouve : vitesse max de la google car: 37km/h. Ca veut dire sans doute vitesse moyenne inferieure a 30km/h. Ce sont des vitesses de velo un peu rapide.

                        Tu as l'air de penser que les experts sont "sur le cul" comme tu dis parce que Google a fait un truc fracassant. Mais il se peut aussi que les experts ne soient pas completement debiles et connaissent leur metier autant que ceux qui travaillent dans les boites commerciales et qui communiquent sur le sujet.

                • [^] # Re: Machine Learning

                  Posté par . Évalué à 7.

                  On a remplace' les capteurs sur la route par une panoplie d'images filmees

                  Euh, bah oui, c'est quand même une différence qualitative fondamentale. Dans un cas tu as un système asservi, dans l'autre cas un système autonome. Autant dire qu'il n'y a pas de différence entre les bras robitisés des usines de bagnoles et R2D2…

                  C'est sur que quand on regarde le fonctionnement d'une IA en détail, la plupart du temps on finit par se dire «ah mais attendez, en fait l'IA n'est pas vraiment intelligente, elle fait juste semblant de l'être». Bah oui, cf test de Turing, etc. Si ça se trouve, on fait tous aussi semblant d'être intelligents alors que c'est juste une propriété de nos réseaux de neurones :-)

                  • [^] # Re: Machine Learning

                    Posté par . Évalué à -1.

                    Euh, pas clair, encore une fois il faut mettre le nez dans les details. Quel est le cout des capteurs versus le cout du film fait en amont par la voiture specialisee de google ? Quelle est la duree de vie comparee de chacun des systemes ? A quel vitesse permet d'evoluer chaque systeme par rapport au nombre d'accidents ? Quelles sont les courbes comparees vitesse/prix/pourcentage de morts entre un systeme par capteur et un systeme par film ?

                    La sncf sur ces grandes lignes fonctionne avec des capteurs traditionnels. Peut etre que ce serait moins cher et plus robuste de faire comme google, mais peut etre pas…. Ils ne sont peut etre pas si debiles les ingés de la sncf… Et ils sont dans un monde reel, pas dans une demo marketing.

                    Mon seul message, se mefier du marketing si on n'a pas d'infos techniques.

                    • [^] # Re: Machine Learning

                      Posté par (page perso) . Évalué à 2.

                      La sncf sur ces grandes lignes fonctionne avec des capteurs traditionnels. Peut etre que ce serait moins cher et plus robuste de faire comme google, mais peut etre pas…. Ils ne sont peut etre pas si debiles les ingés de la sncf… Et ils sont dans un monde reel, pas dans une demo marketing.

                      Certes, mais à l'époque où ils ont commencé à mettre un système en place il n'était pas imaginable d'utiliser de films. D'autres part, les trains sont limités aux voies… en principe. Il est donc efficace de placer des capteurs sur les voies pour activer des signaux sur les différents segments.

                      Suffit de jouer à n'importe quel jeu de simulation de transports (avec des trains) pour se rendre compte de la simplicité du procédé (et donc robustesse).

                      http://xtsl.free.fr/spip/
                      http://www.simutrans.com/en/ (je recommande les pack graphiques 128)

                      • [^] # Re: Machine Learning

                        Posté par . Évalué à 6.

                        Les gg car sont aussi limitees aux voies. Elles ne circulent que sur des voies clairement identifiees, sur leur ligne, en se prenant les nids de poule et sans bouger de 10 cm pour eviter le nid de poule. Elles ne s'ecartent qu'en cas de danger eventuel, si le logiciel decide qu'il est trop tard pour freiner. Mais c'est vraiment le mode panique que les concepteurs essayent d'eviter, car accidentogene.

                        Beaucoup de ceux qui ont vu le projet de loin croient que le principe est une localisation approximative par le gps, puis un choix du deplacement en temps reel en fonction des images. En fait non. Il s'agit d'une localisation extremement precise, sur une ligne si bien definie qu ou les donnees gps sont insuffisantes. Les informations de la route prealablement filmee, permettent au logiciel d'affiner le positionnement. Le but est de mettre la voiture sur une ligne extremement precise, predifinie, planifiee et validee par des humains. C'est vraiment un fonctionnement en ligne comme un train.

                        • [^] # Re: Machine Learning

                          Posté par (page perso) . Évalué à 2.

                          Les trains déterminent leur conduite (et non leur position) à partir des signaux placés au niveau des voies.

                          Les trains peuvent changer leur vitesse, mais en aucun cas décider de virer à droite ou à gauche.

                          Certes les Google Cars ont un circuit précis, mais pour garder cette précision sans devoir refaire l'infrastructure des routes pour y placer des repères, d'autres techniques sont utilisées.

                          Ce n'est pas un fonctionnent comme un train, c'est plutôt un tentative de s'en approcher. Une Google Car est capable d'éviter un obstacle placé sur sa voie, pas un train (sauf s'il s'arrête).

                          A+

                          • [^] # Re: Machine Learning

                            Posté par . Évalué à 3.

                            Je suis d'accord, il y a des differences. L'essentiel est qu'on soit d'accord sur le principe : deplacement sur une ligne choisie par des humains, pas une voiture capable de trouver son chemin seul dans un environnement complexe et inconnu.

                            Je me suis interesse' au sujet, parce que ca me semblait totalement impossible qu'une voiture avance seule dans un environnement ouvert. Identifier un unique objet simple avec un taux d'erreur nul est un vrai defi informatique. Je ne comprenais pas comment une voiture pourrait reconnaitre parmi des centaines d'objets en environnement complexe, distinguer ce qui est vivant, anticiper les reactions des vivants, reconstituer une image 3d de la situation, choisir un chemin a partir de toutes ces informations. Ca me semblait delirant l'ecart entre l'annonce de google et les techniques existantes.

                            Quand j'ai compris qu'il n'y avait pas de construction de l'espace 3d en temps reel, pas de choix de parcours sauf exceptionnellement pour quelques secondes afin d'eviter un danger, que la voiture prendrait les nids de poule et les pierres sur la route sans changer sa trajectoire, qu'elle ne ferait pas le tour d'un obstacle qui l'obligerait a bouger de 10metres et entrer en environnement inconnu, OK, c'etait plus logique.

                            Evidemment, ca ne veut pas dire que c'est facile a faire, au contraire. C'est deja une performance. Mais on reste je crois a des annees lumieres d'une voiture qui avancerait en territoire inconnu a une vitesse ususelle. Toute la comm de gg est faite pour laisser planer l'ambiguite' entre les deux je crois.

                            • [^] # Re: Machine Learning

                              Posté par (page perso) . Évalué à 4.

                              Le but de Google, c'est quand même de faire des voitures sans volant. Du coup, ils ne peuvent pas se reposer sur le fait que le conducteur puisse reprendre la main. Donc ils doivent bien prévoir toutes les situations qui peuvent arriver, comme les travaux ou le fait de distinguer un humain pour lui céder le passage à un passage pour piéton (ce que tu dis que la voiture ne fait pas). Il y avait d'ailleurs eu un bug sur le fait que d'anticiper les réactions des êtres humains : un cycliste à l'arrêt qui bougeait légèrement d'avant en arrière, la voiture s'arrêtait en permanence pour le laisser passer alors qu'il ne voulait pas avancer.

                              « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

                • [^] # Re: Machine Learning

                  Posté par (page perso) . Évalué à 3.

                  Une google car autonome reste totalement bloquee si on doit faire 20 metres et rouler sur l'herbe parce que le conducteur de devant a laisse' tomber un objet de son cofffre

                  Le premier accident causée par une Google car est justement en évitant des travaux sur la voie, donc on progresse bien à ce niveau.

                  « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

              • [^] # Re: Machine Learning

                Posté par . Évalué à 2.

                En particulier, AlphaGo n'a pas appris à jouer au Go tout seul, il a juste ingurgité des millions de parties jouées par des experts humains, joué des millions de parties contre lui-même, et reste capable de parcourir des arbres de possibilité plusieurs milliers de fois plus vite qu'un humain.

                Effectivement d'après ce que j'ai lu AlphaGo dispose de deux réseaux de neurones : le policy network et le value network. Il a donc appris deux choses : envisager les séquences importantes dans une position donnée et évaluer la probabilité de gagner dans une position donnée. Les deux sont combinés pour faire une recherche arborescente de Monte-Carlo. Et pourtant quand on le regarde jouer on voit qu'il ne se contente pas d'imiter les humains, qu'il innove, on lui attribue une "intuition" potentiellement meilleure que celle des humains, il a joué des coups qui ont réussi à surprendre les experts. C'est probablement quelque chose qu'il a appris en se battant contre des variantes de lui-même, sinon il ne jouerait pas aussi bien, il jouerait plus comme un humain. S'il n'avait pas appris à jouer à partir de parties d'experts, saurait-il jouer contre des humains ? C'est une excellente question. Lee Sedol à cherché à exploiter des failles typiques des bots dans les deux premières parties en jouant des coups ou ouvertures atypiques (ça correspond à son style de jeu), et a essayé de menacer de tuer un grand groupe qui est une faiblesse des stratégies basées sur Monte-Carlo search tree, mais sans succès.

                Il ne fait aucun doute qu'un humain capable de disposer d'autant d'informations serait bien meilleur qu'AlphaGo.

                Admettons qu'un humain ait cette information, comment fait-il pour l'améliorer sans se faire un nœud au cerveau ?

                Qu'est-ce qu'AlphaGo fait de moins bien qu'un humain (à part ressentir la beauté du jeu) ? :-)

          • [^] # Re: Machine Learning

            Posté par (page perso) . Évalué à 3.

            on est très très très loin de l'idée d'un algo qui apprend un jeu tout seul

            J'ai pas lu l'article mais il est présenté comme « able to master a diverse range of Atari 2600 games to superhuman level with only the raw pixels and score as inputs ». Si ça compte pas comme « apprendre un jeu tout seul » je sais pas ce qu'il te faut.

            https://deepmind.com/dqn.html

            pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.

      • [^] # Re: Machine Learning

        Posté par . Évalué à 3. Dernière modification le 10/03/16 à 17:54.

        Il ne faut pas s'emballer non plus. Le programme "de base" joue très bien au go et battrait la plupart des joueurs amateurs.

        Assurément que de base le programme savait déjà bien jouer au Go. Je rappelle pour cela le koan de Marvin Minsky :

        In the days when Sussman was a novice, Minsky once came to him as he sat hacking at the PDP-6.

        “What are you doing?”, asked Minsky.

        “I am training a randomly wired neural net to play Tic-Tac-Toe” Sussman replied.

        “Why is the net wired randomly?”, asked Minsky.

        “I do not want it to have any preconceptions of how to play”, Sussman said.

        Minsky then shut his eyes.

        “Why do you close your eyes?”, Sussman asked his teacher.

        “So that the room will be empty.”

        At that moment, Sussman was enlightened.

        source

        :-)

        Sapere aude ! Aie le courage de te servir de ton propre entendement. Voilà la devise des Lumières.

      • [^] # Re: Machine Learning

        Posté par . Évalué à 4.

        Justement non, la base de données de partie qu'AlphaGo a utilisé n'est pas une BDD de parties de pro, mais une BDD de parties de forts amateurs.

        • [^] # Re: Machine Learning

          Posté par . Évalué à 3.

          C'est ce que je trouve vraiment intéressant. On n'est pas dans une reproduction des meilleurs coups mais bien dans une sorte d'apprentissage.

  • # Machine learning #2

    Posté par (page perso) . Évalué à 9. Dernière modification le 09/03/16 à 20:25.

    Pour résoudre le problème de l'infinité de solutions le robot emploi la méthode de l'auto aprentissage (machine learning). En gros, si je ne dis pas trop de bêtise, c'est la méthode empirique. Le robot ne sait pas trop jouer, parce que son programmeur non plus, alors il joue un peu au hasard, il élimine les mauvaises solutions et il garde les meilleures et ainsi de suite.

    En fait c'est un peu plus subtil que cela. :) En gros le problème fondamental du machine learning, c'est la prédiction d'une variable booléenne, càd trouver le pari le plus avantageux à faire sur une question dont la réponse est oui ou non, connaissant tout une série d'exemples de questions similaires avec leurs réponses. On a ensuite plein de variantes (au lieu de oui-non, un nombre réel par exemple, etc.)

    Dans beaucoup de problèmes plus complexes dont la résolution inclut des stratégies de machine learning, ont doit réduire la dimension du problème (qui est trop compliqué pour être abordé de façon frontale) ce qui mène à construire une sorte de machine dont les fonctions élémentaires sont, comme tu l'indiques, sous définies par le programmeur et entraînées, mais l'assemblage de la machine est lui-même est fixé par le programmeur, c'est une étape importante de modélisation.

    Ainsi par exemple (complètement hypothétique), si on écrivait un programme pour compter le nombre de voitures sur une route à partir de photos, on pourrait essayer de fractionner le problème en deux sous-fonctions qu'on pourrait entraîner:

    • La première apprendrait à reconnaître une route sur une photo (comme domaine)
    • La seconde les voitures mais seulement dans le domaine livré par la première fonction – ce qui est a priori plus facile que dans le cas général, parcequ'en général il y a moins de diversité dans les objets trouvés sur une route que dans un paysage quelconque.

    Si on utilisait la stratégie “frontale” de juste laisser une machine ingurgiter des milliers de photos de scènes incorporant des voitures associées au nombre de voitures qui sont sur la route (s'il y a une route sur la photo) on n'aurait aucune chance d'obtenir un résultat probant.

    Même si le programmeur n'implémente pas explcitement la reconnaissance de route ou celle de voitures sur la route et s'en remet à un processus d'apprentissage, il utilise sa compréhension du problème pour élaborer une esquisse de solution.

    • [^] # Re: Machine learning #2

      Posté par . Évalué à 2.

      C'est l'extraction de "feature" que tu décris ?

      "La première sécurité est la liberté"

      • [^] # Re: Machine learning #2

        Posté par . Évalué à 2.

        L'apport du "deep" c'est justement le contraire: réduire le plus possible le "features engineering" effectué par des humains pour aller vers du "features learning" …

  • # Nombre de possibilites

    Posté par . Évalué à 6.

    Le go etait connu pour etre difficilement programmable, mais les arguments des journaleux qui presentent le probleme me semblent assez mediocres.

    Le nombre de possibilite's n'est pas une mesure de la difficulte' du probleme. Prenons l'exemple d'un jeu ou on doit avec un petit cheval avancer a chaque etape de 3 ou 5 cases, le jeu comporte 30 millle cases, et il faut tomber pile poil sur la derniere case sinon on a perdu. Le nombre de parties differentes est au moins 210 mille, c'est beaucoup plus grand que le nombre d'atomes dans l'univers (1090) et meme beaucoup plus grand que le nombre de parties de go, mais la strategie gagnante est ultra-simple.

    Sinon, un grand nombre et l'infini, c'est quand meme deux choses tres differentes ;-)

    • [^] # Re: Nombre de possibilites

      Posté par . Évalué à 3.

      Le nombre de possibilité et la difficulté d’évaluer une position le rendent complexe. D’ailleurs si j’ai bien compris AlphaGo n’utilise pas du tout les algos d’évaluation de position classique, mais fait plus du pattern matching avec du deep learning.

    • [^] # Re: Nombre de possibilites

      Posté par . Évalué à 0.

      D'un autre coté, ce qui m'étonne c'est qu'on a très peu (aucune ?) d'information précise sur la puissance de calcul dont AlphaGo dispose. On ne parle que du logiciel et sa méthode.

      • [^] # Re: Nombre de possibilites

        Posté par . Évalué à 7. Dernière modification le 10/03/16 à 10:46.

        Cette information est dans la publication dans Nature :

        Evaluating policy and value networks requires several orders of magnitude more computation than traditional search heuristics. To efficiently combine MCTS with deep neural networks, AlphaGo uses an asynchronous multi-threaded search that executes simulations on CPUs, and computes policy and value networks in parallel on GPUs. The final version of AlphaGo used 40 search threads, 48 CPUs, and 8 GPUs. We also implemented a distributed version of AlphaGo that exploited multiple machines, 40 search threads, 1,202 CPUs and 176 GPUs. The Methods section provides full details of asynchronous and distributed MCTS.

        source : http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html

        C'est la version distribuée (1202 CPU et 176 GPU) qui est utilisée dans ce match contre Lee Sedol.

    • [^] # Re: Nombre de possibilites

      Posté par (page perso) . Évalué à 1.

      Je ne suis pas trop d'accord avec toi.
      Un jeu, c'est un graphe. Si la structure du graphe est suffisamment régulière pour qu'on puisse l'analyser complètement (c'est ton exemple de petit cheval), bien sûr la taille n'est pas un paramètre pertinent, mais il n'y a pas d'enjeu de programmation.
      Si on ne sait pas le résoudre, l'argument de dire qu'il y a, sur une position typique, beaucoup plus de coups légaux (c'est à dire d'arêtes) au go qu'aux échecs, ne me semble pas si mauvais.

      • [^] # Re: Nombre de possibilites

        Posté par . Évalué à 2.

        Oui, bien sur, c'est plus difficile pour la machine d'explorer une partie significative de l'arbre, mais c'est aussi plus difficile pour l'homme. Le fait qu'il y ait beaucoup de calculs a faire n'est pas un inconvenient pour la machine, c'est meme plutot un avantage, je dirais, c'est ca que la machine sait bien faire. La difficulte', c'est que la machine a du mal a mettre du sens sur les calculs, elle ne sait pas trop quelle fonction optimiser.

  • # Agressif

    Posté par . Évalué à 4.

    Au contraire de ce que tu dis dans ton article, la méthode d'AlphaGo était loin d'être pacifiste, il a été assez agressif, au grand étonnement de la plupart des commentateurs.

    Quelques infos sur la partie :
    Revivre la partie
    Commentaires en direct par un 9p Coréen (en anglais)

    Quelques infos qui intéresseront peut être plus les lecteurs de LinuxFR :
    La publication sur le fonctionnement d'AlphaGo. D'après les créateurs, il y a toutes les informations pour reproduire AlphaGo.
    Une initiative de recréer l'algorithme à partir de la publi (sous licence MIT)

    • [^] # Re: Agressif

      Posté par (page perso) . Évalué à 2.

      Au contraire de ce que tu dis dans ton article, la méthode d'AlphaGo était loin d'être pacifiste,

      Ça change des robots qui jouent aux échecs, qui se livrent à une guerre de position ennuyeuse au possible!

      • [^] # Re: Agressif

        Posté par . Évalué à 3.

        Une position défensive est un moyen de réduire les possibles et de faciliter le calcul.

        "La première sécurité est la liberté"

    • [^] # Re: Agressif

      Posté par . Évalué à 2.

      J'ai regardé la partie commenté par Motoki hier soir (on peut le revoir sur KGS), ça n'est pas ce que j'ai retenu. Des coups surprenants mais pas agressifs pour autant. Après à ce niveau c'est difficile de faire la différence, je serai curieux de savoir s'il est possible d'analyser les logs d'AlphaGo pour voir s'il s'est "senti" en difficulté ou pas et si ça l'aurait obligé à être agressif ou s'il s'est senti en avance et que ses coups consolidaient sans qu'on ne s'en rende compte. Est-ce que le robot a cette notion ?
      Motoki a montré quelques coups considérés comme surprenants en début de partie qui se sont avérés solides en fin de partie.

      Mais bon, tu as raison dans le sens où ça ne semble pas être une partie juste sans erreur comme ça peut être le cas aux échecs.

      • [^] # Re: Agressif

        Posté par . Évalué à 2. Dernière modification le 10/03/16 à 16:05.

        Tout dépends de la définition d'agressivité. Je n'ai pas suivi le commentaire de Motoki, mais il me semble (avec l'aide des revues que j'ai lu et écouté, hein, je n'ai pas le niveau) que la réponse d'AlphaGo au coup 23 était très sanglante (quoi que peut être normale pour un pro?).

        Et on ne peut pas dire que le coup 102 d'AlphaGo est un coup pacifiste, c'est une invasion très bien menée !

        • [^] # Re: Agressif

          Posté par . Évalué à 2.

          D'après l'ingénieur, AlphaGo serait censé privilégier 1 demi point à 99 chances sur cent que 20 points à 80 chances sur cent. Quelque part je me demande si on va continuer à pouvoir parler d'agressif et défensif quand il s'agit d'un robot qui se contente de juste gagner !

          Par contre tu as sûrement raison car sur la deuxième partie il parait plus clair que les coups sont considérés comme agressifs, d'autant plus que Lee jouait blanc et avait quand même décidé d'être plus défensif…

          En tout cas là où il n'y a pas d'ambiguïté c'est que les coups sont surprenants ! Lee dit qu'il est choqué et sans voix ! (alors qu'il était plutôt confiant au départ)
          Ke Jie lui reste encore confiant mais voudrait jouer vite avant que le robot ne progresse !
          http://www.shanghaidaily.com/national/AlphaGo-cant-beat-me-says-Chinese-Go-grandmaster-Ke-Jie/shdaily.shtml

      • [^] # Re: Agressif

        Posté par (page perso) . Évalué à 5.

        je serai curieux de savoir s'il est possible d'analyser les logs d'AlphaGo pour voir s'il s'est "senti" en difficulté ou pas

        Ces logs existent. Il a été dit que dans la 2ème partie, AlphaGo était confiant vers la moitié du jeu alors que tous les observateurs n'avaient pas d'idée de qui était en train de gagner : https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol#Game_2

        pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.

  • # Time’s up

    Posté par . Évalué à 3.

    Sinon, perso je défie Deep Mind à Time’s up. S’il veut il peut inviter Cortana et pour la partie mimes Atlas est le bienvenu.

    http://i.giphy.com/m10Ozo6CgsAve.gif

  • # Et de 2-0 pour AlphaGo !

    Posté par . Évalué à 10.

    Deuxième partie gagnée par AlphaGo !

    C'est vraiment impressionnant à regarder, même si je ne comprends pas tout vu le niveau de jeu, il semble que certains coups sont très innovants et surprennent les pro.

    C'est une vrai révolution pour le monde du Go, il y aura un avant et après AlphaGo, de nouveaux coups vont entrer au répertoire des pros et cela va complètement chambouler la façon dont les pro s'entrainent.

    Amazing times!

    • [^] # Re: Et de 2-0 pour AlphaGo !

      Posté par (page perso) . Évalué à 2.

      J'ai regardé une bonne moitié du deuxième match et j'ai eu l'impression que ce qui dominait des commentaires, en direct, exercice périlleux, était une sorte d'imprévisibilité totale propre à ce jeu. C'est assez frustrant pour le spectateur, peut-on trouver des analyses à posteriori en français sur la toile?

      • [^] # Re: Et de 2-0 pour AlphaGo !

        Posté par . Évalué à 6.

        C'est vraiment paradoxal pour un programme qui est censé jouer par observation des parties déjà jouées de sortir des coups imprévisibles…
        Ce soir on pourra revoir la partie commenté par Motoki sur kgs, à 20h30
        Attention il faut java, hier je me suis fais avoir j'avais pas prévu le 1/4 d'heure pour installer java, rajouter une barrette mémoire, modifier /etc/java-7-openjdk/sound.properties pour avoir le son…

        • [^] # Re: Et de 2-0 pour AlphaGo !

          Posté par (page perso) . Évalué à 4.

          C'est vraiment paradoxal pour un programme qui est censé jouer par observation des parties déjà jouées de sortir des coups imprévisibles…

          L'observation des parties jouées n'est qu'une partie d'AlphaGo. Il y aussi:

          • L'apprentissage en jouant contre soi-même, connu sous le nom de Reinforcement Learning
          • La recherche dans un arbre, un peu comme aux échecs

          Ces deux choses peuvent tout à fait inventer des coups inconnus.

    • [^] # Re: Et de 2-0 pour AlphaGo !

      Posté par . Évalué à 7.

      il semble que certains coups sont très innovants et surprennent les pro.

      Joués par un humain, ce genre de chose s'appelle généralement "chance du débutant". Et vu le nombre de débutants qu'on voit jouer, une seule conclusion possible:
      Nous avons été infiltrés par des androïdes sous contrôle des reptiliens Illuminati!!

      ----> ] Non, je ne sors pas! Ils sont dehors aussi!

    • [^] # Re: Et de 2-0 pour AlphaGo !

      Posté par (page perso) . Évalué à 2.

    • [^] # Re: Et de 2-0 pour AlphaGo !

      Posté par (page perso) . Évalué à 4.

      Pour les gens qui veulent pas se taper toute la partie et qui n'y comprennent rien au Go (i.e. moi), il suffit de voir la réaction du commentateur sur le 37ème tour https://youtu.be/l-GsfyVCBu0?t=1h18m10s

      pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.

      • [^] # Re: Et de 2-0 pour AlphaGo !

        Posté par . Évalué à 2.

        Excellent ce passage, à voir oui ! C'est vraiment ce qui marquera ces parties, les coups vraiment surprenants.

  • # La joie de vivre

    Posté par . Évalué à 10.

    À mon avis, ce que nous apporte les victoires des ordinateurs sur les humains, c'est un recentrage des raisons pour lesquels nous jouons.

    Il est devenu inutile de jouer pour essayer d'être le meilleur joueur de go, échecs etc. On ne peut plus jouer pour s'intégrer dans une course au perfectionnement, au progrès, à la domination des autres.

    Ainsi est mis en avant le jeu pour le plaisir de jouer, pour le plaisir de jouer avec les autres êtres vivants. Ce plaisir est justement ce que les machines ne peuvent pas éprouver. Il ne nous reste plus que la joie de vivre, comme un journal décroissant (en déroute) le martel depuis 10 ans.

    • [^] # Re: La joie de vivre

      Posté par (page perso) . Évalué à 5.

      Il ne nous reste plus que la joie de vivre, comme un journal décroissant (en déroute) le martel depuis 10 ans.

      Journal qui au passage avait écrit un article complètement aberrant dans sa rubrique “la saloperie de la semaine” dédié … au logiciel libre! Qui méritait bien d'être classé saloperie de la semaine au prétexte que Linux fait tourner beaucoup d'ordinateurs dans les data centers et est donc responsable d'une catastrophe écologique quotidienne. Au fil de son argumentation brillante l'auteur dévoilait qu'il était traumatisé par les câbles reliant entre eux les ordinateurs des data centers. C'était la première et dernière fois que j'achetais ce journal, probablement en 2008 ou 2009.

      • [^] # Re: La joie de vivre

        Posté par . Évalué à 1.

        C'est soit une très grosse blague, soit un SJW version techno-paranoîaque en cavale… O_O

        "Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)

      • [^] # Re: La joie de vivre

        Posté par . Évalué à 2.

        Oui… mais parmi les publications que je n'aime pas (plus, plus autant), c'est encore celle que je préfère.

    • [^] # Re: La joie de vivre

      Posté par . Évalué à 3.

      Pas sûr que ça change quoi que ce soit : ceux qui voudrons être les meilleurs ferons un programme qui jouera contre le programme d'en face… et ceux qui voudrons s'amuser continuerons à jouer avec des humains, et à leur payer l'apéro en cas de victoire…

      En fait, c'est peut-être ça qui nous tuera : lorsque la machine arrivera à être plus humaine que nous ne pourrions l'être nous-même… Imagine, une machine sympa, qui sait s'énerver juste ce qu'il faut mais pas trop, qui sait comprendre tout le monde, et être gentille avec toi…

    • [^] # Re: La joie de vivre

      Posté par (page perso) . Évalué à 6.

      C'est peut être ça, la prochaine de la révolution copernicienne :

      • Nous savions que l'univers n'est pas créé pour notre plaisir et que nous n'en sommes pas au centre.
      • Nous prenons que nous ne sommes pas maître de la nature et que nous pouvons détruire notre environnement si nous ne faisons pas attention.
      • Maintenant nous découvrons que nous pouvons créer des outils qui réfléchissent mieux que nous.

      Au final, nous sommes libre de vivre maintenant !

      • [^] # Re: La joie de vivre

        Posté par . Évalué à 5.

        Maintenant nous découvrons que nous pouvons créer des outils qui réfléchissent mieux que nous.

        Qui calculent mieux que nous. Même si les techniques pour ce programme sont révolutionnaires (apprentissage et jeu contre soi-même), cela ne reste "que" du calcul. AlphaGo, tout aussi fort qu'il soit, n'a pas conscience qu'il joue, ni pourquoi il joue, ni même ne peut s'arrêter de jouer. Dans ce sens-là, il ne peut pas ré-fléchir.

    • [^] # Re: La joie de vivre

      Posté par . Évalué à 6.

      La création du piston hydraulique n'a pas détruit les compétitions de bras de fer. La création de la voiture n'a pas supprimé les courses et le fait de créer des ordinateurs capable de battre n'importe quel humain aux échecs n'a pas supprimé les compétitions et classement d'échecs.

      Ce serait un peu comme si le fait que Teddy Rinner bat tout le monde au judo auvait empêché les gens de faire des compétitions de judo. Beaucoup de gens aiment la compétition sans pour autant avoir des ambitions ubuesque.

      Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • # Vidéos en rapport avec le sujet

    Posté par . Évalué à 1. Dernière modification le 10/03/16 à 16:14.

    Petit partage supplémentaire :
    Informatique et Jeux - Passe-science #14 + Bonus

    J'ai pas tout pigé, mais la vidéos est vraiment bien tapé :) (si vous en avez d'autre sur le sujet, faites tourner :) )

    Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

  • # Jamais deux sans trois ?

    Posté par . Évalué à 1.

    Alphago remporte son troisième match contre Lee Sedol.

    Quelque part je m'y attendais un peu, j'avais envie de parier 0 - 5 en faveur d'Alphago.

    Tristesse…

    • [^] # Re: Jamais deux sans trois ?

      Posté par (page perso) . Évalué à 3.

      Bon en fait pour le moment ça fait 3-1

    • [^] # Re: Jamais deux sans trois ?

      Posté par (page perso) . Évalué à 2.

      Tristesse…

      Boh, il ne faut pas être triste. La machine elle a déjà étudié beaucoup de parties jouées par des être humains, mais Lee Sedol lui n'en est qu'à son quatrième jeu contre la machine. Il faut bien s'habituer à ce nouveau genre d'adversaire.

      Je joue aux échecs (comme une pignolle) et je n'aime pas trop jouer contre l'ordinateur parcequ'il a une approche très différente de l'humain. J'imagine que cette différence d'approche est le cas dans beaucoup de domaines. :)

  • # Lee Sedol gagne la quatrième partie !

    Posté par . Évalué à 2.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.