Journal [Charlie] robot war

Posté par  (site web personnel) . Licence CC By‑SA.
Étiquettes : aucune
6
7
août
2015

Une chronique qui pourra vous intéresser par Gérard Biard dans Charlie Hebdo n°1202 / 5 août 2015 :

Des situations de la vie réelle sont mises en avant, pas les 3 lois de la robotique de Asimov (+ la loi 0), ni Terminator et Skynet.
Je vous en livre la conclusion :

« Qu'est-ce qu'un robot pourrait bien commettre qui n'aurait pas été inventé par un humain ?
Il suffit d'essayer de faire fonctionner un ordinateur ou un téléphone portable pour s'en convaincre.: le robot est con. Comment, d'ailleurs, pourrait-il en être autrement, puisque l'homme l'a voulu, et persiste à le vouloir, à son image. »

Après les déclarations de Stephen Hawking sur l'intelligence artificielle, c'est un point de vue intéressant.

Note : cette réaction fait suite à un échange ayant eu lieu lors de l'International Joint Conferences on Artificial Intelligence dont je n'ai pas trouvé trace :/ Cela fait néanmoins écho à l'Open Letter on Artificial Intelligence auquel Stephen Hawking a été associé, j'aurais attendu une vision plus optimiste du sujet :-)

  • # Bifrost

    Posté par  . Évalué à 3.

    Il y a une nouvelle très sympa sur l'IA de Greg Egan dans le dernier Bifrost

    Bon le thème a été battu, rebattu depuis longtemps, mais quand un des meilleurs écrivain du genre s'y attaque, ça reste excellent. Dans sa nouvelle, un inventeur à la Steve Jobs utilise un processeur extrêmement rapide dont il à l'usage exclusif pour développer une IA via une simulation d'évolution "naturelle" accélérée. Je vous raconte pas la suite, ce serait dommage.

    C'est pas la seule nouvelle intéressante de la revue, les autres sont aussi excellente, en particulier les Légions du temps de Michael Swanwick, entre totalitarisme et voyages temporels qui m'a mis une bonne claque, et au passage, permet de se consoler de cette thématique allégrement massacrée par le dernier Terminator.

    Sinon, je suis assez d'accord avec la conclusion de Biard, surtout en cette époque de commémoration d'Hiroshima.

    Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

    • [^] # Re: Bifrost

      Posté par  (Mastodon) . Évalué à 3.

      Autant Asimov a clairement imaginé des IAs vraiment fonctionnelle est intelligentes, autant chez Greg Egan c'est plus que rare.
      Cette nouvelle est plutôt une exception.
      Chez Egan on trouve plutôt le transhumanisme à l'extrême : réussir à placer la conscience d'un être vivant construit normalement à l'intérieur d'une machine. En gros numériser le cerveau et tout ce qui fait qu'on est soi-même, et faire tourner le programme dans un environnement virtuel. Et ensuite replacer la conscience dans un corps artificiel.
      Et ainsi Egan a inventé son voyage inter-galactique, à la vitesse de la lumière :)

      Mais là il faut bien distinguer que si une machine fait tourner une intelligence, et qu'on peut donc avoir une vraie intelligence dans un pur robot, cette intelligence, chez Egan, n'est pas artificielle.

      Bref, pas beaucoup d'IA chez le l'un des meilleurs auteurs de SF d'aujourd'hui, ça donne bien une idée de la prise générale de conscience que l'Intelligence Artificielle est un oxymore…
      Le robot tueur ne sera jamais qu'une sorte de système expert un peu complexe, certainement pas une intelligence.

      Yth.

      • [^] # Re: Bifrost

        Posté par  . Évalué à 3.

        C'est une intelligence alors ? Le cerveau humain n'est qu'un système expert extrêmement complexe.

        • [^] # Re: Bifrost

          Posté par  (Mastodon) . Évalué à 4.

          Non, on peut tous se comporter de façon complètement irrationnelle et imprévisible.
          Un système expert ne fait pas ça…

          Yth.

          • [^] # Re: Bifrost

            Posté par  . Évalué à 6.

            C'est imprévisible seulement si l'on a pas tous les paramètres.

            Imaginons que l'on puisse connaitre le taux d'hormone d'une personne, l'état d'une personne (comme un snapshot d'une VM), je suis sur que l'imprévisible le serait moins.

            Mais c'est clairement hors de nos compétence actuelle.

            • [^] # Re: Bifrost

              Posté par  . Évalué à 4.

              Attention, je crois bien que tu viens de marcher sur 2000 ans de controverse philosophique sur le libre arbitre, là.

              Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

              • [^] # Re: Bifrost

                Posté par  (Mastodon) . Évalué à 1.

                Et surtout, est-ce que se mettant dans l'univers de Greg Egan où la conscience peut être numérisée et tourner sur une machine, ça donne une réponse à cette question ?
                Est-ce que cette conscience est entièrement déterministe ou non ?
                Avec Egan on parle d'ordinateur quantique, de fonction d'onde, de probabilités, jamais vraiment de certitudes…

                :)

                Yth.

              • [^] # Re: Bifrost

                Posté par  . Évalué à 2.

                Passionné de Philosophies et de Sciences, j'ai mon avis bien tranché sur la question (ce qui ne m'empêche pas d'explorer d'autre philosophies).
                Je pense que, pour faire très court, non ne somme "que" la somme de ce que nous somme.
                Si j'ai faim, je ne me comporte pas comme si je n'avais pas faim, c'est détectable de plusieurs façon. Je peux donc prévoir qu'une personne qui a très faim, si je la place devant un repas, va manger. Et c'est pareil pour le sexe ou d'autre choses.
                Pour les choses plus complexes, comme les avis sur les discussions philosophique, je pense que c'est le résultat de choses complexes dans le cerveau, trop complexe pour être lue aujourd'hui, mais ça reste un état physique.
                Mais même si tout cela était vrai, cela ne ferme pas la porte à la philosophie ! Et c'est bien heureux !

                • [^] # Re: Bifrost

                  Posté par  . Évalué à 1.

                  Je pense que, pour faire très court, non ne somme "que" la somme de ce que nous somme.

                  C'est le concept d'émergence qui semble couvrir ce point en philosophie, justement. Bon, moi, j'avoue n'avoir pas vraiment d'avis tranché sur la question. Pour être franc, ça me me dépasse un peu et surtout que ça me semble assez casse-gueule comme concept. Disons que j'aurais plutôt tendance à croire à l'affirmation grossière du principe : Le tout peux être supérieur à la somme de ses parties. Mais je lis sûrement beaucoup trop de SF :).

                  Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

                  • [^] # Re: Bifrost

                    Posté par  . Évalué à 3.

                    Le problème est que si il en est autrement, cela veut dire qu'il y a "autre chose".

                    Tant que je ne l'ai pas vu ou mesuré, je n'y crois pas.

                    • [^] # Re: Bifrost

                      Posté par  . Évalué à 2.

                      Bah j'ai envie de te répondre que la conscience est un phénomène visible. Si je ne peux pas l'expliquer par une forme de déterminisme (réductionnisme ?) issue des propriétés de ce qui compose son siège, le cerveau et par extension le reste du corps humain, ça laisserait la porte ouverte à ce concept d’émergence, qui n'aurait rien de magique pour autant. Seulement, ce serait une propriété d'un système complexe. De ce que j'en sais, c'est à dire pas grand chose, ce domaine de recherche est particulièrement contre-intuitif et très largement casse-gueule, car il donne l'impression de remettre en cause le déterminisme et l'approche analytique des problèmes alors que c'est pas forcément le cas. Ce serait plutôt une question d'échelle et de point de vue.

                      Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

                    • [^] # Re: Bifrost

                      Posté par  (Mastodon) . Évalué à 3.

                      Encore une fois pour rester dans Egan, il discute dans une nouvelle - Singleton en anglais - de la théorie des univers multiples.
                      En gros et sans rentrer dans les détails, ça se base aussi sur la physique quantique, et ça dit qu'à chaque décision, à chaque choix dans notre vie, on n'en fait pas un seul mais on les fait tous en même temps, sauf que notre univers se démultiplie, on prend une décision dans un univers et une autre dans un autre.
                      Et notre « Je » actuel n'est en réalité qu'une feuille d'un arbre de décision, qui existe en entier.

                      Et donc on ne peut pas prédire notre réaction face à une situation donnée, puisqu'en réalité on va faire tout les choix possibles.
                      Et ce n'est pas incompatible avec le fait d'être numérisable dans une machine : la machine aussi suit les lois de la physique. D'autant plus qu'il imagine qu'on puisse exister à l'intérieur de machines quantiques, c'est à dire qui vont explorer toutes les possibilités en parallèle tant qu'on n'observe pas, et se fixer sur une branche dès qu'on y regarde de plus près.

                      Je vulgarise fortement mais pour comprendre la base il suffit de penser à l'expérience du chat de Schrödinger qui est à la fois vivant et mort dans sa boîte avant qu'on ne l'ouvre.
                      La théorie des univers multiples dit qu'il reste à la fois vivant et mort, mais que quand on y regarde on se retrouve à séparer notre univers en plusieurs univers parallèles presque identiques, dans certains le chat est vivant, dans d'autres il est mort.

                      Et maintenant va trouver du déterminisme là-dedans !
                      La somme de ce que nous sommes ?
                      C'est un peu croire au destin, que tout est écrit et qu'on ne peut rien y changer, on a juste conscience du moment présent, mais la ligne entière existe déjà.
                      Je trouve ça un brin déprimant :)
                      Maintenant, c'est peut-être vrai…

                      Yth.

                • [^] # Re: Bifrost

                  Posté par  (site web personnel) . Évalué à 4. Dernière modification le 10 août 2015 à 18:22.

                  Pour les choses plus complexes, comme les avis sur les discussions philosophique, je pense que c'est le résultat de choses complexes dans le cerveau, trop complexe pour être lue aujourd'hui, mais ça reste un état physique.

                  C'est un point de vue qui – en plus d'être infalsifiable – ne semble avoir aucun intérêt pratique. Pour illustrer cela, en tant qu'être humain, je suis le sujet (ou l'objet…) d'émotions complexes et de sentiments. Si je suis confronté à des amours, des désirs ou des peurs, à quoi peut-il bien servir de croire que ces sentiments ne sont “que” une somme d'états physiques.

                  • Jeannette, pourquoi es-tu si triste?
                  • Je pleure parceque Jeannot m'a quittée
                  • Ne pleure pas Jeannette, ton émotion n'est qu'une superposition de signaux électriques!

                  Cet exemple semble un peu bébête, prenons en autre – qui est en réalité exactement le même – quels problèmes d'architecture résout on avec des théories de physique quantique? Autant que je sache aucun. Certes les matériaux qui constituent une maison, ne sont au final qu'un tas de particules élémentaires, mais on ne peut voir là qu'une facette supplémentaire du problème plutôt que l'essence du problème.

                  Ce qui se cache sous cette remarque, c'est que notre langage et ses concepts ne servent jamais à décrire une réalité totale, seulement une facette d'une certaine réalité et à exprimer les relations qui peuvent y être observées. Dans le premier exemple. Jeannette pose un problème dont les ingrédients sont des être humains et des sentiments, or la réponse que lui propose son confident sort complètement de ce monde – et, gageons le, ne rendra pas le sourire à Jeannette. Dans le second, c'est idem, l'architecte, s'il a un ami physicien peut transporter son problème d'architecture dans le monde des particules élémentaires, mais c'est sans espoir de faire marche arrière: les découvertes de la physique quantique ne vont pas pouvoir être traduite dans les termes du problème initial.

                  Dans le des comportements humains, on peut croire qu'ils sont décrits complètement par un état physique, mais si on est incapable d'identifier des états physiques précis et d'expliquer leurs relations aux comportements, alors on se retrouve exactement dans la situation des exemples que je cite où on ajoute une facette supplémentaire à un problème sans explique de relations entre cette facette et le monde du problème initial. Si on n'a pas ces ponts, c'est la même chose que de croire que les comportements humains sont complètement décrits par une superposition de barbarins fouchus: on n'est pas plus avancé.

      • [^] # Re: Bifrost

        Posté par  . Évalué à 4.

        A ben justement, dans cette nouvelle là, il fait un peu des des deux, et c'est très amusant, d'ailleurs. Note qu'elle n'est pas nouvelle, elle date de 2008, c'est sa traduction en français qui est récente.

        Sinon, je suis assez d'accord avec toi sur la conclusion. Et surtout, ce robot tueur n'a aucune raison d'être un robot intelligent. La manie des militaires, depuis la naissance du concept même d'armée, c'est de donner et d’obéir aux ordres. Finalement, un soldat humain n'a qu'une autonomie de décision limitée par rapport à son commandement. Du coup, les militaires sont bien plus intéressé par des drones connectés que par des bidules autonome qui pourraient se mettre à faire n'importe quoi comme par exemple se retourner contre leur propre camp. Et je crois que l'on peut faire confiance aux militaires au moins sur ce point, c'est bien qu'ils fassent toujours en sorte que leur soldats ne soient pas trop intelligents …

        Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

    • [^] # Re: Bifrost

      Posté par  . Évalué à 6.

      Dans sa nouvelle, un inventeur à la Steve Jobs

      Il a surement copié ça je ne sais ou !

  • # Mines et sous-munitions

    Posté par  . Évalué à 10. Dernière modification le 07 août 2015 à 12:35.

    En fait, j'ai du mal à comprendre en quoi la problématique des robots tueurs est différente de celles des mines anti-personnelles et les sous-munitions. OK, les algos du robot peuvent se planter et allumer un gamin parti aux champignons, mais la mine fait pire puisqu'il n'y a même pas d'évaluation préalable. Je ne conteste certes pas qu'on doit interdire ces deux types d'armes, mais je ne vois pas où est dans le cas des robots le changement de paradigme soi-disant effrayant.

    • [^] # Re: Mines et sous-munitions

      Posté par  . Évalué à 8.

      Certainement parce que la mine/munition qui n'a pas explosé est "passive". Elle attend tranquillement qu'un pied vienne la chatouiller. Alors qu'on peut imaginer d'un robot chargé de la surveillance d'une zone pète un câble et décidé de "nettoyer" la zone de fond en comble en allant chercher tout le monde un par un.
      Autre hypothèse un peu plus cynique: on sais très bien que dans nos contrés "en paix" on ne risque pas de côtoyer de mine alors que vu les applications possibles de la robotique, on imagine très bien un robocop patrouillant chez nous.

      • [^] # Re: Mines et sous-munitions

        Posté par  . Évalué à 7.

        D'un autre côté, ton robot tu sais où il est, il y a donc peu de chances qu'il reste plusieurs décennies à faire du carton intergénérationnel, si bien qu'au final entre le bilan de son délire ponctuel et celui des tapis de mines, je ne sais pas ce qui sera le plus meurtrier.

        Pour l'hypothèse du robot-taser en mode Dirty Harry, effectivement je n'y avais pas songé…

      • [^] # Re: Mines et sous-munitions

        Posté par  . Évalué à 4. Dernière modification le 07 août 2015 à 14:00.

        Puisque tu évoque Robocop, j'ai trouvé assez amusant que dans Chappie, les rôles soit inversés. Dans Robocop, le robocop n'est pas un robot, malgré son nom, mais un cyborg. C'est son adversaire, ED-209 qui est un robot, et c'est lui qui joue le salopard. Hors, dans Chappie, le réalisateur a pris le contrepied de cette thèse, puisque que le salopard est toujours joué par une machine ressemblant à un ED-209 mais qui est commandé à distance par l'esprit dérangé de son concepteur. C'est un drone, ce qui est plus proche du cyborg (*) que du robot. Dans le film, c'est le robot au contraire qui acquiert une conscience et se retrouve confronté aux notions humaine de bien, de mal et de morale. Un robot qui rappelle d'ailleurs immédiatement Johnny 5, le héros de Short Circuit. Bref, j'ai trouvé que c'était un bon divertissement en forme d'hommage aux classique du genre et qui semble montrer que notre vision de ces concepts continue d'évoluer, ou du moins, sa représentation dans la culture populaire.

        (*) A ce sujet, je pense que la différence fondamentale entre un cyborg et un drone, c'est que dans le cas du drone, l'humain ne partage pas le sort de la machine qu'il commande, mais sinon, c'est kif-kif. (Enfin, ce qui fait la différence est quand même assez fort, mais pas autant qu'entre un robot qui serait réellement autonome et un cyborg).

        Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

    • [^] # Re: Mines et sous-munitions

      Posté par  (site web personnel) . Évalué à 4.

      Car les mines anti-personnels sont quasi totalement interdite ;)

      Pour les sous munitions, c'est en train d'avancer (la convention d'interdiction est là depuis seulement 2008)

      C'est ce que les mecs veulent aussi pour les robots tueurs

      • [^] # Re: Mines et sous-munitions

        Posté par  . Évalué à 5.

        Il semblerait qu'il demeure des états qui n'ont pas ratifié l'interdiction, dont pas mal de gros marchands d'armes (USA, Russie, Chine, Israël).

        Mais bon, encore une fois je ne conteste pas la légitimité de l'interdiction, juste la nouveauté radicale des problèmes soulevés par les robots-tueurs.

        • [^] # Re: Mines et sous-munitions

          Posté par  . Évalué à 1.

          Genre comme ci la France n'était pas dans le top des vendeurs d'armes. Les djihadistes ont aujourd'hui accès à des missiles Milan (EADS), et ça c'est notre bébé ! C'est quand même un comble de se faire buter par ses propres missiles. Alors que mourir avec un missile russe ça a toujours plus de classe…

        • [^] # Re: Mines et sous-munitions

          Posté par  (site web personnel, Mastodon) . Évalué à 8.

          Tu noteras que si la France, qui a ratifié le texte, ne vend effectivement plus de mines, elle continue néanmoins à en vendre… les pièces.

          Business as usual.

          • [^] # Re: Mines et sous-munitions

            Posté par  (site web personnel) . Évalué à 6.

            Bah quoi, un bouton-poussoir podo-activé ça peut aussi servir à faire des pissotières plus hygiéniques. C'est pas la faute d'EADS si tu achètes de la poudre aussi.

      • [^] # Re: Mines et sous-munitions

        Posté par  . Évalué à -10.

        "Car les mines anti-personnels sont quasi totalement interdite ;) "

        La vision du gars, en France, confortablement installé dans son canapé devant son home cinéma, lavé par TF1 et Europe 1 : pathétique.

        Tu demanderas aux unijambistes ce qu'il en pensent de l'interdiction des mines ! ;)

        • [^] # Re: Mines et sous-munitions

          Posté par  (site web personnel) . Évalué à 3.

          Je suis parfaitement au courant des dangers des mines et des sous-munitions.

          Je dit juste que pour les mines et les sous munitions le problème est connu et que le travail avance (c'est malheureusement plus rapide pour mettre un mine que de la retirer)

          C'est pour ça que le travail de sensibilisation de Hawking et de Musk est important, si on empêche une technologie de naître il n'y aura pas besoin de gérer les problèmes que cette technologie pourrait apporter.

          Mais il y a déjà des "robots" les systèmes de défense antimissile des bateaux de guerre doivent avoir un temps de réaction tellement faible qu'un humain ne peut pas suivre, idem pour le système anti roquette en Israël.

          (sinon c'est beau les préjugés…. les unijambistes ne sont pas tous concernés par les mines)

    • [^] # Re: Mines et sous-munitions

      Posté par  . Évalué à 4.

      Une des questions qui se posent est la suivante : qui contrôle le robot ?

      La réponse est la même que pour tout système informatique : c'est l'auteur du programme qui tourne sur le matériel. Ok, pas de problème. Qui est l'auteur ?

      En théorie, celui qui a conçu le robot. Jusque là, ça va. Sauf que le robot est un matériel informatique, et que l'auteur n'est pas nécessairement meilleur que n'importe qui d'autre en termes de sécurité. Ce n'est qu'une question de temps avant qu'un drone fasse l'objet d'une prise de contrôle distante, et là on ne parle pas de divulguer des infos personnelles ou de piquer des numéros de carte bancaire, on parle d'un potentiel de nuisance encore plus direct.

      Ça, ce sont les sources. Le mouton que tu veux est dedans.

      • [^] # Re: Mines et sous-munitions

        Posté par  (site web personnel, Mastodon) . Évalué à 3.

        Une des questions qui se posent est la suivante : qui contrôle le robot ?

        La réponse est la même que pour tout système informatique : c'est l'auteur du programme qui tourne sur le matériel.

        Je n'en suis pas aussi certain que toi.

        On peut facilement supposer que le code qui tourne dans le robot est paramétrable, et (exemple àlc) qu'un commandement quelconque change les paramètres : « ah bé maintenant, il faut dégommer tous les gens avec des uniformes rouges ! ».

        Donc, si un des décideurs est daltonien, shit happen, et l'auteur du programme n'y est pour rien…

        • [^] # Re: Mines et sous-munitions

          Posté par  . Évalué à 0.

          C'est bien l'auteur du programme qui tourne sur le robot qui a accordé le droit de contrôle à une autre personne. En définitive, à l'initiation du moins, c'est bien lui qui contrôle le robot.

          Ça, ce sont les sources. Le mouton que tu veux est dedans.

          • [^] # Re: Mines et sous-munitions

            Posté par  . Évalué à 3. Dernière modification le 15 août 2015 à 21:21.

            Encore heureux que l’auteur du programme permette à d’autres de contrôler celui-ci…

            Si je suis ta pensée les programmes ne devraient pas être paramétrables par l’utilisateur ?! Ça va être pratique ça… Sans compter que ça implique que le code source soit fermé, bah oui sinon on pourrait modifier le code source et changer une valeur puis le recompiler, ainsi le reparamétrer.

            Pour reprendre l’exemple à la con de la personne à qui tu réponds, imagine que l’armée d’en face change de couleur d’uniforme… « Désolé mon général, nos robots sont conçus pour tirer sur ce qui est rouge, là avec leurs uniformes fuchsia va falloir qu’on se rende, on a perdu la guerre :( »

    • [^] # Re: Mines et sous-munitions

      Posté par  . Évalué à 1.

      En fait, j'ai du mal à comprendre en quoi la problématique des robots tueurs est différente de celles des mines anti-personnelles et les sous-munitions. OK, les algos du robot peuvent se planter et allumer un gamin parti aux champignons, mais la mine fait pire puisqu'il n'y a même pas d'évaluation préalable.

      Il me semble que la jambe du petit enfant un des objectifs de la mine antipersonnel.

  • # L'innovation c'est surfait

    Posté par  . Évalué à 0.

    « Qu'est-ce qu'un robot pourrait bien commettre qui n'aurait pas été inventé par un humain ?
    Il suffit d'essayer de faire fonctionner un ordinateur ou un téléphone portable pour s'en convaincre.: le robot est con. Comment, d'ailleurs, pourrait-il en être autrement, puisque l'homme l'a voulu, et persiste à le vouloir, à son image. »

    Pas la peine que le robot innove pour être plus aussi dangereux con que l'original.
    Dans catégorie "con et déjà fait" rappelons la commémoration d'une des plus belles saloperies du genre Bombardements atomiques d'Hiroshima et Nagasaki

    • [^] # Re: L'innovation c'est surfait

      Posté par  (site web personnel) . Évalué à -7.

      Dans catégorie "con et déjà fait" rappelons la commémoration d'une des plus belles saloperies du genre Bombardements atomiques d'Hiroshima et Nagasaki

      Certes il y a débat sur le sujet, mais je te trouve bien présomptueux d'affirmer comme ça "con".
      Théorie (voir le lien au dessus sur pourquoi je dis que théorie) : entre envoyer ton enfant risquer de mourir et faire une chose "conne" à la place, que décideras-tu? Je parle bien de ton enfant (ou ton papa/maman, on ton mari/femme, bref quelqu'un qui t'es cher).

      Ce n'est pas aussi binaire que tu te plais à imaginer. La vie n'est pas si simple, il y a souvent des dilemmes.

      • [^] # Re: L'innovation c'est surfait

        Posté par  . Évalué à 1.

        Connerie (Populaire) : Erreur, acte stupide.

        Pourquoi penses-tu que je n'ai pas considéré les différents points de vue avant de penser que les humains (de part et d'autre) ont été cons/stupides pour en arriver aux évènements mentionnés.

        Une connerie est mon point de vue pondéré sur le sujet :)

        Ce n'est pas aussi binaire que tu te plais à imaginer

        Théorie (voir le lien au dessus sur pourquoi je dis que théorie) : entre envoyer ton enfant risquer de mourir et faire une chose "conne" à la place, que décideras-tu? Je parle bien de ton enfant (ou ton papa/maman, on ton mari/femme, bref quelqu'un qui t'es cher)

        Elle est pas binaire ta question?

        La vie n'est pas si simple (1), il y a souvent des dilemmes (2).

        1. Merci captain obvious
        2. Ah ba tiens c'est la question avec l'intelligence artificielle
    • [^] # Re: L'innovation c'est surfait

      Posté par  . Évalué à 3.

      À ce propos, un très intéressant documentaire:
      http://www.arte.tv/guide/fr/054197-000/hiroshima-la-veritable-histoire?autoplay=0

      Ma conclusion, c'est que nous n'avons pas d'autre choix aujourd'hui que de croire envers et contre tout à des valeurs humanistes, à la solidarité, au partage, à la paix. Et c'est possible. Sinon, c'est simple, le problème peut être réglé en quelques minutes.

  • # Il y a connerie et connerie

    Posté par  . Évalué à 9. Dernière modification le 07 août 2015 à 14:37.

    Il suffit d'essayer de faire fonctionner un ordinateur ou un téléphone portable pour s'en convaincre.: le robot est con. Comment, d'ailleurs, pourrait-il en être autrement, puisque l'homme l'a voulu, et persiste à le vouloir, à son image.

    Je suis d'accord sur le premier point : un robot (un logiciel) est con. Il est con au sens mathématique : il va faire ce qu'il est programmé pour faire (au bugs près), mais il va le faire de manière aveugle et mécanique. Quand un humain va se dire "merde, je suis en train d'effacer mes photos de vacances, stop stop stop", le programme ne va pas se poser de question. De même manière, un soldat peut se dire "merde, je suis en train de buter des gamins", pas un robot.

    Par contre, je ne suis absolument pas d'accord avec la raison invoquée, le fait que l'Homme fait l'ordinateur, le programme, ou le robot, à son image. C'est même totalement faux. D'une part, le fonctionnement d'un ordinateur ou d'un robot est fondamentalement différent de celui d'un cerveau ou d'un corps humain, mais en plus, tout l'objectif de l'intelligence artificielle est d'essayer de contourner ces différences de fonctionnement pour qu'un ordinateur puisse au moins en apparence mimer le comportement humain. La chose est tellement difficile qu'on arrive à peine à parvenir au début d'une ébauche d'un tel résultat. J'aurais donc tendance à dire qu'au contraire, l'Homme et le robot sont cons pour des raisons diamétralement opposées : l'Homme est con parce que son cerveau est trop imparfait et irrationnel (intuition fantaisiste, biais cognitifs, dysfonctionnements émotionnels, raisonnements analogues sur des situations différentes, etc), alors que le robot est con parce que c'est une machine à calculer.

    Du coup, je ne vois pas l'intéret d'un raisonnement basé sur une telle erreur dans les prémisses.

    • [^] # Re: Il y a connerie et connerie

      Posté par  (Mastodon) . Évalué à 3.

      « tout l'objectif de l'intelligence artificielle est d'essayer de contourner ces différences de fonctionnement pour qu'un ordinateur puisse au moins en apparence mimer le comportement humain. »
      Ergo l'homme veut la machine à son image…
      Non ?

      Et c'est là le raisonnement, parce qu'on pourrait passer sur le fait qu'une machine n'est qu'une grosse calculatrice, mais comme on essaie de lui faire ressembler à l'homme, con par nature, l'ordinateur tend donc à passer d'une connerie à l'autre, mais il reste con, par conception.

      Yth.

      • [^] # Re: Il y a connerie et connerie

        Posté par  . Évalué à -1.

        Alors que l'inverse serait drôle, essayer de ressembler à un processeur Intel. Mais on aurait des problèmes de racisme envers ceux qui ont des tronches d'AMD ;)

      • [^] # Re: Il y a connerie et connerie

        Posté par  . Évalué à 6.

        Ergo l'homme veut la machine à son image…
        Non ?

        Le fait que l'homme souhaite la machine à son image n'implique pas qu'elle le soit, bien au contraire!

        D'une part, on est très très très loin de pouvoir créer des interfaces similaires à un contact humain. À ma connaissance, plus une interface est "pseudo-intelligente", moins elle est utile. On reparle du bonhomme-trombone de Microsoft-Office?

        D'autre part, d'après mon expérience, les interface les plus utiles sont celles qui sont bien conçues, intuitives, mais surtout, "mécaniques" (une action mène toujours au même résultat). Les machins adaptatifs qui essayent de deviner ce dont tu as besoin génèrent beaucoup de frustration et au final sont inutiles. Autrement dit, quand on veut des outils (et un robot reste un outil), on ne veut pas quelque chose qui fonctionne comme un humain, et c'est à mon avis une erreur d'aller dans cette direction.

        D'ailleurs, je ne suis pas certain que les concepteurs de ces objets (ordinateurs, smartphones…) aient en tête le bonheur et l'efficacité des utilisateurs. La plupart du temps, les interfaces sont conçues pour qu'on ne puisse pas éviter la pub, ni installer des logiciels non-adoubés par le constructeur, ni utiliser une fonction de l'objet qui ne soit pas autorisée par constructeur… Bref, tant qu'on achètera des bidules électroniques fabriqués par des gens qui souhaitent continuer à se faire du pognon après la vente de l'objet, le logiciel ne va jamais évoluer vers les besoins de l'utilisateurs.

        Mais bon, sur le fond, je maintiens que la connerie de l'homme et la connerie du bidule-phone électronique sont toutes deux incommensurables, mais qu'elles n'ont pas les mêmes causes ni les mêmes conséquences, et que leur comparaison n'est absolument pas pertinente.

        • [^] # Re: Il y a connerie et connerie

          Posté par  . Évalué à 1.

          Les machins adaptatifs qui essayent de deviner ce dont tu as besoin génèrent beaucoup de frustration et au final sont inutiles. >Autrement dit, quand on veut des outils (et un robot reste un outil), on ne veut pas quelque chose qui fonctionne comme un >humain, et c'est à mon avis une erreur d'aller dans cette direction.

          C'est pourtant ce vers quoi s'oriente la recherche en robotique aujourd'hui: anticiper et s'adapter aux réactions humaines. Le but est de rendre la communication intuitive et transparente à tous les niveaux: rendre les robots capables de "comprendre" leur environnement, de s'y adapter sans intervention humaine, les rendre capable d'interpréter une émotion et de traduire une émotion pour un être humain. Dans certains cas, on n'est pas très loin de passer le test de Turing. Mais rien à voir avec la série Real Human, qui pour moi pose de gros problèmes de réalisme.
          Et de toutes façons,le problème n'est pas nouveau: que fait-on de ces progrès technologiques?

    • [^] # Re: Il y a connerie et connerie

      Posté par  (site web personnel) . Évalué à 2. Dernière modification le 07 août 2015 à 20:24.

      Du coup, je ne vois pas l'intéret d'un raisonnement basé sur une telle erreur dans les prémisses.

      l'article est plus complet, l'auteur y développe d'autres arguments amenant à la conclusion que j'ai citée. Ce sont tes prémisses par rapport au raisonnement de l'auteur qui sont incomplètes :D Tu pourras consulter l'article en p.5, 4e oolonne (en kiosque, en tabac-presse, en librairie de la presse, chez ton bistrotier… je ne l'ai pas trouvé en ligne :/).

      Ton raisonnement reste complémentaire et d'ailleurs pertinent àmha, un journal satirique amenant à la réflexion par nature et par son contenu, l'approche étant volontairement dans le décalage, quelques poncifs pour réveiller les endormis du bulbe, voire dans l'argumentation sans références aux canons éculés du genre (sans doute afin de stimuler des rapprochements non vus avec d'autres réflexions).

  • # responsabilité

    Posté par  . Évalué à -6.

    Le drône ou robot tueur est surtout destiné à déresponsabiliser le soldat ou sa hiérarchie…point d'IA ici.

    Pour le futur, pas de coupable, pas de Nuremberg

    Nous sommes dans une société qui inverse toutes les valeurs, où l'on chosifie les êtres vivants et où on personnifie les objets.

    Et pour les gauchos écolos hipsters incultes LGBT de linuxfr, un petit résumé :

    • la pluie ça mouille,
    • la guerre ce n’est pas bien,
    • la guerre ce n’est jamais propre,
    • la guerre ça provoque des morts et des drames familiaux,
    • la guerre ça enrichit ceux qui vous vendent du Figaro, du Libé…du Patrick Sébastien…et du Mac Donald.
    • la disproportion est l'essence même de la guerre sinon celle-ci est éternelle.

    Je sais la vie c'est de la merde et tu en mangeras un petit bout chaque jour dans ta vie d'esclave en attendant de finir sur un lit d'hôpital public sale et plein de maladies, dans l'indifférence générale et la solitude la plus extrême, 5 ans avant de toucher ta retraite et tu seras soigné par des médecins étrangers roumains qui ne parlent pas français.

    Alors comme on dit à Marseilles, elle pas plus belle la vie ?

    P. : si on pouvait trouver un robot qui nous taille des pipes, je ferais certainement pas mal d'économies ! Si quelqu'un à l'âme d'un kick-starter ?

    • [^] # Re: responsabilité

      Posté par  . Évalué à 6.

      Vendredi.
      Après-midi.
      Mois d'août.
      Quasi mi-août, même.

      COMBO

      • [^] # Re: responsabilité

        Posté par  . Évalué à -3.

        Merci, je me suis donné beaucoup de mal pour atteindre l'objectif du troll ultime du vendredi…mais je suis certain que je peux être battu !

    • [^] # Re: responsabilité

      Posté par  (Mastodon) . Évalué à 1.

      Troll !
      Message inutile, agressif, sans intérêt, et qui ne grandit pas son auteur, qui prétendra certainement s'en moquer (mais si c'était le cas il n'écrirait pas), passez votre chemin en toute sérénité.

      • Yth-indicateur.
      • [^] # Re: responsabilité

        Posté par  . Évalué à -5.

        C'est toi le kapo aujourd'hui, enchanté ! Tu auras droit à un bon point de ton prof, mini Vals ;)

      • [^] # Re: responsabilité

        Posté par  . Évalué à -5.

        "qui prétendra certainement s'en moquer (mais si c'était le cas il n'écrirait pas)"

        C'est celui qui dit qui y est…

        Franchement tu as un argumentaire digne du collège ;), espèce de petite crotte de nez !

    • [^] # Re: responsabilité

      Posté par  . Évalué à 1.

      est surtout destiné à déresponsabiliser le soldat ou sa hiérarchie…

      Pour le futur, pas de coupable, pas de Nuremberg

      Tu ferais mieux de te renseigner un poil sur les procès liés au nazisme. Parmi les cas intéressants, il y a Eichmann. Toute la question de la responsabilité individuelle (et donc toute la notion de justice telle qu’elle a été pensée dans le monde moderne) devient caduque avec l’Holocauste. Pour ça que les procès liés au nazisme, la dénazification (de fait nulle), n’ont été qu’une grotesque farce.

      Un message d’un gaucho écolo hipster inculte LGBT, qui pense que tu as perdu un occasion de te taire.

      • [^] # Re: responsabilité

        Posté par  . Évalué à 2.

        Toute la question de la responsabilité individuelle (et donc toute la notion de justice telle qu’elle a été pensée dans le monde moderne) devient caduque avec l’Holocauste.

        Je ne vois franchement pas en quoi. Que nombreux soient ceux parmi la population allemande qui avaient connaissance et profitaient de l'existence des camps n'empêche pas de distinguer ceux qui ont commis des actes de cruauté et/ou organisé cette tuerie. Si on a préféré fermer les yeux sur beaucoup de choses, c'est plus lié à la situation politique de l'époque (préserver l'Allemagne de l'Ouest d'un basculement à l'Est en la remettant rapidement sur pied) qu'à la nature « injugeable » du crime.

        Pour ça que les procès liés au nazisme, la dénazification (de fait nulle), n’ont été qu’une grotesque farce.

        Pour sûr, Eichmann a dû la trouver bien bonne quand on lui a passé la corde au cou…

  • # colonne

    Posté par  . Évalué à 3.

    une colonne de Gérard Biard

    Column en anglais se dit plutôt « rubrique » ou « chronique ».

    • [^] # Re: colonne

      Posté par  (site web personnel) . Évalué à 3.

      Corrigé, merci.

      • [^] # Re: colonne

        Posté par  . Évalué à 2.

        Dans le cas présent, il s'agit bien d'une colonne, au sens propre : l'article de Gérad Biard est formatté en une seule colonne, sur toute la hauteur de page, contrairement aux autres articles du journal qui sont généralement présentés sur deux colonnes (ou plus).

  • # Paradoxe de la bêtise

    Posté par  . Évalué à 1.

    Un truc que je ne comprendrais jamais, c'est pourquoi les informaticiens sont sûrement les mecs les plus incapables de penser le sens de l'algorithme. Est-ce parce qu'ils ne connaissent QUE ça de la vie ?

    • [^] # Re: Paradoxe de la bêtise

      Posté par  (site web personnel) . Évalué à 3.

      il faut bien se mettre au niveau de la machine :-)
      cela ne présage pour autant pas des discussions au troquet du coin, hautement plus élaborées :D

      • [^] # Re: Paradoxe de la bêtise

        Posté par  . Évalué à 2. Dernière modification le 08 août 2015 à 17:50.

        :)

        Justement, les informaticiens sont censés avoir un niveau de raisonnement un peu plus développé, et devraient tous rires à haute voix quand ont leur parle d'intelligence artificiel vu qu'ils sont hautement conscients qu'un algorithme ne peut pas prendre vie par magie. Le calcul ce n’est pas magique.

        Par contre, je ne dis pas que l'artifice de la simulation d'intelligence peut donner de belles choses pour la vie "pratique" de tous les jours : service météo, statistique précise, détection de forme à la google neurones machin, comme des horribles : robot de guerre. Mais une fois de plus, qui crée la procédure calculante ? L'humain.

        Ces histoires d'IA c'est comme les poupées gonflables, on projette tous nos pires fantasmes sur une forme vide, faute d'être capable de les vivre dans la vraie vie.

        • [^] # Re: Paradoxe de la bêtise

          Posté par  . Évalué à 0.

          Ces histoires d'IA c'est comme les poupées gonflables, on projette tous nos pires fantasmes sur une forme vide, faute d'être capable de les vivre dans la vraie vie.

          https://fr.wikipedia.org/wiki/Air_Doll

        • [^] # Re: Paradoxe de la bêtise

          Posté par  . Évalué à 3.

          Justement, les informaticiens sont censés avoir un niveau de raisonnement un peu plus développé, et devraient tous rires à haute voix quand ont leur parle d'intelligence artificiel vu qu'ils sont hautement conscients qu'un algorithme ne peut pas prendre vie par magie. Le calcul ce n’est pas magique.

          Elle est marrante ta phrase, elle induirais donc que ce qui est de l'ordre du vivant et de la conscience serait par essence magique. C'est Arthur C. Clarke à ce propos qui disait : Toute technologie suffisamment avancée est indiscernable de la magie.

          Cela dit, je te rassure, je la comprend aussi dans le sens où, ce n'est pas la vie ou la conscience en soi qui serait "magique", mais le fait qu'un algorithme puisse lui donner naissance, à la manière d'un sorcier qui animerais un golem.

          La conscience artificielle ou l'IA forte comme certain l'appelle, c'est encore du domaine de la SF, comme les voyages dans le temps, les univers parallèles et les saut dans l'hyperespace. Le point de vue de Gérard Klein sur le sujet est d’ailleurs assez intéressant.

          Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

    • [^] # Re: Paradoxe de la bêtise

      Posté par  . Évalué à 1.

      Oui.
      En témoignent de récentes conversations que j'ai eu avec mes collègues.
      Et la tonalité générale des commentaires de ce site, qui montrent un au mieux de la méconnaissance, au pire un mépris affiché de tout ce qui n'est pas sciences dites dures et ingénierie: les sciences humaines, sciences sociales et philosophie, ce n'est pas utile. Pas étonnant ensuite que le niveau de réflexion soit aussi bas alors que les actes sont aussi lourds de conséquence.
      Je crois aussi que cette dévalorisation vient de loin: au lycée, quatre heure de philo plus d'histoire, plus de littérature en terminale. C'est peu pour prendre du recul, surtout à cet âge.
      Par ailleurs, toute la formation scientifique et technique est orientée vers le but ultime de l'application. Aujourd'hui tout doit rapporter de l'argent (mais pas forcément être utile à la société), y compris dans les labos de recherche publique.

      • [^] # Re: Paradoxe de la bêtise

        Posté par  . Évalué à 1.

        Ça commence d’ailleurs à atteindre les sciences dures très sérieusement. On perd toute la partie explicative de la science, pour ne garder que le côté prédictif. L’arrivée de l’ordinateur, des simulations, ça n’a pas aidé à améliorer les choses.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.