• # Expert publicité

    Posté par  (site web personnel) . Évalué à 4.

    Plus c'est gros, plus ça fait du bruit, mieux c'est. Ratissons large.

    « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

  • # La priorité n'est pas là

    Posté par  . Évalué à 1.

    On en parle sur Arstechnica.

    En résumé : oui, l'IA présente des risques de cet ordre, mais attirer l'attention sur sur ces risques futurs (et donc encore inexistants), c'est surtout une manière de se détourner des problèmes actuels.

    • [^] # Re: La priorité n'est pas là

      Posté par  . Évalué à 3.

      Ouais, enfin Eric Drexler disait déjà en 1986 dans « Les engins créateurs » que l'IA est plus dangereuse que les armes nucléaires. Il le disait en fait à la fois à propos de l'IA et des nanotechnologies.
      Bien que ces 2 technologies ne soient qu'embryonnaires, voire seulement des extrapolations de découvertes récentes, il explique pourquoi il faut réfléchir dés le début aux moyens de les contrôler. Ces sont des technologies de les développements seront par nature exponentiels et non surveillables (qui peut empêcher une équipe dispersée sur tous les continents de développer une IA en secret ?) au contraire des armes nucléaires.

      Par ailleurs, c'est quoi un risque qui ne serait pas futur ?

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.