Article passionnant à bien des égards, merci du partage.
Parmi les questions que ça pose, de manière pas trop « futurologue » qui lit dans les cartes, ça pose la question des interactions entre humain et technique dans le futur.
On a ici des machines qui deviennent de plus en plus malignes et capables de faire des analyses de plus en plus poussées. C’est utilisable pour détecter des auteurs de désinformations de manière crédible, mais aussi potentiellement de manière offensive pour produire des désinformations.
Ils évoquent la course à l’armement que ça pourrait engendrer si on combine les capacité de détections aux capacités de générations que les machines acquièrent petit à petit. Si on a des machines qui sont de plus en plus capables de générer de fausses informations de manière crédibles et efficaces, on risque d’avoir aussi des machines qui vont devenir de l’autre côté de plus en plus efficaces pour détecter ces manipulations, et ça passe par l’augmentation de la puissance de calcul de chaque côté, potentiellement, dans une course à l’armement.
Mais … est-ce que le plus efficace finalement ne serait pas de ne pas se lancer dans cette guerre algorithmique et de puissance de calcul et d’agir au niveau de l’humain et de sa manipulabilité ? Dans le domaine de l’armement et du niveau technologique des armées on a pu voir lors d’un certain nombre de conflit que des humains avec peu de moyens et des techniques de guérilla pouvaient résister à des armées bien mieux armées technologiquement pour des tas de raisons. On a entendu parler d’armes hypersoniques dernièrement juste avant le conflit en Ukraine mais en pratique il semble que ce soit pour l’instant plutôt des moyens d’intimidation que des moyens prouvés et utilisés en pratique sur le terrain. Alors … a-t-on réellement besoin d’une débauche de moyens calculatoire pour gagner ou contrer une guerre de l’information ?
Dans le cadre de la désinformation … c’est très intéressant parce qu’on peut voir l’humain, pour partie, comme une machine à traiter l’information lui même. Avec ses faiblesses puisqu’on peut utiliser l’information pour le manipuler … est-ce que les manipulateurs prendront le dessus grâce à la technique ? Ou est-ce que l’humain en groupe saura s’en dépatouiller, avec ou sans l’aide de la technique ?
est-ce que les manipulateurs prendront le dessus grâce à la technique ? Ou est-ce que l’humain en groupe saura s’en dépatouiller, avec ou sans l’aide de la technique ?
Ta formulation laisse penser que les manipulateurs ne sont pas humains. Je pense qu'il est important de garder en tête qu'il y a des humains des deux côtés et qu'ils vont utiliser les outils les plus efficace à leur disposition. Si on améliore les outils d'un côté, il y a une pression évolutionnaire pour les améliorer de l'autre côté.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
Sans doute mais une guerre de l’information n’est qu’un des aspects en jeu. Du temps de l’union soviétique, par exemple, il semble que ce ne soit qu’un des aspects du contrôle du peuple et que de toute façon plus personne ne croyait les informations officielles.
Dans un cadre ou de toute façon plus personne n’y croit y a-t-il avantage à creuser davantage cette question ? Peut-être si ça lui permet de retrouver une certaine efficacité, dans d’autres cadre non. Par exemple si c’est pour contrer la propagande étrangère couper complètement Internet du monde peut être bien plus rapide et efficace.
À quel point l’humain est-il manipulable ? Est-ce systématiquement intéressant d’aller plus loin dans la manipulation ?
Posté par Krunch (site web personnel) .
Évalué à 2.
Dernière modification le 19 mars 2022 à 11:13.
Ce conflit entre manipulateur et démanipulateur(?) est certainement à remettre dans son contexte. Je pense qu'il n'est pas trop difficile de trouver un contexte dans lequel l'escalade reste « utile » pour au moins un des deux parties. Si tu fais référence spécifiquement à l'Ukraine et la Russie, je sais pas où est la limite mais c'était pas le sujet.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
Je suis pas totalement certain. Si il est de notoriété publique que sur les canaux pas sûrs l’info est à coup sure bidon et générée algorithmiquement il va y avoir une pression sur les humains pour finalement apprendre à se fier aux canaux fiables (ce que beaucoup font déjà) de manière à ce que l’impact des canaux de désinformation devienne marginalement nul ?
Et puis si ce sont des gens crédules et/ou qui ont juste envie de croire, que ce soit sophistiqué ou débunké ou pas n’aura peu être pas vraiment d’impact. Un effort minimal aurait le même effet qu’une débauche de puissance, potentiellement.
Si il est de notoriété publique que sur les canaux pas sûrs l’info est à coup sure bidon et générée algorithmiquement il va y avoir une pression sur les humains pour finalement apprendre à se fier aux canaux fiables
Et il va y avoir une pression sur les désinformateurs pour faire passer leurs canaux pour fiable ou pour prendre le contrôle de canaux réputés fiable. Le chat et la souris, toussa.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
Posté par yal (Mastodon) .
Évalué à 4.
Dernière modification le 19 mars 2022 à 10:06.
Tout simplement passionnant, mais aussi inquiétant. Et pas parce que les méchantes IA pourraient nous démasquer de force (ici, je parle en tant qu'auteur qui publie sous pseudonymes). Au contraire, je trouve ça essentiel et riche — au minimumparce que ça devrait nous pousser à réfléchir à la société que nous sommes en train de bâtir, je veux dire derrière les beaux discours dont on l'emballe et les nobles sentiements dont on se revendique.
Non, ce qui m'inquiète c'est lorsque que le questionneur leur demande si cet outil ne pourrait pas aussi être retourné pour faire de la contre-IA qui parasiterait le travail d'analyse du texte (en gros), un des chercheurs réponde ceci (je mets en gras et en italiques) :
(oui c'est possible.) Il y a même un champ qui existe qui est celui de la stylométrie adversariale dans lequel il y a beaucoup de contributions sur les meilleurs algorithmes pour brouiller le signal stylistique avec des substitution aléatoires de mots à partir d’un dictionnaire d’équivalence ou des méthodes plus sophistiquées. Ce champ peut parfois être légitime, notamment quand il s’agit d’empêcher un lanceur d’alerte d’être découvert.
Ce « champ » (càd, ici, tout faire protéger son anonymat y compris en utilisant de l'IA contre d'autres IA fouineuses, donc) est soit légitime, soit il ne l'est pas. Il ne l'est pas « parfois ».
Édicter des exceptions ou des situations où, au nom de certains principes ou de certaines valeurs, ce serait justifié de se protéger et donc, du moins comme je le lis, sous-entendre qu’il y aurait des cas où ce ne serait pas légitime est intenable. C'est soit stupide, soit hypocrite. Edit: du moins pas hors du cadre strict d'une législation mais dans tous les cas: si la loi peut punir le fautif, l'outil qu'il a employé pour fauter ne peut pas être à géométrie variable.
Pour faire un parallèle pas si excessif que ça, c'est un peu comme nos élu(e)s qui exigent une cryptographie qui soit inviolable sauf quand c'est pour punir les "méchants".
Mais peut-être j'ai mal lu ou mal compris sa réponse ?
Ce « champ » [de recherche] est soit légitime, soit il ne l'est pas. Il ne l'est pas « parfois ».
Ben si. Comme tout champs de recherche et comme toute technologie, il peut être utilisé à des fins différentes qui peuvent être « bonnes » / légitimes ou « mauvaises » / illégitimes. Voir par exemple ceci pour un exemple récent dont « tout le monde » parle : https://www.theregister.com/2022/03/18/ai_weapons_learning/
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
Posté par yal (Mastodon) .
Évalué à 3.
Dernière modification le 19 mars 2022 à 10:31.
Je ne dis pas qu'elle ne peut pas être mauvaise ou bonne. Bien au contraire.
Si on avait encore le moindre doute, avant, sur la question (?) depuis la bombe sur Hiroshima et sa copine sur Nagasaki, on sait que la recherche mène avec la même efficacité "désintéressée" à du bien et à du (très beaucoup plus) pire.
je dis juste que l'on n'a pas l'un sans l'autre. Et que laisser sous-entendre (comme je l'ai lu dans sa réponse, mais je le répète je peux avoir mal compris) qu'on peut ne garder que le bon et jeter le mauvais… ben, c'est soit stupide, soit hypocrite. Et j'ajouterai : dans les deux cas, c'est sacrément casse-gueule ;)
Ce qu’on peut choisir de faire en conscience par contre c’est refuser de volontairement et en y mettant de la morale, de creuser le mauvais côté. Pour la bombe atomique Robert_Oppenheimer a essuyé des refus pour cette raison :
Pourtant, Oppenheimer ne parvient pas à recruter Isidor Isaac Rabi qui ne peut accepter de voir « trois siècles de recherches en physique [culminer] dans la fabrication d'une arme de destruction massive ».
je dis juste que l'on n'a pas l'un sans l'autre. Et que laisser sous-entendre (comme je l'ai lu dans sa réponse, mais je le répète je peux avoir mal compris) qu'on peut ne garder que le bon et jeter le mauvais… ben, c'est soit stupide, soit hypocrite.
Ça tombe bien parce que ce n'est pas ce que fait cet article / entretien si on le lit en entier.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
Ce champ peut parfois être légitime, notamment quand il s’agit d’empêcher un lanceur d’alerte d’être découvert.
Si ce genre de truc devient une généralité, il suffira aux lanceurs d'alertes de ne plus rédiger leur texte, mais de juxtaposer des phrase disponibles en ligne ou dans des livres; quitte à changer certains mots pour correspondre au sujet si ils ne trouvent rien. Le texte n'étant plus d'eux, la machine aura du mal à retrouver l'auteur.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
# Humain avec Machine, Humain versus Machine, Machine versus Machine, Humain versus humain ?
Posté par Thomas Douillard . Évalué à 4.
Article passionnant à bien des égards, merci du partage.
Parmi les questions que ça pose, de manière pas trop « futurologue » qui lit dans les cartes, ça pose la question des interactions entre humain et technique dans le futur.
On a ici des machines qui deviennent de plus en plus malignes et capables de faire des analyses de plus en plus poussées. C’est utilisable pour détecter des auteurs de désinformations de manière crédible, mais aussi potentiellement de manière offensive pour produire des désinformations.
Ils évoquent la course à l’armement que ça pourrait engendrer si on combine les capacité de détections aux capacités de générations que les machines acquièrent petit à petit. Si on a des machines qui sont de plus en plus capables de générer de fausses informations de manière crédibles et efficaces, on risque d’avoir aussi des machines qui vont devenir de l’autre côté de plus en plus efficaces pour détecter ces manipulations, et ça passe par l’augmentation de la puissance de calcul de chaque côté, potentiellement, dans une course à l’armement.
Mais … est-ce que le plus efficace finalement ne serait pas de ne pas se lancer dans cette guerre algorithmique et de puissance de calcul et d’agir au niveau de l’humain et de sa manipulabilité ? Dans le domaine de l’armement et du niveau technologique des armées on a pu voir lors d’un certain nombre de conflit que des humains avec peu de moyens et des techniques de guérilla pouvaient résister à des armées bien mieux armées technologiquement pour des tas de raisons. On a entendu parler d’armes hypersoniques dernièrement juste avant le conflit en Ukraine mais en pratique il semble que ce soit pour l’instant plutôt des moyens d’intimidation que des moyens prouvés et utilisés en pratique sur le terrain. Alors … a-t-on réellement besoin d’une débauche de moyens calculatoire pour gagner ou contrer une guerre de l’information ?
Dans le cadre de la désinformation … c’est très intéressant parce qu’on peut voir l’humain, pour partie, comme une machine à traiter l’information lui même. Avec ses faiblesses puisqu’on peut utiliser l’information pour le manipuler … est-ce que les manipulateurs prendront le dessus grâce à la technique ? Ou est-ce que l’humain en groupe saura s’en dépatouiller, avec ou sans l’aide de la technique ?
[^] # Re: Humain avec Machine, Humain versus Machine, Machine versus Machine, Humain versus humain ?
Posté par Krunch (site web personnel) . Évalué à 3.
Ta formulation laisse penser que les manipulateurs ne sont pas humains. Je pense qu'il est important de garder en tête qu'il y a des humains des deux côtés et qu'ils vont utiliser les outils les plus efficace à leur disposition. Si on améliore les outils d'un côté, il y a une pression évolutionnaire pour les améliorer de l'autre côté.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
[^] # Re: Humain avec Machine, Humain versus Machine, Machine versus Machine, Humain versus humain ?
Posté par Thomas Douillard . Évalué à 3.
Sans doute mais une guerre de l’information n’est qu’un des aspects en jeu. Du temps de l’union soviétique, par exemple, il semble que ce ne soit qu’un des aspects du contrôle du peuple et que de toute façon plus personne ne croyait les informations officielles.
Dans un cadre ou de toute façon plus personne n’y croit y a-t-il avantage à creuser davantage cette question ? Peut-être si ça lui permet de retrouver une certaine efficacité, dans d’autres cadre non. Par exemple si c’est pour contrer la propagande étrangère couper complètement Internet du monde peut être bien plus rapide et efficace.
À quel point l’humain est-il manipulable ? Est-ce systématiquement intéressant d’aller plus loin dans la manipulation ?
[^] # Re: Humain avec Machine, Humain versus Machine, Machine versus Machine, Humain versus humain ?
Posté par Krunch (site web personnel) . Évalué à 2. Dernière modification le 19 mars 2022 à 11:13.
Ce conflit entre manipulateur et démanipulateur(?) est certainement à remettre dans son contexte. Je pense qu'il n'est pas trop difficile de trouver un contexte dans lequel l'escalade reste « utile » pour au moins un des deux parties. Si tu fais référence spécifiquement à l'Ukraine et la Russie, je sais pas où est la limite mais c'était pas le sujet.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
[^] # Re: Humain avec Machine, Humain versus Machine, Machine versus Machine, Humain versus humain ?
Posté par Thomas Douillard . Évalué à 2.
Je suis pas totalement certain. Si il est de notoriété publique que sur les canaux pas sûrs l’info est à coup sure bidon et générée algorithmiquement il va y avoir une pression sur les humains pour finalement apprendre à se fier aux canaux fiables (ce que beaucoup font déjà) de manière à ce que l’impact des canaux de désinformation devienne marginalement nul ?
[^] # Re: Humain avec Machine, Humain versus Machine, Machine versus Machine, Humain versus humain ?
Posté par Thomas Douillard . Évalué à 2.
Et puis si ce sont des gens crédules et/ou qui ont juste envie de croire, que ce soit sophistiqué ou débunké ou pas n’aura peu être pas vraiment d’impact. Un effort minimal aurait le même effet qu’une débauche de puissance, potentiellement.
[^] # Re: Humain avec Machine, Humain versus Machine, Machine versus Machine, Humain versus humain ?
Posté par Krunch (site web personnel) . Évalué à 3.
Et il va y avoir une pression sur les désinformateurs pour faire passer leurs canaux pour fiable ou pour prendre le contrôle de canaux réputés fiable. Le chat et la souris, toussa.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
[^] # Re: Humain avec Machine, Humain versus Machine, Machine versus Machine, Humain versus humain ?
Posté par Thomas Douillard . Évalué à 3.
Mais ça c'est pas une question de puissance de calcul
# Passionnant, mais...
Posté par yal (Mastodon) . Évalué à 4. Dernière modification le 19 mars 2022 à 10:06.
Tout simplement passionnant, mais aussi inquiétant. Et pas parce que les méchantes IA pourraient nous démasquer de force (ici, je parle en tant qu'auteur qui publie sous pseudonymes). Au contraire, je trouve ça essentiel et riche — au minimumparce que ça devrait nous pousser à réfléchir à la société que nous sommes en train de bâtir, je veux dire derrière les beaux discours dont on l'emballe et les nobles sentiements dont on se revendique.
Non, ce qui m'inquiète c'est lorsque que le questionneur leur demande si cet outil ne pourrait pas aussi être retourné pour faire de la contre-IA qui parasiterait le travail d'analyse du texte (en gros), un des chercheurs réponde ceci (je mets en gras et en italiques) :
Ce « champ » (càd, ici, tout faire protéger son anonymat y compris en utilisant de l'IA contre d'autres IA fouineuses, donc) est soit légitime, soit il ne l'est pas. Il ne l'est pas « parfois ».
Édicter des exceptions ou des situations où, au nom de certains principes ou de certaines valeurs, ce serait justifié de se protéger et donc, du moins comme je le lis, sous-entendre qu’il y aurait des cas où ce ne serait pas légitime est intenable. C'est soit stupide, soit hypocrite. Edit: du moins pas hors du cadre strict d'une législation mais dans tous les cas: si la loi peut punir le fautif, l'outil qu'il a employé pour fauter ne peut pas être à géométrie variable.
Pour faire un parallèle pas si excessif que ça, c'est un peu comme nos élu(e)s qui exigent une cryptographie qui soit inviolable sauf quand c'est pour punir les "méchants".
Mais peut-être j'ai mal lu ou mal compris sa réponse ?
[^] # Re: Passionnant, mais...
Posté par Krunch (site web personnel) . Évalué à 5.
Ben si. Comme tout champs de recherche et comme toute technologie, il peut être utilisé à des fins différentes qui peuvent être « bonnes » / légitimes ou « mauvaises » / illégitimes. Voir par exemple ceci pour un exemple récent dont « tout le monde » parle : https://www.theregister.com/2022/03/18/ai_weapons_learning/
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
[^] # Re: Passionnant, mais...
Posté par yal (Mastodon) . Évalué à 3. Dernière modification le 19 mars 2022 à 10:31.
Je ne dis pas qu'elle ne peut pas être mauvaise ou bonne. Bien au contraire.
Si on avait encore le moindre doute, avant, sur la question (?) depuis la bombe sur Hiroshima et sa copine sur Nagasaki, on sait que la recherche mène avec la même efficacité "désintéressée" à du bien et à du (très beaucoup plus) pire.
je dis juste que l'on n'a pas l'un sans l'autre. Et que laisser sous-entendre (comme je l'ai lu dans sa réponse, mais je le répète je peux avoir mal compris) qu'on peut ne garder que le bon et jeter le mauvais… ben, c'est soit stupide, soit hypocrite. Et j'ajouterai : dans les deux cas, c'est sacrément casse-gueule ;)
[^] # Re: Passionnant, mais...
Posté par Thomas Douillard . Évalué à 2.
Ce qu’on peut choisir de faire en conscience par contre c’est refuser de volontairement et en y mettant de la morale, de creuser le mauvais côté. Pour la bombe atomique Robert_Oppenheimer a essuyé des refus pour cette raison :
Donc la réponse est bien plus complexe.
[^] # Re: Passionnant, mais...
Posté par Krunch (site web personnel) . Évalué à 3.
Ça tombe bien parce que ce n'est pas ce que fait cet article / entretien si on le lit en entier.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
[^] # Re: Passionnant, mais...
Posté par fearan . Évalué à 5.
Si ce genre de truc devient une généralité, il suffira aux lanceurs d'alertes de ne plus rédiger leur texte, mais de juxtaposer des phrase disponibles en ligne ou dans des livres; quitte à changer certains mots pour correspondre au sujet si ils ne trouvent rien. Le texte n'étant plus d'eux, la machine aura du mal à retrouver l'auteur.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.