Merci beaucoup pour le lien, je l'ai beaucoup apprécié, et j'y ai appris pas mal de choses. En résumé:
Une stratégie pour ne pas envoyer des données personnelles est de créer des modèles. Mais ces modèles peuvent être utilisés pour retrouver les données personnelles via des requêtes bien pensées. Quelle différence y-a-t-il entre la donnée personnelle et le modèle ?
Le clavier de Google, Gboard, enregistre ce qu'on fait sur l'ordinateur: donc même lorsqu'on tape sur son logiciel de messagerie sécurisé, type Signal, si on utilise Gboard, des données sensibles peuvent être envoyés à Google (sous la forme de données personnelles ou de modèle).
Les enjeux politico-sociaux des algorithmes d'apprentissage machine, et comment ces algos, de part leur fonctionnement, promeuvent des discours fascistes et haineux.
Quelques réflexions sur les limites de la revue par des pairs. Et bon, sinon, la vidéo est parsemée d'opinions personnelles, qui gagneraient à être davantage défendues. Mais bon, au bout d'un moment, il est difficile de tout argumenter très précisément dans un temps raisonnable.
Ce que j'en ai retenu, c'est que les nouveaux algorithmes d'apprentsissage profonds distribués sont promus par Google, ou ses chercheurs, comme plus respectueux des données personelles, or ils ne sont pas.
De même Google, toujours par l'entremise de ces publications scientifiques, prétend qu'assurer la sécurité de ces données est compatible avec les performances via ces mêmes algorithmes, ce qui encore une fois semble avoir été démonté.
Je ne me prononce pas sur la véracité de ces affirmations n'ayant pas les compétences nécessaires pour les vérifier, mais je fais assez confiance en l'auteur au travers de ses productions habituelles.
Quoiqu'il en soit, ceci est assez effrayant concernant les manipulations et lobbys dans la science (ça m'évoque un reportage sur la 5 ou Arte que j'ai visionné récemment) mais surtout sur les conséquences sociétales et les projections dignes des pires distopies sur Big Brother.
Il y a vraiment une réforme à faire pour les profs d'université / chercheurs publique pour que leur temps passé à faire de la pédagogie compte dans leur évaluation (livre, interview,…). Pour l'instant, c'est compté comme une perte de temps, alors que l'on a besoin de leur indépendance.
Je trouve le raccourci "IA == desinformation" du début, un peu facile et trompeur.
C'est pas tant l'IA le souci que le fait qu'on a donné l'accès pas cher pour communiquer avec le grand public, avec la possibilité pour le public de participer et rendre viral des contenus, avec la machinerie pour optimiser ça. Je ne dit pas que l'époque de l'ORTF était mieux, mais le cœur du problème, c'est aussi ça.
Et d'ailleurs, appeler ça IA, ça fait aussi appel à un imaginaire visant à tromper. Dans le cas des recherches sur le sujet, c'est faire croire que des algos de recommandation sont plus avancés qu'on le croit et qu'ils vont faire des miracles (donc obtenir des fonds pour la recherche ou pour sa boite). Et dans le cas des personnes contre l'IA, c'est aussi faire appel à un imaginaire bien spécifique (Skynet, HAL, Glados) visant à faire peur en personnifiant un système (ce qui quelque part reprends aussi des thèmes comme le procès de Kafka ou les horreurs de Lovecraft, ou des simples humains sont faces à des horreurs cosmiques ou une bureaucratie qui les dépassent).
La propagande n'a pas attendu les réseaux sociaux pour justifier des génocides, mais en permettant une communication plus facile et moins cher, une des promesses techno-libertaires de l'internet dans les années 90, on a aussi permis de faciliter la propagande.
C'est aussi ignoré les raisons sociales d'un génocide, et finalement, pointer les industries de la silicon valley, c'est aussi un moyen de trouver un méchant facile qui va absoudre les autres acteurs, et passer sous silence les raisons historiques et la politique locale. Y a un petit coté impérialisme culturel, dans le sens ou le méchant tout trouvé, c'est forcément l'Autre.
Ensuite, je ne dit pas que Google/FB ne sont pas responsable (surtout pour le manque de modération dans une langue locale pour FB), mais dire "alors, y a un article spécialisé, mais si il est lu par des gens qui connaissent pas le domaine, ils vont mal comprendre", c'est un chouia faible (minute 12, pour reference). Pareil, minute 26, il dit "mais les gens lisent pas les articles, juste le titre", sans remettre en cause ni le fait que 1) les papiers sont parfois abscons 2) les papiers sont souvent payant et cher 3) qu'il y a les mêmes mécanismes pour la presse en ligne que pour les journaux scientifiques (eg, faut un titre accrocheur).
Mais bon, vu le titre de la vidéo (avec quand même une accusation forte visant à susciter l'émotion et la viralité, vu que la vidéo arrive sur Linuxfr), je suppose qu'on est pas tant dans la communication impartial.
Ce qui me rappelle le livre du moment pour le club de lecture du boulot (Data Feminism), qui dit des choses vraies, qui pointe des vraies soucis et qui est intéressant, mais qui me fait assez hurlé de part sa structure.
Par exemple et pour le moment (vu qu'on lit 1 chapitre par semaine, j'ai lu que les 3 premiers), chaque chapitre commence par un exemple qui implique des trucs graves (ch 1: la mortalité des femmes noires à l'accouchement, ch 2: les endroits ou les gosses noires se font écraser à Détroit en 1971, ch 3: le massacre de Sandy Hook), avec le but de susciter une émotion, ce qui rentre pour moi dans la catégorie manipulation émotionnelle. Non pas qu'on ne doivent pas parler de ses exemples, mais quand c'est dans la structure du livre et que c'est pas exactement le cœur du sujet (qui est quand même sur les statistiques), ça me parait curieux (surtout quand le chapitre 3 dit clairement "il faut susciter de l'émotion", mais curieusement sans pointer sur les recherches de Facebook/Meta de 2014, et la réaction à la publication.
Le livre date d'avant la mort de Georges Floyd donc on peut excuser le fait de ne pas avoir garder ça en tête, mais je pense que les critiques des afro-féministes sur la commodification des morts de personnes noirs sont aussi à envisager sur ces débuts de chapitres (en plus de la question de la manipulation émotionnelle en général).
De même, ce qui me fait hurler, c'est à quel point le livre s'approche d'une autocritique du domaine, mais sans vraiment aller au fond des choses. Par exemple, chapitre 2, à aucun moment ça évoque l'idée même de régulation étatique, ou alors seulement dans le sens ou la régulation va créer plus de travail pour le domaine des data sciences (eg, des audits, des publications de données). Comme l'a fait remarqué Alex Stamos (je crois, je retrouve pas le lien), ç'est un peu un conflit d’intérêt.
L'exemple fin du chapitre 3 avec les nations autochtones, ç'est présenté comme une pratique nouvelle et progressiste, alors que c'est simplement le fonctionnement du copyright (mais ça sonne moins bien comme posture).
Point bonus ce bout du chapitre 3 viole sans doute sa propre licence (le livre est en CC-BY), mais je suppose que tout le monde s'en fout )
Donc je pense qu'il est bon de garder un sens critique y compris sur les gens qui poussent à la critique.
(et j'accuse pas El Titi, je me suis aussi fait avoir avec l'histoire de Xcheck/Meta/Facebook et The wire il n'y a pas longtemps, donc ça arrive clairement aux meilleurs)
C'est pas tant l'IA le souci que le fait qu'on a donné l'accès pas cher pour communiquer avec le grand public, avec la possibilité pour le public de participer et rendre viral des contenus, avec la machinerie pour optimiser ça.
C'est parfaitement juste. Je me souviens des débats qui eurent lieu ici sur le thème de l'opensource, qui se ferait dépasser par les sociétés privées qui récupèrent nos données et les recroisent, en compensation de services gratuits avec notre consentement pas très éclairé.
Les enjeux étant bien l'Open Data et la maîtrise de ses propres données personnelles.
En digressant, il semble que l'approche distribuée ne serait intrinsèquement guère plus protectrice.
Le message de la vidéo reste dans tous les cas très important. Si le législateur prend au sérieux la confidentialité des données des gens et leur sécurité, il ne peut pas se contenter de messages rassurants de la part des Gafam « t’inquiètes on a des solutions techniques pour sécuriser tout ça tout en exploitant les données ».
Il parait improbable qu’on se sorte de ça par un mouvement social global spontané de non utilisation des service des Gafams par un grand public qui bien souvent n’a pas vraiment conscience de comment ça marche et est bien content de certains conforts que ces outils peuvent apporter à l’utilisation.
En digressant, il semble que l'approche distribuée ne serait
intrinsèquement guère plus protectrice.
Dans le cas de l'approche distribué, ce qu'on cherche à éviter, c'est un accès direct aux données par un presta. Je suis un hopital, je veux faire des stats, mais j'ai pas de sous pour avoir un DC dans la cave. Avec les méthodes de Privacy Preserving trucmuche, je peux faire les calculs ailleurs sans que le presta est un accès direct des données. Ensuite, je suis censé garder mes résultats pour moi.
C'est un souci business pour un vendeur de cloud, car la plupart s'en foutent des données et veulent juste le pognon des clients. Donc si pour avoir la moula, faut dire qu'on ne peut pas regarder par qu'on utilise de la crypto magie, ils vont le faire. Le but est d'avoir une garantie à l'opération pour faire affaire.
Maintenant bien sur, si tu mets les données en clair chez le fournisseur et que tu stockes le modèle en clair la bas, ça sert à rien.
Et pour penser à ça, faut penser d'une part aux questions business des entreprises, des fournisseurs, et se poser la question du contexte, des données, voir remettre une partie de ses convictions en question. Tout un travail qu'on ne fait en général pas, car on a pas le temps, ou pas d'incitation.
La vie privée, c'est comme les licences. Tout le monde dit s'en préoccuper, et en pratique, tout le monde (ou presque) s'en fout, parce que l'impact moyen est proche de zéro.
Sinon pour répondre sur le reste de ton commentaire, il est dommage que tu ne t'accroches qu'au début de l'exposé pour construire ton argumentaire et le réfuter en bloc avec un exemple qui n'a rien à voir.
Ce qui est dénoncé dans cette vidéo, ce sont avant tout les procédés par lesquels certaines firmes arrivent à pousser des initiatives qui vont dans leurs intérêts en trompant le processus scientifique, sciemment ou non, et avec des conséquences qui peuvent être délétères pour l'humanité.
Oui on ne doit pas dédouaner les autres acteurs, ni les scientifiques qui ne feraient pas leur boulot, mais le crime profite avant tout à un acteur en particulier.
Google est bien Evil, comme tant d'autres firmes, et ce ne sont pas les concessions qu'il fait au monde du libre et qui n'entrent pas en contradiction avec sa stratégie, qui doivent abaisser notre vigilance.
L'exemple des lobbys du tabac est bien là pour nous rappeler qu'une certaine éthique s'impose y compris dans les sciences.
"Science sans conscience n'est que ruine de l'âme": Si je me souviens bien de la citation de Rabelais, il s'agissait surtout de dire que le savoir doit être joint à la religion, la conscience, pour éviter la ruine de l'âme…
Pas vraiment, une interprétation trouvée sur le net sur le sens original : à l’époque, « science » s’entend dans le sens de « connaissance », et « conscience » s’entend plutôt dans le sens de « compréhension ». Aujourd’hui on dirait plutôt « savoir sans comprendre » Ce serait un peu une critique du bachotage pour apprendre par cœur.
L’âme se lirait comme « l’entendement » ou « les capacité intellectuelle ». (du coup ça se
La dimension éthique est moins présente, effectivement, que ce qu’une interprétation littérale moderne en ferait. Mais elle est présente par l’appel à Dieu probablement, qu’on peut considérer comme « source » de morale dans une perspective religieuse (cf. le jugement ou la pesée de l’âme, qui détermine si tu as mené une bonne vie ou non)
Mouais, pas convaincu. D'ailleurs, en lisant les sources citées (que je ne trouve pas très critique d'ailleurs), une redonne le contexte de la citation, et je persiste avec ma précédente interprétation :
« Mais parce que selon les dire du sage Salomon, Sapience n’entre point en âme malveillante, et science sans conscience n’est que ruine de l’âme, il te convient servir, aimer et craindre Dieu, et en lui remettre toutes tes pensées et tout ton espoir ; et par une foi charitable, lui être fidèle, en sorte que jamais tu ne t’en écartes par péché. »
C’est intéressant parce qu’en fait « Sapience n’entre point en âme malveillante » est presque plus proche du sens moderne.
Sapience 1. Sagesse de celui/celle qui possède le savoir, la science à un degré élevé ainsi que les qualités de jugement, d'habileté, de raison, de prudence
Ne sait pas réellement celui dont les intentions ne sont pas pures, qui s’applique parfaitement ici à la vidéo le Lê avec les accusations envers Google de détourner les résultat de recherche pour les présenter comme ayant beaucoup plus de porté envers les engagements envers la vie privée qu’ils n’en ont, et plutôt de nature à servir leurs propres intérêts. Ce qui n’est pas de la science, du savoir, de la sagesse.
Pour ce qui est de la morale, c’est une époque ou c’était naturel d’associer morale et religion pour différente raisons. Pas spécialement une raison pour teinter toute idée de bien ou de mal ou d’éthique dans une acceptation plus moderne, c’est juste que c’est comme ça qu’on disait à l’époque. Ce serait particulièrement injuste, je pense, de s’arrêter à l’aspect religieux quand il est question d’invoquer la capacité de jugement et de compréhension personnelle et la nécessité de s’en servir pour bien faire.
Par contre, juste pour revenir sur la citation, utiliser le CNRTL pour un terme écrit il y a plusieurs siècles, c'est risquer l'interprétation anachronique. D'ailleurs, dans la citation, c'est "Sapience", pas 'sapience', donc avec une majuscule. Et Sapience, en particulier quand associé à Salomon, mon petit doigt (et une recherche sur rapide sur Internet) me dit que ça pourrait quand même bien faire référence à un livre religieux chrétien ;)
Ça n’a pas de sens, il ne s’agit pas d’intégrer un livre :p
La majuscule n’est pas forcément authentique, on ne la trouve pas dans toutes les transcriptions : https://gallica.bnf.fr/ark:/12148/bpt6k58084973/f47.image.r=sapience (et comme Rabelais écrivait en ancien français c’est pas simple de faire des recherches dans des éditions plus anciennes)
Et quoi qu’il en soit, si effectivement il y a un sens plus religieux au mot, il y a bien une notion de sagesse, qu’elle vienne ou pas de la religion n’est peut-être pas le plus important.
Posté par Zenitram (site web personnel) .
Évalué à -6.
Dernière modification le 23 octobre 2022 à 15:31.
Ce qui est dénoncé dans cette vidéo, ce sont avant tout les procédés par lesquels certaines firmes arrivent à pousser des initiatives qui vont dans leurs intérêts en trompant le processus scientifique, sciemment ou non, et avec des conséquences qui peuvent être délétères pour l'humanité.
Ce qui est dénoncé dans le commentaire de Misc, ce sont avant tout les procédés par lesquels certaines personnes arrivent à pousser des vidéos qui vont dans leurs intérêts en trompant le processus scientifique, sciemment ou non, et avec des conséquences qui peuvent être tout autant délétères pour l'humanité.
Ça marche aussi en fait.
Contrer avec les mêmes armes que ce qu'on critique ne peut convaincre que ceux qui veulent être convaincus, mais ne les range absolument pas dans un meilleur "camps". un jour les gens comprendront ça, peut-être… En attendant ça ne peut que braquer les gens intéressés par le processus scientifique.
il est dommage que tu ne t'accroches qu'au début de l'exposé
L'expérience apprend que quand le début est pourri, il y a très peu de chances pour que le reste soit moins pourri car le début montre que la personne faisant la vidéo a un but qui n'est pas pour être objective et factuelle.
Et dire qu'il suffirait de faire un début pas pourri… Ha oui, par contre ça marchera sans doute moins bien sur le côté manipulation par l'émotion de la cible fragile, c'est certain.
ce ne sont pas les concessions qu'il fait au monde du libre
Gni? Le libre est défini par 4 libertés, et aucune de celles-ci ne parle de concession ou de vie privée, un jour les "libristes" ayant du mal à accepter que le libre est très neutre arriveront à comprendre le libre, à comprendre que l'enrobage fait par certains pour faire passer leurs idées n'est absolument pas dans la définition elle-même. Le libre est hors sujet, il peut être utilisé par Google, il peut être utilisé pour flinguer la vie privée, c'est voulu (il est neutre).
Posté par El Titi .
Évalué à 7.
Dernière modification le 23 octobre 2022 à 15:40.
Ce qui est dénoncé dans le commentaire de Misc, ce sont avant tout les procédés par lesquels certaines personnes arrivent à pousser des vidéos qui vont dans leurs intérêts en trompant le processus scientifique, sciemment ou non, et avec des conséquences qui peuvent être tout autant délétères pour l'humanité.
Super, on attend ton débunkage du débunk. L'auteur argumente lui.
Le reste de ton délire qui veut encore nous faire la leçon sur le libre et sa neutralitré alors que ce n'est pas l'objet de mon propos, je ne m'efforcerai même pas d'y répondre.
Sinon pour répondre sur le reste de ton commentaire, il est
dommage que tu ne t'accroches qu'au début de l'exposé pour
construire ton argumentaire et le réfuter en bloc avec un
exemple qui n'a rien à voir.
Au contraire du vidéaste qui prends les titres et les résumés pour qualifier de désinformation :p ?
Alors certes, je pourrais sans doute faire un commentaire encore plus long (voir le publier en 2 volumes), mais je pense que le coté sensationnaliste comme "une des plus grave désinformation", "grave menace", etc fait que je vais me retrouver aphone si je doit revoir la vidéo.
Ce qui est dénoncé dans cette vidéo, ce sont avant tout les
procédés par lesquels certaines firmes arrivent à pousser des
initiatives qui vont dans leurs intérêts en trompant le
processus scientifique, sciemment ou non, et avec des
conséquences qui peuvent être délétères pour l'humanité.
Si par pousser des initiatives, tu veux dire payer des gens pour faire des recherches pour leurs propres besoins, y a rien de nouveau.
La comparaison avec le tabac me parait trompeuse car dans le cas de Google et de l'informatique, c'est des nouveaux algos qui sont mis en place (exemple, des outils comme GPT-3), alors que les recherches de l'industrie du tabac était la pour nier les problèmes.
Depuis toujours, Google se donne une image de groupes de scientifique qui bossent sur des trucs cools. Les projets Moonshot, l'origine de la boite, le coté cool et fun, la proximité avec les universités de la cote Ouest, etc. Ils font une tonne de trucs et de publication, cf https://research.google/pubs/
Et quand tu postules chez eux, on te recommande de lire un certain nombre de papiers pour te mettre à niveau.
Donc bon, l'implication de Google avec le monde scientifique est la depuis l'origine de la boite.
Mais encore une fois, un souci fondamental, c'est qu'on a pris des statistiques, et on a appelé ça "Machine learning", suivi de "IA" (même si on dit "apprentissage statistique" en bon français).
N'importe qui va comprendre que des statistiques, ça peut faire fuiter des données. Si tu fais un sondage dans ton entreprise avec des données comme "votre poste, votre bureau", je pense qu'une majorité va se poser des questions sur la taille des groupes, car on a une idée de ce qui se passe.
Dans le cas de Google, c'est vendu comme magique et super avancée, comme une boite noire ou y a pas besoin de réfléchir, et c'est en effet un souci.
Mais encore une fois, je pense que pour les scientifiques, on est plus dans un exemple de ce xkcd ou celui la que dans une opération d'empoisonnement de la science.
On peut remettre en cause leur marketing, ce qui est fait dans la vidéo en pointant sur les communiqués de presse, mais ça reste toujours une simplification qui va dans le sens de Google. Car en les rendant les seuls responsables, on va aussi aller dans le sens de la stratégie de Google visant à se positionner comme des experts techniques plus avancés que tout le reste du monde.
La comparaison avec le tabac me parait trompeuse car dans le cas de Google et de l'informatique, c'est des nouveaux algos qui sont mis en place (exemple, des outils comme GPT-3), alors que les recherches de l'industrie du tabac était la pour nier les problèmes.
Et donc il n'y a pas de problème avec ces algos (nouveau ou pas d'ailleurs) ?
L'auteur s'attache à essayer de montrer que si.
Bref, je ne cerne pas bien l'argument.
Mais on popurrait aussi parler des CFC et de la couche d'ozone, du lobbying des compagnies petrolières dans la lutte contre le réchauffement climatique, … les exemples ne manquent pas.
Pour le reste, sur ce site au moins, pas grand monde n'est dupe autour du marketing lié au terme "IA" et la prise de consience ne pourra évidemment pas se faire sans les connaisseurs du domaine. Tu ne fais qu'enfoncer des portes ouvertes.
Que tu critiques la forme pourquoi pas, mais ton relativisme forcené en face d'un véritable problème de société est assez … déstabilisant
Allez, je peux pas dire que j'apprécie franchement la forme de la vidéo, qui reprend certains code du FUD. C'est dommage, mais je ne suis pas un communiquant, donc je ne peux pas faire mieux.
Car oui, je suis déjà un convaincu. J'ai passé tellement de temps à désactiver l'auto-apprentissage de mon smartphone « offert » par le boulot que je ne comprends pas que ça soit actif par défaut.
# Ce que j'ai appris en regardant cette vidéo
Posté par lejocelyn (site web personnel) . Évalué à 10.
Merci beaucoup pour le lien, je l'ai beaucoup apprécié, et j'y ai appris pas mal de choses. En résumé:
Une stratégie pour ne pas envoyer des données personnelles est de créer des modèles. Mais ces modèles peuvent être utilisés pour retrouver les données personnelles via des requêtes bien pensées. Quelle différence y-a-t-il entre la donnée personnelle et le modèle ?
Le clavier de Google, Gboard, enregistre ce qu'on fait sur l'ordinateur: donc même lorsqu'on tape sur son logiciel de messagerie sécurisé, type Signal, si on utilise Gboard, des données sensibles peuvent être envoyés à Google (sous la forme de données personnelles ou de modèle).
Les enjeux politico-sociaux des algorithmes d'apprentissage machine, et comment ces algos, de part leur fonctionnement, promeuvent des discours fascistes et haineux.
Quelques réflexions sur les limites de la revue par des pairs. Et bon, sinon, la vidéo est parsemée d'opinions personnelles, qui gagneraient à être davantage défendues. Mais bon, au bout d'un moment, il est difficile de tout argumenter très précisément dans un temps raisonnable.
[^] # Re: Ce que j'ai appris en regardant cette vidéo
Posté par El Titi . Évalué à 6.
Ce que j'en ai retenu, c'est que les nouveaux algorithmes d'apprentsissage profonds distribués sont promus par Google, ou ses chercheurs, comme plus respectueux des données personelles, or ils ne sont pas.
De même Google, toujours par l'entremise de ces publications scientifiques, prétend qu'assurer la sécurité de ces données est compatible avec les performances via ces mêmes algorithmes, ce qui encore une fois semble avoir été démonté.
Je ne me prononce pas sur la véracité de ces affirmations n'ayant pas les compétences nécessaires pour les vérifier, mais je fais assez confiance en l'auteur au travers de ses productions habituelles.
Quoiqu'il en soit, ceci est assez effrayant concernant les manipulations et lobbys dans la science (ça m'évoque un reportage sur la 5 ou Arte que j'ai visionné récemment) mais surtout sur les conséquences sociétales et les projections dignes des pires distopies sur Big Brother.
[^] # Re: Ce que j'ai appris en regardant cette vidéo
Posté par Nicolas Boulay (site web personnel) . Évalué à 6.
"don't be evil" est loin derrière nous.
Il y a vraiment une réforme à faire pour les profs d'université / chercheurs publique pour que leur temps passé à faire de la pédagogie compte dans leur évaluation (livre, interview,…). Pour l'instant, c'est compté comme une perte de temps, alors que l'on a besoin de leur indépendance.
"La première sécurité est la liberté"
# Mouais
Posté par Misc (site web personnel) . Évalué à 5.
Je trouve le raccourci "IA == desinformation" du début, un peu facile et trompeur.
C'est pas tant l'IA le souci que le fait qu'on a donné l'accès pas cher pour communiquer avec le grand public, avec la possibilité pour le public de participer et rendre viral des contenus, avec la machinerie pour optimiser ça. Je ne dit pas que l'époque de l'ORTF était mieux, mais le cœur du problème, c'est aussi ça.
Et d'ailleurs, appeler ça IA, ça fait aussi appel à un imaginaire visant à tromper. Dans le cas des recherches sur le sujet, c'est faire croire que des algos de recommandation sont plus avancés qu'on le croit et qu'ils vont faire des miracles (donc obtenir des fonds pour la recherche ou pour sa boite). Et dans le cas des personnes contre l'IA, c'est aussi faire appel à un imaginaire bien spécifique (Skynet, HAL, Glados) visant à faire peur en personnifiant un système (ce qui quelque part reprends aussi des thèmes comme le procès de Kafka ou les horreurs de Lovecraft, ou des simples humains sont faces à des horreurs cosmiques ou une bureaucratie qui les dépassent).
La propagande n'a pas attendu les réseaux sociaux pour justifier des génocides, mais en permettant une communication plus facile et moins cher, une des promesses techno-libertaires de l'internet dans les années 90, on a aussi permis de faciliter la propagande.
C'est aussi ignoré les raisons sociales d'un génocide, et finalement, pointer les industries de la silicon valley, c'est aussi un moyen de trouver un méchant facile qui va absoudre les autres acteurs, et passer sous silence les raisons historiques et la politique locale. Y a un petit coté impérialisme culturel, dans le sens ou le méchant tout trouvé, c'est forcément l'Autre.
Ensuite, je ne dit pas que Google/FB ne sont pas responsable (surtout pour le manque de modération dans une langue locale pour FB), mais dire "alors, y a un article spécialisé, mais si il est lu par des gens qui connaissent pas le domaine, ils vont mal comprendre", c'est un chouia faible (minute 12, pour reference). Pareil, minute 26, il dit "mais les gens lisent pas les articles, juste le titre", sans remettre en cause ni le fait que 1) les papiers sont parfois abscons 2) les papiers sont souvent payant et cher 3) qu'il y a les mêmes mécanismes pour la presse en ligne que pour les journaux scientifiques (eg, faut un titre accrocheur).
Mais bon, vu le titre de la vidéo (avec quand même une accusation forte visant à susciter l'émotion et la viralité, vu que la vidéo arrive sur Linuxfr), je suppose qu'on est pas tant dans la communication impartial.
Ce qui me rappelle le livre du moment pour le club de lecture du boulot (Data Feminism), qui dit des choses vraies, qui pointe des vraies soucis et qui est intéressant, mais qui me fait assez hurlé de part sa structure.
Par exemple et pour le moment (vu qu'on lit 1 chapitre par semaine, j'ai lu que les 3 premiers), chaque chapitre commence par un exemple qui implique des trucs graves (ch 1: la mortalité des femmes noires à l'accouchement, ch 2: les endroits ou les gosses noires se font écraser à Détroit en 1971, ch 3: le massacre de Sandy Hook), avec le but de susciter une émotion, ce qui rentre pour moi dans la catégorie manipulation émotionnelle. Non pas qu'on ne doivent pas parler de ses exemples, mais quand c'est dans la structure du livre et que c'est pas exactement le cœur du sujet (qui est quand même sur les statistiques), ça me parait curieux (surtout quand le chapitre 3 dit clairement "il faut susciter de l'émotion", mais curieusement sans pointer sur les recherches de Facebook/Meta de 2014, et la réaction à la publication.
Le livre date d'avant la mort de Georges Floyd donc on peut excuser le fait de ne pas avoir garder ça en tête, mais je pense que les critiques des afro-féministes sur la commodification des morts de personnes noirs sont aussi à envisager sur ces débuts de chapitres (en plus de la question de la manipulation émotionnelle en général).
De même, ce qui me fait hurler, c'est à quel point le livre s'approche d'une autocritique du domaine, mais sans vraiment aller au fond des choses. Par exemple, chapitre 2, à aucun moment ça évoque l'idée même de régulation étatique, ou alors seulement dans le sens ou la régulation va créer plus de travail pour le domaine des data sciences (eg, des audits, des publications de données). Comme l'a fait remarqué Alex Stamos (je crois, je retrouve pas le lien), ç'est un peu un conflit d’intérêt.
L'exemple fin du chapitre 3 avec les nations autochtones, ç'est présenté comme une pratique nouvelle et progressiste, alors que c'est simplement le fonctionnement du copyright (mais ça sonne moins bien comme posture).
Point bonus ce bout du chapitre 3 viole sans doute sa propre licence (le livre est en CC-BY), mais je suppose que tout le monde s'en fout )
Donc je pense qu'il est bon de garder un sens critique y compris sur les gens qui poussent à la critique.
(et j'accuse pas El Titi, je me suis aussi fait avoir avec l'histoire de Xcheck/Meta/Facebook et The wire il n'y a pas longtemps, donc ça arrive clairement aux meilleurs)
[^] # Re: Mouais
Posté par El Titi . Évalué à 4.
C'est parfaitement juste. Je me souviens des débats qui eurent lieu ici sur le thème de l'opensource, qui se ferait dépasser par les sociétés privées qui récupèrent nos données et les recroisent, en compensation de services gratuits avec notre consentement pas très éclairé.
Les enjeux étant bien l'Open Data et la maîtrise de ses propres données personnelles.
En digressant, il semble que l'approche distribuée ne serait intrinsèquement guère plus protectrice.
[^] # Re: Mouais
Posté par Thomas Douillard . Évalué à 6.
Le message de la vidéo reste dans tous les cas très important. Si le législateur prend au sérieux la confidentialité des données des gens et leur sécurité, il ne peut pas se contenter de messages rassurants de la part des Gafam « t’inquiètes on a des solutions techniques pour sécuriser tout ça tout en exploitant les données ».
Il parait improbable qu’on se sorte de ça par un mouvement social global spontané de non utilisation des service des Gafams par un grand public qui bien souvent n’a pas vraiment conscience de comment ça marche et est bien content de certains conforts que ces outils peuvent apporter à l’utilisation.
[^] # Re: Mouais
Posté par Misc (site web personnel) . Évalué à 6.
Dans le cas de l'approche distribué, ce qu'on cherche à éviter, c'est un accès direct aux données par un presta. Je suis un hopital, je veux faire des stats, mais j'ai pas de sous pour avoir un DC dans la cave. Avec les méthodes de Privacy Preserving trucmuche, je peux faire les calculs ailleurs sans que le presta est un accès direct des données. Ensuite, je suis censé garder mes résultats pour moi.
C'est un souci business pour un vendeur de cloud, car la plupart s'en foutent des données et veulent juste le pognon des clients. Donc si pour avoir la moula, faut dire qu'on ne peut pas regarder par qu'on utilise de la crypto magie, ils vont le faire. Le but est d'avoir une garantie à l'opération pour faire affaire.
Maintenant bien sur, si tu mets les données en clair chez le fournisseur et que tu stockes le modèle en clair la bas, ça sert à rien.
Et pour penser à ça, faut penser d'une part aux questions business des entreprises, des fournisseurs, et se poser la question du contexte, des données, voir remettre une partie de ses convictions en question. Tout un travail qu'on ne fait en général pas, car on a pas le temps, ou pas d'incitation.
La vie privée, c'est comme les licences. Tout le monde dit s'en préoccuper, et en pratique, tout le monde (ou presque) s'en fout, parce que l'impact moyen est proche de zéro.
[^] # Re: Mouais
Posté par El Titi . Évalué à 6.
Sinon pour répondre sur le reste de ton commentaire, il est dommage que tu ne t'accroches qu'au début de l'exposé pour construire ton argumentaire et le réfuter en bloc avec un exemple qui n'a rien à voir.
Ce qui est dénoncé dans cette vidéo, ce sont avant tout les procédés par lesquels certaines firmes arrivent à pousser des initiatives qui vont dans leurs intérêts en trompant le processus scientifique, sciemment ou non, et avec des conséquences qui peuvent être délétères pour l'humanité.
Oui on ne doit pas dédouaner les autres acteurs, ni les scientifiques qui ne feraient pas leur boulot, mais le crime profite avant tout à un acteur en particulier.
Google est bien Evil, comme tant d'autres firmes, et ce ne sont pas les concessions qu'il fait au monde du libre et qui n'entrent pas en contradiction avec sa stratégie, qui doivent abaisser notre vigilance.
L'exemple des lobbys du tabac est bien là pour nous rappeler qu'une certaine éthique s'impose y compris dans les sciences.
[^] # Re: Mouais
Posté par Thomas Douillard . Évalué à 5.
Science sans conscience, comme disait l’autre …
[^] # Re: Mouais
Posté par lejocelyn (site web personnel) . Évalué à 4.
"Science sans conscience n'est que ruine de l'âme": Si je me souviens bien de la citation de Rabelais, il s'agissait surtout de dire que le savoir doit être joint à la religion, la conscience, pour éviter la ruine de l'âme…
[^] # Re: Mouais
Posté par Thomas Douillard . Évalué à 4.
Pas vraiment, une interprétation trouvée sur le net sur le sens original : à l’époque, « science » s’entend dans le sens de « connaissance », et « conscience » s’entend plutôt dans le sens de « compréhension ». Aujourd’hui on dirait plutôt « savoir sans comprendre » Ce serait un peu une critique du bachotage pour apprendre par cœur.
L’âme se lirait comme « l’entendement » ou « les capacité intellectuelle ». (du coup ça se
https://www.integrersciencespo.fr/science-sans-conscience-rabelais
https://theconversation.com/science-sans-conscience-nest-que-ruine-de-lame-que-nous-dit-cette-maxime-aujourdhui-175184
Du coup c’est à rapprocher de devises comme « sapere aude » que Kantien< ne renierait pas : https://www.lumni.fr/article/sapere-aude-devise-des-lumieres-selon-emmanuel-kant il y a un encouragement moral à utiliser son intelligence et pas ingurgiter « bêtement » du savoir.
La dimension éthique est moins présente, effectivement, que ce qu’une interprétation littérale moderne en ferait. Mais elle est présente par l’appel à Dieu probablement, qu’on peut considérer comme « source » de morale dans une perspective religieuse (cf. le jugement ou la pesée de l’âme, qui détermine si tu as mené une bonne vie ou non)
[^] # Re: Mouais
Posté par lejocelyn (site web personnel) . Évalué à 2.
Mouais, pas convaincu. D'ailleurs, en lisant les sources citées (que je ne trouve pas très critique d'ailleurs), une redonne le contexte de la citation, et je persiste avec ma précédente interprétation :
« Mais parce que selon les dire du sage Salomon, Sapience n’entre point en âme malveillante, et science sans conscience n’est que ruine de l’âme, il te convient servir, aimer et craindre Dieu, et en lui remettre toutes tes pensées et tout ton espoir ; et par une foi charitable, lui être fidèle, en sorte que jamais tu ne t’en écartes par péché. »
[^] # Re: Mouais
Posté par Thomas Douillard . Évalué à 4.
C’est intéressant parce qu’en fait « Sapience n’entre point en âme malveillante » est presque plus proche du sens moderne.
https://www.cnrtl.fr/definition/sapience
Ne sait pas réellement celui dont les intentions ne sont pas pures, qui s’applique parfaitement ici à la vidéo le Lê avec les accusations envers Google de détourner les résultat de recherche pour les présenter comme ayant beaucoup plus de porté envers les engagements envers la vie privée qu’ils n’en ont, et plutôt de nature à servir leurs propres intérêts. Ce qui n’est pas de la science, du savoir, de la sagesse.
Pour ce qui est de la morale, c’est une époque ou c’était naturel d’associer morale et religion pour différente raisons. Pas spécialement une raison pour teinter toute idée de bien ou de mal ou d’éthique dans une acceptation plus moderne, c’est juste que c’est comme ça qu’on disait à l’époque. Ce serait particulièrement injuste, je pense, de s’arrêter à l’aspect religieux quand il est question d’invoquer la capacité de jugement et de compréhension personnelle et la nécessité de s’en servir pour bien faire.
[^] # Re: Mouais
Posté par lejocelyn (site web personnel) . Évalué à 3. Dernière modification le 23 octobre 2022 à 16:27.
Oui, je suis d'accord.
Par contre, juste pour revenir sur la citation, utiliser le CNRTL pour un terme écrit il y a plusieurs siècles, c'est risquer l'interprétation anachronique. D'ailleurs, dans la citation, c'est "Sapience", pas 'sapience', donc avec une majuscule. Et Sapience, en particulier quand associé à Salomon, mon petit doigt (et une recherche sur rapide sur Internet) me dit que ça pourrait quand même bien faire référence à un livre religieux chrétien ;)
https://www.universalis.fr/encyclopedie/sapience/
[^] # Re: Mouais
Posté par Thomas Douillard . Évalué à 3.
Ça n’a pas de sens, il ne s’agit pas d’intégrer un livre :p
La majuscule n’est pas forcément authentique, on ne la trouve pas dans toutes les transcriptions : https://gallica.bnf.fr/ark:/12148/bpt6k58084973/f47.image.r=sapience (et comme Rabelais écrivait en ancien français c’est pas simple de faire des recherches dans des éditions plus anciennes)
Et quoi qu’il en soit, si effectivement il y a un sens plus religieux au mot, il y a bien une notion de sagesse, qu’elle vienne ou pas de la religion n’est peut-être pas le plus important.
[^] # Re: Mouais
Posté par Zenitram (site web personnel) . Évalué à -6. Dernière modification le 23 octobre 2022 à 15:31.
Ce qui est dénoncé dans le commentaire de Misc, ce sont avant tout les procédés par lesquels certaines personnes arrivent à pousser des vidéos qui vont dans leurs intérêts en trompant le processus scientifique, sciemment ou non, et avec des conséquences qui peuvent être tout autant délétères pour l'humanité.
Ça marche aussi en fait.
Contrer avec les mêmes armes que ce qu'on critique ne peut convaincre que ceux qui veulent être convaincus, mais ne les range absolument pas dans un meilleur "camps". un jour les gens comprendront ça, peut-être… En attendant ça ne peut que braquer les gens intéressés par le processus scientifique.
L'expérience apprend que quand le début est pourri, il y a très peu de chances pour que le reste soit moins pourri car le début montre que la personne faisant la vidéo a un but qui n'est pas pour être objective et factuelle.
Et dire qu'il suffirait de faire un début pas pourri… Ha oui, par contre ça marchera sans doute moins bien sur le côté manipulation par l'émotion de la cible fragile, c'est certain.
Gni? Le libre est défini par 4 libertés, et aucune de celles-ci ne parle de concession ou de vie privée, un jour les "libristes" ayant du mal à accepter que le libre est très neutre arriveront à comprendre le libre, à comprendre que l'enrobage fait par certains pour faire passer leurs idées n'est absolument pas dans la définition elle-même. Le libre est hors sujet, il peut être utilisé par Google, il peut être utilisé pour flinguer la vie privée, c'est voulu (il est neutre).
[^] # Re: Mouais
Posté par El Titi . Évalué à 7. Dernière modification le 23 octobre 2022 à 15:40.
Super, on attend ton débunkage du débunk. L'auteur argumente lui.
Le reste de ton délire qui veut encore nous faire la leçon sur le libre et sa neutralitré alors que ce n'est pas l'objet de mon propos, je ne m'efforcerai même pas d'y répondre.
Merci d'être passé !
[^] # Re: Mouais
Posté par Misc (site web personnel) . Évalué à 4.
Au contraire du vidéaste qui prends les titres et les résumés pour qualifier de désinformation :p ?
Alors certes, je pourrais sans doute faire un commentaire encore plus long (voir le publier en 2 volumes), mais je pense que le coté sensationnaliste comme "une des plus grave désinformation", "grave menace", etc fait que je vais me retrouver aphone si je doit revoir la vidéo.
Si par pousser des initiatives, tu veux dire payer des gens pour faire des recherches pour leurs propres besoins, y a rien de nouveau.
La comparaison avec le tabac me parait trompeuse car dans le cas de Google et de l'informatique, c'est des nouveaux algos qui sont mis en place (exemple, des outils comme GPT-3), alors que les recherches de l'industrie du tabac était la pour nier les problèmes.
Depuis toujours, Google se donne une image de groupes de scientifique qui bossent sur des trucs cools. Les projets Moonshot, l'origine de la boite, le coté cool et fun, la proximité avec les universités de la cote Ouest, etc. Ils font une tonne de trucs et de publication, cf https://research.google/pubs/
Et quand tu postules chez eux, on te recommande de lire un certain nombre de papiers pour te mettre à niveau.
Donc bon, l'implication de Google avec le monde scientifique est la depuis l'origine de la boite.
Mais encore une fois, un souci fondamental, c'est qu'on a pris des statistiques, et on a appelé ça "Machine learning", suivi de "IA" (même si on dit "apprentissage statistique" en bon français).
N'importe qui va comprendre que des statistiques, ça peut faire fuiter des données. Si tu fais un sondage dans ton entreprise avec des données comme "votre poste, votre bureau", je pense qu'une majorité va se poser des questions sur la taille des groupes, car on a une idée de ce qui se passe.
Dans le cas de Google, c'est vendu comme magique et super avancée, comme une boite noire ou y a pas besoin de réfléchir, et c'est en effet un souci.
Mais encore une fois, je pense que pour les scientifiques, on est plus dans un exemple de ce xkcd ou celui la que dans une opération d'empoisonnement de la science.
On peut remettre en cause leur marketing, ce qui est fait dans la vidéo en pointant sur les communiqués de presse, mais ça reste toujours une simplification qui va dans le sens de Google. Car en les rendant les seuls responsables, on va aussi aller dans le sens de la stratégie de Google visant à se positionner comme des experts techniques plus avancés que tout le reste du monde.
[^] # Re: Mouais
Posté par El Titi . Évalué à 4.
Et donc il n'y a pas de problème avec ces algos (nouveau ou pas d'ailleurs) ?
L'auteur s'attache à essayer de montrer que si.
Bref, je ne cerne pas bien l'argument.
Mais on popurrait aussi parler des CFC et de la couche d'ozone, du lobbying des compagnies petrolières dans la lutte contre le réchauffement climatique, … les exemples ne manquent pas.
Pour le reste, sur ce site au moins, pas grand monde n'est dupe autour du marketing lié au terme "IA" et la prise de consience ne pourra évidemment pas se faire sans les connaisseurs du domaine. Tu ne fais qu'enfoncer des portes ouvertes.
Que tu critiques la forme pourquoi pas, mais ton relativisme forcené en face d'un véritable problème de société est assez … déstabilisant
# On participe ?
Posté par Glandos . Évalué à 5.
Allez, je peux pas dire que j'apprécie franchement la forme de la vidéo, qui reprend certains code du FUD. C'est dommage, mais je ne suis pas un communiquant, donc je ne peux pas faire mieux.
Par contre, je peux diffuser Tournesol, vu que sa vidéo y est déjà https://tournesol.app/entities/yt:IVqXKP91L4E Et plutôt bien référencée.
Car oui, je suis déjà un convaincu. J'ai passé tellement de temps à désactiver l'auto-apprentissage de mon smartphone « offert » par le boulot que je ne comprends pas que ça soit actif par défaut.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.