Journal bookmark : En acceptant les CGU de Facebook vous pouvez être le sujet d'expérimentation

Posté par (page perso) . Licence CC by-sa
Tags :
-1
30
juin
2014

Le 17 juin une étude faite sur des utilisateurs de Facebook a été publiée. À côté des révélations de Snowden cela ressemble plus à une simple anecdote mais cela montre à quel point les CGU peuvent être permissives:
http://toutsepassecommesi.cafe-sciences.org/2014/06/30/vous-utilisez-facebook-vous-etes-donc-volontaire-pour-etre-manipule-dans-des-experiences/

  • # Lire et comprendre avant d'accepter

    Posté par (page perso) . Évalué à 10.

    Bonjour,

    oui, c'est normal, puisque pour simplifier, tout ce qui est écrit et déposé sur Facebook, donne droit à Facebook de s'en servir librement.

    Comme la plupart des gens ne lisent pas les CGU, ils sont surpris.

    Lorsque j'avais loué un serveur dédié chez un hébergeur à trois lettres, j'ai lu les 40 pages de leur CGU écrites en tout petit. Pour les noms de domaines il y en a d'autres, pour d'autres services, encore d'autres CGU. J'avais ainsi pu adapter mes CGU pour ne pas m'engager envers mes clients au delà des engagements de mon fournisseur.

    Il est dit dans les coupures de journaux que Facebook prétend que c'était légale, conforme aux CGU, mais qu'il peut éventuellement y avoir un problème d'éthique.

    Si l'éthique était si important, les formations en informatique insisteraient dans la protection des données, le chiffrement et le sallage des mots de passes, etc.

    Bonne journée
    Grégoire

    • [^] # Re: Lire et comprendre avant d'accepter

      Posté par . Évalué à 4.

      Tu fais un site de résumé de CGU pour les nuls ?

      • [^] # Re: Lire et comprendre avant d'accepter

        Posté par (page perso) . Évalué à 6.

        Tu fais un site de résumé de CGU pour les nuls ?

        A part les éléments génériques concernant la net-étiquette, tout le reste ne peux pas être résumé puisque ça décrit le contrat et défini les relations entre le client et le prestataire. Il faudrait aussi ne pas prendre en compte les clauses dites léonines ou abusives, mais il restera toujours une grande partie propre à chaque prestataire.

        L'idée est pas mal, mais ne me semble pas réalisable.

        Et sur le site "Résumé de CGU pour les nuls", il faudrait ajouter une mention précisant que le résumé peut comporter des erreurs et ne doit pas servir de référence, que les rédacteurs ne sont pas responsables etc… (faudrait rédiger une CGU pour ça).

        • [^] # Re: Lire et comprendre avant d'accepter

          Posté par . Évalué à 3.

          C'est pour ça que je milite pour que les écrivains du contrats soient obligés de faire des versions lisibles par Monsieur Lambda sans avoir fait un master de droit spécialité droit international des CLU

          • [^] # Re: Lire et comprendre avant d'accepter

            Posté par . Évalué à 3.

            Version qui donc n'aurait aucune valeur et/ou ne serait pas solide devant un juge.
            Si tout est devenu si complexe, je ne crois pas que ce ne soit dû qu'à une volonté d'obfuscation du contrat, mais parce que ce sont bien des choses écrites par des professionnels pour se couvrir devant d'autres professionnels.

            À quoi bon une version simplifiée si tu ne peux pas t'y référer en cas de problème?

            • [^] # Re: Lire et comprendre avant d'accepter

              Posté par (page perso) . Évalué à 4.

              L’autre solution est celle utilisée par les licenses libres. Une collection de license cohérentes entre elles que l’on peut résumer facilement et qui sont toujours les mêmes.

              Dans le logiciel : GPL 3 > GPL 2 > LGPL > MIT/BSD > DWTFYWPL/LPRAB

              Où les excellentes creatives commons dans le domaine culturel.

              Ainsi, on peut profiter de l’expertise de la communauté pour comprendre ce qu’elles signifient et nous expliquer les points subtils une fois pour toutes.

              Les CGU d’un site à l’autre ne sont il pas fondamentalement les mêmes ?

              L’autre problème c’est que l’on peut mettre ce que l’on veut dans un CGU (même si c’est illégale). Ça ne tiendra pas devant un juge mais ça complique et embrouille les chose. On pourrait punir ceux qui mette des closes illégales dans les contrats.

              Globalement il y a malgré tout à mon avis une volonté d’obfuscation. Quand on demande d’accepter les CGU, tu as les expliquations pédagiques de la part de site ? Non le site ne veut pas tant que tu lis, mais il veut que tu acceptes. C’était John Oliver qui disait que si Apple mettait Mein Kampf dans les CGU d’Itunes, tous les monde cliquerai sur « I agree ».

            • [^] # Re: Lire et comprendre avant d'accepter

              Posté par . Évalué à 3.

              Je m'en fous, ce que je veux c'est qu'une personne normale s'y retrouve sans avoir à faire à un avocat. Évidemment cette version simplifiée devrait avoir force de loi et soulignent les zones limites, faut que les textes l'encadrant soit bien foutus.

      • [^] # Re: Lire et comprendre avant d'accepter

        Posté par (page perso) . Évalué à 5.

        Tu fais un site de résumé de CGU pour les nuls ?

        Quelqu'un en a déjà eu l'idée. C'est par là : http://tosdr.org

  • # Même pas surpris

    Posté par (page perso) . Évalué à 10.

    J'ai l'impression d'être le seul à ne pas être choqué. Ils passent déjà le Fil d'actualité dans une moulinette magique pour tenter de le rendre plus pertinent(/vendeur/manipulateur) et appelle ça le tri "À la une". Le fait qu'ils magouillent leur algo pour le rendre globalement plus positif ou négatif, c'est comme Google qui magouille les résultats pour garder ses utilisateurs dans leur zone de confiance.

    Personnellement, j'ai horreur de ce tri magique et je suis toujours avec le fil anti-chronilogique "Plus récentes" : c'est exhaustif, pas moins pertinent et on évite les remontées de vieux trucs inutiles.
    (Et oui, j'ai un compte Facebook et nier son utilité est simplement se bander les yeux, mais ceci est un autre débat)

    • [^] # Re: Même pas surpris

      Posté par . Évalué à 3.

      J'ai l'impression d'être le seul à ne pas être choqué

      Bha non c'est de l'A/B testing quoi. C'est juste la base de toutes les problématiques d'optimisation et de recommandation. Comme ce sont des problèmes qui n'ont pas d'oracle ou d'objectifs durs, on repose sur une boucle de mesure qui permet d'évaluer les réactions des utilisateurs en fonction des changement que l'on fait. Et en général on fait ça sur une sous partie de population pour pouvoir comparer différentes alternatives ou avoir le moins de bruit possible.

      Toute l'industrie fait ça et ceux qui ne le font pas sont des charlots qui n'ont pas une approche rationnelle des problèmes qu'ils ont a résoudre. Google faisait même ça un moment pour choisir la couleur d'un bouton.

      Le flux de donnée sur lequel ils ont bossé est de toute façon filtré et mouliné par un algo. Ils ont regardé l'influence de l'algo sur un point donné. En gros ce qu'on leur reproche c'est de regarder l'influence d'un algo plutôt que de "lancer une pièce et voilà".

      • [^] # Re: Même pas surpris

        Posté par . Évalué à 10.

        Hallucinant ce commentaire…

        En gros ce qu'on leur reproche c'est de regarder l'influence d'un algo plutôt que de "lancer une pièce et voilà".

        Non. On est pas entrain de choisir la couleur d'un putain de bouton ou de se demander s'il vaut mieux que la cuve soit en cuivre ou en zinc.

        Rappelons que le but de la science, sauf si elle est pratiquée par des salauds, et d'aider l'humanité, pas l’asservir. L’intérêt académique de ce genre d'expériences est évident, tout comme l'étude de l'impacte des pesticides sur fœtus, ce n'est pas pour ça qu'il faut les mener.

        Quand on fait ce genre d'expérience, se doter d'un comité éthiquement irréprochable me semble le strict minimum, là, on a précisément le contraire. Les États existent pour protéger les populations de ce genre de choses, ou au moins s'interroger sur les dangers de ces démarches, là ils sont clairement démissionnaires, tous.

        Please do not feed the trolls

        • [^] # Re: Même pas surpris

          Posté par . Évalué à 0.

          Quand on fait ce genre d'expérience, se doter d'un comité éthiquement irréprochable me semble le strict minimum, là, on a précisément le contraire

          La question est où tu places la limite. Pour la v1 de l'algo tu avais les mêmes effets possibles. Tu sors un sous ensemble d'un ensemble et tu les affiches à l'utilisateur. Si ça se trouve ça donnait des résultats pire…

          C'est un problème beaucoup plus complexe que le "Oh mon dieu". Quels sont les critères acceptables et non acceptables ?

          • Quelles sont les features de ton algo ? Comment t'assures tu quelles sont toutes éthiques ?
          • Comment sont-elles pondérées ?
          • Comment tu empêches ton ML de faire cela même de manière involontaire ? (features combinées, convergence de l'apprentissage vers quelque chose de non éthique)
          • Quels sont les KPI acceptables ?
          • Quels sont les moyens acceptables pour ameillorer les KPI ? (un utilisateur heureux consommera peut être plus ou cliquera plus)

          L’intérêt académique de ce genre d'expériences est évident, tout comme l'étude de l'impacte des pesticides sur fœtus, ce n'est pas pour ça qu'il faut les mener.

          Ca reste le feed news de Facebook hein…

          Tu es plus où moins soumis à ce genre de chose en permanence de la pub à ton agrégateur de news. À partir du moment où il y a du ciblage, de la recommandation ou de la sélection d'information. Ils ont décidé de regarder un aspect que certains peuvent trouver limite et mériterait d'être discuté. Maintenant crier au scandale et tomber de haut… A mon avis les moteurs de recommandations ont BEAUCOUP plus d'impact sur la vie réelle par exemple. Et c'était la même chose avec les recommandations humaines qui ont toujours imposé le biais de leur auteur.

          là ils sont clairement démissionnaires, tous.

          Non ils sont clairement largué. Tout comme 99% des boites françaises. Maintenant les propositions constructives sont je pense les bienvenues…

      • [^] # Re: Même pas surpris

        Posté par . Évalué à 2.

        Ce qui a fait du bruit a la base, avant que tout le monde se mette a beugler "bouh, facebook, caca", c'est pas tant que fb fasse de l'a/b testing, et c'est pas comme si c'etait nouveau ils ont largement documente le fait qu'ils ont toujours une palanquee d'a/b en cours.

        Mais plutot que ca a ete fait non pas pour tuner leurs algos, mais comme une pure experience scientifique, sans buts commerciaux.
        Et apparement, la deontologie veut que les sujets de l'experience soient au courant. C'est la que serait le probleme.
        Je repete ce que j'ai lu, moi chui ingenieur, pas chercheur (on me dit de le faire aller plus vite, je le fait aller plus vite).

        Ca se tient, quand tu veux voir si tu peux deprimer quelqu'un, c'est la moindre des choses de lui demander son avis avant (et eviter que, genre, il se suicide, ou cas ou ton experience marche vraiment super bien, ou mal, selon le point de vue).

        Linuxfr, le portail francais du logiciel libre et du neo nazisme.

        • [^] # Re: Même pas surpris

          Posté par . Évalué à 2.

          Mais plutot que ca a ete fait non pas pour tuner leurs algos, mais comme une pure experience scientifique, sans buts commerciaux.

          Which content is shown or omitted in the News Feed is determined via a ranking algorithm that Facebook continually develops and tests in the interest of showing viewers the content they will find most relevant and engaging. One such test is reported in this study: A test of whether posts with emotional content are more engaging.

          Il y a énormément à réfléchir sur ces sujets car le machine learning est ses applications sont une discipline extrêmement récente ou on ne connait presque rien pour le moment.

          Maintenant ce test c'est juste prendre le news feed de quelqu'un virer pendant une semaine 10% à 90% des postes qui contiennent un mot clé marqué comme émotionnels. Oui il y a à discuter mais pas en faire un pataquès ridicule avec "Facebook à manipuler ses utilisateurs".

          Rien ne te dis que le biais n'existe pas déjà sur leur classifier, volontairement ou involontairement, car l'apprentissage à détecté une feature "content" / "pas content" avait une influence sur le taux de clic et que tout le contenu que tu vois sois déjà largement biaisé. L'expérience consiste juste à isoler une variable et mesurer.

          Le news feed est un choix d'article parmi tout ceux disponibles (et les autres reste disponible). Quand tu décides de l'utiliser ça veut dire que tu délègues le choix de ce que tu lis à Facebook et à un algo. Si tu es contre ca, faut pas utiliser la feature, l'expérience ne change pas grand chose à cela et la nature même du ML fait que tu subis de telle expérience en continu, simplement ce n'est pas analysé par un humain et on n'isole pas aussi précisément une variable et sa signification.

          • [^] # Re: Même pas surpris

            Posté par . Évalué à 3.

            Bon, voila, je m'étais retenu de commenter sur twitter quand ca a fait un bordel sans nom le week end dernier, precisemment parce que l'article original sur avclub.com puait la bonne polémique facon "silicon valley drama queen", que j'ai assez de genre de conneries au taff toute la journée, et que j'avais la flemme de lire l'etude publiee par FB de toutes façons ('fin surtout autre chose a foutre ces jours ci).
            J'aurais du appliquer la meme reserve ici.

            Plusieurs chose.
            D'abord, s'offenser que Facebook fasse de l'a/b test en permanence sur le feed, oui, c'est un peu con, c'est un peu le concept du feed, et surtout la raison qui fait que Facebook est bon a ce qu'ils font.
            De meme, prendre offense que Facebook ne respecte pas vraiment ses utilisateurs, ben heuu.. d'uh! Ben ouais, c'est pas nouveau. C'est comme s'offusquer que Google ne cherche qu'a vendre des pubs.
            Breaking fucking news.

            Ensuite, une grande part du problème est "qu'a réellement fait Facebook, et dans quelle optique" (et c'est surtout a cause de ca que je me retenais de commenter sur touiteur, parce que c'est pas franchement clair).
            Ce que tu cites (ca vient d'ou au fait? l'etude en question?) laisse penser que des chercheurs en psychologie ont prit le résultats d'un A/B test bateau et en ont fait une etude.
            L'article d'avclub laisse entendre qu'une cellule de recherche chez FB a lance une etude a grande échelle dont le but était de manipuler les gens.
            La verite est j'imagine qq part au milieu.

            Bon, je retourne dans Xcode moi, au moins lui il manipule pas l'information pour générer des clicks.

            Linuxfr, le portail francais du logiciel libre et du neo nazisme.

            • [^] # Re: Même pas surpris

              Posté par . Évalué à 4. Dernière modification le 02/07/14 à 08:49.

              Oui ça vient du papier de Facebook. Il se lit très vite et ne casse pas trois pâtes à un canard. Quand je vois "recherche fondamentale" puis designer l'étude ça fait sourire. C'est juste isoler une feature précise, et essayer d'analyser son impact sur les gens et indirectement de savoir si c'est pour bon la participation ou pas par ce que c'est le nerf de la guerre.

              Et les résultats dramatiques c'est… un variation de max 0.2% des mots positifs ou négatifs utilisés dans les postes ! Non en fait le résultat intéressant pour Facebook c'est ca: " We also observed a withdrawal effect: People who were exposed to fewer emotional posts (of either valence) in their News Feed were less expressive overall on the following days, addressing the question about how emotional expression affects social engagement online. ". En gros ils vont faire attention à que le feed ne soit pas trop neutre par ce que ça diminue la participation…

              Personnellement je trouve intéressant qu'on commence à s'intéresser et s’interroger à ce genre de sujets. Dans l'article on trouve aussi la thèse inverse: "This observation, and the fact that people were more emotionally positive in response to positive emotion updates from their friends, stands in contrast to theories that suggest viewing positive posts by friends on Facebook may somehow affect us negatively, for example, via social comparison.". En gros on pourrait aussi dire qu'en faisant un bête top K pour sélectionner les articles du feed, tu ne vas garder que les plus positifs (ceux qui sont likés) et que donc tu vas inonder les gens de chose mieux que leur vie réelle. Est ce que ça à un impact ? Les questions comme cela sont infinies, et en pratique quand tu implémentes ce genre de fonctionnalité c'est très difficile de savoir ce qui est "bien" ou pas. Ça demandera des années avant que la discipline arrive à maturité technique et "morale". Pour le moment on est au tout début. Enfin je trouve idiot de s'offusquer d'une simple étude sur 7 jours sur un domaine sans intérêt, alors que l'algo mis "naïvement" en place depuis des années peut avoir des impacts 100x pires sans que personne n'y ait jamais réfléchi.

    • [^] # Re: Même pas surpris

      Posté par . Évalué à 9.

      (Et oui, j'ai un compte Facebook et nier son utilité est simplement se bander les yeux, mais ceci est un autre débat)

      Je n'ai pas de compte facebook et je ne m'en porte pas plus mal. Au contraire, quand je lis ce genre de choses, je me sens bien mieux sans ce fameux compte.

      Facebook ne me sert à rien. Facebook ne sert à rien d'autre qu'à faire rentrer du fric dans la poche de son créateur au dépens de leur vie privée.

      Celà dit, je ne nie pas l'utilité que peuvent avoir les réseaux sociaux (sous une autre forme que Facebook, pourquoi pas, mais je n'en ai pas encore trouvé qui me convienne).

      • [^] # Re: Même pas surpris

        Posté par . Évalué à 10.

        Facebook ne sert à rien d'autre qu'à faire rentrer du fric dans la poche de son créateur au dépens de leur vie privée.

        T'es injuste là… La manipulation des masses c'est pas rien !

        Please do not feed the trolls

      • [^] # Re: Même pas surpris

        Posté par (page perso) . Évalué à 6.

        Effectivement, je vais préciser ma pensée :
        J'ai une utilité à Facebook, et je suis bien persuadé que ce n'est pas le cas de tout le monde.

        Dire que Facebook est inutile car on en a soi-même pas l'utilité, c'est une généralisation un chouilla rapide.

        • [^] # Re: Même pas surpris

          Posté par . Évalué à 4.

          Le problème n'est pas de savoir si c'est utile ou inutile, mais de savoir à quel point cette institution est incontrôlable, et combien elle peut être dangereuse à la fois pour ses utilisateurs et les non utilisateurs.

          Please do not feed the trolls

          • [^] # Re: Même pas surpris

            Posté par . Évalué à 4.

            Tout à fait. À toutes et tous qui se défendent de leur choix parce que tel truc est utile ou pratique: ok, certes, peut être. Mais la question c'est: est-ce que l'utilité que j'accorde à ce truc justifie que je donne du pouvoir à cette entreprise qui m'enferme, m'espionne, me vend, m'arnaque, etc.

            Si tant est qu'on s'en rende compte (à priori le cas sur linuxfr) et qu'on voie plus loin que sa pomme.

            C'est ma formulation.

    • [^] # Re: Même pas surpris

      Posté par . Évalué à 2.

      (Et oui, j'ai un compte Facebook et nier son utilité est simplement se bander les yeux, mais ceci est un autre débat)

      Euh, ah bon. Je vais m'inscrire alors.

      … Ou pas.

      "Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)

    • [^] # Re: Même pas surpris

      Posté par . Évalué à 2.

      Personnellement, j'ai horreur de ce tri magique et je suis toujours avec le fil anti-chronilogique "Plus récentes" : c'est exhaustif, pas moins pertinent et on évite les remontées de vieux trucs inutiles.

      Moi ce qui me gave, c'est que de manière aléatoire (allez àtoire!), ça saute, et ça revient à "à la une".

  • # Grave ?

    Posté par . Évalué à -1.

    Je ne suis pas utilisateur de Facebook et ne veut pas l'être !

    Est-ce grave docteur ?

    • [^] # Re: Grave ?

      Posté par . Évalué à 10.

      Non, t'es juste un hipster qui a tellement rien a faire de facebook qu'il se sent oblige d'annoncer qu'il n'y est pas.

      Dit autrement, tout comme certains se definissent via facebook, c'est pareil pour toi, tu te definit juste en opposition a facebook. Mais FB reste toujours la reference, le phare qui te guide.

      Linuxfr, le portail francais du logiciel libre et du neo nazisme.

  • # Bouh! Méchant Facebook!

    Posté par . Évalué à 2.

    Parfois, c'est bien de mettre en garde les gogos contre les pratiques abusives des grands groupes, mais là, c'est un peu exagéré de crier au loup pour une telle "expérience", qui est une chose assez banale chez les fournisseurs de contenu. Au pire, on peut reprocher à Facebook d'avoir volontairement dégradé un service, mais Facebook fait ce qu'il veut sur ses serveurs, et on pourrait reprocher la même chose à beaucoup de logiciels, dont pas mal sont libres (qui a dit Gnome?).

    Le principe même de l'expérience est assez peu choquant : quand un enseignant donne un cours, il regarde ses élèves, s'ils dorment tous, il changera son cours au prochain coup. Une émission TV va tenter de changer des choses quand l'audience baisse, etc : il s'agit de s'adapter à son public en essayant des choses, et en regardant lesquelles sont plus efficaces. Parfois, comme ici, l'objectif n'est pas de mieux capter l'audience, mais de mieux comprendre comment les gens réagissent. C'est un peu de la recherche fondamentale ; il n'y a pas d'application directe mais ça n'est pas non plus fait par hasard.

    • [^] # Re: Bouh! Méchant Facebook!

      Posté par . Évalué à 5.

      Ici l'auteur du billet référencé.

      Il me semble que c'est plus comme si un enseignant donnait un cours ennuyeux à la moitié de ses élèves, et intéressant à l'autre moitié, sans que ni les élèves ni leurs parents n'aient accepté de participer à une expérience.

      • [^] # Re: Bouh! Méchant Facebook!

        Posté par . Évalué à 10.

        Non, je pense que l'analogie n'est pas bonne : il s'agirait éventuellement de deux méthodes pédagogiques différentes. Et ça se fait très régulièrement ; quand j'avais 4 groupes de TD par semaine, je faisais évidemment des "expériences" de la sorte, pour voir quelle méthode semblait marcher le mieux. Je ne sais pas à partir de quel niveau on peut parler d'expérience, d'ailleurs ; est-ce que c'est simplement parce que le protocole était bien standardisé? Si tu fais un truc un peu au pif, ce n'est pas une expérience, mais si tu fais la même chose après 3 réunions, c'est une expérience?

        À partir du moment où tu mets en place un service, et que tu bénéficie d'une forme de "retour" des utilisateurs (ne serait-ce que par l'observation de leur comportement), tu es dans une logique d'expérience, puisque tu vas modifier ton service en tenant compte de tes observations. Évidemment, c'est plus efficace si tu induis les comportements désirés en bricolant ton service ; tu penses donc que ce bricolage est non-éthique? Que c'est plus éthique si c'est mis en place chez tous les utilisateurs (pendant 24h pour tout le monde, plutôt qu'une semaine sur une sous-partie des utilisateurs?). Tout ça me semble être une question de détails, pas de principe.

        • [^] # Re: Bouh! Méchant Facebook!

          Posté par . Évalué à 0.

          Pas d'accord. Ca, ça serait l'équivalent d'un A-B testing classique. Par exemple s'ils avaient deux manières de passer des émotions positives. Ici ils ont manipulé les gens pour leur donner des émotions positives ou négatives.

          Il y a un commentaire sur mon blog qui résume bien le problème par rapport aux standards en recherche à mon avis :

          http://toutsepassecommesi.cafe-sciences.org/2014/06/30/vous-utilisez-facebook-vous-etes-donc-volontaire-pour-etre-manipule-dans-des-experiences/#comments

          • [^] # Re: Bouh! Méchant Facebook!

            Posté par . Évalué à 2.

            Pas d'accord. Ca, ça serait l'équivalent d'un A-B testing classique. Par exemple s'ils avaient deux manières de passer des émotions positives. Ici ils ont manipulé les gens pour leur donner des émotions positives ou négatives.

            Et quand tu fais de la recommandation de news par exemple tu crois que tu fais quoi de manière directe ou indirecte ?

            Leur principal tord ça semble d'avoir publié et de ne pas avoir directement relié les indicateurs de leur feedback loop à leur business model immédiat… Je comprends tout à fait, faire de l'A/B avec pour seul but de fourguer plus de pub c'est vachement plus éthique que de regarder les impacts potentiel d'une fonctionnalité (et sûrement aussi s'en servir plus tard pour fourguer plus de pub) !

            • [^] # Re: Bouh! Méchant Facebook!

              Posté par . Évalué à 4.

              faire de l'A/B avec pour seul but de fourguer plus de pub c'est vachement plus éthique que de regarder les impacts potentiel d'une fonctionnalité

              J'ai l'impression que c'est exactement la question. Pourquoi donc tout le monde considère qu'une expérience est éthique quand elle est susceptible de générer directement des revenus commerciaux, et non-éthique dès qu'elle est un chouilla plus fondamentale, et qu'on ne voit pas le bénéfice direct pour l'entreprise? On marche à l'envers, là! Depuis quand générer du fric est un critère pour dire que quelque chose est éthique ou non?

              • [^] # Re: Bouh! Méchant Facebook!

                Posté par (page perso) . Évalué à 3.

                Pourquoi donc tout le monde considère qu'une expérience est éthique quand elle est susceptible de générer directement des revenus commerciaux, et non-éthique dès qu'elle est un chouilla plus fondamentale

                Je pense qu'au contraire, tout le monde sait bien que les expériences menées par les grosses boîtes ne sont pas éthiques, alors que la recherche fondamentale à des règles d'éthique strictes. C'est donc cela qui choque : une publication scientifique fait aussi mal que des boîtes commerciales.

                C'est comme si on découvrait que le pape matait du porno, ça ferait du bruit, alors que tout le monde s'en fout bien que Doc Gyneco le fasse.

  • # c'est connu

    Posté par . Évalué à 2.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.