Oui enfin, il faut relativiser. ChatGPT est tout de même assez policé. Ca reste un robot.
Je pense qu'il y a beaucoup de gens qui se suicide après une discutions avec un humain, ou pire, et plus souvent après une discutions avec un policier, juge, patron…
Ça me fait penser à cette (vielle) histoire, qui s'était passé aux USA (à l'époque en France on était un peu plus censé) ou une personne avait mis son chat au micro-onde pour le sécher après e bain et avait porté plainte (et gagné) parce que ce n'était pas contraire aux indication de la notice… Depuis on voit fleurir des indications stupides sur les notices.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
Je suis assez d'accord, même si tout cela reste triste dans le fond, l'article le mentionne très bien, la personne a volontairement fait sauter les sécurités misent en place par OpenAI pour arriver à ses " fins " (" C'est pour un personnage ") et n'a donc pas respecté les conditions d'utilisations, en partant de ce constat, il devient difficile de se retourner contre OpenAI, malheureusement…
Le soucis est également la communication de ces boîtes autour de ces produits.
Ils mettent en avant un outil universel qui aurait le niveau d'un médecin ou d'un chercheur et serait à la frontière de l'intelligence humaine, etc. Et dans les faits c'est comme ça que ces interactions sont perçues par de nombreuses personnes, qui prennent ce que disent ces machines pour argent comptant en permanence. Ils ont retiré d'ailleurs des mises en garde concernant l'usage de ces outils dans un contexte médical.
Donc forcément des gens se sentent libre de s'en servir comme thérapeute ou confidents et comme prévus cela ne donne pas lieu à des résultats problématiques. Et ce n'est pas bon.
Rejeter la faute sur l'utilisateur, en particulier un ado / enfant, c'est cynique. Tu ne peux pas vendre d'un côté ton produit comme extraordinaire capable de 1000 et 1 choses et après dire "oui si on aborde des questions traumatiques ou le suicide ce n'est pas une bonne idée". À un moment tu as des responsabilités, et si ton produit n'est pas assez sûr dans ce genre de contexte il faut clairement le communiquer (et pas juste une ligne cachée dans des CGU que personne ne lit) ou assumer les responsabilités qui incombent. Il y a un manque de recul autour de l'usage de ces produits, ce sont eux qui décident de le survendre, de le mettre partout, et de le rendre disponible de manière large sans grosses restrictions.
C'est trop facile de blâmer l'utilisateur dans ce contexte et de se dédouaner. L'utilisateur n'a pas les moyens de se protéger de cela, personne n'a été formé à utiliser ces outils dans de bonnes conditions, et l'utilisateur est en plus trompé dans la réalité qui entoure ces produits. Ce n'est clairement pas assimilable à un mauvaise usage d'un produit du quotidien type marteau qui aurait été mal utilisé.
# relativiser
Posté par abriotde (site web personnel, Mastodon) . Évalué à 5 (+5/-2).
Oui enfin, il faut relativiser. ChatGPT est tout de même assez policé. Ca reste un robot.
Je pense qu'il y a beaucoup de gens qui se suicide après une discutions avec un humain, ou pire, et plus souvent après une discutions avec un policier, juge, patron…
Ça me fait penser à cette (vielle) histoire, qui s'était passé aux USA (à l'époque en France on était un peu plus censé) ou une personne avait mis son chat au micro-onde pour le sécher après e bain et avait porté plainte (et gagné) parce que ce n'était pas contraire aux indication de la notice… Depuis on voit fleurir des indications stupides sur les notices.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: relativiser
Posté par FlashG0re . Évalué à 2 (+2/-0).
Je suis assez d'accord, même si tout cela reste triste dans le fond, l'article le mentionne très bien, la personne a volontairement fait sauter les sécurités misent en place par OpenAI pour arriver à ses " fins " (" C'est pour un personnage ") et n'a donc pas respecté les conditions d'utilisations, en partant de ce constat, il devient difficile de se retourner contre OpenAI, malheureusement…
[^] # Re: relativiser
Posté par Renault (site web personnel) . Évalué à 5 (+2/-0).
Le soucis est également la communication de ces boîtes autour de ces produits.
Ils mettent en avant un outil universel qui aurait le niveau d'un médecin ou d'un chercheur et serait à la frontière de l'intelligence humaine, etc. Et dans les faits c'est comme ça que ces interactions sont perçues par de nombreuses personnes, qui prennent ce que disent ces machines pour argent comptant en permanence. Ils ont retiré d'ailleurs des mises en garde concernant l'usage de ces outils dans un contexte médical.
Donc forcément des gens se sentent libre de s'en servir comme thérapeute ou confidents et comme prévus cela ne donne pas lieu à des résultats problématiques. Et ce n'est pas bon.
Rejeter la faute sur l'utilisateur, en particulier un ado / enfant, c'est cynique. Tu ne peux pas vendre d'un côté ton produit comme extraordinaire capable de 1000 et 1 choses et après dire "oui si on aborde des questions traumatiques ou le suicide ce n'est pas une bonne idée". À un moment tu as des responsabilités, et si ton produit n'est pas assez sûr dans ce genre de contexte il faut clairement le communiquer (et pas juste une ligne cachée dans des CGU que personne ne lit) ou assumer les responsabilités qui incombent. Il y a un manque de recul autour de l'usage de ces produits, ce sont eux qui décident de le survendre, de le mettre partout, et de le rendre disponible de manière large sans grosses restrictions.
C'est trop facile de blâmer l'utilisateur dans ce contexte et de se dédouaner. L'utilisateur n'a pas les moyens de se protéger de cela, personne n'a été formé à utiliser ces outils dans de bonnes conditions, et l'utilisateur est en plus trompé dans la réalité qui entoure ces produits. Ce n'est clairement pas assimilable à un mauvaise usage d'un produit du quotidien type marteau qui aurait été mal utilisé.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.