Si l'outil est publié ceux qui se servent de chatGPT pourrons modifier la génération jusqu'à ce que ça ne bip plus.
Il vaut mieux éviter d'entrainer un modèle sur les génération d'IA; leur outil permet d'exclure ces sources, mais en le rendant publique; ils ne pourront plus l'exclure.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
L’entreprise semble déchirée entre son ambition initiale, visant à développer des outils d’IA pour l’intérêt général accessibles à tous, sur laquelle elle a déjà rogné, et sa volonté d’étendre son nombre d’utilisateurs. En 2023, elle avait mené une étude auprès d’utilisateurs de ChatGPT, qui avait conclu que 69 % d’entre eux craignaient qu’une technologie de détection risquait de mener à de fausses accusations de triche. Une partie significative (30 %) d’entre eux avaient aussi déclaré qu’ils utiliseraient moins ChatGPT si un tel outil était déployé spécifiquement pour le générateur de texte d’OpenAI.
Intéressant. On est clairement sur une question éthique et on voit déjà quels arbitrages sont faits (spoiler : comme Google avant eux, notamment)
# logique
Posté par fearan . Évalué à 8 (+5/-0).
Si l'outil est publié ceux qui se servent de chatGPT pourrons modifier la génération jusqu'à ce que ça ne bip plus.
Il vaut mieux éviter d'entrainer un modèle sur les génération d'IA; leur outil permet d'exclure ces sources, mais en le rendant publique; ils ne pourront plus l'exclure.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
# Éthique
Posté par antistress (site web personnel) . Évalué à 6 (+3/-0).
Intéressant. On est clairement sur une question éthique et on voit déjà quels arbitrages sont faits (spoiler : comme Google avant eux, notamment)
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.