Sondage Faut-il accepter les contenus générés par IA sur LinuxFr.org ?

Posté par  (site web personnel) . Licence CC By‑SA.
Étiquettes :
1
5
fév.
2025

Le sujet commence à générer des débats au sein de LinuxFr.org : faut-il accepter des contenus générés par une Intelligence Artificielle Générative (aka GenAI) ?

  • Oui :
    5
    (4.0 %)
  • Oui, mais seulement avec un moteur libre, des données libres, un prompt libre, etc. :
    7
    (5.6 %)
  • Oui, à condition d'en générer un résumé par IA :
    2
    (1.6 %)
  • Oui, uniquement sur certains type de contenu (préciser en commentaire : dépêche, journaux, commentaires, etc.) :
    5
    (4.0 %)
  • Non :
    106
    (84.8 %)

Total : 125 votes

La liste des options proposées est volontairement limitée : tout l’intérêt (ou son absence) de ce type de sondage réside dans le fait de forcer les participants à faire un choix. Les réponses multiples sont interdites pour les mêmes raisons. Il est donc inutile de se plaindre au sujet du faible nombre de réponses proposées ou de l’impossibilité de choisir plusieurs réponses. 76,78 % des personnes sondées estiment que ces sondages sont ineptes.
  • # Commentaire supprimé

    Posté par  . Évalué à 0 (+0/-0). Dernière modification le 05 février 2025 à 11:41.

    Ce commentaire a été supprimé par l’équipe de modération.

  • # gné

    Posté par  . Évalué à 7 (+5/-0). Dernière modification le 05 février 2025 à 11:51.

    faut-il accepter des contenus générés par une Intelligence Artificielle Générative (aka GenAI) ?

    J'ai pas compris la question.
    C'est quoi un contenu généré par IA ?
    On parle des liens, journaux, dépêches ?
    C'est un contenu entièrement généra par IA puis copier-coller ?
    Et si on précise le prompt et le modèle utilisés, ça va ?
    C'est mieux ou moins bien qu'un contenu rédigé avec le pied et sans sources ?
    Comment on sait que c'est généré par IA ?
    On a une blacklist ? un outil de détection ? quels taux de faux positifs ? On vote ?

    Le sujet commence à générer des débats au sein de LinuxFr.org

    ah bon ! où ça ? ici ? prophétie autoréalisatrice ? Est-ce que ce sondage est le résultat de l'hallucination d'un LLM ?

    • [^] # Re: gné

      Posté par  (site web personnel) . Évalué à 1 (+0/-2). Dernière modification le 05 février 2025 à 11:56.

      Comment on sait que c'est généré par IA ?

      Cette remarque a été faite plusieurs fois et je la trouve très curieuse.

      On ne peut pas toujours faire la différence entre un meurtre et un suicide, il faudrait donc accepter tous les meurtres ?

      Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

      • [^] # Re: gné

        Posté par  . Évalué à 2 (+2/-2).

        La mise en page de mon commentaire a prêté à confusion ; ces deux lignes vont ensemble:

        Comment on sait que c'est généré par IA ? On a une blacklist ? un outil de détection ? quels taux de faux positifs ? On vote ?

        Alors

        On ne peut pas toujours faire la différence entre un meurtre et un suicide

        Non, mais on a des outils, des méthodes et des personnes formées pour cela : la police scientifique.

        Et comparer la publication d'un contenu IA à un meurtre, on est au minimum sur la pente savonneuse, voire de l'homme de paille.

    • [^] # Re: gné

      Posté par  (site web personnel, Mastodon) . Évalué à 2 (+0/-0).

      Et si on précise le prompt et le modèle utilisés, ça va

      On pourrait très bien poster uniquement le prompt et le modèle à utiliser. Ça sera plus court à lire et ça fera gagner du temps à tout le monde!

      Et ceux qui ont vraiment envie de lire une version diluée pourront eux-même utiliser un LLM de leur côté.

  • # Ce qu'en pense deepseek R1

    Posté par  . Évalué à 0 (+2/-4).

    prompt

    texte

    que penser de ce texte :

    """
    [le texte du sondage]
    """

    options

    chain of thought et search online

    réponse du LLM (non modifiée)

    Le sondage proposé sur LinuxFr.org concernant l'acceptation des contenus générés par IA reflète des enjeux importants pour une communauté axée sur l'open source et les logiciels libres. Voici une analyse structurée des options et des implications :

    1. Enjeux principaux :

    • Éthique open source : La communauté privilégie les outils et données libres. L’option 2 (moteurs/libres) s’aligne sur ces valeurs, mais soulève des questions techniques (existe-t-il des IA "libres" performantes ?).
    • Qualité et authenticité : Les craintes de contenus superficiels, erronés ou déshumanisés justifient l’option 5 (« Non »). Les IA génératives peuvent amplifier la désinformation ou le plagiat.
    • Transparence : Même si un contenu est généré par IA, son origine doit être clairement indiquée (non évoqué dans le sondage, mais crucial pour la confiance).
    • Modération : Un afflux de contenus automatisés pourrait saturer les modérateurs, surtout sans cadre strict.

    2. Analyse des options :

    • « Oui » : Risque de dilution de la valeur humaine et communautaire, mais pourrait enrichir le site (ex. traduction automatique, génération de résumés).
    • « Oui, mais avec des outils/libres » : Cohérent avec l’éthique du libre, mais restrictif (les modèles libres comme Llama ou Mistral sont moins accessibles que ChatGPT).
    • « Oui, avec résumé par IA » : Paradoxal (résumer un texte IA par une IA ?) et peu pertinent sans contrôle humain.
    • « Oui, sur certains contenus » : Pragmatique, mais nécessite un consensus sur les catégories acceptables (ex. dépêches techniques vs débats).
    • « Non » : Protège l’authenticité, mais prive le site d’outils potentiellement utiles.

    3. Recommandations :

    • Transparence obligatoire : Exiger une mention explicite de l’usage d’IA, quel que soit le choix final.
    • Encadrement strict : Limiter l’IA à des cas d’usage précis (ex. corrections grammaticales, synthèses de documentation) avec outils vérifiables.
    • Débat sur le "libre" : Définir collectivement ce qu’est une IA « libre » (modèle, données, infrastructure) avant de l’autoriser.
    • Expérimentation temporaire : Tester l’impact sur la qualité des contenus avant une décision permanente.

    4. Conclusion :

    La réponse idéale dépend de l’équilibre entre innovation et préservation de l’esprit communautaire. Une approche modérée (options 2 ou 4) avec des garde-fous (transparence, modération) semble plus viable qu’un rejet ou une acceptation totale. Le débat doit aussi intégrer des exemples concrets : comment d’autres plateformes (comme Wikipédia ou Mastodon) gèrent-elles ces défis ?

    Mon avis :

    Il est bien plus gentil et constructif que ce que j'ai à en dire ; il n'a pas dû saisir l'aspect éminemment trollesque (IMHO) de ce sondage. J'aime comme il souligne l'aspect "Paradoxal" de la 3ème option.

  • # question stérile

    Posté par  (Mastodon) . Évalué à 7 (+5/-1).

    1. C'est une question stérile car quelque soit la solution choisie, il n'y a aucun moyen de la faire respecter. Qu'on le veuille ou non les LLM et GenAI sont là et on ne peut qu'encourager à une éthique.

    2. générer est un mot trop vague. Tu peux t'aider de l'IA pour copier/coller tout un texte, mais tu peux aussi l'utiliser partiellement: changer une tournure de phrase qui ne te plait pas, créer un canevas que tu vas remplacer par tes propres mots, t'aider à la traduction d'une source, anticiper des réponses et arguments à ton contenu pour y répondre dès le début, etc.

    • [^] # Re: question stérile

      Posté par  (site web personnel) . Évalué à 3 (+1/-1). Dernière modification le 05 février 2025 à 13:18.

      Il y a un moyen très simple de la faire respecter : si on voit un contenu manifestement généré par IA (et pour l'instant on y arrive très bien), on le supprime.

      Je fréquente un autre site dédié aux œuvres d'art particulières et c'est une catastrophe : le site est pris d'assaut par des prompteurs à la chaîne en mal de popularité. On reconnaît très bien leurs "œuvres" et la masse de contenus qu'ils "produisent" fait perdre rapidement tout l'intérêt du site.

      Pour prendre une autre métaphore : est-ce que le club de sculpture sur bois doit laisser raser la forêt sous prétexte qu'on a inventé la tronçonneuse ?

      Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

      • [^] # Re: question stérile

        Posté par  (site web personnel) . Évalué à 2 (+0/-0). Dernière modification le 05 février 2025 à 13:46.

        <ai assistance="none">
        

        Tout à fait d'accord avec Psychofox, il y a de nombreuses nuances possibles, et une grosse différence entre du contenu assisté par IA et du contenu généré par IA.

        Si je suis totalement contre le contenu généré par IA, suivant la manière dont l'IA a été utilisée, je ne suis pas contre du contenu assisté par IA.

        On pourrait imaginer une forme de balise que l'utilisateur utiliserait pour indiquer si de l'IA a été utilisé pour assister, ou pour générer (la distinction pourrait être de l'ordre de l'attribut au niveau HTML), du contenu.

        </ai>
        > Il y a un moyen très simple de la faire respecter : si on voit un contenu manifestement généré par IA (et pour l'instant on y arrive très bien), on le supprime.

        Ben, très souvent, dans le forum j'ai l'impression que des messages sont écrits par des IA, et ils semblent que je me trompe de temps en temps.

      • [^] # Re: question stérile

        Posté par  . Évalué à 2 (+0/-0).

      • [^] # Re: question stérile

        Posté par  (Mastodon) . Évalué à 3 (+0/-0).

        (et pour l'instant on y arrive très bien), on le supprime.

        En fait tu n'en es sûr que pour les cas évidents. Rien ne te garantie que tu ne passes pas à côté de plein d'autres.

        Et au final c'est ce qui est important c'est plus la qualité du contenu final. Ce qui me fait donc réagir sur ton commentaire suivant:

        Pour prendre une autre métaphore : est-ce que le club de sculpture sur bois doit laisser raser la forêt sous prétexte qu'on a inventé la tronçonneuse ?

        Non mais la forêt sans sanction pour celui qui tronçonnerait sans vergogne, elle n'existerait pas. Le fait est que les arbres, mêmes tronçonnés, sont difficilement transporté de façon discrète donc c'est relativement facile à modérer.

        Ici sur linuxfr on fait de la modération directe par les modérateurs, mais aussi participative si c'est pourave on moinsse à mort.

        La question qu'on peut se poser sur linuxfr, c'est si passé un certain niveau de moinssage, soit dans l'absolu soit dans un temps donné, on ne devrait pas rendre invisible le contenu et ses commentaires automatiquement en attente d'une validation des modérateurs plutôt que de continuer le trollage. Parce qu'au final ce qui est souvent le plus moinssé est souvent ce qui est le plus commenté (parce que troll, parce que provoc, parce que sujet polarisant, politique, etc).

        Autre outil de modération qu'on n'a pas, c'est un bouton pour alerter les modérateurs. T'es obligé d'aller voir dans le wiki les xmpp ou emails des modérateurs pour les contacter. Du coup souvent t'as juste la flemme d'alerter et tu attends passivement qu'un modérateur passe par là et se rend compte d'un contenu moche.

        Pour l'instant il me semble qu'on n'est pas sujet à une avalanche de contenu inintéressant et spammeur donc ça reste gérable.

    • [^] # Re: question stérile

      Posté par  (site web personnel, Mastodon) . Évalué à 2 (+0/-0).

      C'est une question stérile car quelque soit la solution choisie, il n'y a aucun moyen de la faire respecter.

      Si tu te fais prendre en train de poster un contenu généré par ordinateur, le contenu est supprimé et si tu recommences une fois qu'on t'a expliqué, tu te fais bannir. Comme pour tout autre type de contenu interdit, en fait: illégalement copié depuis une source soumise au droit d'auteur, ouvertement raciste, spam, …

      Effectivement l'interdiction ne sera jamais parfaite. Mais, d'une part ça marche quand même relativement pas trop mal, et d'autre part, même si ça ne marche pas complètement, ça donne le ton sur les comportements qu'on peut attendre ici.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.