Sondage Faut-il accepter les contenus générés par IA sur LinuxFr.org ?

Posté par  (site web personnel) . Licence CC By‑SA.
Étiquettes :
13
5
fév.
2025

Le sujet commence à générer des débats au sein de LinuxFr.org : faut-il accepter des contenus générés par une Intelligence Artificielle Générative (aka GenAI) ?

Total : 1687 votes

La liste des options proposées est volontairement limitée : tout l’intérêt (ou son absence) de ce type de sondage réside dans le fait de forcer les participants à faire un choix. Les réponses multiples sont interdites pour les mêmes raisons. Il est donc inutile de se plaindre au sujet du faible nombre de réponses proposées ou de l’impossibilité de choisir plusieurs réponses. 76,78 % des personnes sondées estiment que ces sondages sont ineptes.
  • # Commentaire supprimé

    Posté par  . Évalué à 0 (+0/-0). Dernière modification le 05 février 2025 à 11:41.

    Ce commentaire a été supprimé par l’équipe de modération.

  • # gné

    Posté par  . Évalué à 9 (+7/-0). Dernière modification le 05 février 2025 à 11:51.

    faut-il accepter des contenus générés par une Intelligence Artificielle Générative (aka GenAI) ?

    J'ai pas compris la question.
    C'est quoi un contenu généré par IA ?
    On parle des liens, journaux, dépêches ?
    C'est un contenu entièrement généra par IA puis copier-coller ?
    Et si on précise le prompt et le modèle utilisés, ça va ?
    C'est mieux ou moins bien qu'un contenu rédigé avec le pied et sans sources ?
    Comment on sait que c'est généré par IA ?
    On a une blacklist ? un outil de détection ? quels taux de faux positifs ? On vote ?

    Le sujet commence à générer des débats au sein de LinuxFr.org

    ah bon ! où ça ? ici ? prophétie autoréalisatrice ? Est-ce que ce sondage est le résultat de l'hallucination d'un LLM ?

    • [^] # Re: gné

      Posté par  (site web personnel) . Évalué à 4 (+5/-4). Dernière modification le 05 février 2025 à 11:56.

      Comment on sait que c'est généré par IA ?

      Cette remarque a été faite plusieurs fois et je la trouve très curieuse.

      On ne peut pas toujours faire la différence entre un meurtre et un suicide, il faudrait donc accepter tous les meurtres ?

      Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

      • [^] # Re: gné

        Posté par  . Évalué à 1 (+5/-6).

        La mise en page de mon commentaire a prêté à confusion ; ces deux lignes vont ensemble:

        Comment on sait que c'est généré par IA ? On a une blacklist ? un outil de détection ? quels taux de faux positifs ? On vote ?

        Alors

        On ne peut pas toujours faire la différence entre un meurtre et un suicide

        Non, mais on a des outils, des méthodes et des personnes formées pour cela : la police scientifique.

        Et comparer la publication d'un contenu IA à un meurtre, on est au minimum sur la pente savonneuse, voire de l'homme de paille.

    • [^] # Re: gné

      Posté par  (site web personnel, Mastodon) . Évalué à 7 (+7/-2).

      Et si on précise le prompt et le modèle utilisés, ça va

      On pourrait très bien poster uniquement le prompt et le modèle à utiliser. Ça sera plus court à lire et ça fera gagner du temps à tout le monde!

      Et ceux qui ont vraiment envie de lire une version diluée pourront eux-même utiliser un LLM de leur côté.

      • [^] # Re: gné

        Posté par  (site web personnel) . Évalué à 4 (+2/-0).

        Ben non, niveau écologie, c'est nul que chacun exécute la même requête ! Puis le prompt peut être plus long que le texte généré. Enfin, tout le monde ne peut pas exécuter des LLM…

        • [^] # Re: gné

          Posté par  . Évalué à 0 (+0/-1).

          Non mais je pense que 1% des gens feront la requête au plus : 10% des gens voudront la réponse, 9% auront la flemme d aller sur une ia taper le prompt et se feront leur idée eux même.. (mais on peut aussi mettre un cache sur le site c'est vrai)

          • [^] # Re: gné

            Posté par  (site web personnel) . Évalué à 3 (+1/-0). Dernière modification le 07 février 2025 à 09:42.

            10% des gens voudront la réponse, 9% auront la flemme d aller sur une ia taper le prompt et se feront leur idée eux même..

            alors sur une échelle de 1 à 19 : de 1 à 10 tu veux la réponse, de 10 à 19 tu as la flemme et à 19 tu te fais ton idée ?

            c'est de l'échelle de Kaamelott^W Perceval ça o_O ?! :D

            • [^] # Re: gné

              Posté par  . Évalué à 2 (+0/-0). Dernière modification le 07 février 2025 à 11:19.

              j'ai pas bien compris ton message mais au cas où il signifie que tu n'a pas compris le message auquel tu réponds, et que tu voudrais le comprendre voilà ce que moi j'en ai compris :

              sur 100 personnes, 10 seulement aimeraient bien avoir la réponse de l'IA au prompt (90 s'en foutent) sur ces 10, 9 auront la flemme d'aller la chercher, donc au final il n'y aura qu'une personne qui fera la requête

      • [^] # Re: gné

        Posté par  (site web personnel) . Évalué à 5 (+2/-0).

        C'est en supposant que la sortie est identique quand on s'en sert et que la sortie n'est pas affectée par une mise à jour du modèle.

        Ce qui est faux.

    • [^] # Re: gné

      Posté par  . Évalué à 5 (+5/-1).

      C'est quoi un contenu généré par IA ?

      Un truc non créé par un humain.

      On parle des liens, journaux, dépêches ?

      De l'ensemble. Il y a récemment eu un lien qui a terminé avec une note de +14 alors que c'était un copié/collé d'un article rédigé par un IA pour faire du SEO. Ici comme ailleurs les gens (je m'y inclus) cliquent d'abord et réfléchissent après…

      C'est un contenu entièrement généra par IA puis copier-coller ?

      Oui ou en majorité généré.

      Et si on précise le prompt et le modèle utilisés, ça va ?

      Non, je ne vois pas ce que cela change. Ce n'est pas du contenu créé par un humain.

      C'est mieux ou moins bien qu'un contenu rédigé avec le pied et sans sources ?

      Un contenu généré par un humain sera toujours infiniment préférable. Aussi mauvais soit-il il a nécessité un minimum de réflexion et de créativité. Et les commentaires sont là pur aider l'autrice à s"améliorer.

      Comment on sait que c'est généré par IA ?

      On demande à une IA.
      Je plaisante,mais là c'est une vraie question car ce sera de plus en plus difficile à discerner. Évidemment quand un contributeur améliore brusquement ses qualités rédactionnelles, on a une quasi certitude.

      On a une blacklist ? un outil de détection ? quels taux de faux positifs ? On vote ?

      C'est le but de ce sondage non ?

      • [^] # Re: gné

        Posté par  . Évalué à 3 (+1/-0).

        C'est le but de ce sondage non ?

        Je ne sais pas, je ne suis pas dans la tête de l'auteur. Mais ce n'est pas la question posée en tout cas.

  • # Ce qu'en pense deepseek R1

    Posté par  . Évalué à -1 (+8/-11).

    prompt

    texte

    que penser de ce texte :

    """
    [le texte du sondage]
    """

    options

    chain of thought et search online

    réponse du LLM (non modifiée)

    Le sondage proposé sur LinuxFr.org concernant l'acceptation des contenus générés par IA reflète des enjeux importants pour une communauté axée sur l'open source et les logiciels libres. Voici une analyse structurée des options et des implications :

    1. Enjeux principaux :

    • Éthique open source : La communauté privilégie les outils et données libres. L’option 2 (moteurs/libres) s’aligne sur ces valeurs, mais soulève des questions techniques (existe-t-il des IA "libres" performantes ?).
    • Qualité et authenticité : Les craintes de contenus superficiels, erronés ou déshumanisés justifient l’option 5 (« Non »). Les IA génératives peuvent amplifier la désinformation ou le plagiat.
    • Transparence : Même si un contenu est généré par IA, son origine doit être clairement indiquée (non évoqué dans le sondage, mais crucial pour la confiance).
    • Modération : Un afflux de contenus automatisés pourrait saturer les modérateurs, surtout sans cadre strict.

    2. Analyse des options :

    • « Oui » : Risque de dilution de la valeur humaine et communautaire, mais pourrait enrichir le site (ex. traduction automatique, génération de résumés).
    • « Oui, mais avec des outils/libres » : Cohérent avec l’éthique du libre, mais restrictif (les modèles libres comme Llama ou Mistral sont moins accessibles que ChatGPT).
    • « Oui, avec résumé par IA » : Paradoxal (résumer un texte IA par une IA ?) et peu pertinent sans contrôle humain.
    • « Oui, sur certains contenus » : Pragmatique, mais nécessite un consensus sur les catégories acceptables (ex. dépêches techniques vs débats).
    • « Non » : Protège l’authenticité, mais prive le site d’outils potentiellement utiles.

    3. Recommandations :

    • Transparence obligatoire : Exiger une mention explicite de l’usage d’IA, quel que soit le choix final.
    • Encadrement strict : Limiter l’IA à des cas d’usage précis (ex. corrections grammaticales, synthèses de documentation) avec outils vérifiables.
    • Débat sur le "libre" : Définir collectivement ce qu’est une IA « libre » (modèle, données, infrastructure) avant de l’autoriser.
    • Expérimentation temporaire : Tester l’impact sur la qualité des contenus avant une décision permanente.

    4. Conclusion :

    La réponse idéale dépend de l’équilibre entre innovation et préservation de l’esprit communautaire. Une approche modérée (options 2 ou 4) avec des garde-fous (transparence, modération) semble plus viable qu’un rejet ou une acceptation totale. Le débat doit aussi intégrer des exemples concrets : comment d’autres plateformes (comme Wikipédia ou Mastodon) gèrent-elles ces défis ?

    Mon avis :

    Il est bien plus gentil et constructif que ce que j'ai à en dire ; il n'a pas dû saisir l'aspect éminemment trollesque (IMHO) de ce sondage. J'aime comme il souligne l'aspect "Paradoxal" de la 3ème option.

    • [^] # Re: Ce qu'en pense deepseek R1

      Posté par  . Évalué à -1 (+0/-3).

      ce commentaire est beaucoup trop long pour peu d'info originale (je ne l'ai donc pas lu)

      et surtout il contrevient au résultat du sondage qu'il commente et ça c'est Mal.

    • [^] # Re: Ce qu'en pense deepseek R1

      Posté par  (site web personnel, Mastodon) . Évalué à 4 (+3/-0).

      Je trouve ça pertinent et je serais assez du même avis que l'IA…
      Je ne serais pas contre de la génération par IA dans la mesure ou
      - L'IA est open-source
      - Le contenu généré est pertinent et instructif.
      - On peut encore mettre du contenu humain même s'il s'avère de moindre qualité.

      Dans tous les cas, il adviendra surement a y avoir du contenu d'IA.

      Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.

    • [^] # Re: Ce qu'en pense deepseek R1

      Posté par  (site web personnel) . Évalué à -1 (+0/-4).

      Réponse de o1 :

      Ce texte présente une question intéressante et d'actualité, notamment dans le contexte des communautés tech comme celle de LinuxFr.org. Il soulève un débat pertinent sur l'acceptation ou non des contenus générés par une intelligence artificielle, en se concentrant sur plusieurs nuances liées à la manière dont ces contenus sont produits.

      L'option "Oui, mais seulement avec un moteur libre, des données libres, un prompt libre, etc." met en avant l'idée que l'outil et les principes sous-jacents de l'IA doivent respecter des standards éthiques et ouverts, ce qui correspond à la philosophie du logiciel libre prônée par de nombreux utilisateurs de Linux. Cela soulève des questions sur la transparence, la traçabilité des données et la liberté d'accès à l'information.

      L'option "Oui, à condition d'en générer un résumé par IA" semble intéressante car elle introduit une forme de validation ou de filtrage, en ajoutant une couche d'intelligence sur un contenu déjà généré. Cela pourrait permettre de filtrer les excès de production tout en conservant une forme de contrôle.

      Enfin, la question de la limite entre l'usage d'IA pour certains types de contenu (dépêches, journaux, commentaires, etc.) et non pour d'autres peut aussi diviser les opinions. En effet, les critères de sélection des contenus légitimes à l'usage de l'IA méritent d'être débattus.

      En somme, ce texte invite à réfléchir sur les implications éthiques, techniques et sociales de l'utilisation d'IA dans la création de contenu, tout en prenant en compte les spécificités des communautés qui ont des attentes précises par rapport à la liberté, la transparence et la qualité.

      "La première sécurité est la liberté"

    • [^] # Re: Ce qu'en pense deepseek R1

      Posté par  (site web personnel) . Évalué à 0 (+1/-2).

      Intéressant de constater que DeepSeek…. n'en a rien f***** de l'environnement et de son impact, ce n'est même pas évoqué dans sa réponse. Filtrage du corpus de connaissances ? au service de quelle idéologie ?

      • [^] # Re: Ce qu'en pense deepseek R1

        Posté par  . Évalué à 2 (+0/-0).

        J'ai moi même commis un abus en anthropomorphisant le LLM avec les termes "pense" et "gentil". Mais ce n'est qu'un programme. Il n'a pas d'avis ni de valeurs.

        Je ne suis pas dans le modèle mais si j'élabore une hypothèse, je dirai qu'il n'y a rien dans le contexte initiale qui amène le LLM vers le thème de l'écologie : linuxfr ne traite pas ce thème (le LLM a capté l'aspect opensource) et le sondage non plus. Il est sensé chercher en ligne mais là encore c'est peut être un peu trop loin du contexte initial.

  • # question stérile

    Posté par  (Mastodon) . Évalué à 10 (+11/-4).

    1. C'est une question stérile car quelque soit la solution choisie, il n'y a aucun moyen de la faire respecter. Qu'on le veuille ou non les LLM et GenAI sont là et on ne peut qu'encourager à une éthique.

    2. générer est un mot trop vague. Tu peux t'aider de l'IA pour copier/coller tout un texte, mais tu peux aussi l'utiliser partiellement: changer une tournure de phrase qui ne te plait pas, créer un canevas que tu vas remplacer par tes propres mots, t'aider à la traduction d'une source, anticiper des réponses et arguments à ton contenu pour y répondre dès le début, etc.

    • [^] # Re: question stérile

      Posté par  (site web personnel) . Évalué à 10 (+12/-4). Dernière modification le 05 février 2025 à 13:18.

      Il y a un moyen très simple de la faire respecter : si on voit un contenu manifestement généré par IA (et pour l'instant on y arrive très bien), on le supprime.

      Je fréquente un autre site dédié aux œuvres d'art particulières et c'est une catastrophe : le site est pris d'assaut par des prompteurs à la chaîne en mal de popularité. On reconnaît très bien leurs "œuvres" et la masse de contenus qu'ils "produisent" fait perdre rapidement tout l'intérêt du site.

      Pour prendre une autre métaphore : est-ce que le club de sculpture sur bois doit laisser raser la forêt sous prétexte qu'on a inventé la tronçonneuse ?

      Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

      • [^] # Re: question stérile

        Posté par  (site web personnel) . Évalué à 3 (+1/-0). Dernière modification le 05 février 2025 à 13:46.

        <ai assistance="none">
        

        Tout à fait d'accord avec Psychofox, il y a de nombreuses nuances possibles, et une grosse différence entre du contenu assisté par IA et du contenu généré par IA.

        Si je suis totalement contre le contenu généré par IA, suivant la manière dont l'IA a été utilisée, je ne suis pas contre du contenu assisté par IA.

        On pourrait imaginer une forme de balise que l'utilisateur utiliserait pour indiquer si de l'IA a été utilisé pour assister, ou pour générer (la distinction pourrait être de l'ordre de l'attribut au niveau HTML), du contenu.

        </ai>
        > Il y a un moyen très simple de la faire respecter : si on voit un contenu manifestement généré par IA (et pour l'instant on y arrive très bien), on le supprime.

        Ben, très souvent, dans le forum j'ai l'impression que des messages sont écrits par des IA, et ils semblent que je me trompe de temps en temps.

      • [^] # Re: question stérile

        Posté par  . Évalué à 2 (+0/-0).

      • [^] # Re: question stérile

        Posté par  (Mastodon) . Évalué à 2 (+0/-1).

        (et pour l'instant on y arrive très bien), on le supprime.

        En fait tu n'en es sûr que pour les cas évidents. Rien ne te garantie que tu ne passes pas à côté de plein d'autres.

        Et au final c'est ce qui est important c'est plus la qualité du contenu final. Ce qui me fait donc réagir sur ton commentaire suivant:

        Pour prendre une autre métaphore : est-ce que le club de sculpture sur bois doit laisser raser la forêt sous prétexte qu'on a inventé la tronçonneuse ?

        Non mais la forêt sans sanction pour celui qui tronçonnerait sans vergogne, elle n'existerait pas. Le fait est que les arbres, mêmes tronçonnés, sont difficilement transporté de façon discrète donc c'est relativement facile à modérer.

        Ici sur linuxfr on fait de la modération directe par les modérateurs, mais aussi participative si c'est pourave on moinsse à mort.

        La question qu'on peut se poser sur linuxfr, c'est si passé un certain niveau de moinssage, soit dans l'absolu soit dans un temps donné, on ne devrait pas rendre invisible le contenu et ses commentaires automatiquement en attente d'une validation des modérateurs plutôt que de continuer le trollage. Parce qu'au final ce qui est souvent le plus moinssé est souvent ce qui est le plus commenté (parce que troll, parce que provoc, parce que sujet polarisant, politique, etc).

        Autre outil de modération qu'on n'a pas, c'est un bouton pour alerter les modérateurs. T'es obligé d'aller voir dans le wiki les xmpp ou emails des modérateurs pour les contacter. Du coup souvent t'as juste la flemme d'alerter et tu attends passivement qu'un modérateur passe par là et se rend compte d'un contenu moche.

        Pour l'instant il me semble qu'on n'est pas sujet à une avalanche de contenu inintéressant et spammeur donc ça reste gérable.

    • [^] # Re: question stérile

      Posté par  (site web personnel, Mastodon) . Évalué à 10 (+10/-0).

      C'est une question stérile car quelque soit la solution choisie, il n'y a aucun moyen de la faire respecter.

      Si tu te fais prendre en train de poster un contenu généré par ordinateur, le contenu est supprimé et si tu recommences une fois qu'on t'a expliqué, tu te fais bannir. Comme pour tout autre type de contenu interdit, en fait: illégalement copié depuis une source soumise au droit d'auteur, ouvertement raciste, spam, …

      Effectivement l'interdiction ne sera jamais parfaite. Mais, d'une part ça marche quand même relativement pas trop mal, et d'autre part, même si ça ne marche pas complètement, ça donne le ton sur les comportements qu'on peut attendre ici.

      • [^] # Re: question stérile

        Posté par  (Mastodon) . Évalué à 3 (+3/-3).

        Cette semaine, ou la semaine dernière je ne sais plus, un certain nombre de commentateurs/ices ont mentionné qu'un insinués qu'un test était forcément générer par une AI parce qu'il comportait des listes à bulles/numérotés.

        Hors:

        • il m'arrive aussi souvent de les utiliser.
        • ça évite aux gens de faire des tournures de phrases trop alambiquées
        • ça facilite les corrections durant la rédaction du fait d'avoir des phrases plus courtes.
        • ça me ferait chier de voir mon contenu supprimé ou me faire bannir parce que des nazis ne supportent pas les listes à bulles ou se trompent sur l'origine de mon texte.
        • [^] # Re: question stérile

          Posté par  (Mastodon) . Évalué à 2 (+1/-2).

          pardon:

          s/test/texte/

          s/génerer/généré/

          La prochaine fois je fais corriger par une AI! :D

        • [^] # Re: question stérile

          Posté par  (Mastodon) . Évalué à 1 (+1/-2).

          Nazi toi-même !

          • Yth, passablement énervé pour le coup…
        • [^] # Re: question stérile

          Posté par  (site web personnel, Mastodon) . Évalué à 7 (+4/-0).

          Il y a un truc qui ne va pas : traiter à tout bout de champ les gens de nazi, ça suffit surtout par les temps qui courent ou des personnes que les discours nazis inspirent sont au pouvoir.

          Pour le reste, je n'arrive pas à être très convaincue des qualités rédactionnelles des IA en version brut de fonderie. Ce que j'ai lu est souvent assez lourd.

          « Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.

          • [^] # Re: question stérile

            Posté par  (Mastodon) . Évalué à 1 (+0/-2).

            Pour le reste, je n'arrive pas à être très convaincue des qualités rédactionnelles des IA en version brut de fonderie. Ce que j'ai lu est souvent assez lourd.

            Je suis d'accord.

          • [^] # Re: question stérile

            Posté par  . Évalué à 3 (+1/-0).

            Il y a un truc qui ne va pas : traiter à tout bout de champ les gens de nazi, ça suffit surtout par les temps qui courent ou des personnes que les discours nazis inspirent sont au pouvoir.

            Je suis entièrement d'accord.

            je n'arrive pas à être très convaincue des qualités rédactionnelles des IA en version brut de fonderie. Ce que j'ai lu est souvent assez lourd.

            Pour relire beaucoup de textes écrit par des gens dont ce n'est pas le métier premier, je n'arrive pas à être très convaincue des qualités rédactionnelles de mes congénères en version brut de fonderie. Ce que j'ai lu est souvent assez lourd. ;)

    • [^] # Re: question stérile

      Posté par  . Évalué à 7 (+6/-0).

      Je suis d'accord sur le second point, mais beaucoup moins sur le premier. Ce n'est pas parce qu'il n'existe pas de moyen de faire respecter une règle que celle-ci est subitement inefficace ou absurde.

      Un règlement, ça n'est pas simplement empêcher les gens d'y contrevenir, c'est avant tout un "accord" collectif.

      Il est interdit de rouler au dessus de 30km/h dans tout le centre de la petite ville dans laquelle je réside. Pour autant, il est actuellement impossible de faire respecter cette interdiction (il n'y a pas de radar à chaque coin de rue, ni de patrouilles policières pour faire respecter cette règle). Pour autant, la vitesse de circulation a bel et bien diminué depuis l'arrivée de cette règle.

      Dans le même esprit, si linuxfr affiche très clairement une opposition à l'utilisation de ce type d'outil (même si je te rejoins sur le point 2, il faudrait formuler et cadrer ça de façon plus nette), il est fort à parier qu'on en voie l'usage diminuer.

      • [^] # Re: question stérile

        Posté par  (Mastodon) . Évalué à 0 (+0/-3).

        Il est interdit de rouler au dessus de 30km/h dans tout le centre de la petite ville dans laquelle je réside. Pour autant, il est actuellement impossible de faire respecter cette interdiction (il n'y a pas de radar à chaque coin de rue, ni de patrouilles policières pour faire respecter cette règle). Pour autant, la vitesse de circulation a bel et bien diminué depuis l'arrivée de cette règle.

        En général ça ne marche bien que si des mesures physique de ralentissement de la circulation sont ajoutés:
        - rétrecissement complet ou partiel de la chaussée
        - ralentisseurs
        - peintures augmentant l'impression de vitesse
        - chaussée plus bruyante ou incomfortable comme des pavés

        Ma ville a introduit la voie de droite limitée à 30 et priorité aux cyclistes sur certains grands axes à 2 voies, sans mesures additionnelles à part un panneau 30 peint sur la voie assorti d'un grand cycliste. Résultat: c'est devenu une voie de dépassement pour tous les contrevenants aux limites de vitesses parce que ceux qui respectent les règles restent sur la voie de gauche limitée elle à 50.

        Du reste toutes les rues à simple file sont limitées à 30 en Espagne, ça n'est réellement respecté que dans les rues où les gens ralentissait déjà parce qu'elles sont étroites avec beaucoup de véhicules en stationnement et/ou comportent des virages sans visibilité et de nombreux carrefours.

        • [^] # Re: question stérile

          Posté par  . Évalué à 4 (+2/-0). Dernière modification le 07 février 2025 à 10:24.

          La très, très grande majorité des personnes respectent les feux rouges, les stops etc. pourtant rien ne les empêche physiquement de franchir sans s'arrêter ces feux ou ces stops. Ce n'est pas parce que certains ne les respectent pas que ces feux et stops n'ont pas d'utilité ;)

          • [^] # Re: question stérile

            Posté par  (Mastodon) . Évalué à 1 (+0/-2). Dernière modification le 07 février 2025 à 11:49.

            Par chez moi ça varie franchement selon l'heure du jour et le véhicule (ou l'absence d'utilisation d'un véhicule dans le cas des piétons). Les piétons traversent généralement quand ils veulent, beaucoup de scooteristes s'engagent de nuit aux feux rouges s'il n'y a ni traffic ni police aux alentours. C'est plus facile de nuit vu qu'on voit mieux les lumières des gyrophares.

            Deux points additionnels: si tu grilles un feu rouge, tu risques ta vie ou celle de quelqu'un d'autre. Ce n'est pas vraiment le genre d'incivilité anodine sur ce point. D'autre part tu peux quand même te faire prendre si tu ne respectes pas les feux, même ceux où il y a peu de visibilité. Et être vigilant à la présence ou non de forces de l'ordre, c'est aussi fatiguant à la longue donc ça aide au respect de la règle même s'il n'y a pas un policier ou un gendarme à chaque feu.

            On peut parler des limites de vitesses et distances de sécurité aussi, qui sont allègrement ignorées d'autant plus dans les zones où il y'a peu souvent des radars. Le danger y est moins visible.

  • # Faux débat

    Posté par  (site web personnel) . Évalué à 9 (+11/-3).

    Soit le contenu est intéressant, utile, … et il a sa place, peut importe qu'il soit généré par un humain, une IA, un pangolin, une cafetière etc ; soit il est nul, creux, rempli de banalités (ce qui est souvent le cas des textes générés par IA, pour l'instant en tout cas) et il est moinser, voire supprimé.
    En gros, modération as usual.

    • [^] # Re: Faux débat

      Posté par  . Évalué à 3 (+2/-0). Dernière modification le 06 février 2025 à 14:46.

      Tout ce qui reçoit une note négative serait donc nul et tout ce qui reçoit une note positive forcément utile et intéressant. Autrement dit les choix de la majorité seraient toujours les plus pertinents. Es-tu bien sûr de la validité de ce principe ?

      • [^] # Re: Faux débat

        Posté par  (Mastodon) . Évalué à 8 (+7/-1).

        Bah c'est comme ça qu'on a réélu notre président, et qu'ailleurs, d'autres en ont réélu un autre !

        • Yth.
      • [^] # Re: Faux débat

        Posté par  . Évalué à 2 (+0/-0).

        les choix de la majorité seraient toujours les plus pertinents.

        Peut-être pas pour tout le monde, mais si une majorité de lecteur a jugé un contenu intéressant ici, je ne vois pas pourquoi on le retirerait (sauf violation de copyright et trucs du style). Pour les contenus fortement moinssés c'est plus délicat. Il y a déjà eu des journaux fortement moinssés alors qu'ils étaient intéressants et dans le thème du site, mais ça a moinssé à cause de l'auteur et du sujet du jeu présenté. Mais ça permet d'alerter la modération pour qu'un humain vérifie si c'est «juste» inintéressant sans pour autant contrevenir aux règles du site.

    • [^] # Re: Faux débat

      Posté par  (site web personnel) . Évalué à 2 (+1/-2).

      Je suis d'accord.

      Bientôt plus personne ne va écrire un texte sans demander l'avis d'une IA. Ceux qui ont répondu non imagine que linuxfr va créer des articles automatiquement comme les sites qui génèrent des trucs qui pourrissent les moteurs de recherche. Qui a envie de ça ?

      L'IA directement sur linuxfr pourrait être utile pour écrire une ou 2 lignes pour résumé un lien posté par exemple.

      Même si le prompt pourrait être compliqué à écrire, résumer les commentaires positif d'un article ferait gagner du temps aux lecteurs occasionnels.

      On peut même imaginer un nouvelle rubrique IA avec un prompt communautaire validé comme pour les dépêches, pour résumer l'activité de sites amis, les nouveautés du dernier kernel linux, etc…

      "La première sécurité est la liberté"

      • [^] # Re: Faux débat

        Posté par  (site web personnel, Mastodon) . Évalué à 10 (+11/-0).

        Je viens ici pour lire des choses écrites par des gens qui maîtrisent un minimum leur sujet et qui ont pris le temps de faire quelques recherches pour écrire quelque chose de bien construit, instructif, et, surtout, basé sur la réalité.

        Une IA ne fait pas ça. Elle va pondre du texte grammaticalement correct, mais elle sera incapable d'identifier les points vraiment importants dans des release notes, d'apporter du contexte (surtout pour des infos d'actualité cui ne sont par définition pas présentes dans son modèle d'entraînement), et si on s'en sert pour résumer les commentaires, on obtient une soupe sans texture, déshumanisée, et, pour moi, sans intérêt.

        Et non, je ne prévois pas d'utiliser d'IA pour continuer à rédiger des journaux ou des dépenches, mais si ça devient noyé sous une avalanche de contenus générés, j'irai publier ailleurs, probablement sur mon blog.

        Je suis là pour communiquer avec des humains et enrichirmes perspectives.

        • [^] # Re: Faux débat

          Posté par  (site web personnel) . Évalué à 10 (+9/-0).

          Je suis là pour communiquer avec des humains

          Merci. Des journaux générés par IA sur linuxfr, c'est comme si un site de rencontre te propose une petite amie virtuelle…

          Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

        • [^] # Re: Faux débat

          Posté par  (site web personnel) . Évalué à -1 (+1/-5).

          Mais elle sera incapable d'identifier les points vraiment importants dans des release notes, d'apporter du contexte (surtout pour des infos d'actualité cui ne sont par définition pas présentes dans son modèle d'entraînement), et si on s'en sert pour résumer les commentaires, on obtient une soupe sans texture, déshumanisée, et, pour moi, sans intérêt.

          rassures moi, tu n'utilises quasi jamais d'IA pour dire ça ? C'est sans doute vrai pour les IA primaires, mais cela évolue très vite, et les modèles avancés sont très performants (mais hors de prix).

          "La première sécurité est la liberté"

          • [^] # Re: Faux débat

            Posté par  (site web personnel, Mastodon) . Évalué à 8 (+6/-0).

            J'ai quelques collègues qui ont testé de poser des questions techniques sur du développement linux (dont les réponses se trouvent dans les pages de manuel). Ça marche si on pose la question classique. Ça répond à côté si on pose une question sur une fonctionnalité rarement utilisée et dont les données d'entraînement parlent peu ou pas.

            Dans le cas des release notes de Linux par exemple, l'IA n'aura accès qu'à ce qu'on lui donne. Tout le contexte de chaque changement qui a été discuté sur les mailing lists du noyau ou ailleurs, après l'entraînement du modèle, il ne va pas te l'inventer. Si on veut en faire une dépêche intéressante, c'est ce genre d'information qu'il faut aller chercher. Sinon on ne fait que remuer des informations déjà connues et sous un format déjà digéré.

            Je ne dis pas que ça n'a pas d'intérêt, par exemple si tu as besoin de remplir un dossier de subvention ou d'appel à projet où tout le monde met le même discours à chaque fois. Mais, à mon avis, pas sur un site qui traite d'actualités et sur un sujet un peu pointu.

            • [^] # Re: Faux débat

              Posté par  (site web personnel) . Évalué à 4 (+1/-0).

              Ça répond à côté si on pose une question sur une fonctionnalité rarement utilisée et dont les données d'entraînement parlent peu ou pas.

              ça dépend du modèle utilisé. J'imagine que tes collègues ont du tester la version gratuite de chatgpt donc gpt3.5. Il y a 5 modèles qui sont sorti depuis. Le o1 est lent mais écrase tout. La version o1 pro est encore mieux mais je n'ai jamais testé.

              o4 qui est une balance entre connaissance et rapidité est équivalent à le chat de mistral qui vient de sortir (mais qui est très rapide).

              J'utilise o1 très souvent pour du code, il est très pertinent et fait gagner un temps fou surtout pour un langage ou un outil que l'on connaît peu.

              Dans le cas des release notes de Linux par exemple, l'IA n'aura accès qu'à ce qu'on lui donne.

              C'est évident. Il faut lui faire lire les release note et écrire un prompt intéressant. Tu peux lui faire avaler aussi toutes les mailing list, c'est plus compliqué car le context risque d'être trop gros, mais le résultat serait super intéressant à lire.

              Mais, à mon avis, pas sur un site qui traite d'actualités et sur un sujet un peu pointu.

              Il y a beaucoup de façon d'utiliser un llm. Et je pense que tu en as oublié plein.

              "La première sécurité est la liberté"

      • [^] # Re: Faux débat

        Posté par  . Évalué à 3 (+1/-0).

        L'IA directement sur linuxfr pourrait être utile pour écrire une ou 2 lignes pour résumé un lien posté par exemple.

        C'est la seule utilisation que je pourrais trouver intéressante. Nous donner un extrait des liens, comme les extraits de Wikipedia au survol de la souris. Pour les autres contenus et commentaires par contre, je veux les lire avec leurs tournures, leurs fautes, leurs trolls.

  • # IA à l'insu de mon plein gré !

    Posté par  . Évalué à 2 (+2/-0).

    Bonjour,
    J'ai répondu "Non", sans réfléchir au fait que depuis quelque temps je fais "retravailler" tous mes textes par Write de deepl.com.
    Il me sert aussi bien de correcteur orthographique que de réflexion sur la syntaxe.
    Je ne connais pas particulièrement l'algorithme utilisé, mais je pense qu'il peut être assimilé à de l'IA.
    Je devrais donc m'abstenir de poster sur Linuxfr.org.

    Par exemple : message ci-dessus, revu et corrigé par deepl.com/fr/write

    Bonjour,
    J'ai répondu « non » sans réfléchir au fait que depuis quelque temps, je fais retravailler tous mes textes par DeepL.
    Il fait non seulement office de correcteur orthographique, mais aussi de conseiller en syntaxe.
    Je ne connais pas particulièrement l'algorithme utilisé, mais je pense qu'il peut être assimilé à de l'intelligence artificielle.
    Je devrais donc m'abstenir de poster sur Linuxfr.org.

    • [^] # Re: IA à l'insu de mon plein gré !

      Posté par  (site web personnel) . Évalué à 5 (+4/-0).

      La question porte sur les contenus générés par IA.

      Il me semble que la question des contenus corrigés par IA ou améliorés (en terme de syntaxe, tournure de phrase) par ce genre de systèmes, visant à rendre un texte plus lisible, est une question différente. Typiquement, le cas d'usage que tu présentes me semble a priori acceptable (si la question m'était posée …), alors que je suis fermement opposé à la présence de textes générés par IA.

      • [^] # Re: IA à l'insu de mon plein gré !

        Posté par  (site web personnel) . Évalué à 4 (+1/-0).

        il y a un souci car ce n'est pas tout ou rien. Il y a une continuité total entre un texte généré après une question, et le cas présenté juste au dessus.

        Pour moi, le seul point est : est-ce que le texte est intéressant ?

        "La première sécurité est la liberté"

        • [^] # Re: IA à l'insu de mon plein gré !

          Posté par  (site web personnel) . Évalué à 5 (+3/-0).

          Pour moi, le seul point est : est-ce que le texte est intéressant ?

          Je suis à moitié d'accord avec ça.
          Mais aussi à moitié pas d'accord.

          Si il y a un contenu intéressant, je peux prendre du temps pour mettre un commentaire, demander à l'auteur de préciser tel ou tel point.

          C'est un processus qui prend du temps et qui est possiblement gagnant-gagnant : moi j'ai des précisions, et l'auteur apprend que tel argument n'était pas clair.

          Ce temps est alors du temps perdu si l'auteur est une simple AI.
          Or il y a un potentiel que les contenus générés par AI soient vite très largement majoritaires. Dans un tel cas, la majorité du temps que je passerais à poster des commentaires serait du temps perdu pour moi et pour l'auteur.

          Par ailleurs, nous sommes déjà depuis longtemps en très large sur-production de contenus intéressants de bonne qualité produits par des humains. (linuxfr, café des sciences, bd, etc.).

          Le facteur limitant est le temps à lire/écouter/regarder, pas le temps de production.

          Personne n'a rien à gagner à produire plus.

    • [^] # Re: IA à l'insu de mon plein gré !

      Posté par  (site web personnel, Mastodon) . Évalué à 3 (+0/-0).

      Honnêtement même sur cet usage, je trouve cela peu intéressant, ou alors vraiment avec très grande parcimonie.

      Pour info, je cite ton commentaire dans un autre journal (oui, y a tellement de journaux, liens et dépêches sur ce sujet maintenant, c'est fou; alors je vais pas tout recopier 10 fois).

      Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # mon point de vue à moi

    Posté par  . Évalué à 4 (+2/-1). Dernière modification le 09 février 2025 à 16:42.

    J'ai répondu non, mais il manquait l'option oui, mais signalé. Un contenu généré ne me gène pas du moment qu'on l'indique clairement, avec le modèle et le prompt, et une précision si c'est de but en blanc ou au sein d'une session plus longue.

    Bref un peu lorsqu'on fait une citation quoi.

    Il ne faut pas décorner les boeufs avant d'avoir semé le vent

  • # Ça dépend

    Posté par  . Évalué à 7 (+5/-0).

    Dans tous les cas, je ne suis pas sûr d'être pour une interdiction formelle (mais pas sûr d'être contre non plus, bref, je ne suis pas fixé). Cela étant dit :

    Si on parle d'un contenu entièrement généré par l'IA, plutôt non : c'est chiant à lire et je n'ai pas besoin que LinuxFr agisse comme un proxy entre une IA et moi. Tout comme je ne voudrais pas d'un copier coller d'une page de résultats d'un moteur de recherche. Je pourrais moi-même aller demander un truc à une IA si par le plus grand des hasards j'en avais envie. Mais bon, je n'ai encore jamais interrogé volontairement un LLM. Pour le moment, je ne fait pas confiance aux LLM pour m'apprendre des choses. Si de tels contenus devaient exister, il serait souhaitable de les marquer clairement comme tel, et faciliter le filtrage. Ça pourrait être un tag + une fonctionnalité du site pour cacher des tags.

    Si on parle d'un contenu écrit avec l'assistance d'une IA, c'est probablement différent.

    • hors question éthiques : si l'auteur ou l'autrice fait gaffe, ça peut rester intéressant à lire.
    • avec questions éthiques : aujourd'hui, on ne vérifie pas que les gens qui écrivent le font avec des outils éthiques. Qui nous dit que tartampion n'a pas écrit le brouillon de son journal à la plume trempée dans le sang d'une de ses victimes ? Ou via macOS ou Windows ? N'autoriser que les IA libres ne me semblerait pas cohérent avec les pratiques existantes.

    S'il peut-être souhaitable d'encourager les gens à ne pas utiliser des outils qui ont une éthique douteuse, je ne suis pas sûr qu'on devrait interdire quoi que ce soit, d'autant que chacun·e a sa vision personnelle de l'éthique. Ce n'est même pas efficace au niveau sensibilisation, voire c'est contre-productif.

    Sur la question des droits d'auteurs : on pourrait décider par principe que les modèles entrainés sur des textes sans l'accord de leurs auteurs et de leurs autrices génèrent nécessairement du plagiat, et qu'on ne veut pas de ça sur LinuxFr, mais je ne suis pas sûr qu'on veuille faire plus de zèle que la loi.

  • # Pourquoi ?

    Posté par  . Évalué à 7 (+6/-0).

    Pourquoi perdre du temps à lire quelque chose que personne n’a voulu prendre le temps d’écrire ?1


    1. Volé quelque part sur l’internet. 

  • # La connaissance avant tout

    Posté par  (site web personnel) . Évalué à 2 (+1/-1).

    Je me fiche complètement que le texte ait ou non été généré par une IA, de quelque manière que ce soit (entièrement généré, aide ponctuelle, etc.). Ce qui m'importe ce sont les informations partagées, et la forme dans une certaine mesure (il faut que ce soit agréable à lire).

    Les limitations actuelles des outils ne sont pas un sujet important, tôt ou tard les IA pourront être aussi performantes qu'on le souhaite pour cette tâche, je ne m'en fais pas trop pour ça.

    Pour être sûr de ne pas poster n'importe quoi, bien entendu qu'on va relire le contenu. Pour le moment les IA sont une aide pour l'écriture, bientôt les rôles vont s'inverser (nous n'aurons souvent plus qu'à indiquer quelques retouches occasionnelles) et ce sera très bien comme ça. Tout le monde y gagne : texte bien mieux écrit, beaucoup plus rapidement produit donc potentiellement plus de sujets traités, des résumés systématiques pour les gens pressés, des références et des liens avec des sujets connexes auxquels on ne penserait pas, des sujets correctement introduits, etc.

    Je vois ça en tant que lecteur et producteur de contenu sur ce site : c'est tout bénéf.

    Côté éthique, pour moi la connaissance prime sur tout le reste. Des IA libres ? Allez, pourquoi pas, c'est même préférable. Pas libre ? Je vais pas en faire un flan.

  • # Question rhétorique ?

    Posté par  . Évalué à -1 (+0/-2).

    La question n'est pas rhétorique ?

    Si vous vous posez la question, c'est qu'au final vous le ferez quand même, donc pourquoi demander ?

    Personnellement, je ne vois pas l'utilité de préciser les sources ou qui est l'auteur que ce soit une IA ou un humain, car toutes informations même reconnu de tous doit être quand même revérifier et pas accepté en bloc. Voici un exemple. Napoléon est vu comme un grand homme et de manière très positive en France alors que si on regarde les faits et le regard des étrangers, c'est en réalité un dictateur qui par de nombreuse guerre n'a pas que fait des choses positives. On peut voir un exemple, moderne ou Poutine qui est très semblable à Napoléon côté Russe et vu comme un dictateur ailleurs. D'ailleurs, un conflit comme l'Ukraine, ou l'on ne devrait pas se positionner entre un pays corrompu qui à poussé (en tirant sur sa population russophone) un autre limite autoritaire (Poutine qui tue la liberté d'expression au sens propre) pour pouvoir rentrer dans l'Europe et l'Otan alors qu'ils avaient signé des traités l’interdisant, ce qui à mis les populations de ces 2 pays à la boucherie pour des bêtises politiques.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.