Le sujet commence à générer des débats au sein de LinuxFr.org : faut-il accepter des contenus générés par une Intelligence Artificielle Générative (aka GenAI) ?
Sondage Faut-il accepter les contenus générés par IA sur LinuxFr.org ?
5
fév.
2025
Le sujet commence à générer des débats au sein de LinuxFr.org : faut-il accepter des contenus générés par une Intelligence Artificielle Générative (aka GenAI) ?
# Commentaire supprimé
Posté par orthkindle . Évalué à 0 (+0/-0). Dernière modification le 05 février 2025 à 11:41.
Ce commentaire a été supprimé par l’équipe de modération.
# gné
Posté par steph1978 . Évalué à 9 (+7/-0). Dernière modification le 05 février 2025 à 11:51.
J'ai pas compris la question.
C'est quoi un contenu généré par IA ?
On parle des liens, journaux, dépêches ?
C'est un contenu entièrement généra par IA puis copier-coller ?
Et si on précise le prompt et le modèle utilisés, ça va ?
C'est mieux ou moins bien qu'un contenu rédigé avec le pied et sans sources ?
Comment on sait que c'est généré par IA ?
On a une blacklist ? un outil de détection ? quels taux de faux positifs ? On vote ?
ah bon ! où ça ? ici ? prophétie autoréalisatrice ? Est-ce que ce sondage est le résultat de l'hallucination d'un LLM ?
[^] # Re: gné
Posté par devnewton 🍺 (site web personnel) . Évalué à 4 (+5/-4). Dernière modification le 05 février 2025 à 11:56.
Cette remarque a été faite plusieurs fois et je la trouve très curieuse.
On ne peut pas toujours faire la différence entre un meurtre et un suicide, il faudrait donc accepter tous les meurtres ?
Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.
[^] # Re: gné
Posté par steph1978 . Évalué à 1 (+5/-6).
La mise en page de mon commentaire a prêté à confusion ; ces deux lignes vont ensemble:
Alors
Non, mais on a des outils, des méthodes et des personnes formées pour cela : la police scientifique.
Et comparer la publication d'un contenu IA à un meurtre, on est au minimum sur la pente savonneuse, voire de l'homme de paille.
[^] # Re: gné
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 7 (+7/-2).
On pourrait très bien poster uniquement le prompt et le modèle à utiliser. Ça sera plus court à lire et ça fera gagner du temps à tout le monde!
Et ceux qui ont vraiment envie de lire une version diluée pourront eux-même utiliser un LLM de leur côté.
[^] # Re: gné
Posté par lejocelyn (site web personnel) . Évalué à 4 (+2/-0).
Ben non, niveau écologie, c'est nul que chacun exécute la même requête ! Puis le prompt peut être plus long que le texte généré. Enfin, tout le monde ne peut pas exécuter des LLM…
[^] # Re: gné
Posté par makapuf2 . Évalué à 0 (+0/-1).
Non mais je pense que 1% des gens feront la requête au plus : 10% des gens voudront la réponse, 9% auront la flemme d aller sur une ia taper le prompt et se feront leur idée eux même.. (mais on peut aussi mettre un cache sur le site c'est vrai)
[^] # Re: gné
Posté par BAud (site web personnel) . Évalué à 3 (+1/-0). Dernière modification le 07 février 2025 à 09:42.
alors sur une échelle de 1 à 19 : de 1 à 10 tu veux la réponse, de 10 à 19 tu as la flemme et à 19 tu te fais ton idée ?
c'est de l'échelle de Kaamelott^W Perceval ça o_O ?! :D
[^] # Re: gné
Posté par Tit . Évalué à 2 (+0/-0). Dernière modification le 07 février 2025 à 11:19.
j'ai pas bien compris ton message mais au cas où il signifie que tu n'a pas compris le message auquel tu réponds, et que tu voudrais le comprendre voilà ce que moi j'en ai compris :
sur 100 personnes, 10 seulement aimeraient bien avoir la réponse de l'IA au prompt (90 s'en foutent) sur ces 10, 9 auront la flemme d'aller la chercher, donc au final il n'y aura qu'une personne qui fera la requête
[^] # Re: gné
Posté par Renault (site web personnel) . Évalué à 5 (+2/-0).
C'est en supposant que la sortie est identique quand on s'en sert et que la sortie n'est pas affectée par une mise à jour du modèle.
Ce qui est faux.
[^] # Re: gné
Posté par Voltairine . Évalué à 5 (+5/-1).
Un truc non créé par un humain.
De l'ensemble. Il y a récemment eu un lien qui a terminé avec une note de +14 alors que c'était un copié/collé d'un article rédigé par un IA pour faire du SEO. Ici comme ailleurs les gens (je m'y inclus) cliquent d'abord et réfléchissent après…
Oui ou en majorité généré.
Non, je ne vois pas ce que cela change. Ce n'est pas du contenu créé par un humain.
Un contenu généré par un humain sera toujours infiniment préférable. Aussi mauvais soit-il il a nécessité un minimum de réflexion et de créativité. Et les commentaires sont là pur aider l'autrice à s"améliorer.
On demande à une IA.
Je plaisante,mais là c'est une vraie question car ce sera de plus en plus difficile à discerner. Évidemment quand un contributeur améliore brusquement ses qualités rédactionnelles, on a une quasi certitude.
C'est le but de ce sondage non ?
[^] # Re: gné
Posté par steph1978 . Évalué à 3 (+1/-0).
Je ne sais pas, je ne suis pas dans la tête de l'auteur. Mais ce n'est pas la question posée en tout cas.
# Ce qu'en pense deepseek R1
Posté par steph1978 . Évalué à -1 (+8/-11).
prompt
texte
que penser de ce texte :
"""
[le texte du sondage]
"""
options
chain of thought et search online
réponse du LLM (non modifiée)
Le sondage proposé sur LinuxFr.org concernant l'acceptation des contenus générés par IA reflète des enjeux importants pour une communauté axée sur l'open source et les logiciels libres. Voici une analyse structurée des options et des implications :
1. Enjeux principaux :
2. Analyse des options :
3. Recommandations :
4. Conclusion :
La réponse idéale dépend de l’équilibre entre innovation et préservation de l’esprit communautaire. Une approche modérée (options 2 ou 4) avec des garde-fous (transparence, modération) semble plus viable qu’un rejet ou une acceptation totale. Le débat doit aussi intégrer des exemples concrets : comment d’autres plateformes (comme Wikipédia ou Mastodon) gèrent-elles ces défis ?
Mon avis :
Il est bien plus gentil et constructif que ce que j'ai à en dire ; il n'a pas dû saisir l'aspect éminemment trollesque (IMHO) de ce sondage. J'aime comme il souligne l'aspect "Paradoxal" de la 3ème option.
[^] # Re: Ce qu'en pense deepseek R1
Posté par DerekSagan . Évalué à -1 (+0/-3).
ce commentaire est beaucoup trop long pour peu d'info originale (je ne l'ai donc pas lu)
et surtout il contrevient au résultat du sondage qu'il commente et ça c'est Mal.
[^] # Re: Ce qu'en pense deepseek R1
Posté par steph1978 . Évalué à 7 (+5/-0).
logique implacable
[^] # Re: Ce qu'en pense deepseek R1
Posté par abriotde (site web personnel, Mastodon) . Évalué à 4 (+3/-0).
Je trouve ça pertinent et je serais assez du même avis que l'IA…
Je ne serais pas contre de la génération par IA dans la mesure ou
- L'IA est open-source
- Le contenu généré est pertinent et instructif.
- On peut encore mettre du contenu humain même s'il s'avère de moindre qualité.
Dans tous les cas, il adviendra surement a y avoir du contenu d'IA.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: Ce qu'en pense deepseek R1
Posté par Nicolas Boulay (site web personnel) . Évalué à -1 (+0/-4).
Réponse de o1 :
"La première sécurité est la liberté"
[^] # Re: Ce qu'en pense deepseek R1
Posté par Xavier Verne (site web personnel) . Évalué à 0 (+1/-2).
Intéressant de constater que DeepSeek…. n'en a rien f***** de l'environnement et de son impact, ce n'est même pas évoqué dans sa réponse. Filtrage du corpus de connaissances ? au service de quelle idéologie ?
[^] # Re: Ce qu'en pense deepseek R1
Posté par steph1978 . Évalué à 2 (+0/-0).
J'ai moi même commis un abus en anthropomorphisant le LLM avec les termes "pense" et "gentil". Mais ce n'est qu'un programme. Il n'a pas d'avis ni de valeurs.
Je ne suis pas dans le modèle mais si j'élabore une hypothèse, je dirai qu'il n'y a rien dans le contexte initiale qui amène le LLM vers le thème de l'écologie : linuxfr ne traite pas ce thème (le LLM a capté l'aspect opensource) et le sondage non plus. Il est sensé chercher en ligne mais là encore c'est peut être un peu trop loin du contexte initial.
# question stérile
Posté par Psychofox (Mastodon) . Évalué à 10 (+11/-4).
C'est une question stérile car quelque soit la solution choisie, il n'y a aucun moyen de la faire respecter. Qu'on le veuille ou non les LLM et GenAI sont là et on ne peut qu'encourager à une éthique.
générer est un mot trop vague. Tu peux t'aider de l'IA pour copier/coller tout un texte, mais tu peux aussi l'utiliser partiellement: changer une tournure de phrase qui ne te plait pas, créer un canevas que tu vas remplacer par tes propres mots, t'aider à la traduction d'une source, anticiper des réponses et arguments à ton contenu pour y répondre dès le début, etc.
[^] # Re: question stérile
Posté par devnewton 🍺 (site web personnel) . Évalué à 10 (+12/-4). Dernière modification le 05 février 2025 à 13:18.
Il y a un moyen très simple de la faire respecter : si on voit un contenu manifestement généré par IA (et pour l'instant on y arrive très bien), on le supprime.
Je fréquente un autre site dédié aux œuvres d'art particulières et c'est une catastrophe : le site est pris d'assaut par des prompteurs à la chaîne en mal de popularité. On reconnaît très bien leurs "œuvres" et la masse de contenus qu'ils "produisent" fait perdre rapidement tout l'intérêt du site.
Pour prendre une autre métaphore : est-ce que le club de sculpture sur bois doit laisser raser la forêt sous prétexte qu'on a inventé la tronçonneuse ?
Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.
[^] # Re: question stérile
Posté par lejocelyn (site web personnel) . Évalué à 3 (+1/-0). Dernière modification le 05 février 2025 à 13:46.
Tout à fait d'accord avec Psychofox, il y a de nombreuses nuances possibles, et une grosse différence entre du contenu assisté par IA et du contenu généré par IA.
Si je suis totalement contre le contenu généré par IA, suivant la manière dont l'IA a été utilisée, je ne suis pas contre du contenu assisté par IA.
On pourrait imaginer une forme de balise que l'utilisateur utiliserait pour indiquer si de l'IA a été utilisé pour assister, ou pour générer (la distinction pourrait être de l'ordre de l'attribut au niveau HTML), du contenu.
> Il y a un moyen très simple de la faire respecter : si on voit un contenu manifestement généré par IA (et pour l'instant on y arrive très bien), on le supprime.</ai>
Ben, très souvent, dans le forum j'ai l'impression que des messages sont écrits par des IA, et ils semblent que je me trompe de temps en temps.
[^] # Re: question stérile
Posté par Moonz . Évalué à 2 (+0/-0).
Vraiment ?
https://www.astralcodexten.com/p/how-did-you-do-on-the-ai-art-turing
https://www.nature.com/articles/s41598-024-76900-1
[^] # Re: question stérile
Posté par Psychofox (Mastodon) . Évalué à 2 (+0/-1).
En fait tu n'en es sûr que pour les cas évidents. Rien ne te garantie que tu ne passes pas à côté de plein d'autres.
Et au final c'est ce qui est important c'est plus la qualité du contenu final. Ce qui me fait donc réagir sur ton commentaire suivant:
Non mais la forêt sans sanction pour celui qui tronçonnerait sans vergogne, elle n'existerait pas. Le fait est que les arbres, mêmes tronçonnés, sont difficilement transporté de façon discrète donc c'est relativement facile à modérer.
Ici sur linuxfr on fait de la modération directe par les modérateurs, mais aussi participative si c'est pourave on moinsse à mort.
La question qu'on peut se poser sur linuxfr, c'est si passé un certain niveau de moinssage, soit dans l'absolu soit dans un temps donné, on ne devrait pas rendre invisible le contenu et ses commentaires automatiquement en attente d'une validation des modérateurs plutôt que de continuer le trollage. Parce qu'au final ce qui est souvent le plus moinssé est souvent ce qui est le plus commenté (parce que troll, parce que provoc, parce que sujet polarisant, politique, etc).
Autre outil de modération qu'on n'a pas, c'est un bouton pour alerter les modérateurs. T'es obligé d'aller voir dans le wiki les xmpp ou emails des modérateurs pour les contacter. Du coup souvent t'as juste la flemme d'alerter et tu attends passivement qu'un modérateur passe par là et se rend compte d'un contenu moche.
Pour l'instant il me semble qu'on n'est pas sujet à une avalanche de contenu inintéressant et spammeur donc ça reste gérable.
[^] # Re: question stérile
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 10 (+10/-0).
Si tu te fais prendre en train de poster un contenu généré par ordinateur, le contenu est supprimé et si tu recommences une fois qu'on t'a expliqué, tu te fais bannir. Comme pour tout autre type de contenu interdit, en fait: illégalement copié depuis une source soumise au droit d'auteur, ouvertement raciste, spam, …
Effectivement l'interdiction ne sera jamais parfaite. Mais, d'une part ça marche quand même relativement pas trop mal, et d'autre part, même si ça ne marche pas complètement, ça donne le ton sur les comportements qu'on peut attendre ici.
[^] # Re: question stérile
Posté par Psychofox (Mastodon) . Évalué à 3 (+3/-3).
Cette semaine, ou la semaine dernière je ne sais plus, un certain nombre de commentateurs/ices ont mentionné qu'un insinués qu'un test était forcément générer par une AI parce qu'il comportait des listes à bulles/numérotés.
Hors:
[^] # Re: question stérile
Posté par Psychofox (Mastodon) . Évalué à 2 (+1/-2).
pardon:
s/test/texte/
s/génerer/généré/
La prochaine fois je fais corriger par une AI! :D
[^] # Re: question stérile
Posté par Yth (Mastodon) . Évalué à 1 (+1/-2).
Nazi toi-même !
[^] # Re: question stérile
Posté par Ysabeau 🧶 (site web personnel, Mastodon) . Évalué à 7 (+4/-0).
Il y a un truc qui ne va pas : traiter à tout bout de champ les gens de nazi, ça suffit surtout par les temps qui courent ou des personnes que les discours nazis inspirent sont au pouvoir.
Pour le reste, je n'arrive pas à être très convaincue des qualités rédactionnelles des IA en version brut de fonderie. Ce que j'ai lu est souvent assez lourd.
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
[^] # Re: question stérile
Posté par Psychofox (Mastodon) . Évalué à 1 (+0/-2).
Je suis d'accord.
[^] # Re: question stérile
Posté par aiolos . Évalué à 3 (+1/-0).
Je suis entièrement d'accord.
Pour relire beaucoup de textes écrit par des gens dont ce n'est pas le métier premier, je n'arrive pas à être très convaincue des qualités rédactionnelles de mes congénères en version brut de fonderie. Ce que j'ai lu est souvent assez lourd. ;)
[^] # Re: question stérile
Posté par Yala . Évalué à 7 (+6/-0).
Je suis d'accord sur le second point, mais beaucoup moins sur le premier. Ce n'est pas parce qu'il n'existe pas de moyen de faire respecter une règle que celle-ci est subitement inefficace ou absurde.
Un règlement, ça n'est pas simplement empêcher les gens d'y contrevenir, c'est avant tout un "accord" collectif.
Il est interdit de rouler au dessus de 30km/h dans tout le centre de la petite ville dans laquelle je réside. Pour autant, il est actuellement impossible de faire respecter cette interdiction (il n'y a pas de radar à chaque coin de rue, ni de patrouilles policières pour faire respecter cette règle). Pour autant, la vitesse de circulation a bel et bien diminué depuis l'arrivée de cette règle.
Dans le même esprit, si linuxfr affiche très clairement une opposition à l'utilisation de ce type d'outil (même si je te rejoins sur le point 2, il faudrait formuler et cadrer ça de façon plus nette), il est fort à parier qu'on en voie l'usage diminuer.
[^] # Re: question stérile
Posté par Psychofox (Mastodon) . Évalué à 0 (+0/-3).
En général ça ne marche bien que si des mesures physique de ralentissement de la circulation sont ajoutés:
- rétrecissement complet ou partiel de la chaussée
- ralentisseurs
- peintures augmentant l'impression de vitesse
- chaussée plus bruyante ou incomfortable comme des pavés
Ma ville a introduit la voie de droite limitée à 30 et priorité aux cyclistes sur certains grands axes à 2 voies, sans mesures additionnelles à part un panneau 30 peint sur la voie assorti d'un grand cycliste. Résultat: c'est devenu une voie de dépassement pour tous les contrevenants aux limites de vitesses parce que ceux qui respectent les règles restent sur la voie de gauche limitée elle à 50.
Du reste toutes les rues à simple file sont limitées à 30 en Espagne, ça n'est réellement respecté que dans les rues où les gens ralentissait déjà parce qu'elles sont étroites avec beaucoup de véhicules en stationnement et/ou comportent des virages sans visibilité et de nombreux carrefours.
[^] # Re: question stérile
Posté par Tit . Évalué à 4 (+2/-0). Dernière modification le 07 février 2025 à 10:24.
La très, très grande majorité des personnes respectent les feux rouges, les stops etc. pourtant rien ne les empêche physiquement de franchir sans s'arrêter ces feux ou ces stops. Ce n'est pas parce que certains ne les respectent pas que ces feux et stops n'ont pas d'utilité ;)
[^] # Re: question stérile
Posté par Psychofox (Mastodon) . Évalué à 1 (+0/-2). Dernière modification le 07 février 2025 à 11:49.
Par chez moi ça varie franchement selon l'heure du jour et le véhicule (ou l'absence d'utilisation d'un véhicule dans le cas des piétons). Les piétons traversent généralement quand ils veulent, beaucoup de scooteristes s'engagent de nuit aux feux rouges s'il n'y a ni traffic ni police aux alentours. C'est plus facile de nuit vu qu'on voit mieux les lumières des gyrophares.
Deux points additionnels: si tu grilles un feu rouge, tu risques ta vie ou celle de quelqu'un d'autre. Ce n'est pas vraiment le genre d'incivilité anodine sur ce point. D'autre part tu peux quand même te faire prendre si tu ne respectes pas les feux, même ceux où il y a peu de visibilité. Et être vigilant à la présence ou non de forces de l'ordre, c'est aussi fatiguant à la longue donc ça aide au respect de la règle même s'il n'y a pas un policier ou un gendarme à chaque feu.
On peut parler des limites de vitesses et distances de sécurité aussi, qui sont allègrement ignorées d'autant plus dans les zones où il y'a peu souvent des radars. Le danger y est moins visible.
# Faux débat
Posté par xulops (site web personnel) . Évalué à 9 (+11/-3).
Soit le contenu est intéressant, utile, … et il a sa place, peut importe qu'il soit généré par un humain, une IA, un pangolin, une cafetière etc ; soit il est nul, creux, rempli de banalités (ce qui est souvent le cas des textes générés par IA, pour l'instant en tout cas) et il est moinser, voire supprimé.
En gros, modération as usual.
[^] # Re: Faux débat
Posté par Voltairine . Évalué à 3 (+2/-0). Dernière modification le 06 février 2025 à 14:46.
Tout ce qui reçoit une note négative serait donc nul et tout ce qui reçoit une note positive forcément utile et intéressant. Autrement dit les choix de la majorité seraient toujours les plus pertinents. Es-tu bien sûr de la validité de ce principe ?
[^] # Re: Faux débat
Posté par Yth (Mastodon) . Évalué à 8 (+7/-1).
Bah c'est comme ça qu'on a réélu notre président, et qu'ailleurs, d'autres en ont réélu un autre !
[^] # Re: Faux débat
Posté par Faya . Évalué à 2 (+0/-0).
Peut-être pas pour tout le monde, mais si une majorité de lecteur a jugé un contenu intéressant ici, je ne vois pas pourquoi on le retirerait (sauf violation de copyright et trucs du style). Pour les contenus fortement moinssés c'est plus délicat. Il y a déjà eu des journaux fortement moinssés alors qu'ils étaient intéressants et dans le thème du site, mais ça a moinssé à cause de l'auteur et du sujet du jeu présenté. Mais ça permet d'alerter la modération pour qu'un humain vérifie si c'est «juste» inintéressant sans pour autant contrevenir aux règles du site.
[^] # Re: Faux débat
Posté par Nicolas Boulay (site web personnel) . Évalué à 2 (+1/-2).
Je suis d'accord.
Bientôt plus personne ne va écrire un texte sans demander l'avis d'une IA. Ceux qui ont répondu non imagine que linuxfr va créer des articles automatiquement comme les sites qui génèrent des trucs qui pourrissent les moteurs de recherche. Qui a envie de ça ?
L'IA directement sur linuxfr pourrait être utile pour écrire une ou 2 lignes pour résumé un lien posté par exemple.
Même si le prompt pourrait être compliqué à écrire, résumer les commentaires positif d'un article ferait gagner du temps aux lecteurs occasionnels.
On peut même imaginer un nouvelle rubrique IA avec un prompt communautaire validé comme pour les dépêches, pour résumer l'activité de sites amis, les nouveautés du dernier kernel linux, etc…
"La première sécurité est la liberté"
[^] # Re: Faux débat
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 10 (+11/-0).
Je viens ici pour lire des choses écrites par des gens qui maîtrisent un minimum leur sujet et qui ont pris le temps de faire quelques recherches pour écrire quelque chose de bien construit, instructif, et, surtout, basé sur la réalité.
Une IA ne fait pas ça. Elle va pondre du texte grammaticalement correct, mais elle sera incapable d'identifier les points vraiment importants dans des release notes, d'apporter du contexte (surtout pour des infos d'actualité cui ne sont par définition pas présentes dans son modèle d'entraînement), et si on s'en sert pour résumer les commentaires, on obtient une soupe sans texture, déshumanisée, et, pour moi, sans intérêt.
Et non, je ne prévois pas d'utiliser d'IA pour continuer à rédiger des journaux ou des dépenches, mais si ça devient noyé sous une avalanche de contenus générés, j'irai publier ailleurs, probablement sur mon blog.
Je suis là pour communiquer avec des humains et enrichirmes perspectives.
[^] # Re: Faux débat
Posté par devnewton 🍺 (site web personnel) . Évalué à 10 (+9/-0).
Merci. Des journaux générés par IA sur linuxfr, c'est comme si un site de rencontre te propose une petite amie virtuelle…
Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.
[^] # Re: Faux débat
Posté par Nicolas Boulay (site web personnel) . Évalué à -1 (+1/-5).
rassures moi, tu n'utilises quasi jamais d'IA pour dire ça ? C'est sans doute vrai pour les IA primaires, mais cela évolue très vite, et les modèles avancés sont très performants (mais hors de prix).
"La première sécurité est la liberté"
[^] # Re: Faux débat
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 8 (+6/-0).
J'ai quelques collègues qui ont testé de poser des questions techniques sur du développement linux (dont les réponses se trouvent dans les pages de manuel). Ça marche si on pose la question classique. Ça répond à côté si on pose une question sur une fonctionnalité rarement utilisée et dont les données d'entraînement parlent peu ou pas.
Dans le cas des release notes de Linux par exemple, l'IA n'aura accès qu'à ce qu'on lui donne. Tout le contexte de chaque changement qui a été discuté sur les mailing lists du noyau ou ailleurs, après l'entraînement du modèle, il ne va pas te l'inventer. Si on veut en faire une dépêche intéressante, c'est ce genre d'information qu'il faut aller chercher. Sinon on ne fait que remuer des informations déjà connues et sous un format déjà digéré.
Je ne dis pas que ça n'a pas d'intérêt, par exemple si tu as besoin de remplir un dossier de subvention ou d'appel à projet où tout le monde met le même discours à chaque fois. Mais, à mon avis, pas sur un site qui traite d'actualités et sur un sujet un peu pointu.
[^] # Re: Faux débat
Posté par Nicolas Boulay (site web personnel) . Évalué à 4 (+1/-0).
ça dépend du modèle utilisé. J'imagine que tes collègues ont du tester la version gratuite de chatgpt donc gpt3.5. Il y a 5 modèles qui sont sorti depuis. Le o1 est lent mais écrase tout. La version o1 pro est encore mieux mais je n'ai jamais testé.
o4 qui est une balance entre connaissance et rapidité est équivalent à le chat de mistral qui vient de sortir (mais qui est très rapide).
J'utilise o1 très souvent pour du code, il est très pertinent et fait gagner un temps fou surtout pour un langage ou un outil que l'on connaît peu.
C'est évident. Il faut lui faire lire les release note et écrire un prompt intéressant. Tu peux lui faire avaler aussi toutes les mailing list, c'est plus compliqué car le context risque d'être trop gros, mais le résultat serait super intéressant à lire.
Il y a beaucoup de façon d'utiliser un llm. Et je pense que tu en as oublié plein.
"La première sécurité est la liberté"
[^] # Re: Faux débat
Posté par Faya . Évalué à 3 (+1/-0).
C'est la seule utilisation que je pourrais trouver intéressante. Nous donner un extrait des liens, comme les extraits de Wikipedia au survol de la souris. Pour les autres contenus et commentaires par contre, je veux les lire avec leurs tournures, leurs fautes, leurs trolls.
# IA à l'insu de mon plein gré !
Posté par Marius . Évalué à 2 (+2/-0).
Bonjour,
J'ai répondu "Non", sans réfléchir au fait que depuis quelque temps je fais "retravailler" tous mes textes par Write de deepl.com.
Il me sert aussi bien de correcteur orthographique que de réflexion sur la syntaxe.
Je ne connais pas particulièrement l'algorithme utilisé, mais je pense qu'il peut être assimilé à de l'IA.
Je devrais donc m'abstenir de poster sur Linuxfr.org.
Par exemple : message ci-dessus, revu et corrigé par deepl.com/fr/write
Bonjour,
J'ai répondu « non » sans réfléchir au fait que depuis quelque temps, je fais retravailler tous mes textes par DeepL.
Il fait non seulement office de correcteur orthographique, mais aussi de conseiller en syntaxe.
Je ne connais pas particulièrement l'algorithme utilisé, mais je pense qu'il peut être assimilé à de l'intelligence artificielle.
Je devrais donc m'abstenir de poster sur Linuxfr.org.
[^] # Re: IA à l'insu de mon plein gré !
Posté par Samuel (site web personnel) . Évalué à 5 (+4/-0).
La question porte sur les contenus générés par IA.
Il me semble que la question des contenus corrigés par IA ou améliorés (en terme de syntaxe, tournure de phrase) par ce genre de systèmes, visant à rendre un texte plus lisible, est une question différente. Typiquement, le cas d'usage que tu présentes me semble a priori acceptable (si la question m'était posée …), alors que je suis fermement opposé à la présence de textes générés par IA.
[^] # Re: IA à l'insu de mon plein gré !
Posté par Nicolas Boulay (site web personnel) . Évalué à 4 (+1/-0).
il y a un souci car ce n'est pas tout ou rien. Il y a une continuité total entre un texte généré après une question, et le cas présenté juste au dessus.
Pour moi, le seul point est : est-ce que le texte est intéressant ?
"La première sécurité est la liberté"
[^] # Re: IA à l'insu de mon plein gré !
Posté par LaurentClaessens (site web personnel) . Évalué à 5 (+3/-0).
Je suis à moitié d'accord avec ça.
Mais aussi à moitié pas d'accord.
Si il y a un contenu intéressant, je peux prendre du temps pour mettre un commentaire, demander à l'auteur de préciser tel ou tel point.
C'est un processus qui prend du temps et qui est possiblement gagnant-gagnant : moi j'ai des précisions, et l'auteur apprend que tel argument n'était pas clair.
Ce temps est alors du temps perdu si l'auteur est une simple AI.
Or il y a un potentiel que les contenus générés par AI soient vite très largement majoritaires. Dans un tel cas, la majorité du temps que je passerais à poster des commentaires serait du temps perdu pour moi et pour l'auteur.
Par ailleurs, nous sommes déjà depuis longtemps en très large sur-production de contenus intéressants de bonne qualité produits par des humains. (linuxfr, café des sciences, bd, etc.).
Le facteur limitant est le temps à lire/écouter/regarder, pas le temps de production.
Personne n'a rien à gagner à produire plus.
[^] # Re: IA à l'insu de mon plein gré !
Posté par Nicolas Boulay (site web personnel) . Évalué à 3 (+0/-0).
Les commentateurs se répondent plus entre eux, qu'avec l'auteur. De plus, le texte créé par l'ia a un auteur : celui du prompt qui peut être très long.
"La première sécurité est la liberté"
[^] # Re: IA à l'insu de mon plein gré !
Posté par Jehan (site web personnel, Mastodon) . Évalué à 3 (+0/-0).
Honnêtement même sur cet usage, je trouve cela peu intéressant, ou alors vraiment avec très grande parcimonie.
Pour info, je cite ton commentaire dans un autre journal (oui, y a tellement de journaux, liens et dépêches sur ce sujet maintenant, c'est fou; alors je vais pas tout recopier 10 fois).
Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]
# mon point de vue à moi
Posté par fearan . Évalué à 4 (+2/-1). Dernière modification le 09 février 2025 à 16:42.
J'ai répondu non, mais il manquait l'option oui, mais signalé. Un contenu généré ne me gène pas du moment qu'on l'indique clairement, avec le modèle et le prompt, et une précision si c'est de but en blanc ou au sein d'une session plus longue.
Bref un peu lorsqu'on fait une citation quoi.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
# Ça dépend
Posté par raphj . Évalué à 7 (+5/-0).
Dans tous les cas, je ne suis pas sûr d'être pour une interdiction formelle (mais pas sûr d'être contre non plus, bref, je ne suis pas fixé). Cela étant dit :
Si on parle d'un contenu entièrement généré par l'IA, plutôt non : c'est chiant à lire et je n'ai pas besoin que LinuxFr agisse comme un proxy entre une IA et moi. Tout comme je ne voudrais pas d'un copier coller d'une page de résultats d'un moteur de recherche. Je pourrais moi-même aller demander un truc à une IA si par le plus grand des hasards j'en avais envie. Mais bon, je n'ai encore jamais interrogé volontairement un LLM. Pour le moment, je ne fait pas confiance aux LLM pour m'apprendre des choses. Si de tels contenus devaient exister, il serait souhaitable de les marquer clairement comme tel, et faciliter le filtrage. Ça pourrait être un tag + une fonctionnalité du site pour cacher des tags.
Si on parle d'un contenu écrit avec l'assistance d'une IA, c'est probablement différent.
S'il peut-être souhaitable d'encourager les gens à ne pas utiliser des outils qui ont une éthique douteuse, je ne suis pas sûr qu'on devrait interdire quoi que ce soit, d'autant que chacun·e a sa vision personnelle de l'éthique. Ce n'est même pas efficace au niveau sensibilisation, voire c'est contre-productif.
Sur la question des droits d'auteurs : on pourrait décider par principe que les modèles entrainés sur des textes sans l'accord de leurs auteurs et de leurs autrices génèrent nécessairement du plagiat, et qu'on ne veut pas de ça sur LinuxFr, mais je ne suis pas sûr qu'on veuille faire plus de zèle que la loi.
# Pourquoi ?
Posté par symp . Évalué à 7 (+6/-0).
Volé quelque part sur l’internet. ↩
[^] # Re: Pourquoi ?
Posté par Toufou (site web personnel) . Évalué à 1 (+0/-0).
faudrait demander à une IA tiens …
[^] # Re: Pourquoi ?
Posté par Benoît Sibaud (site web personnel) . Évalué à 5 (+2/-0).
“Je sais pas comment relire
Ce que tu veux pas écrire
Faudrait que t’inventes des mots
Qu’existent pas dans le dico.
C'est toi que tu t'aimes
(vachement beaucoup)“
Les (milliards de paramètres) inconnus
# La connaissance avant tout
Posté par karchnu (site web personnel) . Évalué à 2 (+1/-1).
Je me fiche complètement que le texte ait ou non été généré par une IA, de quelque manière que ce soit (entièrement généré, aide ponctuelle, etc.). Ce qui m'importe ce sont les informations partagées, et la forme dans une certaine mesure (il faut que ce soit agréable à lire).
Les limitations actuelles des outils ne sont pas un sujet important, tôt ou tard les IA pourront être aussi performantes qu'on le souhaite pour cette tâche, je ne m'en fais pas trop pour ça.
Pour être sûr de ne pas poster n'importe quoi, bien entendu qu'on va relire le contenu. Pour le moment les IA sont une aide pour l'écriture, bientôt les rôles vont s'inverser (nous n'aurons souvent plus qu'à indiquer quelques retouches occasionnelles) et ce sera très bien comme ça. Tout le monde y gagne : texte bien mieux écrit, beaucoup plus rapidement produit donc potentiellement plus de sujets traités, des résumés systématiques pour les gens pressés, des références et des liens avec des sujets connexes auxquels on ne penserait pas, des sujets correctement introduits, etc.
Je vois ça en tant que lecteur et producteur de contenu sur ce site : c'est tout bénéf.
Côté éthique, pour moi la connaissance prime sur tout le reste. Des IA libres ? Allez, pourquoi pas, c'est même préférable. Pas libre ? Je vais pas en faire un flan.
# Question rhétorique ?
Posté par Shunesburg69 . Évalué à -1 (+0/-2).
La question n'est pas rhétorique ?
Si vous vous posez la question, c'est qu'au final vous le ferez quand même, donc pourquoi demander ?
Personnellement, je ne vois pas l'utilité de préciser les sources ou qui est l'auteur que ce soit une IA ou un humain, car toutes informations même reconnu de tous doit être quand même revérifier et pas accepté en bloc. Voici un exemple. Napoléon est vu comme un grand homme et de manière très positive en France alors que si on regarde les faits et le regard des étrangers, c'est en réalité un dictateur qui par de nombreuse guerre n'a pas que fait des choses positives. On peut voir un exemple, moderne ou Poutine qui est très semblable à Napoléon côté Russe et vu comme un dictateur ailleurs. D'ailleurs, un conflit comme l'Ukraine, ou l'on ne devrait pas se positionner entre un pays corrompu qui à poussé (en tirant sur sa population russophone) un autre limite autoritaire (Poutine qui tue la liberté d'expression au sens propre) pour pouvoir rentrer dans l'Europe et l'Otan alors qu'ils avaient signé des traités l’interdisant, ce qui à mis les populations de ces 2 pays à la boucherie pour des bêtises politiques.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.