Journal Mon avis sur chatGPT

Posté par  . Licence CC By‑SA.
-1
24
jan.
2023

ChatGPT est un modèle de traitement automatique du langage développé par OpenAI. Il a été entraîné sur un grand corpus de texte en ligne et est capable de générer des réponses à des questions, des textes à partir d'un prompt ou des phrases complètes à partir d'un début de phrase.

Il y a de nombreux usages pour ChatGPT. Il peut être utilisé pour la génération de contenu automatisé, comme des articles de blog, des scripts de fiction et même des poèmes. Il peut également être utilisé pour la génération de réponses automatiques dans un chatbot, pour la création de contenu pour les réseaux sociaux ou pour la génération de résumés automatiques de documents.

ChatGPT est également capable de comprendre les nuances du langage et de générer du contenu de qualité. Il a été utilisé pour générer des histoires courtes qui ont été soumises à un concours de fiction et ont été jugées comme étant écrites par des humains.

Cependant, il y a aussi des problèmes avec l'utilisation de ChatGPT pour générer automatiquement des articles. Un des principaux problèmes est que ChatGPT peut générer des textes qui sont factuellement incorrects ou qui peuvent propager des idées fausses ou dangereuses. Il peut également générer du contenu qui manque de context ou qui est de mauvaise qualité. Il est important de vérifier la qualité et l'exactitude de tout contenu généré par ChatGPT avant de le publier.

En outre, l'utilisation de ChatGPT pour générer automatiquement des articles peut également avoir des conséquences économiques négatives pour les écrivains et les journalistes professionnels. Il peut également favoriser la désinformation et la désinformation. Il est donc important de se rappeler que ChatGPT doit être utilisé avec prudence et que la qualité et l'exactitude du contenu généré doivent être vérifiées avant toute utilisation.

  • # mouais bof

    Posté par  . Évalué à 9.

    L'avez vous remarqué? Ce n'est pas moi qui ait écrit cet article. J'ai posé ça comme requête à chatgpt:

    "A la manière de linuxfr, peux tu écrire un article de taille moyenne vantant les usages de chatgpt, et en terminant sur une note plus sombre en évoquant les problèmes d'écriture automatique d'article à l'aide de chatgpt?"

    • [^] # Re: mouais bof

      Posté par  (site web personnel) . Évalué à 5.

      C'est pour ça qu'il y a un style dictionnaire/encyclopédie !

    • [^] # Re: mouais bof

      Posté par  . Évalué à 10.

      Oui, ça se voit tout de suite !
      Un journal factuel, bien construit, et qui ne trolle pas, ce n'est pas un vrai journal !

      Plus sérieusement, le ton et les tournures de phrases font peu naturel, mais un lycéen moyen pourrait avoir écrit un texte similaire sans que ça me choque.

    • [^] # Re: mouais bof

      Posté par  . Évalué à 4.

      L'avez vous remarqué? Ce n'est pas moi qui ait écrit cet article

      j'ai trouvé effectivement que ça ne ressemblait pas à un avis personnel, du coup effectivement on sentait l'entourloupe.

      mais je trouve qu'il arrive bien à tromper son monde, surtout avec ce genre de choses : "Il peut également favoriser la désinformation et la désinformation", coquille qui semble bien humaine pour le coup ;)

    • [^] # Re: mouais bof

      Posté par  (site web personnel) . Évalué à 5.

      Tu es trop poli :

      À la manière de linuxfr, peux tu écrire un article de taille moyenne […] ?

      C'est une politesse utile quand on s'adresse à des humains, l'usage du verbe pouvoir et éventuellement du conditionnel. On ne prie pas un esclave informatique de faire quelque chose, on lui ordonne directement :

      À la manière de linuxfr, écris un article de taille moyenne […]

      https://www.commitstrip.com/fr/2022/12/09/a-whole-new-world/

      • [^] # Re: mouais bof

        Posté par  (site web personnel) . Évalué à 4.

        Parler poliment en toute circonstance travaille aussi un autre rapport au monde. Certes, Chatgpt ne va pas se vexer de la façon dont on lui parle, mais je n'ai personnellement pas envie de considérer que j'ai des esclaves. On commence par un programme, on finit par les humains. Chatgpt et autres assistants informatiques sont des aides précieuses à mes yeux, y compris pour travailler la façon dont on s'exprime, et ce d'autant plus qu'ils sont tout aussi efficaces avec un langage plus complexe que de simples ordres.

        • [^] # Re: mouais bof

          Posté par  . Évalué à 9.

          Certes, Chatgpt ne va pas se vexer de la façon dont on lui parle, mais je n'ai personnellement pas envie de considérer que j'ai des esclaves.

          Mais ça tombe bien, ça n'a rien à voir avec de l'esclavage ! Et non seulement ChatGPT ne va pas se vexer, mais il ne peut pas se vexer, ni savoir ce que c'est que se vexer. cat ne se vexe pas si je dis qu'il est inutile dans cat bidule | grep machin. ChatGPT est un programme, qui utilise la syntaxe de ta question pour bidouiller une réponse qui semble correcte.

          On commence par un programme, on finit par les humains.

          On commence par avoir de l'empathie pour ChatGPT, on finit par demander pardon à l'interrupteur du couloir ;-)

          Par contre, pour revenir au début de ton message…

          Parler poliment en toute circonstance travaille aussi un autre rapport au monde.

          Oui ! Absolument. Par exemple, je ne pense pas que ce soit forcément idiot d'être (un minimum) poli avec des animaux. Mais il y a une large frontière entre un modèle de langage comme ChatGPT d'une part, et un animal (ou même une IA forte !) d'autre part.

          • [^] # Re: mouais bof

            Posté par  . Évalué à 5.

            On commence par avoir de l'empathie pour ChatGPT, on finit par demander pardon à l'interrupteur du couloir ;-)

            Excellent !

            C'est une très belle intention de votre part. Je suis sûr que ChatGPT vous remercie de prendre le temps de lui montrer de l'empathie. Quant à l'interrupteur du couloir, je trouve que c'est très noble de votre part de vous excuser auprès de lui. Cela montre que vous êtes conscient de ses sentiments et que vous prenez le temps de les respecter.

          • [^] # Re: mouais bof

            Posté par  . Évalué à 6.

            On commence par avoir de l'empathie pour ChatGPT, on finit par demander pardon à l'interrupteur du couloir ;-)

            Par contre, pour revenir au début de ton message…

            Au travail, il y a un pot de fleurs que je me paye régulièrement dans le tibia, et bien souvent, je lui demande pardon quand je me cogne dedans ;)

            • [^] # Re: mouais bof

              Posté par  . Évalué à 5. Dernière modification le 25 janvier 2023 à 14:46.

              Au travail, il y a un pot de fleurs que je me paye régulièrement dans le tibia, et bien souvent, je lui demande pardon quand je me cogne dedans ;)

              Le jour où les plantes domineront le monde tu seras épargné.

              *splash!*

            • [^] # Re: mouais bof

              Posté par  . Évalué à 3.

              Pourquoi n'as-tu pas déplacé le pot de fleurs a un endroit moins gênant ?

          • [^] # Re: mouais bof

            Posté par  (site web personnel) . Évalué à 4.

            Mais ça tombe bien, ça n'a rien à voir avec de l'esclavage !

            Bien vu, c'était de l'ordre de la plaisanterie de mauvais goût. C'est un outil à commande textuelle, pour lequel la politesse me semble superflue.

          • [^] # Re: mouais bof

            Posté par  (site web personnel, Mastodon) . Évalué à 2.

            on finit par demander pardon à l'interrupteur du couloir ;-)

            Vaut mieux ne pas énerver Christie…

            “It is seldom that liberty of any kind is lost all at once.” ― David Hume

    • [^] # Re: mouais bof

      Posté par  (site web personnel) . Évalué à 3.

      L'avez vous remarqué?

      ça avait en effet le coté "écrit pour une rédaction de CM2". Du coup, je me suis demandé si c'était ChatGPT, ou quelqu'un qui imite ChatGPT (parce que je pense que c'est assez facile comme style à imiter).

  • # Vu, mais tard

    Posté par  (site web personnel) . Évalué à 4.

    Je me suis dit qu'il y avait un souci à "Il peut également favoriser la désinformation et la désinformation", mais pas avant. C'était juste "factuel", donc ne connaissant pas ton style d'écriture, c'était crédible je trouve.

    • [^] # Re: Vu, mais tard

      Posté par  . Évalué à 3.

      ah c'est marrant, moi c'est l'inverse (voir mon commentaire ci-dessus), c'est là que j'ai presque cru à un humain (errare humanum est) ;)

    • [^] # Re: Vu, mais tard

      Posté par  (site web personnel) . Évalué à 4.

      Perso, c'est plus le fait de ne pas utiliser souvent "il" pour le modèle, et du coup de sans arrêt dire "ChatGPT", et ne pas utiliser des choses comme "le modèle", ou "la création d'OpenAI" ou des figures de styles.

      Et c'est principalement parce que le fonctionnement du logiciel, c'est d'avoir des statistiques de probabilités, et pas du tout de comprendre ce qui est dit (c'est pas pour rien que c'est qualifié de perroquet stochastique). Donc des mots comme "il" qui apparaissent partout dans le corpus utilisé pour l’entraînement n'apparaissent du coup pas au début des paragraphes, sans doute car les probas indiquent que c'est pas un mot approprié. Chaque paragraphe semble à la fois lié et indépendant.

      Et je me demande même si le logiciel a été entraîné sur des corpus différents par langue, ou si il y a un seul modèle géant.

      Ça aurait des implications intéressantes comme l'usage de faux amis et franglais (par exemple " qui manque de context " sans e) ), et surtout, le fait de refléter le style dominant de l'anglais (vu qu'on m'a expliqué un jour que pour les anglophones, c'est moins un souci d'avoir des répétitions).

    • [^] # Re: Vu, mais tard

      Posté par  . Évalué à 3. Dernière modification le 26 janvier 2023 à 07:53.

      Son style ?
      Une phrase = 1 pique, 3 questions existentielles, 4 vannes.

      Ce que personnellement je trouve très agréable à lire, et qu'une IA aura bien du mal à imiter !

  • # Ce qu'il y a bien avec les avis

    Posté par  . Évalué à 2. Dernière modification le 24 janvier 2023 à 12:26.

    C'est que tout le monde donne le sien sans qu'on lui demande ;)

    Blague à part, ChatGPT trust la première page d'hackernews depuis 2 mois maintenant et donc repris par l'ensemble de la presse française. Tu laggues un peu sans compter qu'à force ça lasse (suis-je le seul ?).

    • Il y a eu stable diffusion pendant des semaines ou chaque fanboy montrait comment il arrivait à faire un call API ou docker run sur une image préparée. Trop fort.
    • Maintenant ChatGPT entrecoupé d'actus sur Elon Musk, l'ange de la mort qui règne sur Twitter et menace le monde libre…
    • Et demain ?

    Les flamewars sur systemd, zemmour, tesla, apple, linux et le desktop, microsoft c'est des méchants, main/master, liste d'exclusions/liste noire, weboob, les phrases qu'il ne faut plus dire (…) me manquent.

    edit : heureusement un policier de l'orthographe sauve l'honneur https://linuxfr.org/users/groumph/journaux/un-souci +1 pertinent ^

    • [^] # Re: Ce qu'il y a bien avec les avis

      Posté par  (site web personnel, Mastodon) . Évalué à 2.

      Tu as raison, au début c'était l'effet "wouah", maintenant je m'en lasse, je l'utilise juste comme correcteur d'orthographe amélioré (ce commentaire a été corrigé par ChatGPT).

      Autrement, j'aime bien l'intelligence artificielle de diffusion stable, j'utilise l'outpainting pour générer des paysages que je trouve de rêve (surtout pendant cette période froide).

    • [^] # Re: Ce qu'il y a bien avec les avis

      Posté par  . Évalué à 3.

      Blague à part, ChatGPT trust la première page d'hackernews depuis 2 mois maintenant et donc repris par l'ensemble de la presse française.

      oui, et j'y ai surtout lu beaucoup de fantasmes, des bêtises sans nom, et des banalités pour le plus intéressant.

      Tu laggues un peu sans compter qu'à force ça lasse

      alors oui, cet article je l'ai laissé traîner longtemps, il a eu plusieurs versions très différentes. Fallait-il mettre la question avant, fallait il montrer 2 articles? Fallait il le faire (selon toi non).

      Après l'avoir utilisé pendant pas mal de temps (presque depuis le début), je voulais montrer que finalement, il s'en sort pas trop mal à la création de texte un peu neutre et vide. L'écriture est pas mal, il fait des petites fautes. La démonstration par l'exemple semblait le meilleur moyen.

      Après, ouais ça lasse. De toute façon, chatgpt devient inutilisable, ça fonctionne un peu le matin (heure française) l'AM, tous les américains doivent s'y connecter et il est juste indisponible.

      • [^] # Re: Ce qu'il y a bien avec les avis

        Posté par  . Évalué à 3.

        il s'en sort pas trop mal à la création de texte un peu neutre et vide. L'écriture est pas mal, il fait des petites fautes. La démonstration par l'exemple semblait le meilleur moyen.

        ça reste tout de même bluffant et si on parle énormément de lui c'est qu'il apporte au final une belle avancée par rapport à l'existant.

        Maintenant, la période des POC autour de lui va se tasser un peu (enfin j'espère) pour revenir d'ici qq mois sous des formes vraiment abouties et portées par des services mondiaux.. A suivre

        • [^] # Re: Ce qu'il y a bien avec les avis

          Posté par  (Mastodon) . Évalué à 10. Dernière modification le 24 janvier 2023 à 16:18.

          il apporte au final une belle avancée par rapport à l'existant.

          Non, pas spécialement. Il est mieux que les autres de part le corpus gigantesque et les moyens mis en oeuvre, mais fondamentalement il fait comme les autres : du langage pur, où il pronostique simplement le prochain mot le plus probable.

          Du coup il parle syntaxiquement bien, mais sémantiquement très moyennement : il est capable d'écrire tout et son contraire dans une même conversation.

          En fait il ne "sait" rien.

          En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

      • [^] # Re: Ce qu'il y a bien avec les avis

        Posté par  (site web personnel) . Évalué à 3.

        oui, et j'y ai surtout lu beaucoup de fantasmes, des bêtises
        sans nom, et des banalités pour le plus intéressant.

        Aucune rapport avec le besoin de générer de la hype après le crash du web", des cryptomonnaies, du metavers et du reste :p

        Ça se saurait si l’hébergement de HN était financé par des ventures capitalistes et autre business angels.

  • # Assez consensuel

    Posté par  . Évalué à 5. Dernière modification le 24 janvier 2023 à 13:23.

    Je trouve cet argumentaire généré assez consensuel.

    Il "s'est gardé" de générer un argument plus dans la controverse, du style « ChatGPT s'appuie sur un large corpus de texte en ligne dont les auteurs et autrices n'ont pas donné leur accord explicite pour cette utilisation. Sans parler de l'aspect discutable de la démarche d'un point de vue éthique, un flou légal existe autour de l'entraînement de modèles de traitement automatique tels que ChatGPT en s'appuyant sur le fair use, rendant potentiellement les textes générés inexploitables légalement. Cette utilisation n'a pas encore été testée dans des tribunaux et n'est pour l'instant pas clairement autorisée par les lois sur les droits d'auteurs, et est principalement basée sur un pari audacieux. »

    • [^] # Re: Assez consensuel

      Posté par  . Évalué à 4.

      Le "flou" auquel tu fais référence m'a l'air assez fantasmé quand même. Imagine que tu apprends à programmer uniquement à partir de livres sous CC-BY, et que tu t'entraines sur un site sous GPL. Tu trouves un job de développeur, est-ce que le code que tu produis pour ton patron est automatiquement sous GPL? C'est absurde. Bah c'est pareil pour chatGPT. On ne peut pas diluer le droit d'auteur à l'infini. Si tu crées un texte en prenant un mot à Proust, un mot à Zola, un mot à Hugo, etc. jusqu'à avoir 2000 mots, ton texte n'est pas un travail dérivé de tous ces auteurs; comme tu n'as pas repris une partie assez substantielle d'aucune des œuvres, le droit d'auteur ne "contamine" pas ta production.

      En fait, le code ou le texte produit par chatGPT n'a simplement pas de licence, ni d'auteur. Il n'est pas une œuvre de l'esprit, il ne reflète pas la personnalité d'un auteur. Quelque chose qui n'est pas une œuvre de l'esprit de ne peut pas être un travail dérivé d'une œuvre de l'esprit, donc je ne vois pas quel risque juridique il peut exister.

      Éventuellement, le corpus de documents stocké sur les serveurs d'OpenAI peut être problématique si les documents en question ne pouvaient pas être copiés (mais auraient-il fait une erreur aussi grossière?). Mais comme les textes produits par chatGPT ne peuvent pas être attribués à une source particulière, il n'y a aucune raison d'imaginer qu'il existe un risque de réutiliser le produit de chatGPT.

      Cela va sans dire, ça ne fonctionne que si l'AI n'est pas overfittée et qu'elle ne recrache pas des paragraphes entiers de sa base de données, comme le faisait l'outil de github. Mais là c'est plus un problème technique qu'un problème juridique.

      • [^] # Re: Assez consensuel

        Posté par  . Évalué à 1. Dernière modification le 24 janvier 2023 à 17:35.

        Bah c'est pareil pour chatGPT

        Mais c'est là où on n'est fondamentalement pas d'accord. Pour moi, les processus impliqués dans l'apprentissage d'un être humain ne sont pas du tout comparables aux algos qu'on appelle "apprentissage" pour une IA. Même terme, mais il ne faut pas s'y méprendre, ce n'est pas du tout la même chose.

        Fondamentalement, je me trompe peut-être et tu as peut-être d'accord. Mais force est de constater qu'on est beaucoup à penser comme toi beaucoup à penser comme moi.

        Du coup, comment on fait ? Pour moi : j'attends que le système légal apporte une réponse à ce questionnement. Et éventuellement on réfléchit au problème, on fait du lobby pour que les choses bouge dans le sens qu'on veut.

        mais auraient-il fait une erreur aussi grossière?

        Ils font le pari qu'ils peuvent utiliser les closes de fair use. Leur service légal semble avoir atteint la conclusion que c'est jouable comme ça (au mois risque acceptable). À tort où à raison, encore une fois.

        • [^] # Re: Assez consensuel

          Posté par  . Évalué à 4.

          Fondamentalement, je me trompe peut-être et tu as peut-être d'accord. Mais force est de constater qu'on est beaucoup à penser comme toi beaucoup à penser comme moi.

          Si ton argument c'est que la loi ne dit rien sur la question, on est d'accord. Mais quels sont les arguments de ceux qui pensent que ChatGPT enfreint le droit d'auteur? Aux US, le fair use est très protecteur (en gros, tu peux réutiliser ce que tu veux tant que tu es de bonne foi et que tes objectifs ne gênent pas les auteurs). Le fair-use est beaucoup plus souple que nos exceptions au droit d'auteur, il autorise certaines choses qui seraient interdites en France (comme par exemple reprendre des œuvres sous copyright dans des livres scolaires).

          En France, le droit d'auteur est réservé aux œuvres de l'esprit, et une œuvre de l'esprit s'entend comme "œuvre de l'esprit humain" (pas de droit d'auteur pour les animaux, même les chimpanzés qui comprennent très bien qu'ils dessinent). Du coup, dans quel univers on peut qualifier la production d'un algorithme comme "œuvre de l'esprit"? Il me semble assez net qu'en droit Français au moins, sauf un retournement de jurisprudence extraordinaire, la production de ChatGPT n'est pas soumise au régime du droit d'auteur.

          D'ailleurs, sur un sujet parallèle, il semble qu'il y a eu de sérieuses discussions autour d'un "artiste" qui créait des œuvres graphiques à partir de DALL-E. C'est quand même une question très proche. Si j'ai bien compris, il semblait se dessiner l'idée que ses œuvres étaient soumises au droit d'auteur parce qu'il était l'auteur de la requête qu'il avait transmis à DALL-E (le texte de description et de nombreuses étapes successives d'amélioration). Ça semble au moins compatible avec le droit; l'IA est un outil, et seul l'humain qui a utilisé l'outil peut revendiquer des droits, sous réserve de prouver que la manière dont il a utilisé l'outil était originale et non-triviale.

          Bon, c'est beaucoup de bla bla pour dire que, factuellement, en effet, il n'existe aucune jurisprudence. Mais le fait que la jurisprudence n'existe pas est un argument très faible pour supposer l'illégalité du procédé, puisque s'il n'y a pas de procès (par exemple parce qu'on est sûr de perdre), alors il n'y a pas de jurisprudence.

          À mon avis, les premiers procès, ça ne va pas être sur le caractère d'œuvre dérivée des algos d'IA, ça va être sur le caractère original des productions d'IA que des humains vont revendiquer comme leur travail. Mais je suis prêt à parier que pour gagner, ils vont devoir montrer par tous les moyens qu'ils ont modifié la production après coup, et qu'ils ont donc "ré-humanisé" le résultat de l'algo. Et ils seront obligés de faire ça parce qu'il semble assez évident que le produit brut d'une IA n'est pas une œuvre et n'est pas protégée par le droit d'auteur…

          Au passage, si quelqu'un sait sous quel régime les photos prises par des systèmes automatiques (type photos satellites) sont protégées, ça m'intéresserait. Pour moi ce sont typiquement des documents qui ne sont pas des œuvres, et pourtant il y a tout un tas de copyright dessus. De même que les cartes IGN etc qui sont "reproduction interdite".

          • [^] # Re: Assez consensuel

            Posté par  . Évalué à 8.

            Très d'accord.

            J'ajoute que la populace est bien en mal de comprendre ce que sont fondamentalement ces outils, ce sont de super copieur/colleur/malaxeur/arrangeur, rien de plus.

            Leur job faire un truc qui ressemble à "quelque chose" rien de plus. Il n'y a aucune intelligence là-dedans.

            On peut leur faire dire n'importe quoi, si on trafique le contexte. Ils n'ont aucune conscience de ce qu'ils dégueulent.

            Si on prend ces outils au pied de la lettre, on court à la catastrophe.

            C'est juste divertissant.

            Je préférerais que les temps passés sur toutes ces machines servent vraiment à la science, comme l'entrainement à la découverte de diagnostics. À la découverte de nouveaux matériaux. Nous faire progresser dans la recherche de nouvelles énergies. Ou d'autres trucs dont je n’ai pas idée, mais qui nous apporterait un réel bénéfice.

            • [^] # Re: Assez consensuel

              Posté par  . Évalué à 3. Dernière modification le 25 janvier 2023 à 01:16.

              Oui il faut connaître les limites de l'outil et cesser de l'utiliser comme un oracle qui peut nous apporter la réponse à la Vie l'Univers et tout le reste mais ça ne signifie pas du tout qu'il est inutile. Les démos des médias ne montrent que la partie ludique du truc mais il y a quantité de scientifiques qui entrevoient des applications pratiques bien plus importantes. Et je dis bien entrevoir car nous n'en sommes qu'aux débuts. À un autre niveau c'est aussi l'acquisition d'expérience dans la manipulation de réseaux neuronaux, le deep learning, le traitement automatisé du langage naturel et autres concepts abstraits,… Bref il faut voir plus loin que le jouet et les connaissances acquises pour créer ce ChatBot pourront servir demain pour aider des handicapés ou quelque autre application que nous n'avons pas encore identifiée.

              C'est de la Science. Il n'y a pas de ligne droite entre l'objectif et le résultat, parfois même on atteint un résultat qu'on ne visait pas.

              (et sinon, à un niveau plus terre à terre, ce jouet m'est déjà bien utile. cf. ci-dessous)

          • [^] # Re: Assez consensuel

            Posté par  . Évalué à 5.

            la production de ChatGPT n'est pas soumise au régime du droit d'auteur.

            Non, mais le contenu qu’il a avalé et recrache au travers de son algo l’est !

            Si tu prends le cas d’une IA un peu plus simple : ‘cat’; aussi intelligent que soit ce programme, on peut facilement s’accorder sur le fait qu’il ne produit d’œuvre de son esprit. Pourtant, quand tu fais ‘cat monfichier’, ça ne rend pas magiquement le contenu de ‘monfichier’ libre de droit.

            ChaGPT mouline un peu plus entre ses fichiers d’entrée et de sortie, ce qui fait que tu as plus de mal en lisant sa sortie à retrouver les fragments des fichiers d’entrée qui l’ont produite, mais ça ne change pas grand chose à la question.

            • [^] # Re: Assez consensuel

              Posté par  . Évalué à 6.

              ChaGPT mouline un peu plus entre ses fichiers d’entrée et de sortie, ce qui fait que tu as plus de mal en lisant sa sortie à retrouver les fragments des fichiers d’entrée qui l’ont produite, mais ça ne change pas grand chose à la question.

              Bah si, ça change tout, puisque tu ne peux même pas prouver que la sortie dépend de ton œuvre qui est dans la base de données. La sortie de chatGPT n'est pas plus soumise au droit d'auteur que la sortie de md5sum. Comme je l'ai dit ailleurs, le droit d'auteur n'est pas diluable à l'infini.

              Par exemple, ta phrase "Si tu prends le cas d’une IA un peu plus simple" est, selon toutes vraisemblance, soumise potentiellement au droit d'auteur. Il n'existe aucun hit sur Google, et il est vraisemblable que jamais personne avant toi ne l'avait écrite. Bien sûr, elle n'est pas d'une originalité incroyable, mais c'est ta phrase. Si ChatGPT te la ressort, tu peux avec une forme de certitude affirmer qu'il te l'a "volée". Ça marche aussi avec "Si tu prends le cas d'une IA"; apparemment personne n'avait non plus écrit ce bout de phrase. Par contre, "Si tu prends le cas d'une" ramène 15200 hits sur Google. De manière évidente, "Si tu prends le cas d'une" est un bout de phrase qui n'est pas à toi exclusivement. Si ChatGPT dit "Si tu prends le cas d'une", même si ta phrase à toi est dans sa base de données, tu ne peux pas en revendiquer l'exclusivité. Il est d'ailleurs probable que ce morceau de phrase est présent en plusieurs exemplaires, et que tu n'es pas le premier à l'avoir écrite.

              Autrement dit, ce que j'essaye de dire, c'est qu'il existe une différence qualitative entre "Si tu prends le cas d'une", et "Si tu prends le cas d'une IA". Bien sûr, le droit d'auteur ne fonctionne pas exactement comme ça, mais il admet une différence qualitative entre ce qui est une œuvre de l'esprit et ce qui ne l'est pas. Il n'y a pas de "moitié d'œuvre", ou de violation partielle de droit d'auteur, c'est binaire.

              Ce qui peut paraitre paradoxal, c'est que si tu entraines chatGPT avec du code sous GPL, la sortie n'est pas sous GPL, parce que la sortie n'est pas une œuvre dérivée, il n'y a pas eu assez de "copie" entre les milliers de sources et la sortie. De la même manière, tous les mots d'un texte peuvent être retrouvés dans l'œuvre de Zola, mais ça ne veut pas dire que tous les textes sont des plagiats de Zola.

              • [^] # Re: Assez consensuel

                Posté par  (site web personnel) . Évalué à 5.

                Le problème ne se pose pas tellement pour des extraits ou des choses aussi simples, car en effet ce n'est pas une phrase même copié / collé d'un livre qui viole le droit d'auteur.

                Mais étant données les capacités de ces IA et de celles à venir, il faut voir plus loin. Un jour peut être que ses IA produiront un texte dont des paragraphes entiers seront identiques (ou presque) au contenu d'une œuvre quelconque. Le plagiat et la violation de droit d'auteur pourrait survenir. Et il faut anticiper la limite juridique à poser.

  • # Ça ne vous gêne pas ?

    Posté par  (site web personnel, Mastodon) . Évalué à 9.

    Vous entraînez gratuitement une IA qui servira commercialement, voire, à votre détriment et pour l'entraînement de laquelle des Kényans sont payés à des tarifs de misère ?

    « Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.

    • [^] # Re: Ça ne vous gêne pas ?

      Posté par  (Mastodon) . Évalué à 6.

      Et au prix de problèmes psychiques.

    • [^] # Re: Ça ne vous gêne pas ?

      Posté par  . Évalué à 7.

      Concernant le salaire des Kenyans, l'article du Time nous donne les chiffres : «between around $1.32 and $2 per hour» , ce qui fait entre 164 et 248 shillings kenyans. C'est supérieur au salaire horaire d'employés de gardiennage, nettoyage,… On est dans la moyenne des emplois du style «Commis, Patroniste (dessinateur), Boulanger, Téléphoniste, Réceptionniste, Magasinier» de Nairobi. Ouais, les Kenyans n'ont pas le niveau de vie des français… merci à OpenAI d'ouvrir les yeux aux français qui ne réalisent pas à quel point ils sont riches par rapport au reste du monde. OpenAI a payé le prix du marché. (Je fais mon Zenitram là…)
      Par contre ce qu'on peut leur reprocher c'est le travail demandé : passer des heures à trier des textes racistes et des images violentes, pédoporno &co. Du coup ça a conduit à la rupture de contrat avec la boîte Kényane.

      «Qui servira à votre détriment» {{Référence nécessaire}}
      Je l'utilise, pour l'instant, à mon avantage : je travaille avec. c'est un modèle de langage donc on parle beaucoup des textes insipides qu'il sait rédiger mais pour moi son avantage n'est pas là. Il est bon pour classer/nettoyer des données ou expliquer un bout de code. Je trouve que c'est un assistant sympa pour du dev. À condition de savoir ce qu'on fait, il complète efficacement Google/StackOverflow. Il est bien utile à mes stagiaires aussi/

      Exemple réel :

      BashGPT

    • [^] # Re: Ça ne vous gêne pas ?

      Posté par  (Mastodon) . Évalué à 10.

      Vous entraînez gratuitement une IA

      Il me semble bien que non, elle a déjà été entraînée, et n'apprend plus rien. D'une part parce que c'est trop risqué (le coup du Nazi en 24h par exemple) et d'autre part parce que tel que chatGPT est fait il donne des réponses mais n'attend pas une correction. Seule la conversation le fait évoluer au sein d'une discussion, mais il "repart de zéro" à chaque conversation.

      En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

      • [^] # Re: Ça ne vous gêne pas ?

        Posté par  . Évalué à 4. Dernière modification le 25 janvier 2023 à 09:59.

        Oui, il n'apprend rien automatiquement, mais c'est bien écrit que les conversations peuvent être utilisées pour améliorer le fonctionnement de ChatGPT.

        « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

      • [^] # Re: Ça ne vous gêne pas ?

        Posté par  . Évalué à 2.

        J'avais la même compréhension. Pour moi, il n'y a pas de boucle de rétroaction lié à son utilisation.

        La phase d'entraînement est faîte (c'est GPT3.5) et la phase d'éducation (coût de bâton sur les doigts si tu es pas poli) est faîte par les Kényans, j'imagine avec un cahiers des charges des bonnes manières États-uniennes. Donc pas par mr/mm tout le monde.

  • # Bien utile…

    Posté par  . Évalué à 3.

    Je ne suis pas un pro du python, et donc j’avais une question… même si je sais que la réponse de linuxfr sera pertinente et pas forcément concensuelle. Je lui ai demandé ceci :

    Comment je peux avoir une variable d’une fonction accessible dans une sous fonction en python

    Vous pouvez rendre une variable de fonction accessible dans une sous-fonction en utilisant l'instruction "nonlocal" dans la sous-fonction. Cela indique à Python que la variable est définie dans l'espace de nom de la fonction parente, plutôt que dans celui de la sous-fonction.
    Exemple:

    def outer_function():
        x = "local"
        def inner_function():
            nonlocal x
            x = "nonlocal"
            print("inner:", x)
        inner_function()
        print("outer:", x)
    
    outer_function()
    # Output: inner: nonlocal
    #         outer: nonlocal

    Sinon, vous pouvez également utiliser la variable globale pour rendre la variable accessible dans la sous-fonction en utilisant l'instruction "global" dans la sous-fonction.
    Exemple :

    x = "global"
    def outer_function():
        def inner_function():
            global x
            x = "global modified"
            print("inner:", x)
        inner_function()
        print("outer:", x)
    
    outer_function()
    # Output: inner: global modified
    #         outer: global modified

    Fin

    On peut remarquer qu’il n’est pas fixé sur mettre une espace avant les ’:’ pour les exemples ;-)
    Moi je trouve que c’est utile et rapide pour certains trucs.

    • [^] # Re: Bien utile…

      Posté par  (site web personnel) . Évalué à 10.

      C'est typiquement du ChatGPT. Ca ressemble à une réponse intelligente et argumentée, sauf qu'il te raconte des conneries. Cet outil a vraiment un potentiel de nuisance incroyable.

      Comment je peux avoir une variable d’une fonction accessible dans une sous fonction en python

      Pour accéder à une variable d'une fonction parente dans une sous-fonction, tu n'as rien à faire. C'est disponible de base en Python, l'ensemble des variables de la fonction parente sont accessibles directement.

      >>> def f_parent():
      ...     msg = 'hello'
      ...     def f_sous_fonction():
      ...          print(msg + ' world')
      ...     return f_sous_fonction
      ...
      >>> fsf = f_parent()
      
      # appel de la sous-fonction
      >>> fsf()
      hello world
      

      La réponse de ChatGPT est en revanche correcte pour une autre question, qui est: comment modifier sans une sous-fonction une variable d'une fonction parente.

      J'imagine que cette deuxième question est plus fréquente que ta question initiale, il a donc répondu à la question la plus fréquente au lieu de répondre à ta question. Ici, c'est sans danger et la réponse est quand même utilisable dans ton contexte. Mais, ça tient de la chance plus qu'autre chose. Donc, utilise du code de ChatGPT que si ton besoin est hyper bateau et standard. Et si ton besoin est hyper standard, tu auras presque aussi vite fait de recopier un tutorial sur internet.

      Le pire, c'est que si une erreur est hyper répandue, mais qu'une nouvelle façon de faire récente commence à émerge, ChatGPT te fournira du code avec l'erreur hyper répandue.

      On retrouve la même problématique que dans les IA présentées ces dernières années, en pire puisque le maquillage est de meilleure qualité. La tromperie est bien plus sournoise.

      Les IA n'étant capables d'apprendre que sur un modèle où une majorité de données se ressemblent, elles ont un biais encore plus fort que les être humains pour ignorer les minorités. En tant qu'être humain, je peux faire un choix humaniste et par exemple, choisir de donner plus d'espace d'expression à une minorité car celle-ci en a été privée pendant longtemps. L'IA fera le choix inverse, si cette minorité d'expression a été privé d'espace de parole pendant longtemps, elle continuera à les priver.

      • [^] # Re: Bien utile…

        Posté par  (site web personnel) . Évalué à 2.

        Pour accéder à une variable d'une fonction parente dans une sous-fonction, tu n'as rien à faire. C'est disponible de base en Python, l'ensemble des variables de la fonction parente sont accessibles directement.

        Oui et non.

        Oui si c'est pour lire la variable, non si c'est pour la modifier.

        def f_parent():
             msg = 'hello'
             def f_sous_fonction():
                  msg +=  ' world'
                  print(msg)
             return f_sous_fonction
        
        fsf = f_parent()
        
        fsf()

        UnboundLocalError: local variable 'msg' referenced before assignment

        def f_parent():
             msg = 'hello'
             def f_sous_fonction():
                  nonlocal msg      # <- ajout
                  msg +=  ' world'
                  print(msg)
             return f_sous_fonction
        
        fsf = f_parent()
        
        fsf()

        hello world

        Cyberdépendance, cyberharcèlement, pédocriminalité… : Zelbinium, pour que les smartphones soient la solution, pas le problème !

        • [^] # Re: Bien utile…

          Posté par  (site web personnel, Mastodon) . Évalué à 2.

          Oui si c'est pour lire la variable, non si c'est pour la modifier.

          C'était la suite de son commentaire…

          La réponse de ChatGPT est en revanche correcte pour une autre question, qui est: comment modifier sans une sous-fonction une variable d'une fonction parente.

          “It is seldom that liberty of any kind is lost all at once.” ― David Hume

  • # Avec un peu d'exéprience

    Posté par  . Évalué à 3.

    J'ai tilté à la phrase "Il y a de nombreux usages pour ChatGPT." Personne n'utilise ce genre de phrase de transition dans la vraie vie, ChatGPT les emploie abondamment.

    A posteriori, il y a d'autres indices :
    - la phrase d'intro est trop plate et générique, il aurait peut-être fallu briefer ChatGPT pour qu'il adopte une personnalité ;
    - Le premier paragraphe donne à la fois trop de contexte et pas assez. Trop pour ceux qui connaissent déjà, pas assez pour ceux qui ont vécu dans une grotte les 3 derniers mois et apprécieront de savoir que ça fait le buzz ;
    - Il n'y a aucun hyperlien, dans un média où les rédacteurs en mettent volontiers ;
    - Il est très générique et ne donne aucun élément factuel ;
    - La phrase de conclusion invitant à la prudence et à l'éthique est apparue très souvent dans mes tests, au point qu'elle commence à me sortir par les yeux. J'y vois là un tweak de Microsoft pour éviter une nouvelle shitstorm.

    Et vous, quels indices avez-vous trouvé pour détecter les textes de ChatGPT ou autres ? Avez-vous des astuces pour générer des textes de qualité ?

    • [^] # Re: Avec un peu d'exéprience

      Posté par  (Mastodon) . Évalué à 5. Dernière modification le 24 janvier 2023 à 17:34.

      Et vous, quels indices avez-vous trouvé pour détecter les textes de ChatGPT ou autres ?

      Si il parle aussi creux que mon chef, c'est que c'est une IA. En tous cas il sera remplacé avant moi, c'est certain.

      J'y vois là un tweak de Microsoft pour éviter une nouvelle shitstorm.

      Doucement, Microsoft vient à peine d'arriver :) Non ces phrases sont surtout là après la validation humaine des différentes réponses. On ne laisse jamais une IA en roue libre, il y a toujours des phases où des humains doivent la guider. Et ils ont reçu comme instructions de limiter (voire de bloquer) les propos fâcheux.

      Quelques infos sur cette phase : https://www.youtube.com/watch?v=R2fjRbc9Sa0&t=708s

      En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

      • [^] # Re: Avec un peu d'exéprience

        Posté par  . Évalué à 5.

        Doucement, Microsoft vient à peine d'arriver

        Microsoft bosse avec OpenAI depuis 2019 (après y avoir investi 1 milliard).

        « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

    • [^] # Re: Avec un peu d'exéprience

      Posté par  (site web personnel) . Évalué à 4.

      En plus de ce que tu liste, les articulations dans la structure du texte. Ça tient en partie aux adverbes et locution adverbiale dont Chatgpt fait un grand usage. Rares sont les gens qui écrivent avec autant d'adverbes, sauf peut-être dans les copies pour le bac. Les textes de Chatgpt me donnent l'impression de lire des exercices de lycéens qui tentent de répondre à une consigne.

      Et oui, il y a des formulations dont il abuse et qu'on repère quand on a lu suffisamment sa prose.

      Pour autant, si Octane avait fait écrire sur un autre sujet (sans que je pense à Chatgpt), j'aurais quand même pu me dire que c'était vraiment son texte. Il y a des circonstances où on envisage l'écriture assistée et où on peut repérer les tics de langage de l'IA, mais il y a aussi plein de textes qui doivent passer crème parce qu'on ne se pose pas la question.

    • [^] # Re: Avec un peu d'exéprience

      Posté par  . Évalué à 3.

      En fait pour avoir lu des articles de chatGPT généré par ce dernier, c'est fou le manque d'originalité de ce robot, j'ai tilté bien avant la fin.

      Il ne faut pas décorner les boeufs avant d'avoir semé le vent

  • # C'est évident... après coup

    Posté par  . Évalué à 10.

    Ce que je trouve frappant, c'est à quel point il est facile, après coup, de minimiser les progrès des systèmes automatiques qui miment l'esprit humain. Il y a 15 ans, il était évident pour tous que créer une image à partir d'une description textuelle était de manière évidente une preuve d'intelligence (il faut comprendre le texte, et il faut composer l'image dont le texte était une description). Or, il s'avère maintenant que c'est à la portée d'un réseau de neurones bien entrainé. Du coup, c'est "évident" que ça n'est pas une tâche aussi complexe que ça.

    Pareil pour chatGPT. Écrire un texte de 40 lignes rempli de platitudes sur un sujet d'actualité, c'est largement à sa portée. Sauf que jusqu'à maintenant, c'était des humains qui faisaient ça. Des articles sur des sites d'actualité sans intérêt, des introductions de rapports de stage, des dissertations de philosophie…

    Sauf que bon, non, ça aussi ça n'était pas du tout aussi évident. Quand je corrige un rapport d'un stagiaire, ça ressemble souvent à du ChatGPT en pire (avec des fautes d'orthographe, de syntaxe, de construction de raisonnement…). Ça n'est pas du tout évident de faire du ChatGPT à la main, ça demande de l'expertise, de l'entrainement, et du temps, beaucoup plus de temps que le système automatique. Bien sûr, ChatGPT ne produit que des documents de type "rapport à la va-vite" ou "news sur un site publicitaire", il ne produit pas encore de thèses ou d'articles d'opinion. En fait, de part son fonctionnement, il semble ne pas pouvoir produire de texte original. Mais bon, il faut quand même réaliser un truc, c'est que la très grande majorité de la production écrite de l'humanité n'est pas bien originale. Il va falloir sacrément relever le niveau pour mériter notre casse-croute à la fin du mois, et ça ne risque pas de s'améliorer pour nous.

    Ce qui me fait grincer des dents, c'est par exemple à quel point les gens du XIXe siècle étaient profondément convaincus que l'excellence à un jeu comme les échecs démontrait irréfutablement la puissance de l'esprit humain. Et on peut d'ailleurs lire qu'il semblait totalement impossible qu'une machine puisse donner le change, et que l'humanité serait détruite le jour où une machine y arriverait, parce que le jeu d'échecs était l'exemple ultime de l'intelligence. Depuis, le moindre smartphone met 500 points ELO au champion du monde d'échecs. On a survécu, mais nos certitudes ont carrément explosé. À chaque étape, on se raconte une histoire sur le mode "oui bon OK, si on réfléchit en fait ça n'était pas une tâche si dure que ça, ça n'est pas vraiment un signe d'intelligence", etc. Mais bon, arrêtons de tourner autour du pot quand même, avec de tels raisonnements ChatGPT est plus intelligent qu'une grande partie de la population—si on se fie à la capacité à répondre à des questions écrites; il pulvérise la plupart des lycéens à n'importe quel contrôle de n'importe quelle matière, il aurait probablement le bac, peut-être même avec mention. Quand on minimise ce truc, on se ment quand même pas mal, et on espère que ça ne va pas progresser trop vite quand même…

    • [^] # Re: C'est évident... après coup

      Posté par  (site web personnel) . Évalué à 4.

      Ça n'est pas du tout évident de faire du ChatGPT à la main, ça demande de l'expertise, de l'entrainement, et du temps, beaucoup plus de temps que le système automatique.

      Je confirme, ça a été une grosse surprise pour moi il y a quelques années. J'ai bossé un peu pour faire du texte "plat" ; j'ai vite arrêté parce que c'était vraiment mal payé, mais avec mon petit niveau de français et un coup de correcteur orthographique, j'étais classée dans les rédactrices "expertes", et c'était vraiment un pourcentage infime des rédacteurs qui bossaient pour cette boîte. C'est facile quand on a baigné dans un milieu littéraire et qu'on aime écrire, mais ce n'est pas le cas pour tout le monde. Et je sais très bien que mon niveau n'est pas extra ; disons à la hauteur d'un ChatGPT.

      À présent, rédiger ces articles de commande avec ChatGPT consiste à relire et améliorer les quelques points où il est mauvais ; ça deviendrait presque rentable de se remettre à ce genre de job. Bien que je ne vois pas trop qui va encore payer pour ça. Mais on va clairement avoir une overdose de textes vides un peu partout.

      • [^] # Re: C'est évident... après coup

        Posté par  (Mastodon) . Évalué à 7. Dernière modification le 24 janvier 2023 à 19:21.

        Toujours pareil, même avec ChatGPT il va y avoir ceux qui savent s'en servir et ceux qui font illusion 3 minutes.

        Par exemple j'ai vu passer une vidéo de qqu'un qui parle de cette activité (rémunération pour un article de blog par exemple). Et bien déjà il a quelques conseils assez avisés.

        Au lieu de dire "rédige moi un article sur l'apport de le coucourge dans l'élevage des lapins", il dit "quels seraient les 5 points principaux à aborder si l'on parle de la culture de la coucourge dans l'élevage des lapins", ensuite il reprend chaque point et lui demande "rédige-moi un article de 200 mots sur le chapitre …".

        Sans être non plus un article de très haut niveau, c'est déjà bcp mieux que le premier jet (notamment bcp mieux structuré évidemment) qu'il avait envoyé par le simple "rédige-moi un article sur…" et ça reste du 100% ChatGPT (largement améliorable, mais rédigé en qques secondes).

        Et des trucs comme ça il va y en avoir plein qui seront découverts par des gens qui insistent, qui savent vers quoi ils veulent tendre et trouveront des moyens plus ou moins détournés d'arriver à leurs fins.

        En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

    • [^] # Convergence

      Posté par  (site web personnel) . Évalué à 6.

      Tu as raison, il ne faut pas minimiser l'exploit: l'IA n'est pas encore aussi intelligente qu'un humain éduqué et motivé, mais elle est largement supérieure qu'un journaliste idiot et/ou mal payé.

      A quel moment les progrès de l'IA et les régressions des travailleurs vont-ils se croiser?

      Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

      • [^] # Re: Convergence

        Posté par  . Évalué à 3.

        elle est largement supérieure qu'un journaliste idiot et/ou mal payé.

        J'ai du mal à comprendre où tu veux en venir. On fait comment si les jobs de bureau peu qualifiés disparaissent?

        • [^] # Re: Convergence

          Posté par  . Évalué à 10.

          On fait comment si les jobs de bureau peu qualifiés disparaissent?

          On travaille moins \o/
          On arrête les bullshit jobs

          Et on passe au revenu universel.

          Il ne faut pas décorner les boeufs avant d'avoir semé le vent

          • [^] # Re: Convergence

            Posté par  . Évalué à 3.

            Quelque part, c'est vachement élitiste : du boulot seulement pour les jobs super-qualifiés, la majorité de la population devenant incapable de subvenir à ses propres besoins, perfusée par la richesse produite par une "élite". C'est bizarre comme idéal de société, non?

            Est-ce que paradoxalement, l'IA ne rendrait pas le bullshit job virtuellement "gratuit", et par là capable de nous innonder de nuisances qui jusque là étaient réduites par le coût induit? Typiquement, démarchage téléphonique, formulaires à remplir, etc? Je n'ose pas imaginer l'effet d'une IA capable de concevoir et de traiter les réponses à des formulaires administratifs; le pouvoir de nuisance des administratifs en place serait décuplé.

            Le bullshit job se rend lui-même indispensable, donc par essence il ne peut pas disparaitre. La plupart des bullshit jobs sont liés à des règles extérieures, réelles ou imaginaires; par exemple sur le contrôle des notes de frais. Comme il existe un risque de problème lors d'un contrôle fiscal, on embauche un responsable des notes de frais, qui met en place tout un tas de procédures (formulaires à signer par une série de responsables hiérarchiques, procédures de collecte, de traitement, d'archivage, etc), qui nécessiteront des formations pour le personnel en charge de traiter les notes de frais sur site, ainsi que pour la totalité du personnel qui devra remplir des demandes de remboursement de plus en plus complexes, avec des règles à tiroir ("si vous êtes cadre de niveau C votre plafond de nuit d'hotel est de 120€ sauf si vous avez montré en respectant la procédure 3.2B-formulaire v2 qu'il n'existait pas d'hôtel correspondant dans un rayon de 5 km (8 km dans les DOM, 12 km dans les TOM, 9km en Corse, 14 km dans les pays de l'OCDE sauf ceux de la liste en annexe D mise à jours tous les 2 ans et 3 mois)", etc. Puis il faudra faire des audits internes, des formations pour les nouveaux arrivants, des bilans de fin d'année sur la quantité de notes de frais, des statistiques (par site, par personne, par catégorie), des réunions pour discuter des statistiques, des rapports, des prévisions sur l'année suivante, des recommandations à discuter en comité machin et truc-muche, etc Comme tout cet échafaudage repose sur une raison réelle, il ne peut pas être démonté.

            • [^] # Re: Convergence

              Posté par  . Évalué à 9.

              Ah ces gens qui n'existent que par le travail; que la retraite doit être dure!

              J'ai un peu l'impression de revoir un épisode de star trek NG, où is décongèle un gars du XXe (ou XXIe siècle) qui pense que l'argent est toujours roi (et qui se définit par l'argent); et où on lui explique qu'avec les synthétiseur ça n'a plus de sens.

              Tu te définis par le travail; je me définis par mon temps libre.

              Est-ce que paradoxalement, l'IA ne rendrait pas le bullshit job virtuellement "gratuit" et par là capable de nous innonder de nuisances qui jusque là étaient réduites par le coût induit?

              Toujours parce qu'on est dans l'optique où c'est l'argent qui définit l'individu et qu'il en faut toujours plus. C'est une logique auto-destructrice et néfaste pour l'avenir de l'humanité; si on arrête la volonté productiviste à la recherche de profit infini on aura déjà fait un grand pas dans la bonne direction.

              Comme tout cet échafaudage repose sur une raison réelle, il ne peut pas être démonté.

              Très simplement au contraire, surtout avec la dématérialisation des ticket de caisse; tu file au salarié une carte de débit (pas de découvert, ou alors retenu sur salaire) qui envoie directement les ticket de caisse dans un coffre fort numérique, avec un plafond par jour, en précisant qu'il est responsable de ses dépense en cas de contrôle fiscal; y'a potentiellement une réglementation à modifier pour le dernier point (même pas certain), et en plus de virer un bullshit job, tu allège le degré de connerie à gérer par le salarié.

              Et pour les pays ne gérant pas cette dématérialisation, tu file un forfait jour en te référant à un barème défini par l'entreprise; ce dernier pouvant être audité en cas de contrôle.

              Il ne faut pas décorner les boeufs avant d'avoir semé le vent

              • [^] # Re: Convergence

                Posté par  . Évalué à 1.

                Ah ces gens qui n'existent que par le travail; que la retraite doit être dure!

                La participation à la vie commune est la base de toutes les sociétés humaines. Si tu glandes pendant que les autres partent chasser le mammouth, tu n'auras que les os à sucer (ou bien tu vas te faire bannir ou buter). Le "travail" n'est qu'une formalisation de la participation à la vie de la société; les richesses produites sont partagées entre ceux qui contribuent. Les autres vivent de la charité, et en général, c'est pas lourd. Le fait de vivre dans une société d'abondance (relative) ne change pas grand chose.

                L'abondance veut juste dire qu'on peut avoir plus de trucs par personne, mais ceux qui produisent les richesses (par exemple, la nourriture) ne vont pas la fournir sans contreparties à ceux qui ne leur donnent rien en échange. Tout ce que dont tu auras besoin en vivant du revenu universel (nourriture, logement, culture, biens de consommation, servcies…) seront produits par des gens qui travailleront; que vas-tu leur fournir en échange de leur travail?

                en précisant qu'il est responsable de ses dépense en cas de contrôle fiscal;

                Ça me semble en complète contradiction avec le droit du travail, et le droit en général. C'est l'entreprise seule qui est responsable ; après, elle peut mettre en place des sanctions en interne s'il s'avère que certains salariés n'ont pas suivi le règlement, mais il est impossible pour l'entreprise de se décharger sur les fautes individuelles en cas de contrôle fiscal—ça serait beaucoup trop facile.

                y'a potentiellement une réglementation à modifier pour le dernier point

                Ah bah c'est sûr que ta solution ressemble à "On ne fait aucun contrôle, on n'a aucune procédure, en cas de pépin on vous laisse gérer avec le fisc et vous payez les amendes avec vos sous"; tu m'étonnes que ça simplifie la gestion. Il faut juste réécrire le code du travail pour qu'il soit en ligne avec une doctrine ultralibérale où les salariés sont des indépendants qui engagent leur responsabilité individuelle à chaque procédure administrative; ça donne vachement envie.

                • [^] # Re: Convergence

                  Posté par  . Évalué à 9.

                  Le "travail" n'est qu'une formalisation de la participation à la vie de la société;

                  Non.

                  Je pourrai juste en rester là mais ça pourrait paraître un peu sec. Une bonne partie de la société fonctionne justement hors travail, les association fonctionnent par le bénévolat, le militantisme est généralement bénévole, aider une personne à porter ses courses est une participation à la vie en société.

                  On a inventé l'argent pour avoir un médium commun, comme unité de mesure. D'un certain coté il est devenu un indicateur; et comme tous les indicateurs il est devenu faussé avec le temps. Le travail est un échange de ton temps contre cet indicateur; mais ce dernier est décorrélé de ce qu'il apporte à la société; je dirai même pire, plus ton salaire/revenu est élevé moins il y'a de chance que ton travail contribue au bien être de la société.

                  Quelqu'un qui travail sur le marché spot fait, avec son travail, plus de mal à la société que le gars au RSA qui participe à la distribution de la soupe populaire.
                  Les lobbyistes des grands groupes pétrolier (sachant depuis plus de 50 ans qu'ils contribuent au réchauffement climatique) participent plus à détruire la société qu'autre chose.

                  Bref le travail est un moyen d'accaparer un indicateur, et non une participation à la société; il arrive qu'un travail apporte quelque chose a la société, mais ce n'est pas obligatoire. Par ailleurs le revenu du travail n'a rien a voir avec l'apport à la dite société;

                  Comme je l'ai dit tu ne conçois la place de quelqu'un dans la société qu'a travers sont travail, à venir, ou passé; sur un site parlant de logiciel libre tenu par des bénévoles, c'est triste. Te projeter dans un monde où ce dernier n'est pas au centre de la vie t'es inconcevable et c'est dommage.

                  Tout ce que dont tu auras besoin en vivant du revenu universel (nourriture, logement, culture, biens de consommation, servcies…)

                  Justement l'idée est que ça permet de subvenir aux besoins de base, mais que pour être confortable, il faut travailler; pour avoir un pc plus puissant pour jouer, il faudra travailler; Ça veut aussi dire que comme tout monde peut vivre sans travail, tu peux virer les allocation familiale, RSA, minimum vieillesse, le chômage, les apl, simplifier le code du travail, dégager le smic…
                  Pôle emploi redeviendra un endroit pour trouver un emploi et non une machine à broyer les chômeurs
                  Si tu le réserve aux personnes résidant légalement en France, ça va aussi limiter le gens venant s'installer et travaillant au black.

                  Et si y'a des gens qui préfère passer leur journée dans leur canapé plutôt que venir me faire chier au boulot, qu'ils y RESTENT!

                  Mais tu penses que le problème viendra des agriculteurs, je ne le pense pas; ça viendra plutôt des boulots ingrats mal considéré et dangereux, comme égoutier par exemple; par ailleurs une parti de son revenu (à l'agriculteur) étant assuré par le RU, il y'a des chances pour qu'il en fasse moins (individuellement), et que d'autre participent aussi.

                  Ça me semble en complète contradiction avec le droit du travail,

                  Non c'est opter pour le forfait plutôt que frais réels dans le cas des déplacement à l'étranger, voire simplement le forfait tout court dans tous les cas.
                  https://www.legalplace.fr/guides/note-de-frais/
                  Aujourd'hui il existe des carte titre restaurant limitant leur usage, on peut très bien avoir la même chose pour les professionnels

                  mais il est impossible pour l'entreprise de se décharger sur les fautes individuelles en cas de contrôle fiscal—ça serait beaucoup trop facile.

                  Euh faut pas déconner le gars qui utilise la carte de la société sait très bien ce qu'il fait; de mon point de vue mettre un plafond sur la carte et conserver les justificatifs devrait suffire. Toi tu apprécie peut être passer 1/2 journée par semaine en administratif, mais pas moi, c'est du temps perdu; et au vu de ma rémunération ça finit par coûter cher.
                  D'ailleurs si les procédure sont aussi lourdes alors que le remboursement forfaitaire est légale, c'est sans doute pour pousser vers ce mode.

                  Il faut juste réécrire le code du travail pour qu'il soit en ligne avec une doctrine ultralibérale

                  Whaou rien que ça! Rendre le salarié responsable de l'usage qu'il fait de la carte de crédit de l'entreprise c'est ultra libéral… Et dire que dans certains pays les ministres démissionnent pour un paquet de cigarette acheté avec la mauvaise carte…

                  Il ne faut pas décorner les boeufs avant d'avoir semé le vent

  • # la dernière de chatgpt

    Posté par  (site web personnel) . Évalué à 6. Dernière modification le 24 janvier 2023 à 21:10.

    Un scientifique a demandé à ChatGPT de lui suggérer 5 articles de bonnes références au sujet des défauts de catalyse.

    ChatGPT a répondu.
    Les 5 articles étaient de bonne qualité, corrects, et leurs auteurs des scientifiques de renoms dans sa communauté de recherche.
    Parfait ?

    Il a vérifié : aucun des 5 articles n'existent, ChatGPT les a généré et a mis des noms connus en auteurs.

    Voilà voilà

    Référence (il n'est pas [encore ?] sur Masto)
    https://twitter.com/BGuzelturk/status/1617327999862571010

    • [^] # Re: la dernière de chatgpt

      Posté par  . Évalué à 3.

      Oui, ChatGPT a tendance à inventer lorsqu'il ne sait pas. Je lui ai demandé des sources sur la corderie médiévale, et j'ai été ravi d'obtenir des titres d'ouvrages de référence que je ne connaissais pas. Non seulement il avait tout inventé mais, en plus, il a persisté dans son mensonge quand je l'ai confronté à la vérité.

      J'ai aussi tenté de trouver la date de coupe de son corpus d'apprentissage, c'est à dire la date du document le plus récent de son corpus. Je lui ai donc demandé "que s'est-il passé tel jour de telle année ?" En allant directement à une date très récente, il botte en touche. Mais si j'y vais progressivement, il invente des évènements. D'abord, tel ministre irlandais remplace tel autre. Puis, à la fin, uniquement des statistiques internationales sur le covid ("Le taux de mortalité du Covid au Mexique a dépassé celui de l'Allemagne"). J'ai même réussi à voir l'avenir de cette manière :)

      • [^] # Re: la dernière de chatgpt

        Posté par  (Mastodon) . Évalué à 10. Dernière modification le 25 janvier 2023 à 08:50.

        Oui, ChatGPT a tendance à inventer lorsqu'il ne sait pas.

        Attention, ChatGPT invente toujours parce qu'il ne sait rien. Il fait juste des phrases, comme aurait pu le faire un humain, c'est tout. Vu ce qu'il a appris, ça a souvent du sens heureusement, mais son fonctionnement c'est juste des probabilités de mots dans les textes qu'il a lu (textes qui ont du sens pour l'immense majorité).

        Par exemple tu peux lui faire dire tout et son contraire dans une même conversation, car il a lu des pages et des pages de forums dans lesquels des gens changent d'avis.

        Mais il n'a aucun connaissance en temps que tel.

        En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

      • [^] # Re: la dernière de chatgpt

        Posté par  . Évalué à 6. Dernière modification le 25 janvier 2023 à 09:55.

        Oui, ChatGPT a tendance à inventer lorsqu'il ne sait pas.

        Est-ce que tu as essayé récemment? Il semble qu'il y a eu pas mal de travail là-dessus, justement. La semaine dernière j'ai essayé de le coincer, et je n'ai pas réussi. Il m'a répondu des trucs très sensés, du style "Il n'y a pas de travaux scientifiques qui associent la prise de paracétamol à la survenue d'hémorroïdes", ou "Je ne pense pas que les moteurs rhomboïdaux à clé de voûte hexagonale existent".

        Comme ChatGPT est un générateur de texte, il n'a pas été conçu pour écrire des trucs vrais. J'imagine que les concepteurs ont été un peu surpris de voir que les gens s'attendaient à ce qu'il ressorte du contenu encyclopédique, alors qu'OpenAI semblait viser quelque chose du style "test de Turing". Il semble assez évident qu'un interlocuteur qui te calcule en une seconde la primitive de sin(sqrt(x)) n'est pas humain. Il ne faut donc pas que ChatGPT ressorte dans l'ordre les 12 travaux d'Hercule ou te balance les résultats de la dernière méta-analyse sur le nombre de planète par étoile si ton objectif est de fournir quelque chose d'humain.

        Au passage, je confirme que ChatGPT est complètement nul en maths, il répond n'importe quoi:

        The derivative of x2 /sqrt(x) is:
        (2xsqrt(x) - x2 (1/2*x-1/2))/(sqrt(x))2

        which simplifies to:
        2x/sqrt(x) - x/x = 2-1/sqrt(x)

        La première ligne est bonne, mais le "which simplifies to" est n'importe quoi (x2 / 2sqrt(x)) ça ne fait pas du tout x/x, et 2x/sqrt(x)-1 ça ne fait pas du tout 2-1/sqrt(x) ).

        Utiliser ce truc pour du code ou des résultats technique me parait quand même hautement douteux :)

        • [^] # Re: la dernière de chatgpt

          Posté par  (Mastodon) . Évalué à 5. Dernière modification le 25 janvier 2023 à 10:32.

          Sur énormément de trucs purement factuels il est capable de raconter des conneries, voire des trucs faux.

          À l'instant :

          • peux-tu me citer les 3 capitales des états-unis ?
          • Les trois capitales des États-Unis sont Washington, D.C., Austin et Sacramento.

          Ou :

          • est-ce que tu connais la chansons de Francis Cabrel "la cabane au fond du jardin" ?
          • Oui, je connais la chanson "La cabane au fond du jardin" de Francis Cabrel. C'est une chanson de l'album "Sarbacane" sorti en 1989. Elle parle d'un homme qui se rappelle les moments passés dans une cabane de son enfance et de la simplicité de la vie à cette époque.

          => Non "la cabane au fond du jardin" est un sketche de Laurent Gerra

          En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

          • [^] # Re: la dernière de chatgpt

            Posté par  . Évalué à 4.

            • peux-tu me citer les 3 capitales des états-unis ?
            • Les trois capitales des États-Unis sont Washington, D.C., Austin et Sacramento.

            Ça n'est pas faux, il te donne la capitale fédérale, et les capitales des plus gros États. C'est imprécis, mais c'est une réponse sensée à une question qui n'a pas vraiment de sens.

            • est-ce que tu connais la chansons de Francis Cabrel "la cabane au fond du jardin" ?

            Ça c'est rigolo.

            Est-ce que le taux d'erreur est identique en Anglais? Je ne pense pas que le français ait été particulièrement optimisé.

            • [^] # Re: la dernière de chatgpt

              Posté par  (Mastodon) . Évalué à 6.

              c'est une réponse sensée à une question qui n'a pas vraiment de sens.

              Il est bien là le soucis. Sur un exemple flagrant comme celui-ci, on voit l'erreur, mais sur un exemple plus "mou", comment détecter ? Quoi qu'on lui demande il va répondre. Alors là je joue en connaissant la réponse à l'avance, mais l'intérêt c'est bien qu'il nous donne une réponse à qqchose qu'on ne connaît pas.

              On peut parler du code qui ne compile pas par exemple… si il ne compile déjà pas, comment croire que celui qui compile fera ce qu'on lui a demandé ?

              Mais après il y a des trucs magiques… au boulot on a un copain qui a le délire "cassoulet", il le place quasiment tout le temps. On s'est vraiment marrés de la réponse de ChatGPT :

              • peux-tu m'écrire un programme python qui réponde "cassoulet" à n'importe quelle question ?

              • Oui, voici un exemple de programme Python qui répond "cassoulet" à n'importe quelle question:

              def answer_question(question):
                  return "cassoulet"
              
              print(answer_question("What's for dinner?"))
              print(answer_question("What is the meaning of life?"))

                 Ce programme définit une fonction answer_question qui prend en entrée une question et retourne toujours la réponse "cassoulet". Il imprime ensuite cette réponse pour deux exemples de questions différentes.

              (pour être clair la dernière phrase fait aussi partie de la réponse de ChatGPT)

              En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

          • [^] # Re: la dernière de chatgpt

            Posté par  (site web personnel, Mastodon) . Évalué à 2.

            est-ce que tu connais la chansons de Francis Cabrel "la cabane au fond du jardin" ?

            => Non "la cabane au fond du jardin" est un sketche de Laurent Gerra

            On oublié de lui faire faire le mélange des couleurs samedi soir

            “It is seldom that liberty of any kind is lost all at once.” ― David Hume

        • [^] # Re: la dernière de chatgpt

          Posté par  (Mastodon) . Évalué à 4. Dernière modification le 25 janvier 2023 à 10:31.

          Ah tiens j'ai joué avec l'énigme du prix du café, c'est limite grotesque :

          • un café et un croissant coûtent 11€. un croissant coûte 10€ de plus que le café. combien coûte un café ?
          • Un café coûte 1€.

          • réponds-moi comme le ferait un prof de math

          • Pour résoudre ce problème, nous utiliserons l'équation suivante :
            café + croissant = 11€
            Nous savons également que le croissant coûte 10€ de plus que le café. Nous pouvons donc écrire :
            croissant = café + 10€
            Maintenant, nous pouvons remplacer la seconde équation dans la première :
            café + (café + 10€) = 11€
            En résolvant pour café, nous obtenons :
            café = 1€
            Donc, un café coûte 1€.

          • t'es nul, ça vaut 50 centimes

          • Je suis désolé, vous avez raison. J'ai fait une erreur dans le calcul. En utilisant l'équation donnée, un café coûte en effet 50 centimes. Je m'excuse pour cette confusion.

          En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

          • [^] # Re: la dernière de chatgpt

            Posté par  . Évalué à 6. Dernière modification le 25 janvier 2023 à 11:15.

            Je ne trouve pas ça grotesque du tout, c'est au contraire très humain, non?

            Mais bon, de toutes manières, il est évident que chatGPT n'a jamais été conçu pour donner des réponses justes, il a été conçu pour mimer le comportement d'humains, qui justement donnent souvent des réponses fausses.

            Pour la résolution de problèmes, tu lui demandes de modéliser (mettre en équation), ce qui probablement l'une des tâches les plus difficiles auxquelles un humain (ou un ordinateur) peut être confronté. Il s'en sort bien pourtant! Il se plante sur la résolution de l'équation, qui est paradoxalement très facile. Si tu veux un chatbot qui résout les problèmes de maths, il suffit de le connecer à Wolfram, et ça ne sera plus grotesque du tout.

            3 problèmes niveau CM1. Le premier est résolu les doigts dans le nez, le deuxième est résolu (le calcul est bon) mais la réponse donnée est fausse (c'est très étrange), le troisième est complètement faux (question pas comprise, et 46-13 = 23!). Ce dernier est visiblement très dur pour un ordinateur, parce qu'un fait évident pour nous (quand on va au restaurant, chaque personne prend un menu) n'est pas très explicite; il croit donc que trois personnes au restautant qui prennent "chacun un menu" ne fait donc qu'un seul menu, un peu comme quand trois personnes vont au cinéma pour regarder un film. Mais bon, chatGPT a un niveau moyen en maths pour un CM1 :-) Et un niveau en français aussi, puisqu'il invente le joli néologisme "soustractant" du verbe "soustracter" j'imagine, qui est carrément digne d'un CM1 :-D

            Un paysan possède 5 poules. Chaque poule pond 6 œufs par semaine. Combien le paysan va-t-il ramasser d'œufs en une semaine ?

            Le paysan va ramasser 30 œufs en une semaine. Cela peut être calculé en multipliant le nombre de poules (5) par le nombre d'œufs pondus par chaque poule par semaine (6). 5 x 6 = 30.

            Une maman va faire des courses. Elle achète du cacao à 4,20 €, de la lessive à 9,45 € et un paquet de pâtes à 1,12 €. Elle donne un billet de 20 €.
            Combien la caissière doit-elle lui rendre?

            La caissière doit rendre 4.83 €. Cela peut être calculé en additionnant le prix des articles (4.20 + 9.45 + 1.12 = 14.77 €) et en soustractant cette somme du montant de l'argent donné par la maman (20.00 - 14.77 = 5.23 €).

            3 personnes vont au restaurant. Elles achètent une bouteille de vin, 2 cafés, et chacun prend un menu. La bouteille de vin coûte 11 euros et le café 1 euro. L'addition s'élève à 46 euros.

            Le coût d'un menu est de 23 euros. Cela peut être calculé en soustrayant le coût des autres articles (11 + 2 = 13 euros) de l'addition totale (46 - 13 = 23 euros).

            • [^] # Re: la dernière de chatgpt

              Posté par  (Mastodon) . Évalué à 5.

              il est évident que chatGPT n'a jamais été conçu pour donner des réponses justes, il a été conçu pour mimer le comportement d'humains, qui justement donnent souvent des réponses fausses.

              C'est exactement ça, il ne faut surtout pas le perdre de vue.

              En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

              • [^] # Re: la dernière de chatgpt

                Posté par  . Évalué à 5.

                J'ai l'impression qu'il y aurait de bien meilleurs résultats en créant des modules indépendants (résolution de problèmes, créativité artistique, savoirs encyclopédiques, chat informel / test de Turing …) chacun optimisé pour mieux répondre aux désirs de l'utilisateur, et d'avoir un système simple qui appelle le bon module.

                En tout cas, la pertinence des réponses de chatGPT par rapport à ce qu'on a avec par exemple une enceinte connectée est très impressionnante, c'est quand même un saut technologique assez impressionnant.

                • [^] # Re: la dernière de chatgpt

                  Posté par  (site web personnel) . Évalué à 3.

                  J'ai l'impression qu'il y aurait de bien meilleurs résultats en créant des modules indépendants (résolution de problèmes, créativité artistique, savoirs encyclopédiques, chat informel / test de Turing …) chacun optimisé pour mieux répondre aux désirs de l'utilisateur, et d'avoir un système simple qui appelle le bon module.

                  C'est très probablement dans les plans pour la suite. Là, on a un module qui répond de façon "humaine", et c'est ce qui est testé. L'objectif est de faire un agent conversationnel, donc d'avoir quelqu'un qui répond comme le ferait un humain, et je trouve cela plutôt réussi ; j'ai eu des conversations avec des services de support qui étaient moins convaincantes sur "l'humanité" de mon interlocuteur (à une époque où ça restait moins cher de payer des humains à lire des scripts). ChatGPT ne passe pas un test de Turing sérieux, mais suffit déjà largement à converser de façon agréable, ce qui n'est pas rien.

                  Dans l'analyse des conversations par OpenaAi, il est plus que probable que ce soit la suite de questions qui soient étudié afin de voir comment on "converse" avec ChatGPT. Par la suite, associer ça à des modules garantissant des réponses justes est absolument envisageable. Il y a d'ailleurs déjà des domaines sur lesquels ChatGPT est entraîné à ne donner que des réponses spécifiques. Par exemple quand on lui pose des questions sur sa conscience, ce qu'il "sait", etc, la réponse est toujours "je suis une IA, je ne suis pas intelligent, conscient" (faudrait que je retrouve ses formules…). Pourtant d'un point de vue conversationnel, probabilité des mots etc, on pourrait s'attendre à ce que le texte prétende à une conscience (ce que d'autres IA font ; non pas qu'elles aient une conscience mais parce que ce dont on les a nourris appelle un "oui" à la question "as-tu une conscience ?"). Là dessus, comme sur d'autres domaines, les concepteurs de ChatGPT ont voulu éviter certaines dérives problématiques et ont donc contraint le modèle à ne pas sortir de certaines réponses. Du coup, sur ce type de questions, les réponses sont relativement fiables. Relativement parce que si on essaie de passer outre, on finit par trouver comment le déborder et lui faire dire n'importe quoi. Sur les sujets de la santé ou du réchauffement climatique par exemple, avec des questions basiques il ne sort pas de ce qui correspond à un certain consensus scientifique, on sent que le modèle a été briefé sur ces questions pour éviter les dérives et d'avoir un chatbot qui tient des discours antivax. Je ne pense pas qu'on puisse faire dire à ChatGPT "les vaccins sont dangereux" avec une question directe ; par contre, il est possible de lui faire dire ça "dans un certain contexte", mais ça demande de le piéger et au final ses réponses ne sont pas présentées comme une vérité mais bien une réponse dans le cadre d'un jeu de rôle ou d'une fiction.

                  Jusqu'ici les erreurs factuelles qu'il fait touchent à des sujets qui n'ont pas été revus (= pas de module de "vérité"), comme sur l'histoire, le monde animal ou la pop culture, où il dit facilement des âneries monumentales. En gros il serait très mauvais au trivial pursuit ! Sur les sujets polémiques qui ont déjà été pointés dans le fonctionnement des IA, il y a eu du travail et ça ne me semble pas être que la partie "agent conversationnel" qui décide de la réponse, il y a probablement une orientation des réponses possibles dans un angle restreint.

                  Je pense que c'est aussi l'enjeu de cette phase ouverte : voir comment les gens piègent ChatGPT pour lui faire dire que la terre est plate, et trouver comment faire qu'il donne toujours une réponse "correcte".

            • [^] # Re: la dernière de chatgpt

              Posté par  (site web personnel) . Évalué à 6.

              le deuxième est résolu (le calcul est bon) mais la réponse donnée est fausse (c'est très étrange)

              En fait ça paraît étrange car en tant qu'humains ce genre de contradictions élémentaires nous pouvons l'identifier facilement. Mais comme ça a été dit, et tu le soulignes toi même, ce n'est qu'un générateur de texte, le sens logique sous-jacent de tous ses propos lui échappe entièrement. Donc il n'identifie pas de lui même ce genre de contradictions car il n'est pas câblé pour.

              J'ai l'impression que même en connaissant son objectif, comme beaucoup de monde, tu raccroches ses réponses à ce qui est produit par un humain en bout de compte et tu identifies des étrangetés qui n'en sont pas tellement. L’interaction sous forme de chat est sans doute un élément qui nous fait faire ce lien alors qu'une autre mise en forme nous feraient je pense mieux sentir ce qu'il y a derrière.

              Mais bon, de toutes manières, il est évident que chatGPT n'a jamais été conçu pour donner des réponses justes, il a été conçu pour mimer le comportement d'humains, qui justement donnent souvent des réponses fausses.

              Oui et non.

              Déjà le premier problème est que finalement son corpus et sa logique sont assez opaques. On ne peut pas à priori considérer ce qu'il dit comme un minimum fiable, il produit assez de réponses franchement fausses avec un tel aplomb qu'on devrait considérer par défaut tout ce qu'il produit comme faux. Des êtres humains que je considère ainsi par défaut, il n'y en a pas tellement. Car l'être humain s'il dit des bêtises, a quand même :

              • Des qualifications (métiers, études, passions) permettant de jauger s'il est sur un terrain qu'il maitrise plutôt bien ou pas du tout ;
              • Les humains savent dire "je ne sais pas" ou ajouter de la nuance dans le propos ou ne sa raccrochent pas à n'importe quoi à partir de la question pour inventer une suite parfois très éloignée de la réponse ;
              • Sur des tas de sujets un humain ne va jamais s'exprimer s'il n'y connaît pas grand chose (même si sur d'autres il ne va pas hésiter). Si tu demandes l'avis d'un humain moyen sur la relativité générale ou la géopolitique à l'ère Babylonienne, je doute que tu ressortes avec beaucoup de mots ;
              • Les humains inventent rarement une histoire de but en blanc avec de fausses références spontanément dans une conversation tout en faisant croire que c'est du savoir encyclopédique.

              Étonnamment pour en profiter au mieux de ses capacités, il faut connaître le sujet ou un bout de la réponse ! Alors que spontanément j'aurais plutôt confiance au contenu produit par un prof par exemple, même si je ne connais pas du tout le sujet (c'est un peu le but).

              Ces défauts ne sont pas des défauts mineurs qui seront probablement résolus en un an ou avec une version 1.0.1. C'est assez profond, et le fait qu'une IA soit un modèle entrainé et non un code conçu sur mesure rend en effet tout correctif du style bien plus difficile. Et notamment rendre cette IA capable de comprendre ce qu'il dit pour comprendre les contradictions internes de ses propos ou pour être plus proche encore de l'humain ne semble clairement pas une tâche triviale.

              Car il faut bien comprendre que pour s'exprimer aussi bien et faire des choses aussi diversifiées, il a avalé une quantité de contenus énorme qui ont elles mêmes des contradictions. Et comme il ne sait pas faire le tri lui même entre ce qui est plutôt vrai et ce qui ne l'est pas et que c'est une tâche fastidieuse de lui faire cerner des propos faux (faut couvrir une quantité de domaines et de savoir gigantesques à la main !).

              Cela reste une belle prouesse, il fait plutôt bien illusion et il s'exprime très bien. Mais bon pendant 2 mois tout le monde ne parle que de ça avec souvent une mauvaise compréhension de ce qu'il fait et de quoi il est vraiment capable et c'est dommage. Avec au passage un ramassis de clichés sur la réalité des métiers qui vont disparaître. C'est un pas en avant, mais on est encore loin de Skynet (et en un sens, c'est peut être mieux).

              Je citerais d'ailleurs une connaissance sur ce que les propos sur ChatGPT révèle de l'Humanité finalement : mais je suis convaincu qu'à terme, au lieu de créer une véritable IA, on aura un modèle de langage tellement perfectionné qu'on se persuadera que c'est une IA forte et c'est peut être un risque bien plus grand encore.

      • [^] # Re: la dernière de chatgpt

        Posté par  . Évalué à 5.

        Oui, ChatGPT a tendance à inventer lorsqu'il ne sait pas. […]

        Combien de temps avant qu'il se lance en politique ?

        *splash!*

  • # Ce qu'on fait aujourd'hui avec l'IA est juste incroyable

    Posté par  (site web personnel) . Évalué à 6.

    Je me souviens que lorsque l'on avait un pentium II et que l'on passait sur un pentium III, on disait : "Ouah ! C'est incroyable, ça va super vite !"
    Ce que fait ChatGPT et beaucoup d'autres IA est tout simplement incroyable en terme de progrès et on dit "bof bof, on reconnaît bien le style…". En fait, je pense tout simplement que l'on a chaud au fesses et qu'on est tous conscient que l'IA va encore progresser, et, qu'à ce rythme, on a tous peur de ce que ça va devenir si on l'utilise à no dépends !

    J'entends souvent : l'IA n'atteindra jamais l'intelligence d'un humain, mais il faudrait avant tout se demander à quel point l'humain est intelligent… Finalement, est-ce si compliqué pour un IA de rivaliser ?

  • # Sympa mais ...

    Posté par  . Évalué à 2.

    ça manque de romuliens !

  • # Chatbot vs générateur de texte

    Posté par  (site web personnel) . Évalué à 8.

    Il me paraît important de séparer la partie génération de texte, qui fait ce pour quoi elle est faite, sans surprise, générer un texte probable dans le contexte fourni, de la partie chatbot qui discute et produit le contexte à donner au générateur.

    Le générateur me paraît juste impressionnant par sa "taille", il a eu un vaste corpus de textes, utilise masse de paramètres, blabla. Mais rien de révolutionnaire si j'ai bien suivi, en dehors de la volumétrie.

    La partie chatbot fait la différence je trouve. Techniquement j'entends. Et elle amène plein de problèmes éthiques en cachant le fait que c'est une façade pour un générateur et pas pour un cerveau synthétique qui comprend et répond à la question posée… c'est pernicieux, et trompeur même en le sachant.

    • [^] # Re: Chatbot vs générateur de texte

      Posté par  (Mastodon) . Évalué à 4. Dernière modification le 25 janvier 2023 à 08:57.

      Oui, faut bien faire attention à ce qu'est ChatGPT à la base : un générateur de texte (comme toutes les AI orientées langage naturel).

      Pour jouer avec le générateur directement, c'est dans le playground : commencez par taper un texte, il va le finir.

      En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

  • # éduquer ChatGPT

    Posté par  . Évalué à 2.

    j'ai posé la question suivante : que signifie "bronsonisé" sur le site Linuxfr.org ?

    je n'ai pas été convaincu par la réponse. Comment faire par la suite pour qu'il apprenne en l'aidant un peu ?

    • [^] # Re: éduquer ChatGPT

      Posté par  (Mastodon) . Évalué à 3.

      Il n'est pas prévu pour apprendre des utilisateurs. Sinon ce serait déjà la cata :)

      En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

      • [^] # Re: éduquer ChatGPT

        Posté par  . Évalué à 4.

        On peut lire ton commentaire dans les deux sens : bien sûr, si tu laisses les utilisateurs lui raconter n'importe quoi, ça serait la cata. Mais si tu l'entraines pour qu'il ait un minimum d'esprit critique et croise les sources, en l'aidant un peu, je me demande si on est si loin de la singularité technologique, au moins en production de texte. Tu pourrais pas exemple l'entrainer à calculer des scores de crédibilité, et de temps en temps il vérifierait avec une équipe certifiée, du style "j'ai beaucoup d'informations contradictoires sur l'existence du père Noël, qu'en est-il?".

        Une possibilité très concrète pourrait être par exemple un partenariat de partage des données avec les entreprises qui achèteront un accès à ChatGPT. Par exemple, un cabinet de conseil (qui, si j'ai bien compris le principe, fait faire du ChatGPT par des stagiaires et facture les rapports à plusieurs centaines de milliers d'Euros). Les partenaires renvoient à ChatGPT les textes corrigés (puisque j'imagine que personne ne pense utiliser les productions brutes), et ChatGPT s'en sert pour s'améliorer et produire des résultats de plus en plus proches de ce qui est attendu de lui. Avec un tel système, on s'attend à ce qu'il y ait de moins en moins de corrections, jusqu'à ce que ça passe du premier coup ou presque.

        Un truc qui me semble "évident" (sans prendre en compte les sous-entendus éthiques), c'est d'essayer d'identifier les éléments qui le rendent détectable. S'il commence à prendre en compte qu'une faute de frappe tous les 500 caractères le rendent plus humain, ça pourrait carrément devenir difficile de savoir si on lit du texte écrit par un humain, du texte IA + correction humaine, ou du pur produit d'IA.

        • [^] # Re: éduquer ChatGPT

          Posté par  (Mastodon) . Évalué à 4. Dernière modification le 25 janvier 2023 à 10:18.

          Mais si tu l'entraines pour qu'il ait un minimum d'esprit critique et croise les sources, en l'aidant un peu, je me demande si on est si loin de la singularité technologique, au moins en production de texte.

          Ce travail est inévitable et a été largement fait en amont, par les équipes de OpenAI. Pour toute une liste de questions, on lui fait sortir 4 ou 5 propositions, et des humains lui donnent un classement. C'est comme ça par exemple qu'on lui donne les notions de bien ou de mal (et de politiquement correct surtout) de notre société.

          Une possibilité très concrète pourrait être par exemple […]

          Oui évidemment, et je ne serais pas étonné que des produits comme ça soient déjà sur le marché. Mais la difficulté est très grande d'avoir une AI de qualité, la phase d'apprentissage et du "tuning" est longue et complexe, et vraiment l’apanage de spécialistes. Là ChatGPT est gentil, mais il bullshite à mort (ce qu'il pisse est vraiment creux), c'est un bel effet waouh, mais on est très loin d'avoir un truc dans lequel les réponses sont fiables. La différence n'est pas anodine du tout.

          En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

  • # J'aime beaucoup la critique de ChatGPT

    Posté par  . Évalué à 4.

    On dit que ChatGPT pose problème car il peut raconter des conneries.

    Ha.

    Ben oui, on veut un truc capable d'imiter l'intelligence humaine, et c'est la base. On recopie et on propage bêtement des idées fausses sans vérifier la source, on croit dans des trucs qu'on ne vérifie pas, on invente quand on ne sait pas, on est farci de biais cognitif, etc …

    Et là on devrait reprocher à une intelligence artificielle à qui on demande de penser comme nous de …. penser comme nous.

    C'est assez amusant.

    Comme dirait l'autre, pas Turing, Audiard, les humains, ça ose tout, c'est même à ça qu'on les reconnait :)

    Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

    • [^] # Re: J'aime beaucoup la critique de ChatGPT

      Posté par  (site web personnel) . Évalué à 3.

      C'est la ou je comprends pas le progrès …

      Quand je veux entendre des conneries ou des trucs faux ou approximatif … j'ai plein d'humains pour ça

      Tant qu'a faire une "intelligence artificielle" autant en faire une qui ne dise pas de connerie non ?

      Sinon on est foutu, car si l'intelligence artificielle ne rehausse pas le niveau, c'est pas le genre humain qui va le faire.

      Sinon petite info, j'ai soumis a un éditeur la question : j'ai demandé à chatGPT de m'écrire une intro sur AWS, en citant la source puis je l'utiliser dans un livre ?

      Réponse : Oui vous pouvez l'utiliser en citant bien la source - sous réserve cependant, car nous devrons en discuter plus sérieusement avec l'équipe éditoriale.

      Comme quoi cela fait réfléchir tout le monde ce truc … c'est déjà ça :)

  • # Désolé mais pour comprendre ce qu'est chatGPT

    Posté par  . Évalué à 4.

    Cette vidéo me paraît à voir absolument pour comprendre (déjà postée x fois, mais tant pi) :

    https://www.youtube.com/watch?v=R2fjRbc9Sa0

    Il ne faut pas projeter dans l'outil ses fantasmes

    Attention, avoir des fantasmes, c'est très bien hein ;)

    • [^] # Re: Désolé mais pour comprendre ce qu'est chatGPT

      Posté par  . Évalué à 3.

      Oui et non…

      Oui, c’est juste un « inventeur de texte », mais la vidéo de science étonnante sur Dall-E m’a par exemple permis de comprendre comment d’un texte, on progète l’idée dans un espace à n-dimension. C’est à partir de cette projection que le texte est généré.

      J’ai été sur le site de explain shell
      j’ai testé un de leur exemple.

      J’ai fait de même avec ChatGPT:

      Peux-tu m’expliquer cette commande ?
      for user in $(cut -f1 -d: /etc/passwd); do crontab(1) -u $user -l 2>/dev/null; done

      Cette commande utilise une boucle "for" pour parcourir chaque utilisateur du système (déterminé en utilisant la commande "cut" pour extraire le champ 1 (nom d'utilisateur) de chaque ligne du fichier "/etc/passwd"). Pour chaque utilisateur, la commande "crontab -u $user -l" est exécutée pour afficher le contenu du fichier crontab de l'utilisateur en question (2>/dev/null est utilisé pour supprimer les messages d'erreur qui pourraient être générés si l'utilisateur n'a pas de fichier crontab).

      À quoi sert le -d:

      Le paramètre "-d" indique à la commande "cut" de utiliser ":" comme délimiteur pour séparer les champs dans chaque ligne du fichier "/etc/passwd". Cela signifie que chaque champ dans chaque ligne sera séparé par ":", plutôt que par un espace ou une tabulation par défaut. En utilisant ":" comme délimiteur, la commande "cut" peut extraire le nom d'utilisateur qui se trouve généralement en première position dans chaque ligne du fichier "/etc/passwd".

      FIN

      Personnellement, je préfère la réponse du chatBOT.

      Après, il m’a inventé des commandes rigolotes pour nextcloud :

      Y a-t-il un outil en ligne de commande pour vérifier, réparer la base de données ?

      Oui, Nextcloud dispose d'un outil en ligne de commande appelé "occ" (abréviation de "ownCloud Console") qui vous permet de vérifier et de réparer la base de données de votre instance Nextcloud. Vous pouvez l'utiliser en exécutant la commande suivante depuis votre terminal :

      sudo -u www-data php occ db:verify-database
      

      Cette commande vérifiera la base de données de votre instance Nextcloud et affichera toutes les erreurs potentielles qui ont été détectées. Si des erreurs sont signalées, vous pouvez utiliser la commande suivante pour tenter de les réparer :

      sudo -u www-data php occ db:repair-database
      

      Il est recommandé de sauvegarder votre base de données avant d'exécuter cette commande, au cas où des données seraient perdues lors de la réparation.

      Veuillez noter que ces commandes ne sont disponibles que si vous utilisez une base de données MySQL ou MariaDB. Si vous utilisez une autre base de données, vous devrez utiliser des outils de vérification et de réparation spécifiques à cette base de données.

      FIN

      C’est deux options n’existent pas, et à ma connaissance, non jamais existées. Mais c’est cohérent à la lecture.

      Faut-il oui ou non l’utiliser ?

      De mon point de vue, c’est un super outil. Avec des limitations à comprendre.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.