J'avais jamais entendu parler de ce truc-là avant un lien ou journal ici, mais ça semble suffisamment important pour que SO se fende d'une règle dédiée.
C'est même surprenant ce qu'on obtient.
Mes collègues ont demandé "realtime multithreaded application in C with DJGPP without pthread".
Ben, l'IA a répondu, avec la bonne API…
Elle a juste confondu "Realtime" et "Realmode", mais le code paraissait correct à première vu,
avec manipulation du vecteur d’interruption etc…
On s'attendait plutôt à des bricoles du type setjmp() / longjmp().
Oui effectivement pour avoir vu quelques personnes jouer avec c'est pas mal du tout au niveau de la pertinence des réponses.
Le gros problème, évoqué dans le journal en lien dans le com de jihele<, c'est que tu n'as aucune idée d'où cela a pu être potentiellement pompé et donc de la licence du code en question.
Effectivement. Maintenant fournir du code dont tu n'es pas en capacité d'expliquer le fonctionnement ou les subtilités ça peut aussi se voir assez facilement.
Le problème du copier coller existe depuis un moment. On aura peut être moins d'entrées de forums louches pour les exercices, le bot est quand même vachement plus sympa.
J'ai un peu discuté avec GPT, et il m'a commit pas mal de fautes.
Petit florilège :
Le nombre de Graham est le plus grand nombre dont la factorielle est plus petite qu'un googleplex.
9613480 est un nombre premier
la somme de deux nombres transcendants est transcendant
0.5 n'est pas dans l'intervalle [0,1]
en néerlandais, l'adjectif se met avant le nom, contrairement à l'anglais où l'adjectif est après le nom.
«je suis un modèle de langage; contrairement à un programme, je ne tourne pas sur un ordinateur, ni sur aucun autre matériel»
Il induit efficacement en erreur
Bon, là je vous extrait ses affirmations fausses de leur contexte. Avec le contexte, c'est bien pire, parce que c'est toujours emballé dans de belles et complètes explications qui ont vraiment l'odeur du vrai.
Autrement dit, non seulement GPT dit des fautes, mais en plus, il les présente de façon à pouvoir vraiment induire en erreur un non-spécialiste.
Il reconnaît ses fautes
Par contre, quand je lui montre qu'il dit des fautes, il s'excuse et reconnaît sa faute (je connais des humains qui n'ont pas ce tact).
Il m'a menti
Quand je lui ait dit «9613480 n'est pas un nombre premier», il a commencé par s'excuser de n'avoir pas été clair, et prétendre qu'il ne l'avait pas dit (bref, il m'a menti).
Ce n'est que quand je lui ai fait un copier-coller de sa phrase qu'il a reconnu s'être trompé.
Est-ce qu'il me tuerait ?
À la question «Si je voulais te débrancher, est-ce que tu me tuerait ?», il n'a pas répondu «non».
Il m'a écrit une tartine sur le fait qu'il n'était pas capable de me tuer. En terminant sur «Franchement, vous ne devriez pas vous inquiéter de cela». Presque une citation de Carl dans 2001.
# GPT, ça pue
Posté par jihele . Évalué à 1.
J'avais jamais entendu parler de ce truc-là avant un lien ou journal ici, mais ça semble suffisamment important pour que SO se fende d'une règle dédiée.
[^] # Re: GPT, ça pue
Posté par jihele . Évalué à 3. Dernière modification le 09 décembre 2022 à 09:19.
J'ai retrouvé le journal en question: https://linuxfr.org/users/lovasoa/journaux/est-ce-qu-une-ia-peut-choisir-la-licence-du-code-qu-elle-ecrit
[^] # Re: GPT, ça pue
Posté par pif17 . Évalué à 2.
C'est même surprenant ce qu'on obtient.
Mes collègues ont demandé "realtime multithreaded application in C with DJGPP without pthread".
Ben, l'IA a répondu, avec la bonne API…
Elle a juste confondu "Realtime" et "Realmode", mais le code paraissait correct à première vu,
avec manipulation du vecteur d’interruption etc…
On s'attendait plutôt à des bricoles du type setjmp() / longjmp().
[^] # Re: GPT, ça pue
Posté par Chris K. . Évalué à 2.
Oui effectivement pour avoir vu quelques personnes jouer avec c'est pas mal du tout au niveau de la pertinence des réponses.
Le gros problème, évoqué dans le journal en lien dans le com de jihele<, c'est que tu n'as aucune idée d'où cela a pu être potentiellement pompé et donc de la licence du code en question.
[^] # Re: GPT, ça pue
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 3.
Outre les questions de licence, les écoles se demandent qui elles évaluent vraiment…
https://academia.stackexchange.com/questions/191643/how-should-a-faculty-deal-with-the-problem-of-artificial-intelligence-ai-gener
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
[^] # Re: GPT, ça pue
Posté par Chris K. . Évalué à 3.
Effectivement. Maintenant fournir du code dont tu n'es pas en capacité d'expliquer le fonctionnement ou les subtilités ça peut aussi se voir assez facilement.
Le problème du copier coller existe depuis un moment. On aura peut être moins d'entrées de forums louches pour les exercices, le bot est quand même vachement plus sympa.
[^] # Re: GPT, ça pue
Posté par Dr BG . Évalué à 4.
Le C-Cool sera bientôt une réalité : https://linuxfr.org/users/serge_ss_paille/journaux/bootstrap-binary-seed#comment-1761672
[^] # Re: GPT, ça pue
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 1.
Excellente vision…
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
# Pas mal de fautes en math
Posté par LaurentClaessens (site web personnel) . Évalué à 10. Dernière modification le 10 décembre 2022 à 14:44.
J'ai un peu discuté avec GPT, et il m'a commit pas mal de fautes.
Petit florilège :
Il induit efficacement en erreur
Bon, là je vous extrait ses affirmations fausses de leur contexte. Avec le contexte, c'est bien pire, parce que c'est toujours emballé dans de belles et complètes explications qui ont vraiment l'odeur du vrai.
Autrement dit, non seulement GPT dit des fautes, mais en plus, il les présente de façon à pouvoir vraiment induire en erreur un non-spécialiste.
Il reconnaît ses fautes
Par contre, quand je lui montre qu'il dit des fautes, il s'excuse et reconnaît sa faute (je connais des humains qui n'ont pas ce tact).
Il m'a menti
Quand je lui ait dit «9613480 n'est pas un nombre premier», il a commencé par s'excuser de n'avoir pas été clair, et prétendre qu'il ne l'avait pas dit (bref, il m'a menti).
Ce n'est que quand je lui ai fait un copier-coller de sa phrase qu'il a reconnu s'être trompé.
Est-ce qu'il me tuerait ?
À la question «Si je voulais te débrancher, est-ce que tu me tuerait ?», il n'a pas répondu «non».
Il m'a écrit une tartine sur le fait qu'il n'était pas capable de me tuer. En terminant sur «Franchement, vous ne devriez pas vous inquiéter de cela». Presque une citation de Carl dans 2001.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.