… et ça faisait partie des questions que je me posais (et que j'avais posé autour de moi) aux débuts de chatGPT : une IA qui gère du contenu qui sera ingéré par elle-même ou une autre IA, ça va donner quoi ?
Après, ça ne signifie pas que l'IA soit une mauvaise chose en soi, mais que l'un des plus grands défis de cette techno, c'est la qualité de la source des données d'entrainement, Aujourd'hui c'est plus le fait d'entrainer des IA avec des données prises n'importe comment sur internet qui pose problème, mais on peut aussi y introduire un biais idéologique via les données qu'on sélectionne pour entrainer l'IA.
De toute façon je pense que ça va faire comme tous les trucs hypes qu'on a connu ces dernières années : tout le monde va vouloir en mettre partout à toutes les sauces (comme pour XML à une époque, ou on en a mis partout), mais après quelques déboires, on en viendra à une utilisation plus raisonnée de la techno. Par contre moi, ce qui me fait peur, ce sont les dégats que cet emploi à outrance auront occasionnés.
L'IA pioche dans des données, idéalement il faut que les données soient bonnes en entrée, et que les données soient triées en sortie aussi pour identifier les bonnes réponses des mauvaises. Le souci étant que pour les tris en entrée et sortie, on utilise des gens (généralement des mal payés dans un pays lointain).
Le gain pour les utilisateurs de IA compense-t-il le temps passé à trier les données d'entrée/sortie des IA (en temps, en coût, etc.) ? Actuellement on a un gros volume de données à étiqueter correct/erroné en entrée et ça occupe pas mal d'humains. Si le facteur multiplicatif en sortie est très important (chaque utilisateur de l'IA peut produire massivement du contenu), alors on n'aura pas assez de temps de cerveau disponible pour trier en sortie (et ça ne sera pas rentable économiquement de le faire). Et la qualité se dégradera.
Si le tri était faisable avec certitude / très grande probabilité par une IA (genre validation formelle de théorèmes mathématiques), alors ça serait évidemment différent, on pourrait avoir une accélération inhumaine dans ce domaine (très vite, seule l'IA comprendrait ce qu'elle fait…). Sauf que la quasi-totalité des domaines ne sont pas validables avec certitude / très grande probabilité, il faut des humains pour décider, qui ne seront même pas d'accord entre eux, etc. Il n'y aura pas une IA qui « résoudra la politique, la littérature ou l'éducation des enfants ».
Ça consisterait à biaiser un peu les sorties du modèles de manières détectable, ptete en gardant de leur côté un modèle non biaisé pour comparer. Ça les forcera peut être à ce genre de trucs, mais les modèles risquent de se multiplier et ce genre de technique passerait à l'échelle ?
le truc c'est que chatpt peut potentiellement détecter ses productions, mais peut il détecter celles de de grok, bard, copilot… Sachant que chaque modèle cherche à faire le plus naturel, ça devient difficile de trouver les tics de chacun.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
# Meh
Posté par Elfir3 . Évalué à 4.
C'est pour mieux dominer le monde !
[^] # Re: Meh
Posté par Pol' uX (site web personnel) . Évalué à 4.
Si par IA on parle du LLM qu'a pété, ma question serait : « qu'était-ce d'autre avant ? »
Adhérer à l'April, ça vous tente ?
[^] # Re: Meh
Posté par hitmanu . Évalué à 1. Dernière modification le 03 septembre 2024 à 19:28.
c’était pas Bender le maître du monde ?
je ne suis plus la…
Merci aux personnes qui mon aidé a trouvé des solutions pour essayer d’écrire sans faute d’orthographe.
# C'était tellement prévisible ....
Posté par totof2000 . Évalué à 9.
… et ça faisait partie des questions que je me posais (et que j'avais posé autour de moi) aux débuts de chatGPT : une IA qui gère du contenu qui sera ingéré par elle-même ou une autre IA, ça va donner quoi ?
Après, ça ne signifie pas que l'IA soit une mauvaise chose en soi, mais que l'un des plus grands défis de cette techno, c'est la qualité de la source des données d'entrainement, Aujourd'hui c'est plus le fait d'entrainer des IA avec des données prises n'importe comment sur internet qui pose problème, mais on peut aussi y introduire un biais idéologique via les données qu'on sélectionne pour entrainer l'IA.
De toute façon je pense que ça va faire comme tous les trucs hypes qu'on a connu ces dernières années : tout le monde va vouloir en mettre partout à toutes les sauces (comme pour XML à une époque, ou on en a mis partout), mais après quelques déboires, on en viendra à une utilisation plus raisonnée de la techno. Par contre moi, ce qui me fait peur, ce sont les dégats que cet emploi à outrance auront occasionnés.
[^] # Re: C'était tellement prévisible ....
Posté par Benoît Sibaud (site web personnel) . Évalué à 10.
L'IA pioche dans des données, idéalement il faut que les données soient bonnes en entrée, et que les données soient triées en sortie aussi pour identifier les bonnes réponses des mauvaises. Le souci étant que pour les tris en entrée et sortie, on utilise des gens (généralement des mal payés dans un pays lointain).
Le gain pour les utilisateurs de IA compense-t-il le temps passé à trier les données d'entrée/sortie des IA (en temps, en coût, etc.) ? Actuellement on a un gros volume de données à étiqueter correct/erroné en entrée et ça occupe pas mal d'humains. Si le facteur multiplicatif en sortie est très important (chaque utilisateur de l'IA peut produire massivement du contenu), alors on n'aura pas assez de temps de cerveau disponible pour trier en sortie (et ça ne sera pas rentable économiquement de le faire). Et la qualité se dégradera.
Si le tri était faisable avec certitude / très grande probabilité par une IA (genre validation formelle de théorèmes mathématiques), alors ça serait évidemment différent, on pourrait avoir une accélération inhumaine dans ce domaine (très vite, seule l'IA comprendrait ce qu'elle fait…). Sauf que la quasi-totalité des domaines ne sont pas validables avec certitude / très grande probabilité, il faut des humains pour décider, qui ne seront même pas d'accord entre eux, etc. Il n'y aura pas une IA qui « résoudra la politique, la littérature ou l'éducation des enfants ».
[^] # Re: C'était tellement prévisible ....
Posté par Thomas Douillard . Évalué à 2.
Je sais pas ce que ça veut dire pour la fameuse potentielle technique de détection des générations de chatGPT qu'OpenAI aurait dans ses tiroirs : https://www.usine-digitale.fr/article/pourquoi-openai-refuse-de-sortir-son-outil-infaillible-de-detection-des-textes-generes-par-chatgpt.N2216968
Ça consisterait à biaiser un peu les sorties du modèles de manières détectable, ptete en gardant de leur côté un modèle non biaisé pour comparer. Ça les forcera peut être à ce genre de trucs, mais les modèles risquent de se multiplier et ce genre de technique passerait à l'échelle ?
[^] # Re: C'était tellement prévisible ....
Posté par fearan . Évalué à 3.
le truc c'est que chatpt peut potentiellement détecter ses productions, mais peut il détecter celles de de grok, bard, copilot… Sachant que chaque modèle cherche à faire le plus naturel, ça devient difficile de trouver les tics de chacun.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: C'était tellement prévisible ....
Posté par Faya . Évalué à 4.
Finalement les meilleurs amis de l'IA seront les sites qui interdisent de poster des contenus générés par l'IA.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.