• # Meh

    Posté par  . Évalué à 4.

    C'est pour mieux dominer le monde !

    • [^] # Re: Meh

      Posté par  (site web personnel) . Évalué à 4.

      Si par IA on parle du LLM qu'a pété, ma question serait : « qu'était-ce d'autre avant ? »

      Adhérer à l'April, ça vous tente ?

    • [^] # Re: Meh

      Posté par  . Évalué à 1. Dernière modification le 03 septembre 2024 à 19:28.

      c’était pas Bender le maître du monde ?

      je ne suis plus la…

      Merci aux personnes qui mon aidé a trouvé des solutions pour essayer d’écrire sans faute d’orthographe.

  • # C'était tellement prévisible ....

    Posté par  . Évalué à 9.

    … et ça faisait partie des questions que je me posais (et que j'avais posé autour de moi) aux débuts de chatGPT : une IA qui gère du contenu qui sera ingéré par elle-même ou une autre IA, ça va donner quoi ?

    Après, ça ne signifie pas que l'IA soit une mauvaise chose en soi, mais que l'un des plus grands défis de cette techno, c'est la qualité de la source des données d'entrainement, Aujourd'hui c'est plus le fait d'entrainer des IA avec des données prises n'importe comment sur internet qui pose problème, mais on peut aussi y introduire un biais idéologique via les données qu'on sélectionne pour entrainer l'IA.

    De toute façon je pense que ça va faire comme tous les trucs hypes qu'on a connu ces dernières années : tout le monde va vouloir en mettre partout à toutes les sauces (comme pour XML à une époque, ou on en a mis partout), mais après quelques déboires, on en viendra à une utilisation plus raisonnée de la techno. Par contre moi, ce qui me fait peur, ce sont les dégats que cet emploi à outrance auront occasionnés.

    • [^] # Re: C'était tellement prévisible ....

      Posté par  (site web personnel) . Évalué à 10.

      L'IA pioche dans des données, idéalement il faut que les données soient bonnes en entrée, et que les données soient triées en sortie aussi pour identifier les bonnes réponses des mauvaises. Le souci étant que pour les tris en entrée et sortie, on utilise des gens (généralement des mal payés dans un pays lointain).

      Le gain pour les utilisateurs de IA compense-t-il le temps passé à trier les données d'entrée/sortie des IA (en temps, en coût, etc.) ? Actuellement on a un gros volume de données à étiqueter correct/erroné en entrée et ça occupe pas mal d'humains. Si le facteur multiplicatif en sortie est très important (chaque utilisateur de l'IA peut produire massivement du contenu), alors on n'aura pas assez de temps de cerveau disponible pour trier en sortie (et ça ne sera pas rentable économiquement de le faire). Et la qualité se dégradera.

      Si le tri était faisable avec certitude / très grande probabilité par une IA (genre validation formelle de théorèmes mathématiques), alors ça serait évidemment différent, on pourrait avoir une accélération inhumaine dans ce domaine (très vite, seule l'IA comprendrait ce qu'elle fait…). Sauf que la quasi-totalité des domaines ne sont pas validables avec certitude / très grande probabilité, il faut des humains pour décider, qui ne seront même pas d'accord entre eux, etc. Il n'y aura pas une IA qui « résoudra la politique, la littérature ou l'éducation des enfants ».

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.