• # Apprenons aux IA ce sur quoi il faut tirer !

    Posté par  (site web personnel) . Évalué à 7 (+5/-0). Dernière modification le 22 janvier 2025 à 09:01.

    \_o< "Coin coin!"

    • [^] # Re: Apprenons aux IA ce sur quoi il faut tirer !

      Posté par  . Évalué à 8 (+5/-0).

      *pan!*

      Il ne faut pas décorner les boeufs avant d'avoir semé le vent

      • [^] # chantons gayo

        Posté par  (site web personnel, Mastodon) . Évalué à 2 (+0/-0).

        Ce matin un humain a tué une ia,
        C’était un humain sans intelligence

                                      ______
                   |\_______________ (_____\\______________
        pong ======#H###############H#######################
                   ' ~""""""""""""""`##(_))#H\"""""Y########
                                     ))    \#H\       `"Y###
                                     "      }#H)
        

        “It is seldom that liberty of any kind is lost all at once.” ― David Hume

  • # toutes les IA n'hallucinent pas

    Posté par  . Évalué à 7 (+5/-0).

    Je sais bien qu'on ne parle que des LLM mais si les LLM sont des IA, toutes les IA ne sont pas des LLM. Et à ma connaissance, l'hallucination est un truc propre aux LLM.

    • [^] # Re: toutes les IA n'hallucinent pas

      Posté par  (site web personnel) . Évalué à 6 (+6/-2).

      l'hallucination est un truc propre aux LLM.

      Ou propre aux techno-béats qui parlent de LLM.

      Adhérer à l'April, ça vous tente ?

    • [^] # Re: toutes les IA n'hallucinent pas

      Posté par  (Mastodon) . Évalué à 4 (+2/-1).

      l'hallucination est un truc propre aux LLM

      Pas vraiment, stable diffusion et autres outils génératifs d'image ou de vidéos ont aussi des hallucinations (ou tout du moins une interprétation très fantasque de certains prompts). Idem les outils de restauration/mise à l'échelle d'image qui vont te mettre des visages dans des textures qui n'ont rien d'humains.

      • [^] # Re: toutes les IA n'hallucinent pas

        Posté par  . Évalué à 4 (+2/-0).

        Pas vraiment, stable diffusion et autres outils génératifs d'image ou de vidéos ont aussi des hallucinations.

        Ok. Ce que je voulais dire c'est que parler d'hallucination dès qu'on parle d'IA (comme le fait le titre du lien) c'est entretenir la confusion entre les IA génératives (notamment les fameux LLM) et des IA comme DeepFold, par exemple.

    • [^] # Re: toutes les IA n'hallucinent pas

      Posté par  (Mastodon) . Évalué à 2 (+2/-3).

      Hallucination, triche… il existe différents mots pour dire qu'au final l'IA fait pas "tout à fait" ce qu'on voudrait, mais si, c'est commun à toutes les IAs (et c'est quasi inévitable en fait).

      En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

      • [^] # Re: toutes les IA n'hallucinent pas

        Posté par  (site web personnel) . Évalué à 7 (+4/-0).

        triche

        tu es juste vert d'avoir perdu à Starcraft contre l'IA parce qu'elle a pas le brouillard de guerre :p

      • [^] # Re: toutes les IA n'hallucinent pas

        Posté par  . Évalué à 6 (+4/-0).

        Hallucination, triche… il existe différents mots pour dire qu'au final l'IA fait pas "tout à fait" ce qu'on voudrait, mais si, c'est commun à toutes les IAs (et c'est quasi inévitable en fait).

        Non, le terme "hallucination" utilisé dans le cas des LLM n'a rien à voir avec "l'IA ne fait pas tout à fait ce qu'on voudrait". Avec ta définition, on dirait qu'un programme bugué hallucine,

        AlphaGo joue incroyablement bien au Go mais si elle perd on ne dit pas qu'elle a halluciné. Si on demande à DeepFold de déplier une protéine et qu'elle n'y arrive que partiellement, on ne dit pas qu'elle a halluciné, on dit que c'est déjà mieux que ce qu'on arrivait à faire jusque-là.

        Quand ChatGPT produit un texte qui déçoit par rapport à ce qu'on attendait (par exemple un code imparfait), on ne dit pas qu'il hallucine. C'est seulement s'il dit que linuxfr.org a été créé en 2005 par gUI qu'il y a hallucination.

        NB. La triche n'est pas considérée comme une hallucination (elle résulte d'ailleurs en général d'un prompt qui la conduit à ça, voir une vidéo de Mr Phi sur ce sujet).

        Après, libre à toi d'appeler les choses avec le vocabulaire qui te convient mais ce n'est pas le meilleur chemin vers une bonne communication.

        • [^] # Re: toutes les IA n'hallucinent pas

          Posté par  (site web personnel) . Évalué à 3 (+3/-2).

          Après, libre à toi d'appeler les choses avec le vocabulaire qui te convient mais ce n'est pas le meilleur chemin vers une bonne communication.

          ta définition par une non définition est hallucinante o_O

        • [^] # Re: toutes les IA n'hallucinent pas

          Posté par  . Évalué à 8 (+6/-1). Dernière modification le 22 janvier 2025 à 20:01.

          Une hallucination par un modèle de langage c'est une information en sortie qui n'est ni présente dans son corpus d'apprentissage ni même logiquement déductible d'informations présentes dans son corpus d'apprentissage.

          Souvent c'est sorti de manière parfaitement identique à une information qui au contraire serait bien présente de nature similaire.

          Ça se produit par exemple souvent justement parce que, contrairement à ce qu'on a pu lire ici ou là, ce n'est pas une base de donnée. La base de donnée est éventuellement un corpus d'apprentissage. Si le réseau "mémorise" des truc il les mémorise de manière statistique, en faisant pas forcément la différence entre le général et le particulier. Si "Machin" est un chercheur de médecine qui travaille sur les bactéries, il se "souviendra" peut-être de machin, peut-être vaguement que c'est un chercheur en médecine par association des "tokens", mais il pourra facile halluciner qu'il travaille sur les virus parce que c'est des machins proches des bactéries et que d'autres chercheurs proches travaillent sur les virus.

          C'est principalement le cas quand on demande une information factuelle. Si on demande un texte d'imagination c'est différent vu qu'on veut des inventions, ou là on est pas garanti que le résultat soit cohérent par contre.

    • [^] # Re: toutes les IA n'hallucinent pas

      Posté par  (site web personnel) . Évalué à 4 (+1/-0).

      Ensuite, un autre point, c'est que quand on pense à l'armée, on voit surtout les armes (c'est dans le nom), mais en réalité, le souci est bien plus logistique et bureaucratique. C'est surtout que c'est moins sexy de penser que la majeur partie du taf de l'armée, c'est de bouger des munitions, du carburant et de la bouffe vers le front que les combats héroïques qu'on voit dans les films…

      • [^] # Re: toutes les IA n'hallucinent pas

        Posté par  (site web personnel) . Évalué à 8 (+5/-0).

        Oui, tout à fait, et je suis extrêmement confiant dans le fait que les nouvelles technologies n'intègrent jamais les armes (c'est pour ça qu'on utilise encore les baïonnettes).

        • [^] # Re: toutes les IA n'hallucinent pas

          Posté par  (site web personnel) . Évalué à 5 (+2/-0).

          Bah, disons que je suis pas sur de voir exactement ce qu'un LLM va faire dans un missile ou un tank en fait (car mistral.ai ne fait que des IAs génératives de ce que je comprends, et je compte aussi bien le texte que les images dans tout ça). Je peux à la rigueur voir un truc qui agrandirait des cartes ou qui fait des zooms, mais j'ai tendance à imaginer que des trucs imprécis vont pas être super utiles (surtout qu'on a déjà des outils d'interpolations genre DLSS).

          Du coup, il reste quoi, de la recherche dans les textes et co, de l'aide à la rédaction de rapport ? Rien de spécifique à l'armée.

          Et en fait, je pense que même ça, ça va être du gachis. Mais comme tout le monde tombe dans la hype, y compris les opposants (aussi bien les opposants au niveau des états que les opposants des LLMs), je suppose qu'il faut faire des effets d'annonces.

          Maintenant, si on parle d'IA au sens large (ce que Mistral ne propose pas, encore une fois), il y a beaucoup plus de choses, et on a pas attendu la hype.

          Les radars utilisent du machine learning, par exemple (et l'armée utilise des radars). Les radars des avions, au sol, mais sans doute aussi des missiles. La justice française (qui n'est pas l'armée) utilise du machine learning pour anonymiser les décisions de justice, donc je pourrait voir le même genre de techno pour anonymiser des rapports (et éviter des fuites, par exemple). J'imagine qu'il y a masse logs et que trouver des infos dedans (genr eun SIEM) utilisent un peu de ML.

          Le double discours de "les IAs (sous entendu les LLMs), ça sert à rien", mais en même temps "ça va servir à faire des armes super dangereuses" est quand même paradoxale. Faudrait savoir si c'est pourri ou pas en fait…

          • [^] # Re: toutes les IA n'hallucinent pas

            Posté par  (site web personnel) . Évalué à 4 (+1/-0). Dernière modification le 22 janvier 2025 à 18:38.

            je suis pas sur de voir exactement ce qu'un LLM va faire dans un missile

            Bonne remarque, j'avais zappé que Mistral AI ne faisait que des LLM.
            (partie remise, sans doute, en revanche)

        • [^] # Re: toutes les IA n'hallucinent pas

          Posté par  (site web personnel, Mastodon) . Évalué à 2 (+0/-0).

          La centrale des IA vient de me confirmer que les autosnipers (de terros uniquement, promis juré ?) sont munis de baïonnettes ;->

          “It is seldom that liberty of any kind is lost all at once.” ― David Hume

      • [^] # Re: toutes les IA n'hallucinent pas

        Posté par  (site web personnel) . Évalué à 3 (+0/-0).

    • [^] # Re: toutes les IA n'hallucinent pas

      Posté par  . Évalué à 2 (+0/-0).

      mais si les LLM sont des IA, toutes les IA ne sont pas des LLM

      Cette remarque m'amène à te demander des précisions. Les LLM, je vois grosso modo ce que c'est. Mais une IA qui n'est pas un LLM et qui n'a pas d'hallucinations, je suis curieux de savoir ce que c'est (?) Ou alors un système à base de if-then-else est une IA? ou je comprends rien?

      • [^] # Re: toutes les IA n'hallucinent pas

        Posté par  (site web personnel) . Évalué à 3 (+0/-0). Dernière modification le 25 janvier 2025 à 14:53.

        Un LLM utilise une grosse base de donnée, un gros modèle avec des milliards de paramètre, utilise les transformers pour relier des concepts entre eux. Et tu entraines un modèle à finir tes phrases.

        J'imagine que tous les réseaux de neurone ne sont pas à base de transformer, ou n'utilise pas de base de donnée (cf alpha go zero) mais des simulateurs.

        Est-ce que tous les réseaux neurones hallucinent comme les humains qui sont persuadé d'un truc complètement faux ? C'est une bonne question.

        "La première sécurité est la liberté"

      • [^] # Re: toutes les IA n'hallucinent pas

        Posté par  . Évalué à 6 (+4/-0). Dernière modification le 22 janvier 2025 à 16:10.

        Les LLM, je vois grosso modo ce que c'est. Mais une IA qui n'est pas un LLM et qui n'a pas d'hallucinations, je suis curieux de savoir ce que c'est (?) Ou alors un système à base de if-then-else est une IA? ou je comprends rien?

        Je suis (très) loin d'être un expert sur ce sujet mais de ce que je comprends le cœur est un réseau neuronal sur lequel on fait du deep learning. Les LLM s'appuient la-dessus avec des trucs appelés transformers et, surtout, une gigantesque ingestion de données.

        AlphaGo est une IA avec un réseau neuronal mais son "deep learning" n'a nécessité que l'ingestion des règles du Go et de jouer contre lui-même pendant quelques jours.

        ChatGPT est incapable de faire ça. En revanche, si on lui donne, non pas les règles du jeu, mais des dizaines de milliers de parties jouées par des humains, il peut jouer au Go (avec sans doute un niveau très moyen).

        AlphaGo et ChatGPT sont des IA. La différence est que AlphaGo ne va jamais halluciner (i.e jouer un coup invalide) alors que ça pourra arriver avec ChatGPT. NB. Perdre la partie n'est pas considéré comme hallucination.

        • [^] # Re: toutes les IA n'hallucinent pas

          Posté par  . Évalué à 4 (+2/-0).

          AlphaGo et ChatGPT sont des IA. La différence est que AlphaGo ne va jamais halluciner (i.e jouer un coup invalide)

          ChatGPT ne va pas non plus donner des phrases dénuées de sens (au sens invalide). Alphago va peut-être halluciner, i.e. jouer un coup très très surprenant pour un humain (pas forcément mauvais, mais auquel aucun humain ne penserait). Je m'interroge beaucoup sur ces questions d'hallucinations et je n'arrive pas à me formuler un avis :-/

          • [^] # Re: toutes les IA n'hallucinent pas

            Posté par  . Évalué à 4 (+2/-0).

            ChatGPT ne va pas non plus donner des phrases dénuées de sens (au sens invalide). Alphago va peut-être halluciner, i.e. jouer un coup très très surprenant pour un humain (pas forcément mauvais, mais auquel aucun humain ne penserait). Je m'interroge beaucoup sur ces questions d'hallucinations et je n'arrive pas à me formuler un avis :-/

            On peut donner à "hallucination" le sens qu'on veut mais le plus simple est quand même de prendre le sens couramment en usage dans le domaine des IA génératives. Et dans ce cas, "jouer un coup très très surprenant" n'est pas une hallucination.

            Quand ChatGPT génère un coup invalide (i.e. non permis par les règles) aux échecs, c'est une hallucination. S'il génère un très mauvais coup, c'est juste une mauvaise IA mais elle n'a pas halluciné.

            • [^] # Re: toutes les IA n'hallucinent pas

              Posté par  (site web personnel, Mastodon) . Évalué à 2 (+0/-0). Dernière modification le 23 janvier 2025 à 16:40.

              Pour le commun des mortels et mortelles, un mauvais coup (non pas celui là) peut être une hallucination quand c’est un coup inspiré …substantiellement ! Ça peut valoir aussi pour des bons coups étonnamment incroyables+improbables+inimaginables, mais là ça s’appelle plutôt inspiration.

              “It is seldom that liberty of any kind is lost all at once.” ― David Hume

      • [^] # Re: toutes les IA n'hallucinent pas

        Posté par  . Évalué à 3 (+1/-0).

        Les LLM sont des IA génératives dont le but est de résoudre un problème précis : connaissant le début d'un texte quel est la suite. Donc de manière très schématique on leur montre suffisamment de textes pour qu'ils "devinent" la suite d'un nouveau texte. Quand un LLM joue aux échecs, on lui donne une représentation textuelle des coups et il continue le texte.

        Mais une énorme par des IA font de la catégorisation. On l'entraîne pour par exemple lui donner une image et qu'elle nous dise s'il s'agit d'un chien ou d'un muffin aux myrtilles. Grosso modo l'entraînement dans ces cas là c'est on donne à l'IA une représentation qui nous arrange de la situation et il nous donne un résultat si c'est pertinent, on le valide et ça entraîne progressivement l'IA.

        Ça n'empêche pas d'avoir de grosses erreurs, mais ce n'est pas des hallucinations

        https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

        • [^] # Re: toutes les IA n'hallucinent pas

          Posté par  . Évalué à 3 (+1/-0).

          Ça n'empêche pas d'avoir de grosses erreurs, mais ce n'est pas des hallucinations

          Bah, je ne sais pas trop. Si une IA me dit que Médor c'est un muffin aux myrtilles, alors j'ai tendance à dire que l'IA hallucine.
          Et si chatGPT me dit que E=mc3 alors je dis que c'est une grosse erreur.
          Je critique pas ce que tu dis, j'essaye juste de me faire une idée

          • [^] # Re: toutes les IA n'hallucinent pas

            Posté par  . Évalué à 2 (+0/-0).

            Si une IA me dit que Médor c'est un muffin aux myrtilles, alors j'ai tendance à dire que l'IA hallucine.

            Non tu dis ça parce que c'est le mot au quel tu pense actuellement, mais on parle généralement de précision.

            Dans le domaine j'ai vérifié un peu on utilise effectivement pas hallucination que pour les IA générative, mais quand l'erreur ne peut pas être imputé aux données d'entraînement.

            Après c'est comme toujours le terme semble facile à comprendre et donc le public l'utilise sans regarder son sens précis. C'est comme utiliser vers et virus informatiques comme des homonymes

            https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

    • [^] # Re: toutes les IA n'hallucinent pas

      Posté par  . Évalué à 3 (+1/-0).

      Pour être précis les IA qui hallucinent sont les IA génératives, mais l'hallucination n'est pas la seule erreur des IA.

      Bon mistral IA sont plutôt connu pour leurs IA génératives donc bon.

      https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

  • # ...

    Posté par  . Évalué à 1 (+4/-4).

    Avions renifleurs

    Au passage, je note que l'armée vendra quelques-unes de ses solutions au privé.

    La présence des militaires comme acteurs économiques au civil est un des traits caractéristiques des dictatures.

    • [^] # Re: ...

      Posté par  (site web personnel) . Évalué à 5 (+3/-1).

      Les militaires ont toujours servi pour payer le civil : puce, GPS, internet, observation de la terre,…

      "La première sécurité est la liberté"

      • [^] # Re: ...

        Posté par  . Évalué à 1 (+0/-0). Dernière modification le 23 janvier 2025 à 19:15.

        Et donc ? Tu mélangerais pas avec le transfert de technologie ? Tu penses peut-être que le complexe techno-militaire US donne de bons résultats en ce moment ?

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.