Journal Introduction pratique aux grands modèles de langage / LLM

73
3
mar.
2024

Sommaire

Dans cet article je me propose de faire une introduction aux grands modèles de langage, et en particulier à leur utilisation en local (i.e., hors ligne). Si vous ne souhaitez pas vous inscrire sur des plateformes en ligne, que vous êtes soucieux de l'utilisation qui est faite de vos données, que vous ne souhaitez pas débourser le prix d'un abonnement, mais que toutefois ces technologies suscitent votre intérêt, alors cet article est peut-être pour vous. Je n'aborderai pas les aspects théoriques/algorithmiques, et je serai amené à faire des simplifications que des experts jugeront probablement excessives. Par ailleurs, ce journal sera truffé d'anglicismes. Bien qu'il existe la plupart du temps des équivalents en français, la majorité des ressources disponibles étant en anglais, pour des raisons pédagogiques il m'a semblé préférable de garder les termes anglophones.

1. Notions de base

1.1 Fonctionnement d'un LLM (Large Language Model)

La tâche d'un LLM est de prédire le prochain mot d'une séquence de mots passée en instruction. De façon schématique un générateur de texte fonctionne de la façon suivante:

  • le texte entré par l'utilisateur est découpé en tokens. Ces tokens correspondent à des mots, des fractions de mots, des signes de ponctuations, de symboles d'instructions… chaque LLM a son propre système de tokenisation.
  • les tokens sont vectorisés, c'est-à-dire convertis en vecteurs qui seront ensuite injectés dans le réseau de neurones. L'ensemble de ces vecteurs forme un embedding. Les coordonnées des vecteurs-tokens sont déterminées pendant la phase d'apprentissage du réseau de neurone.
  • la liste de ces vecteurs (ainsi que la liste de leur position) sont entrés dans le réseau de neurone. Les réseaux de neurones sont basés sur des modèles transformers, inventés par Google [1] et qui constituent la base de tous les outils  tels que chatGPT d'openAI et d'autres, notamment la start-up française Mistral qui a réussi à s'imposer comme un acteur majeur du secteur.
  • la sortie du réseau de neurones est une série de tokens associée à une distribution de probabilité. Une tâche essentielle consiste à choisir un token parmi ceux proposés. C'est le travail du sampler.
  • dans les modèles de type GPT (Generative pre-trained transformer) la génération d'une grande suite de mot est conduite de façon auto-régressive: le token prédit est ajouté à la séquence d'entrée pour prédire le suivant, et ainsi de suite jusqu'à ce qu'un critère d'arrêt soit vérifié.

1.2 Considérations matérielles

Une des particularités des réseaux de neurones est leur taille imposante. Par exemple le modèle Llama 13B de Meta pèse 25 Go; "13B" signifie ici que le modèle contient 13 milliards de paramètres (poids et biais) ; ces paramètres sont codés sur 16 bits, de sorte que la taille finale du modèle, en octets, est 2 fois le nombre de paramètres.

Pour chaque token généré, l'intégralité du réseau de neurone doit être transféré de la mémoire vers les unités de calculs. Ceci implique que 1) le modèle doit tenir en mémoire, 2) la bande passante doit être suffisante pour ne pas altérer la vitesse de génération, et 3) les unité de calculs doivent pouvoir exécuter le réseau de neurone rapidement.

Exemple concret. Je dispose d'une carte Nvidia Quadro P5000, datant de 2016, avec 16Go de vRAM, FP16 = 138.6 GFLOPS en float 16 et une bande passante de BW = 288.5 Go/s. Le rapport opération par octet (FP16/BW) vaut 0.48. Ceci doit être comparé à la densité arithmétique du réseau de neurone [2]. Pour Llama 13B, une fois le modèle chargé en mémoire, pour une inférence, il y a 0.2Go de données déplacées et 12.8 milliards d'opérations, soit un rapport opération par octet de ~63 ce qui dépasse largement les capacités de la carte (pour le détail des calculs je vous renvoie au site précédent). Dans le cas de ce GPU, nous sommes limités par sa puissance brute. La vitesse théorique de génération de texte, pour une fenêtre de contexte de 5000 tokens (ce terme sera défini plus bas), est de ~11 tokens/s. En réalité celle-ci est plus proche de 17 tokens/s. La raison de cette différence sera abordée plus loin.

À l'inverse pour une RTX 4090 (24Go vRAM, FP16 = 82.6 TFLOPS, BW = 1008 Go/s), le rapport opération par octet vaut  83. Dans ce cas, c'est la bande passante mémoire qui limite la vitesse de génération de texte. Pour un modèle 25 Go, et une fenêtre de contexte de 5000 tokens, la vitesse de génération de texte est donc de 40 tokens/s.

Étant donnés les tarifs très élevés des GPU haut de gamme, évaluer ses besoins en termes de vitesse de génération peut être à prendre en compte avant l’acquisition d’un GPU dédié aux LLM.  À noter qu'il est parfaitement possible de faire tourner un LLM sur CPU, avec cependant des vitesses de génération fortement dégradées.

1.3 Compression des modèles et nomenclature

Un lecteur attentif aura sans doute noté que le modèle Llama 13B (25Go) ne devrait pas tenir dans la mémoire vidéo de la carte Quadro P5000 (16 Go), ni dans celle de la carte  RTX 4090 (24 Go). En effet, et même si cela parait complètement contre intuitif au premier abord, il est possible de réduire le nombre d'octets sur lesquels sont codés les paramètres sans significativement altérer les performances du modèle. Le terme utilisé est quantization. Le format historique est GGML (GPT-Generated Model Language) qui permet de réduire l'encodage jusqu'à 4 bits. Développé par Georgi Gerganov (également auteur de l'indispensable bibliothèque llama.cpp), ce format est aujourd'hui obsolète et remplacé par GGUF (GPT-Generated Unified Format). Il existe un autre format, GPTQ (Generalized Post-Training Quantization), optimisé pour GPU [3].

Le site incontournable pour trouver ces modèles compressés est huggingface.co, et en particulier le dépôt de TheBloke. Ceci nous amène à décrire la nomenclature de nommage des modèles. Par exemple "codellama-13b-instruct.Q5_K_M.gguf" signifie:

  • modèle de base: codellama
  • 13b: 13 milliards de paramètres
  • instruct: modèle optimisé pour les questions/réponses (chat)
  • Q5_K: 5 bits de quantization
  • M: taille moyenne
  • gguf: le format de compression

Avec ce format, le modèle initial de 25Go passe à 9.23Go. TheBloke donne des indications qualitatives sur la dégradation des performances induites par la compression. Par exemple pour Q5_K_M: "large, very low quality loss - recommended".  Avec ces formats compressés, il est donc possible d’exécuter des modèles 13B et jusqu'à 30B sur des GPUs "grands publics", avec une amélioration significative des performances (en termes de tokens/s) comparativement aux modèles non compressés.

1.4 Cas d'étude et aparté sur les licences

Il suffit de visiter le site huggingface pour se rendre compte de la quantité pharaonique de modèles disponibles. Dans ce journal je me focaliserai sur des modèles optimisés pour de la génération de code, en particulier Code Llama 13B Instruct, développé par Meta et compressé à 5bits. Stricto sensu les modèles de Meta ne sont pas libres car, même si on a accès au code, qu'on peut le modifier et le redistribuer, l'utilisation commerciale est limitée à 700 millions d'utilisateurs mensuels. Cette restriction ne posera pas de problème pour la plupart des lecteurs, mais les plus puristes pourront préférer, par exemple,  StarCoder2, ou encore les modèles de Mistral qui fonctionnent très bien pour de la génération de code et sont distribués sous licence Apache… pour l'instant, puisque leurs derniers modèles ont basculé vers des licences commerciales.

2. LM studio: le point d'entrée

Pour débuter LM studio est parfait. Il est disponible sur toutes les plateformes. Il permet l’exécution locale, sur CPU ou GPU, le téléchargement de modèles sans quitter le programme, les modèles sont bien décrits, LM studio indique s'ils sont compatibles avec le matériel (notamment en termes de vRAM).
LMStudio1

Pour chaque modèle LM studio charge des paramètres par défaut (pour le prompt, calcul et sampler) qui fonctionnent, mais qu'il est possible de modifier à loisir, cf. encadré rouge ci-dessous. Comme tout fonctionne out of the box, c'est une bonne occasion d'examiner le rôle des différents paramètres de calcul, de l'inférence et du sampler. Ces paramètres sont accessibles dans le volet de droite du programme (encadré en rouge).
LMStudio2

Paramètres de prompt

  • Preset: format du prompt, à choisir en fonction du modèle
  • Pre-prompt: permet de guider les réponses du LLM. L'instruction  "You are a helpful coding AI assistant" est celle donnée par défaut. J'ai ajouté "Answer in a concise way" afin de réduire la verbosité des réponses.

Paramètres de calcul ("GPU acceleration")

  • n_gpu_layers : les réseaux de neurones sont formés d'un superposition de couches. Ce paramètre permet d'affecter le calcul d'un certain nombre de couches au GPU. Le reste sera pris en charge par le CPU. Pour Code Llama 13B (9.23 Go), qui compte 40 couches, le modèle tient intégralement dans les 16 Go de vRAM. Dans le cas contraire il aurait fallu mettre un nombre entre 1 et 40. "-1" = affecter toutes les couches au GPU.
  • n_ctx : la longueur du contexte. C'est le nombre de tokens maximum passé au LLM. Cela va définir la longueur de sa mémoire. Code Llama a été entraîné avec une fenêtre de contexte d'environ 16 000 tokens et peut fonctionner pour des contextes allant jusqu'à 100 000 ! [4]. En pratique, pour des questions/réponses, quelques milliers suffisent.

Paramètres du sampler ("Inference parameters")

  • temp (température) : détermine la possibilité pour le sampler de sélectionner un token qui n'a pas la probabilité la plus élevée. On parle souvent de "créativité" du LLM ; "variabilité" serait plus approprié… deux réponses successives au même prompt varieront très fortement pour des températures élevées. Traditionnellement la température varie entre 1 et 2. Pour du code on souhaite que la génération soit la plus factuelle possible, donc de très faibles températures sont préférables. La valeur est ici 0.01.
  • tokens to generate: nombre maximum de token à générer. "-1" = pas de limite.
  • top_k, top_p et min_p sont similaires et visent à réduire le nombre de tokens parmi lesquels choisir en sortie du réseau de neurone. top_k réduit la liste des tokens possibles aux k les plus probables. top_p, sélectionne les tokens les plus probables dont la somme est égale à top_p.  Les tokens de probabilités inférieure à min_p sont exclus.
  • repeat_penalty: pénalise les tokens répétés. Pour du code, mettre cette valeur au minimum possible = 1.

En tout état de cause, dès lors que la température est proche de 0, les paramètres du sampler n'ont plus d'influence car c'est toujours le token le plus probable qui sera sélectionné.

De plus amples informations sont données ici [5] [6] [7] . La documentation de ollama, fournit une liste très complète des paramètres qu'il est possible de contrôler, et une description de leur rôle. Comme beaucoup d'autres logiciels du même type, LMstudio est basé sur le projet Llama.cpp, mais n'est pas libre. Ceci nous amène donc au logiciel suivant.

3. Oobabooga/text-generation-webui: le couteau suisse

Oobabooga/text-generation-webui est un frontend à de nombreux modèles, écrit en Gradio. La prise en main est plus compliquée, mais tout est paramétrable et la licence est libre. L'installation est automatisée via un script shell, ou peut se faire à la main, ce qui peut être intéressant si une installation de python est déjà présente sur le PC. Première chose à faire, dans l'onglet "Model", télécharger le modèle depuis huggingface, en précisant bien quel niveau de compression pour les modèles GGUF (à droite ci-dessous). Les paramètres de calcul sont à définir dans la partie gauche. Il conviendra de sélectionner le "loader" adapté au model: ici llama.cpp pour codellama-13b. Les captures ci-dessous donnent les paramètres optimisés pour Code Llama. La quantité de paramètres est beaucoup plus importante que pour LM sudio ; la lecture de la documentation est fortement recommandée.

Oobabooga 1

Les paramètres d'inférence, tels que définis précédemment, se règlent dans l'onglet "Parameters". Le menu "Preset" permet de sélectionner des types de personnalités pré-configurées, mais tout est paramétrable.

Oobabooga 2

Les paramètres du prompt se règlent dans le sous-onglet "Parameters/Instruction template". Les paramètres par défaut fonctionnent bien. Ici l'instruction (entre les balises <>) a été modifiée de la même façon que dans le cas de LM studio.

Oobabooga 3

Enfin, l'interaction avec le LLM se passe dans l'onglet "Chat" (ou "Default", ou "Notebook", seule la mise en forme change), en prenant soin de sélectionner le format de prompt adapté au modèle (ici, "instruct"). La réponse fournie par LLM est correcte et rigoureusement identique à celle fournie par LM studio avec le même modèle.

Oobabooga 4

4. Ollama: le client CLI

L'interaction avec un LLM se faisant essentiellement en mode texte, une interface en ligne de commande est particulièrement pertinente. L'un des programmes le plus populaire est ollama. Les principaux LLM, et pas seulement ceux basés sur Llama, sont compatibles avec ollama.  Après installation, dans un terminal il suffit d'entrer, par exemple, ollama run codellama:13b-instruct. Si le modèle est déjà présent l'interaction avec le LLM commencera. Si non, ollama téléchargera le modèle, puis initiera l'interaction. Le principal avantage de ollama est sa grande simplicité d'utilisation, permettant de rapidement tester plusieurs LLM.

Celui-ci souffre cependant de deux inconvénients. Sous Linux et Windows ollama n'est (pour l'instant ?) pas compatible avec les GPU. Sous Macos, ollama prend en charge les récentes puces M. Un deuxième problème est la valeur des paramètres par défauts. En particulier la température est trop élevée, ce qui amène ollama à produire des réponses qui ne sont pas identiques pour différentes inférences avec le même prompt. Ollama va jusqu'à produire des liens vers des images qui n'existent pas. Ceci est illustré sur la figure ci-dessous.

ollama1

Il est néanmoins possible de modifier ces paramètres, mais de façon moins immédiate que pour les précédents programmes. Pour cela il faudra créer un "Modelfile" sur mesure:

FROM codellama:13b-instruct
PARAMETER temperature 0.01
PARAMETER num_ctx 5000
PARAMETER repeat_penalty 1
PARAMETER num_predict -1
PARAMETER top_k 40
PARAMETER top_p 0.95
PARAMETER seed -1
SYSTEM """
You are a helpful coding assistant. Answer in a concise way.
"""

TEMPLATE """[INST] <<SYS>>{{ .System }}<</SYS>>

{{ .Prompt }} [/INST]
"""
PARAMETER rope_frequency_base 1e+06
PARAMETER stop "[INST]"
PARAMETER stop "[/INST]"
PARAMETER stop "<<SYS>>"
PARAMETER stop "<</SYS>>"

Les paramètres SYSTEM et TEMPLATE définissent le format du prompt. Chaque LLM a sa propre syntaxe. Ici il s'agit de celle pour des LLM basés sur llama. Le respect de la syntaxe est crucial, notamment les espaces et les sauts de lignes, faute de quoi le LLM produira des réponses potentiellement absurdes (NB: cette syntaxe a déjà été aperçue dans le cas de Oobabooga).

Il faudra ensuite créer un nouveau modèle contenant ces modifications, avant de pouvoir interagir avec :

> ollama create NomDuModèle -f /chemin/vers/le/fichier/Modelfile
> ollama run NomDuModèle

Avec ces modifications, les réponses de ollama sont parfaitement répétables et sans "hallucinations". Exemple ci-dessous:
ollama2

5. Développer son propre client CLI

Étant donné les limitations de ollama, en particulier l'absence de compatibilité GPU, il peut être intéressant de développer sa propre interface. La principale bibliothèque pour cela est llama.cpp. Cette bibliothèque est à la base de la plupart des clients existants à l'heure actuelle. Contrairement à ce que son nom pourrait laisser penser, llama.cpp est compatible avec un très grand nombre de modèles de langage. Cette bibliothèque, comme les programmes précédents, permet de fonctionner en mode serveur web qui pourra être interrogé à distance par des clients n'ayant pas les ressources suffisantes pour exécuter un LLM. Ce mode serveur est intégralement compatible avec l'API de Open AI, de sorte qu'une application développée avec l'API d'Open API pourra se brancher sur un serveur hébergé localement.

Autre avantage indéniable, il existe un très grand nombre de bindings pour différents langages. En python, il s'agit de llama-cpp-python, qui s'installe via pip. La prise en charge du GPU nécessite au préalable l’installation des outils CUDA, puis l'installation de llama-cpp-python:

> conda install cudatoolkit-dev
> CMAKE\_ARGS="-DLLAMA\_CUBLAS=on" pip install llama-cpp-python --no-cache-dir

Le simple fichier Test.py ci-dessous :

from llama_cpp import Llama

llm = Llama(model_path="codellama-13b-instruct.Q5_K_M.gguf",
            n_gpu_layers=-1,
            n_ctx=5000,
            n_batch=512,
            n_threads=None,
            n_threads_batch=None,
            verbose = False)

output = llm("Q: plot a sine curve. A:",
           max_tokens=10000,
           temperature=0.01,
           repeat_penalty=1,
           top_p=0.95,
           top_k=20,
           min_p=0,
           echo=False,
           stop=["Q"])

print(output['choices'][0]['text'])

renvoie la réponse suivante:

\begin{code}
plot(sin(x),x=0..2*pi)
\end{code}

Ceci diffère fortement des cas précédents. La raison est que le format du prompt sous la forme de "Q: … A:", ne respecte pas la syntaxe avec laquelle le réseau de neurones a été entraîné. La syntaxe correcte est celle décrite précédemment dans le cas de ollama.

Avec un peu de raffinement, notamment sur la mise en forme du prompt, il est possible d'avoir un client tout à fait acceptable. Pour les lecteurs intéressés, je joins le lien vers mon dépôt github: https://github.com/aboulle/mica

Voilà ce que ça donne:
anim

Évidemment, tracer une sinusoïde n'est pas une tâche très complexe. Cet exemple a servi ici à régler les différents paramètres. Je vous invite à essayer sur des cas plus complexes. Par ailleurs Code Llama et Code Llama instruct, sont multilangages, Code Llama Python étant, comme son nom l'indique, optimisé pour Python. Enfin, seul le modèle instruct, présenté dans cet article, est optimisé pour les questions/réponses. Les autres sont recommandés pour de la complétion de code et du infilling.

Remerciement : la rédaction de ce journal m'a été inspirée par l'excellent Guillaume Poggiaspalla, co-présentateur du non moins excellent et indispensable podcast Tech Café. La qualité de la veille technologique et les efforts de vulgarisation, produits deux fois par semaine, sont tout simplement impressionnants. PS: je ne suis pas du tout affilié avec ce podcast.

  • # Excellente introduction

    Posté par  (Mastodon) . Évalué à 10.

    Ça va à l'essentiel pour commencer.

  • # super article !

    Posté par  (site web personnel) . Évalué à 9.

    Article très complet merci !

    Ce qui m'intéresserait de savoir serait comment créer une ia local spécialisé. Imaginez un chat qui repond comme "linuxfr" ou comme les "lecteurs de linuxfr" en ayant lu les articles ou les commentaires.

    On pourrait aussi avoir une ia ayant lu les codes (et log des commit ) et document d'une boite pour repondre à des questions et fournir des references internes.

    On pourrait aussi imaginer une ia spécialisée dans le droit et qui référence n'importe quel code juridique ou juridprudence.

    "La première sécurité est la liberté"

    • [^] # Re: super article !

      Posté par  . Évalué à 7.

      Pour donner un style dans les réponses cela peut se faire à relativement faible coût en entraînant un LoRA (Low Rank Adapter). C’est faisable dans oobabooga. Je n’ai jamais essayé mais cela semble relativement simple.

      Le second point est exactement la raison pour laquelle j’ai commencé à m’intéresser aux LLM, mais pour des questions de type scientifique. Ça a l’air plus complexe. Il est possible d’ajouter de la connaissance à un LLM via des RAG (Retrieval Augmented Generation).

      Je m’interroge sur la quantité de données qu’on peut leur faire ingérer. Par ailleurs les questions de droit d’auteurs deviennent critiques car l’information n’est plus stockée dans des poids et biais, mais dans une base donnée de vecteur-tokens, donc quasiment en clair. Mais ça a l’air très utile en entreprise pour avoir un LLM qui fonctionne sur de l’information interne et en plus ça donne des références exactes de documents. Il me semble que le frontend
      PrivateGPT fait ça.

      Si un spécialiste passe par là, je suis preneur de toute information.

  • # Dépêche ?

    Posté par  (site web personnel) . Évalué à 9.

    Serait-il possible de promouvoir ce journal en dépêche ? C'est structuré, illustré référencé et très intéressant, ça me semble tout à fait convenir pour devenir une dépêche.

    • [^] # Re: Dépêche ?

      Posté par  (site web personnel) . Évalué à 5. Dernière modification le 03 mars 2024 à 14:08.

      c'est fait

      ウィズコロナ

    • [^] # Re: Dépêche ?

      Posté par  . Évalué à 3. Dernière modification le 03 mars 2024 à 19:43.

      Merci pour cette proposition, j'étais passé à côté de ce journal que j'ai trouvé excellent tant sur le fond que sur la forme, et merci palm123 de ta vigilance.

    • [^] # Re: Dépêche ?

      Posté par  (site web personnel, Mastodon) . Évalué à 3.

      Il me semble que c’était dans l’espace de rédaction… J’ai donc la surprise à l’instant de le voir en journal.

      “It is seldom that liberty of any kind is lost all at once.” ― David Hume

  • # il manque des mots il me semble à

    Posté par  (site web personnel) . Évalué à 4.

    puisque leurs derniers ont basculé vers des licences commerciales. Mentionnons également

    ウィズコロナ

    • [^] # Re: il manque des mots il me semble à

      Posté par  . Évalué à 2.

      Oui j’ai vu ça. Il faudrait supprimer ce morceaux de phrase.

      J’en corrige 2 autres.

      Dans la phrase « Dans ce journal je me focaliserai sur des modèles optimisés pour de la génération » il manque « de code » à la fin.

      « (entre les balises <) » devrait être « entre les balises <> »

      • [^] # Re: il manque des mots il me semble à

        Posté par  . Évalué à 1.

        Corrigé en parties. Je ne suis pas sûr de la syntaxe "&lt;<SYS&gt;>" pour les balises, ni du sens de "puisque leurs derniers ont basculé"…
        "puisque ces derniers ont basculé" ?

        • [^] # Re: il manque des mots il me semble à

          Posté par  . Évalué à 2.

          Merci.

          « Leurs derniers modèles »

          La syntaxe c’est juste un signe inférieur et un signe supérieur.

          Autres coquilles:
          « Un lecteur attentif aura sans doute noté que le modèle Llama 13B (25Go) ne devrait tenir » c’est « ne devrait pas tenir »

          « deux requêtes successives au même prompt varieront très fortement pour des températures élevées » devrait être « deux réponses successives au même prompt varieront très fortement pour des températures élevées »

          « tracer une sinusoïde n'est pas une tâche un très complexe ». Il y a un « un » en trop.

          On ne se relit jamais assez…

          • [^] # Re: il manque des mots il me semble à

            Posté par  . Évalué à 3.

            Corrigé, ainsi que "visiter le site huggingface pour se rendre de…" qui devient "visiter le site huggingface pour se rendre compte de…", je suppose, et une ou deux virgules…

  • # Support des GPU

    Posté par  (site web personnel) . Évalué à 1.

    Merci pour cette dépêche.

    Cependant tu fais erreur, Ollama supporte bien les GPUs (au moins les GPUs Nvidia).

    • [^] # Re: Support des GPU

      Posté par  . Évalué à 3.

      J’ai vu que c’était possible via docker, mais je n’ai pas trouvé comment faire autrement. L’installation par défaut ne sollicite que mon CPU. Je veux bien la référence si tu l’as. Peut-être changer le modfile ?

      • [^] # Re: Support des GPU

        Posté par  (site web personnel) . Évalué à 3. Dernière modification le 03 mars 2024 à 17:17.

        Si c'est possible dans Docker, ça l'est forcément sans.

        En ce qui me concerne, je l'utilise dans mon cluster Kubernetes donc dans son image Docker mais sur un Linux avec un environnement Nvidia correctement configuré ça devrait tourner sans problèmes.

        Les issues du projet pourraient t'aiguiller. Ce commentaire par exemple : https://github.com/ollama/ollama/issues/2826#issuecomment-1970562656

        Comme dans l'issue ci-dessus, les fois où j'ai constaté qu'un modèle utilisait mon CPU au lieu du GPU c'était en effet lié à la taille du modèle (ou la longueur du contexte).

    • [^] # Re: Support des GPU

      Posté par  . Évalué à 2.

      oui les cpu nvidia sont bien supportés. La seule galère que j'ai eu c'est que les drivers pour les cartes h100 ne sont pas les mêmes que pour ma gtx de gamer et j'ai mis un moment à comprendre …

  • # Choix GPU

    Posté par  (Mastodon) . Évalué à 7.

    Je pense à acheter une CG un poil moderne, entre autre pour faire explorer un peu l'IA. Quel est ton conseil en matière de matos ? À prix équivalent, plutôt privilégier la puissance brute ou la qtité de RAM ?

    En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

    • [^] # Re: Choix GPU

      Posté par  . Évalué à 6.

      Je ne suis pas suffisamment expert en hardware pour répondre de façon affirmative à cette question. D'autant plus que la réponse va dépendre du type de calcul visé. Mais, de mon expérience sur des réseaux de neurones, j'aurais tendance à privilégier la vRAM. C'est très frustrant de ne pas pouvoir charger un modèle sur le GPU. Le graphique ci-dessous donne les modèles classés par rapport perf/prix. Donc une 4090 ou 3090.
      GPUs

      Source: https://timdettmers.com/2023/01/30/which-gpu-for-deep-learning/

    • [^] # Re: Choix GPU

      Posté par  (site web personnel) . Évalué à 4.

      Je te conseillerai de regarder les RTX 3090 d'occasion sur des sites d'annonce.

      C'est le meilleur rapport qualité/prix/vRAM que tu pourras trouver.

      • [^] # Re: Choix GPU

        Posté par  (site web personnel) . Évalué à 4. Dernière modification le 04 mars 2024 à 14:34.

        Je ne sais pas ce que ça vaux en ia (j'ai cru comprendre que ça n'était pas fou, mais que ça s'est amélioré recemment), les 7900XT et XTX sont un peu plus abordables et ont 20 et 24GB de vram.

        Mais à valider pour la tache, en tout cas ma 6800xt me permet de faire tourner des modèles sans grand soucis visiblement, mais je fais ça en dilettante.

        Ce fil reddit en parle : https://www.reddit.com/r/LocalLLaMA/comments/191srof/amd_radeon_7900_xtxtx_inference_performance/

        • [^] # Re: Choix GPU

          Posté par  . Évalué à 3.

          Je serais curieux de savoir comment tu arrives à faire tourner ces modèles avec un GPU AMD. J'avais essayé de voir si ma vénérable Radeon RX 570 pouvait être utile mais visiblement, en dehors de CUDA (NVIDIA propriétaire), point de salut…

          • [^] # Re: Choix GPU

            Posté par  . Évalué à 5.

            Llama.cpp est compatible avec les cartes AMD via openCL. Discussion ici:
            https://www.reddit.com/r/LocalLLaMA/s/hM95X972dW

            • [^] # Re: Choix GPU

              Posté par  . Évalué à 2.

              Tu as testé de faire tourner llama.cpp (ou autre) sur openCL/ROCm ? Parce que toutes mes tentatives ont été infructueuses. Je ne sais pas si c'est lié à ma distribution (Debian testing), ma carte vieillotte ou les drivers qui hésitent entre libre et propriétaires…

              Je suis preneur d'un retour positif d'utilisation d'openCL sur AMD. Il y a quelques années, j'avais réussi à utiliser ma carte avec Blender, mais tout est cassé chez moi depuis environ 2 ans en ce qui concerne openCL sur GPU (ça marche sur CPU, mais il y a peu d'intérêt).

              • [^] # Re: Choix GPU

                Posté par  (site web personnel) . Évalué à 1.

                Pour le coup je ne suis pas sur de pouvoir aider, j'ai une carte assez récente (rx6800xt), je suis sous archlinux et j'utilise le pilote opensource.
                J'ai utiliser GPT4All pour tester ces modèles, et à part ça je n'ai pas installé grand chose d'autre.
                Ça a juste marché dans mon cas.

          • [^] # Re: Choix GPU

            Posté par  (site web personnel) . Évalué à 7.

            visiblement, en dehors de CUDA (NVIDIA propriétaire), point de salut…

            CUDA avait été porté sur GPU Intel, puis c'est en cours depuis 2022 sur GPU AMD
            https://www.phoronix.com/review/radeon-cuda-zluda

          • [^] # Re: Choix GPU

            Posté par  . Évalué à 4.

            Retour d'expérience : installation d'une interface Web-UI Stable Diffusion sur un "ancien" PC équipé d'une carte graphique RX580 AMD et d'un système Debian Bookworm. (C'est pas du LLM, mais c'est du réseau de neurones)

            Je ne souhaitais pas installer ROCm depuis les dépôts AMD (parce qu'il ne supporte pas debian) mais préférais utiliser ceux développés par https://salsa.debian.org/rocm-team. Et que cette carte ne soit pas officiellement prise en charge d'après ce que j'ai lu. La version de Bookworm est ROCm 5.2.3-3. J'ai effectué tous mes tests dans une image Docker provenant de https://hub.docker.com/r/rocm/dev-ubuntu-22.04/tags ayant une version similaire de ROCm. Les commandes "rocminfo" et "rocm-smi" fournissent bien les informations relatives à ma carte. Ubuntu parce que c'est "la" distribution pour AMD.

            Premier objectif : faire fonctionner PyTorch avec la carte graphique. Le test consiste à exécuter "torch.cuda.is_available()", qui doit renvoyer True. J'ai tenté d'utiliser les releases officielles (nightly, variantes de version) de PyTorch disponibles à l'adresse suivante : https://download.pytorch.org/whl/rocm5.2, sans succès. Après recherche, j'ai découvert deux dépôts GitHub concernant ma carte GFX803 : https://github.com/xuhuisheng/rocm-gfx803 et https://github.com/tsl0922/pytorch-gfx803. Il semblerait que PyTorch puisse fonctionner… Place aux sessions de compilation de PyTorch ! Grâce à la version v1.13.1, la compilation aboutit et le test renvoie True. Tous les tests unitaires n'aboutissent pas, mais c'est déjà pas mal.

            Le problème survient lorsque Stable Diffusion Web UI recommande PyTorch 2. Malgré divers essais, aucune compilation n'aboutit pour les différentes versions 2. J'ai finalement appris que seule la version v1.13.1 était compatible avec ROCM5.2 via https://pytorch.org/get-started/previous-versions/.

            Il convient de noter que stable-diffusion est nommé dans les releases de https://github.com/tsl0922/pytorch-gfx803/releases/tag/pytorch-1.13.1.

            Après avoir travaillé sur les versions de Stable Diffusion Web UI et celles des modules Python nécessaires pour assurer leur compatibilité (jouer sur les versions en up et downgrade), j'ai enfin réussi à générer une image.

            Merci à l'équipe Salsa de Debian pour son travail sur ROCm intégré nativement à Debian, ainsi qu'aux développeurs qui partagent leurs travaux en ligne. Dommage que cette carte datant de 2018, dotée de capacités permettant de traiter les réseaux de neurones, ne bénéficie pas d'un meilleur soutien de la part du fabricant. Quant à PyTorch, il m'a fallu beaucoup de temps pour trouver des informations afin de procéder à une compilation spécifique pour ma carte et être certain que cela fonctionnerait correctement.

  • # GPT4all

    Posté par  . Évalué à 3.

    Merci pour toutes ces infos!
    Il y a quelques mois j'ai (un peu) testé :
    GPT4all
    J'ai le souvenir d'un client simple d'usage pour télécharger un modèle et lui lancer un ch'tit prompt pour voir comment ça se passe…

  • # T'es sur de toi?

    Posté par  (Mastodon) . Évalué à -3.

    À l'inverse pour une RTX 4090 (…. BW = 1008 Go/s)

    T'es sur de toi?? car moi ma RS 232 va à 9600 Bauds (enfin je peux quand même l'upgrader à 19200 si je veux)

  • # Zluda?

    Posté par  (site web personnel) . Évalué à 4.

    Quelqu'un a déjà essayé Zluda sur AMD?

    https://github.com/vosen/ZLUDA

    Je regarde en ce moment pour acheter un Ryzen et de mettre 16GB de VRAM dans le BIOS avec une seule barrette de mémoire en 32GB:

    https://www.tomshardware.com/news/dollar95-amd-cpu-becomes-16gb-gpu-to-run-ai-software

  • # extraction de problématiques scientifiques pour un LLM

    Posté par  (Mastodon) . Évalué à 1.

    Ok, ça n'a fait rire que moi :p

    Même si c'est pas exactement la même utilisation c'est quand même fou cette différence de BW de ~10⁶.

    En tout cas, merci pour ce journal j'ai beaucoup appris.

    Pour finir;
    Je travaille sur une banque de problématiques scientifiques; Sauriez vous si un LLM peut extraire des questions pertinentes d'articles scientifiques?

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.