Journal ollama et le GPU

Posté par  . Licence CC By‑SA.
5
16
avr.
2024

Bonjour à tous,

lors d'un précédent journal concernant les LLM, poulpatine m'a fait remarquer que je faisais erreur en affirmant que ollama ne fonctionne pas avec les GPU sous linux.
En effet j'avais tort. Enfin, en partie; je m'explique:
- en passant par l'installation standard de ollama, ollama tourne via un service systemd. Dans ce cas, le GPU n'est pas utilisé.
- par contre, en lançant un serveur ollama via une commande ollama serve, l'inférence utilise parfaitement (…)

Journal [Trolldi] Vulgarisation sur l'IA pour décideur pressé

11
5
avr.
2024

Cher 'Nal,

Je fais un article-marque-page sur un post tout frais de Ploum où il est question d'un fantasme vieux comme le Talmud avec le Golem.

En bref: C'est trop tard d'investir sur l'IA pour faire fortune, le secteur va péter et pas en bien façon dystopie post-apocalyptique.

Le post peut servir pour donner un "avis différentiel" pour tempérer les tentations disruptives d'un chef ou d'un big boss qui ne jure que par les sacro-saintes Croissance et Progrès. À (…)

Journal Introduction pratique aux grands modèles de langage / LLM

73
3
mar.
2024

Dans cet article je me propose de faire une introduction aux grands modèles de langage, et en particulier à leur utilisation en local (i.e., hors ligne). Si vous ne souhaitez pas vous inscrire sur des plateformes en ligne, que vous êtes soucieux de l'utilisation qui est faite de vos données, que vous ne souhaitez pas débourser le prix d'un abonnement, mais que toutefois ces technologies suscitent votre intérêt, alors cet article est peut-être pour vous. Je n'aborderai (…)