Journal Comparatif : 6 LLMs locaux face à un exercice Python simple

Posté par  (site web personnel) . Licence CC By‑SA.
25
3
avr.
2026

Bonjour, aujourd'hui j'ai fait un essai qui n'est pas du tout scientifique : que valent les LLM qui tournent sur mon Dell d'inférence pour coder une fonction Python très simple ?

Le prompt donné aux modèles : « Je voudrais que tu me fasses une fonction en Python pour parser un fichier CSV et le transformer en JSON. »

Un même prompt, six modèles différents, tous exécutés en local via Ollama. L'objectif : voir comment chaque LLM interprète une demande (…)

AMD mise tout sur RADV

74
6
mar.
2026
Linux

Nous avions appris avant l’été que la pile graphique d’AMD serait désormais entièrement libre et qu’AMD abandonnait ses derniers pilotes propriétaires au sens de privateur, mais AMD s’est également séparé du pilote libre AMDVLK au profit du pilote libre RADV de Mesa !

Une steam deck sur une steam machine originale affichant RADV inside!
L’ombre de Valve plane sur les pilotes graphiques AMD sous Linux. Ici une Steam Deck de 2022 et une AlienWare Alpha (Steam Machine originelle de 2015) en variante AMD, fonctionnant toutes deux avec RADV.

Le 17 novembre 2025, avec la sortie de la version 25.20.3, RADV est devenu le pilote Vulkan universel pour les cartes AMD sous Linux. Cette dépêche vous emmène sur les traces du pilote RADV et comment celui-ci a remplacé AMDVLK, remémore l’aventure d’ACO pour battre LLVM, raconte comment un changement récent du pilote Linux amdgpu active la prise en charge de Vulkan sur de nombreux matériels anciens, et soyons fou, vous explique comment installer RADV sur une Xbox.

Journal ollama et le GPU

Posté par  . Licence CC By‑SA.
5
16
avr.
2024

Bonjour à tous,

lors d'un précédent journal concernant les LLM, poulpatine m'a fait remarquer que je faisais erreur en affirmant que ollama ne fonctionne pas avec les GPU sous linux.
En effet j'avais tort. Enfin, en partie; je m'explique:
- en passant par l'installation standard de ollama, ollama tourne via un service systemd. Dans ce cas, le GPU n'est pas utilisé.
- par contre, en lançant un serveur ollama via une commande ollama serve, l'inférence utilise parfaitement (…)