URL:     https://linuxfr.org/forums/general-hors-sujets/posts/quelqu-un-a-teste-un-ai-porn-chat-sous-linux
Title:   Quelqu'un a testé un ai porn chat sous Linux ?
Authors: Fariel
Date:    2026-05-13T08:52:32+02:00
License: CC By-SA
Tags:    spam
Score:   -7


Bonjour! Je cherche a faire tourner un ai porn chat en local sur ma machine et franchement c'est un peu le bordel pour trouver des infos claires. J'suis sur Arch (oui je sais, "btw") et j'ai déjà installé des trucs comme ollama pour les LLM classiques, sa tourne nickel pour du texte normal, mais dès que je veux quelque chose d'un peu plus spécialisé genre un ai porn chat avec des modèles finetunés, je sais plus trop ou chercher.
Le truc c'est que j'ai regardé des repo GitHub y'a genre deux semaines, j'ai vu passer des forks de SillyTavern et des trucs basés sur llama.cpp avec des modèles GGUF qui auraient l'air de marcher pour ça. Mais les instructions d'install c'est souvent du "ça marche chez moi" sans vraiment détailler les dépendances, et moi j'ai une RX 6700 XT du coup ROCm c'est toujours un peu la loterie sous Linux, je suis pas sur que mes drivers vont pas foutre tout en l'air. J'ai essayé un premier truc la semaine dernière, j'ai réussi a lancer un backend mais l'inférence était tellement lente que ça servait a rien (genre 3 tokens par seconde, abusé). Du coup j'ai stoppé. Quelqu'un ici a réussi a monter un stack propre pour ce genre d'usage en local, avec un GPU AMD ? Et est-ce que SillyTavern c'est vraiment le front le plus utilisé pour ça ou y'a des alternatives qui demandent moins de config ? Perso j'ai pas envie de passer par des services en ligne, le but c'est justement tout en local. Si quelqu'un a un guide ou même juste les grandes étapes qui marchent, je suis preneur.
