Forum général.cherche-logiciel IA Pratique

Posté par  . Licence CC By‑SA.
Étiquettes : aucune
2
1
mar.
2025

Bonjour,

Depuis quelque temps, on voit passer pleins de posts à propos de l'IA sur Linuxfr.

De mon côté, en ce moment, j'ai plein de mails à envoyer à droite à gauche, du coup je m'appuie sur des sites Internet qui proposent justement de générer des courriers complets à partir de quelques idées saisies en vrac.

Évidemment, cela fait gagner un temps fou, mais j'ai zéro confiance pour la confidentialité, Donc ma question est:

Est-ce que à tout hasard, on peut installer quelque chose d'équivalent en local chez soi?

  • # Llama ?

    Posté par  . Évalué à 5 (+3/-0).

    Salut,

    Je faisais tourner Llama en local, je ne sais plus exactement quelle version. C'était juste sur le CPU, donc les réponses étaient lentes (deux mots par seconde ?). Ça fonctionnait correctement sinon.

  • # Re: IA Pratique

    Posté par  . Évalué à 5 (+3/-0). Dernière modification le 01 mars 2025 à 18:34.

    En 100% local et libre, je conseillerai Jan, qui fournit une interface, un .AppImage et un .deb, et une installation simple de modèles ouverts.

    llama.cpp si tu veux travailler en ligne de commande, intégrer avec des scripts, etc, mais on est déjà moins dans la pure découverte raide.

  • # y'a gpt4all

    Posté par  . Évalué à 4 (+1/-0).

    et koboldcpp

    depuis peu koboldcpp permet de tourner avec vulkan, donc avec les cartes AMD :)

    le plus limitant étant la RAM de la carte graphique

    Il ne faut pas décorner les boeufs avant d'avoir semé le vent

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.