Salut à tous,
Vous arrive-t-il d’avoir un petit bout de code à écrire — rien de sorcier, juste un script bash pour renommer 200 fichiers ou un petit module Python pour parser du JSON — et de vous dire : « Franchement, si quelqu’un pouvait me pondre ça à ma place, je ne dirais pas non » ?
Récemment, j’ai testé quelques assistants IA pour ce genre de tâches. Résultat :
Le code sort en quelques secondes, souvent propre… et parfois avec un bonus de commentaires (parfois utiles, parfois poétiques).
Ça m’a évité pas mal de copier-coller depuis des vieux projets poussiéreux.
MAIS… il faut relire et tester, sinon vous risquez de découvrir un while true surprise à 2 h du matin.
Du coup, je suis curieux :
Vous utilisez quoi dans ce domaine ? Copilot ? ChatGPT ? Des outils libres ?
Vous leur confiez seulement du “boilerplate” ou aussi des parties plus critiques ?
Vous avez déjà eu un moment magique… ou complètement WTF avec un bout de code généré par l’IA ?
Je me dis que si on met nos expériences en commun, on pourra peut-être tous gagner du temps… ou au moins éviter les mêmes pièges. 😄
— Un utilisateur qui aime Linux, mais pas retaper 15 fois la même boucle for
# non
Posté par Krunch (site web personnel) . Évalué à 3 (+2/-1).
rename(1)
jq
Je comprend pas l'intérêt de rajouter une tonne de merde autogénérée à sa codebase.
pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.
# LocalLLaMA
Posté par i M@N (site web personnel) . Évalué à 4 (+3/-0).
Salut.
J'utilise des logiciels libres et des modèles "ouverts" (téléchargeables sur huggingface par exemple) que je peux faire tourner sur ma/mes machine(s). En ce moment j'utilise beaucoup Qwen3-Coder-30B-A3B-Instruct-GGUF.
Pour lancer un LLM j'utilise llama.cpp
Pour pouvoir passer d'un modèle à un autre llama-swap
J'utilise surtout VSCodium avec l'extension continue qui permet d'avoir un chat à côté de l'éditeur.
Etant donné que ceci fonctionne en local je peux lui confier tout dans la limite du contexte possible avec la machine sur laquelle il fonctionne.
Moment magique : quand un LLM m'a sorti la bonne réponse à une obscure question pour un cas très particulier en 2 prompts alors que j'avais cherché un moment sur Internet sans parvenir à trouver la réponse. Je crois que c'était un modèle Mistral.
Pour la veille je suis ce qui se passe sur /r/LocalLLaMA/
wind0w$ suxX, GNU/Linux roxX!
# Code méthode David Goodenough avec limiteur par emmerdemment
Posté par Benoît Sibaud (site web personnel) . Évalué à 4 (+1/-0). Dernière modification le 15 août 2025 à 10:01.
Je suis plutôt du genre à retaper 15 fois la boucle for, puis à force ça m'ennuie alors je scripte (ou je finis par découvrir une commande qui fait plus/mieux). Je lance 15 fois le script. Puis je me décide à l'améliorer/mieux l'intégrer/le compléter. Alors je lance 15 fois…
Mais je n'ai pas appris à faire des boucles ou des scripts en demandant à l'IA de les faire à ma place, mais en cherchant/voyant comment les autres faisaient, comment la doc disait, en faisant des commandes/scripts merdiques ou bogués, par répétition et alternance succès/échec, ce qui diffère de l'apprentissage actuel de quelqu'un a qui on met à dispo une ange gardien virtuel (plus ou moins compétent et fiable) dès le départ
Exemple typique : la rétrospective de la quinzaine, d'abord très à la main, puis des séries de commandes shell enrichies en pipe et en ssh, puis des séries de scripts… un jour peut-être un script qui lancera tout en une commande, quand j'en aurais suffisamment marre et que coder ça sera la meilleure excuse pour ne pas faire un autre truc plus urgent/important.
(Nb: le "David Goodenough" n'est pas ici sur la qualité du code mais sur la résistance à la répétition de la personne qui code)
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.