Posté par Florian.J .
Évalué à 1 (+0/-0).
Dernière modification le 12 novembre 2025 à 12:40.
Je suis surpris que la fiabilité des modèles ne semble pas être un sujet, qui explique selon moi "89 % des entreprises reconnaissent ne pas encore générer de véritable valeur client à partir de leurs projets d’IA."
Si tu n'es pas en mesure d'utiliser un outil les yeux fermés pour traiter tes données, il est plus dangereux qu'utile.
Et ça explique "91 % des entreprises déclarent faire face à des cas de shadow AI, c’est-à-dire l’usage non autorisé d’outils d’IA par les employés".
Bref les llm en pratique c'est pour le moment réservé au code, apprendre des trucs et faire la relecture de ses courriels.
Ca permet de gagner en productivité mais la généralisation des usages n'est pas pour tout dessuite.
Si tu n'es pas en mesure d'utiliser un outil les yeux fermés pour traiter tes données, il est plus dangereux qu'utile.
Pourtant on confie habituellement ça à des êtres humains, et on sait tous qu'il est absurde de faire confiance à des humains les yeux fermés. Les AI ne vont pas apporter leurs problèmes perso au travail, ils ne vont pas devoir partir plus tôt parce que le petit dernier a une conjonctivite, ils ne vont pas avoir envie de piquer dans la caisse ou de glandouiller dès que le chef n'est pas là…
Ce qu'il manque, c'est du recul sur ce que les AI peuvent faire et ne peuvent pas faire (donc, ne pas écouter les fournisseurs d'AI qui racontent n'importe quoi), du recul sur les tâches qu'on peut leur confier sans supervision particulière (envoyer un mail en internet pour rappeler une réunion dont l'heure n'est jamais la même) et les tâches qui doivent être validées (envoyer des mails aux clients).
91 % des entreprises déclarent faire face à des cas de shadow AI
C'est surtout le risque de voir filer dans la nature des données confidentielles de l'entreprise parce qu'on n'a pas la réactivité de payer un accès spécifique.
c'est pour le moment réservé au code,
Ça dépend quel code… Pour l'instant, je préfère que le code du kernel reste écrit par des vrais gens…
# Fiabilité ?
Posté par Florian.J . Évalué à 1 (+0/-0). Dernière modification le 12 novembre 2025 à 12:40.
Je suis surpris que la fiabilité des modèles ne semble pas être un sujet, qui explique selon moi "89 % des entreprises reconnaissent ne pas encore générer de véritable valeur client à partir de leurs projets d’IA."
Si tu n'es pas en mesure d'utiliser un outil les yeux fermés pour traiter tes données, il est plus dangereux qu'utile.
Et ça explique "91 % des entreprises déclarent faire face à des cas de shadow AI, c’est-à-dire l’usage non autorisé d’outils d’IA par les employés".
Bref les llm en pratique c'est pour le moment réservé au code, apprendre des trucs et faire la relecture de ses courriels.
Ca permet de gagner en productivité mais la généralisation des usages n'est pas pour tout dessuite.
[^] # Re: Fiabilité ?
Posté par arnaudus . Évalué à 2 (+0/-1).
Pourtant on confie habituellement ça à des êtres humains, et on sait tous qu'il est absurde de faire confiance à des humains les yeux fermés. Les AI ne vont pas apporter leurs problèmes perso au travail, ils ne vont pas devoir partir plus tôt parce que le petit dernier a une conjonctivite, ils ne vont pas avoir envie de piquer dans la caisse ou de glandouiller dès que le chef n'est pas là…
Ce qu'il manque, c'est du recul sur ce que les AI peuvent faire et ne peuvent pas faire (donc, ne pas écouter les fournisseurs d'AI qui racontent n'importe quoi), du recul sur les tâches qu'on peut leur confier sans supervision particulière (envoyer un mail en internet pour rappeler une réunion dont l'heure n'est jamais la même) et les tâches qui doivent être validées (envoyer des mails aux clients).
C'est surtout le risque de voir filer dans la nature des données confidentielles de l'entreprise parce qu'on n'a pas la réactivité de payer un accès spécifique.
Ça dépend quel code… Pour l'instant, je préfère que le code du kernel reste écrit par des vrais gens…
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.