• # Fiabilité ?

    Posté par  . Évalué à 2 (+1/-0). Dernière modification le 12 novembre 2025 à 12:40.

    Je suis surpris que la fiabilité des modèles ne semble pas être un sujet, qui explique selon moi "89 % des entreprises reconnaissent ne pas encore générer de véritable valeur client à partir de leurs projets d’IA."

    Si tu n'es pas en mesure d'utiliser un outil les yeux fermés pour traiter tes données, il est plus dangereux qu'utile.
    Et ça explique "91 % des entreprises déclarent faire face à des cas de shadow AI, c’est-à-dire l’usage non autorisé d’outils d’IA par les employés".

    Bref les llm en pratique c'est pour le moment réservé au code, apprendre des trucs et faire la relecture de ses courriels.
    Ca permet de gagner en productivité mais la généralisation des usages n'est pas pour tout dessuite.

    • [^] # Re: Fiabilité ?

      Posté par  . Évalué à 0 (+2/-5).

      Si tu n'es pas en mesure d'utiliser un outil les yeux fermés pour traiter tes données, il est plus dangereux qu'utile.

      Pourtant on confie habituellement ça à des êtres humains, et on sait tous qu'il est absurde de faire confiance à des humains les yeux fermés. Les AI ne vont pas apporter leurs problèmes perso au travail, ils ne vont pas devoir partir plus tôt parce que le petit dernier a une conjonctivite, ils ne vont pas avoir envie de piquer dans la caisse ou de glandouiller dès que le chef n'est pas là…

      Ce qu'il manque, c'est du recul sur ce que les AI peuvent faire et ne peuvent pas faire (donc, ne pas écouter les fournisseurs d'AI qui racontent n'importe quoi), du recul sur les tâches qu'on peut leur confier sans supervision particulière (envoyer un mail en internet pour rappeler une réunion dont l'heure n'est jamais la même) et les tâches qui doivent être validées (envoyer des mails aux clients).

      91 % des entreprises déclarent faire face à des cas de shadow AI

      C'est surtout le risque de voir filer dans la nature des données confidentielles de l'entreprise parce qu'on n'a pas la réactivité de payer un accès spécifique.

      c'est pour le moment réservé au code,

      Ça dépend quel code… Pour l'instant, je préfère que le code du kernel reste écrit par des vrais gens…

      • [^] # Re: Fiabilité ?

        Posté par  (Mastodon) . Évalué à 10 (+10/-0).

        Pourtant on confie habituellement ça à des êtres humains, et on sait tous qu'il est absurde de faire confiance à des humains les yeux fermés.

        Mais ce sont des humains qui ont réussi à faire se poser une sonde sur une comète.

        En fait, avec les humains, on sait qu'il va y avoir des défaillances, donc on prévoit le cas, et on met des sécurité.
        Et des sécurités aux sécurités.

        Mais on ne sait pas quelles sécurités mettre aux IAs pour rattraper leurs bévues.
        Ni comment corriger ça automatiquement.

        Donc on ne peut rien automatiser, il faut tout contrôler à toutes les étapes, quitte à refaire soi-même quand ça se plante.

        • Yth.
        • [^] # Re: Fiabilité ?

          Posté par  . Évalué à 5 (+4/-0). Dernière modification le 12 novembre 2025 à 18:18.

          J'ajouterai qu'il y a chez les humains des sentiments et ils se sentent en principe concernés par ce qu'ils font.
          Si tu manipules des milliers de données clients et qu'une erreur serait une perte catastrophique pour toi et la boite tu te comporte différemment que le moment où tu va voir si il à encore du café en réserve.

          Le IA ne hiérarchisent rien (à moins que l'on simule ce comportement, mais c'est pas systématique), elle ne sont pas spécialement concernés par ce qu'on leur demande.

          Et une IA qui se plante pouvant tout autant être un problème d'alignement (instructions imprécises ou non suivies) qu'une hallucination aléatoire, oui les humains font des erreurs mais pas de la même façon.
          Un llm qui a halluciné empoisonne son contexte et se met souvent à entretenir son "mensonge".
          Ce qui rend à mon avis illusoire à court terme l'utilisation d'agents autonomes (ou en tout cas pas pour traiter des données sensible).

  • # exemple de la FNTP

    Posté par  . Évalué à 3 (+1/-0).

    un syndicat professionnel: la Fédération Nationale des Travaux Publics FNTP

    et son livre blanc sur l'IA:

    https://www.fntp.fr/wp-content/uploads/2024/12/202411.pdf

    les 20/25 premières pages sont plutôt générales. Mais ensuite, c'est plein d'exemples d'utilisation de l'IA en pratique (comme par exemple: "14. Mesure de la capture du carbone"

    Forcément, ça parle aussi de reconnaissance, de gestion des flux, de surveillance des réseaux, etc etc
    Des trucs déjà bien en place quoi (pensez aux CAPTCHA par ex ;)

    "Si tous les cons volaient, il ferait nuit" F. Dard

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.