L'analyse me semble quand même assez foireuse, parce que quand on dit "l'IA générative", c'est assez rarement détaillé. Vu qu'on mets de l'IA partout, je pense que c'est quand même important de savoir de quoi on parle.
Mais même l'étude sur le site de BCG est trop simplifié pour juger, il faut aller chercher le papier académique.
Et il y a quelques soucis dans l'étude. Pour commencer, page 8, "on a filé un bonus pour s'assurer que tout le monde termine comme il faut, avec un bonus en plus pour les plus rapides et plus efficace". Ça, c'est déjà quand même un souci pour moi.
L'étude se consacre sur la rapidité à faire une tache spécifique, mais quand on voit que l'usage classique d'un consultant de BCG, c'est soit de servir de fusible, soit de faire des réunions, je pense qu'il faut aussi pondérer la productivité totale avec le pourcentage de rapport à faire. L'étude semble aussi dire (page 9) que l'étude ne fait pas confiance à des métriques auto annoncés, mais c'est ce qui a été utilisé pour choisir l'échantillon, et ça me semble un probléme.
Et je pense qu'il faut aussi garder la figure 7 en tête, celle qui mentionne que les consultants font des taches plus vite, mais moins corrects. Le temps passé pour corriger n'est pas pris en compte, ce qui me semble un probléme méthodologique sur l'évaluation de la productivité, et ceci sans présumer du fait que ça fasse ou pas gagner du temps (car bon, si tu mets 50 minutes + 5, 10 ou 15 minutes de correction, ça change beaucoup).
Donc bon, c'est une étude de 2023, utilisé dans un article de 2026 avec des soucis, c'est bof.
Posté par BAud (site web personnel) .
Évalué à 4 (+2/-0).
Dernière modification le 27 février 2026 à 16:26.
Et il y a quelques soucis dans l'étude. Pour commencer, page 8,
ah oui, c'est p.6 en fait de l'étude académique
Participants who diligently participated in all
aspects of the experiment were honored with an "office contribution" recognition,
carrying financial implications related to their annual bonuses.
c'est relativement standard on va dire ;-)
bref, difficile d'en tirer des conclusions factuelles (et par expérience, je sais que même l'affichage des tableaux peut être orienté, de l'importance de croiser avec des études indépendantes entre elles pour ne serait-ce que commencer à en tirer des orientations de conclusions…)
Ouais, il y a le numéro de page du document (en bas, le 6), le numéro de page dans le lecteur de pdf (ici, 8) et le fait que ça soit la 10eme page sur 58 dans le document.
# Un article bien creux
Posté par Misc (site web personnel) . Évalué à 8 (+5/-0).
L'analyse me semble quand même assez foireuse, parce que quand on dit "l'IA générative", c'est assez rarement détaillé. Vu qu'on mets de l'IA partout, je pense que c'est quand même important de savoir de quoi on parle.
[^] # Re: Un article bien creux
Posté par BAud (site web personnel) . Évalué à 3 (+1/-0). Dernière modification le 27 février 2026 à 14:40.
il faudrait se référer à l'étude initiale
https://www.bcg.com/publications/2023/how-people-create-and-destroy-value-with-gen-ai
qui date de Mai-Juin 2023 (qui ne parle que de ChatGPT 4) et croiser avec des études similaires ;-)
bon, ça manque pas mal de factuel :/
[^] # Re: Un article bien creux
Posté par Misc (site web personnel) . Évalué à 9 (+6/-0).
Mais même l'étude sur le site de BCG est trop simplifié pour juger, il faut aller chercher le papier académique.
Et il y a quelques soucis dans l'étude. Pour commencer, page 8, "on a filé un bonus pour s'assurer que tout le monde termine comme il faut, avec un bonus en plus pour les plus rapides et plus efficace". Ça, c'est déjà quand même un souci pour moi.
L'étude se consacre sur la rapidité à faire une tache spécifique, mais quand on voit que l'usage classique d'un consultant de BCG, c'est soit de servir de fusible, soit de faire des réunions, je pense qu'il faut aussi pondérer la productivité totale avec le pourcentage de rapport à faire. L'étude semble aussi dire (page 9) que l'étude ne fait pas confiance à des métriques auto annoncés, mais c'est ce qui a été utilisé pour choisir l'échantillon, et ça me semble un probléme.
Et je pense qu'il faut aussi garder la figure 7 en tête, celle qui mentionne que les consultants font des taches plus vite, mais moins corrects. Le temps passé pour corriger n'est pas pris en compte, ce qui me semble un probléme méthodologique sur l'évaluation de la productivité, et ceci sans présumer du fait que ça fasse ou pas gagner du temps (car bon, si tu mets 50 minutes + 5, 10 ou 15 minutes de correction, ça change beaucoup).
Donc bon, c'est une étude de 2023, utilisé dans un article de 2026 avec des soucis, c'est bof.
[^] # Re: Un article bien creux
Posté par BAud (site web personnel) . Évalué à 4 (+2/-0). Dernière modification le 27 février 2026 à 16:26.
ah oui, c'est p.6 en fait de l'étude académique
c'est relativement standard on va dire ;-)
bref, difficile d'en tirer des conclusions factuelles (et par expérience, je sais que même l'affichage des tableaux peut être orienté, de l'importance de croiser avec des études indépendantes entre elles pour ne serait-ce que commencer à en tirer des orientations de conclusions…)
[^] # Re: Un article bien creux
Posté par Misc (site web personnel) . Évalué à 3 (+0/-0).
Ouais, il y a le numéro de page du document (en bas, le 6), le numéro de page dans le lecteur de pdf (ici, 8) et le fait que ça soit la 10eme page sur 58 dans le document.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.