Humakina - News

Sous le radar : quand l’IA s’infiltre au bureau sans vraiment convaincre

Rédigé par Humakina | 24/04/2025

Une étude menée par HEC Paris révèle que l’intelligence artificielle, malgré son omniprésence dans les discours, peine à améliorer la productivité en entreprise. En cause : une adoption discrète, des usages solitaires et un manque de politique claire.

Dans l’imaginaire collectif, l’intelligence artificielle a déjà pris possession des bureaux. Elle automatise, rédige, résume, trie, anticipe. L’IA générative, en particulier, promettait une révolution des modes de travail et un bond de productivité comparable à celui offert autrefois par Internet ou le téléphone portable. Et pourtant, en 2025, cette révolution tarde à produire ses effets. Une étude menée par une équipe de chercheurs de HEC Paris, relayée dans un épisode de France Culture intitulé « L’intelligence artificielle ne nous rend pas encore plus productifs », vient sérieusement nuancer les espoirs placés dans l’IA.
 
Le constat de départ est aussi simple qu’inquiétant : l’IA n’a pas encore d’impact significatif sur la productivité globale des entreprises. Et pour cause : son usage est encore largement informel, non coordonné et souvent dissimulé. L’étude de HEC a interrogé 130 managers intermédiaires d’un grand cabinet de conseil, à qui l’on a présenté deux projets – l’un rédigé par un humain, l’autre assisté par ChatGPT. Résultat ? 73 % des managers n’ont pas reconnu le texte généré par IA… et 77 % ont cru détecter l’IA là où elle n’avait pas été utilisée. Premier enseignement : l’IA est difficilement repérable. Deuxième enseignement : elle n’est pas perçue comme une valeur ajoutée.
 
Lorsque les managers apprennent qu’un texte a été rédigé avec l’aide d’un outil comme ChatGPT, ils ont tendance à minimiser le mérite de son auteur. Une dynamique qui pousse de nombreux collaborateurs à dissimuler l’usage de l’IA, par peur d’être dévalorisés. Ce phénomène a un nom : la “shadow adoption”, ou adoption cachée. Elle est déjà largement répandue en France comme aux États-Unis. Et cette clandestinité est peut-être la plus grande entrave à l’effet structurant qu’on attendait de l’IA.
 
Car une IA utilisée en secret, c’est une IA sans supervision, sans cadre, sans partage. Elle bénéficie à l’individu – qui gagne quelques précieuses heures sur son agenda – mais fait peser des risques majeurs sur l’entreprise, comme le souligne David Restrepo Amariles, professeur à HEC et co-auteur de l’étude. Il en identifie cinq principaux :
  • des risques sur la qualité du travail,
  • des atteintes à la propriété intellectuelle, notamment dans les métiers créatifs,
  • une fragilisation de la protection des données, si des contenus sensibles sont injectés dans des IA,
  • des risques de désinformation,
  • et enfin, une cybersécurité affaiblie.

Loin d’ouvrir l’ère de l’intelligence collective, l’IA reste, pour l’heure, un outil individuel et tacitement toléré. Pourtant, l’étude insiste : les entreprises ont tout à gagner à poser des règles claires et à valoriser collectivement l’usage raisonné de ces technologies. Il ne s’agit pas d’interdire ou de standardiser à l’extrême, mais de dessiner des frontières : quelles tâches peuvent être confiées à une IA sans risque, lesquelles exigent un contrôle humain renforcé, lesquelles doivent rester totalement humaines ?
Autre paradoxe soulevé par l’enquête : ce ne sont pas les jeunes talents qui gèrent le mieux l’IA, mais les collaborateurs seniors, souvent injustement perçus comme les plus résistants à l’innovation. Grâce à leur expérience, ils évaluent mieux les résultats générés, détectent plus aisément les erreurs, et comprennent plus finement les limites de l’outil. Pour eux, l’enjeu n’est pas tant la peur d’être remplacés que celui de garantir la fiabilité du travail.
 
La conclusion de l’étude est claire : sans transparence, pas de contrôle. Sans incitation, pas de transformation. Il faudra plus qu’un abonnement à ChatGPT pour réconcilier l’IA et la performance d’entreprise. Ce qu’il faut, ce sont des règles, des espaces de discussion, une reconnaissance du temps investi à bien entraîner les modèles, et une vision partagée de ce que l’IA peut – et ne peut pas – faire pour l’humain au travail.
 
Source :
📌 France Culture / Le Journal de l'éco :
« L'intelligence artificielle ne nous rend pas encore plus productifs » - sur l’étude menée par HEC Paris.