Partager cet article

Pourquoi l’IA peut conduire à de mauvaises décisions en entreprise

Aujourd’hui, de nombreuses organisations intègrent l’IA dans leurs décisions, leurs contenus ou leurs parcours utilisateurs. Les réponses sont rapides, structurées, souvent pertinentes. À tel point qu’une confusion s’installe : celle de considérer ces systèmes comme réellement « intelligents ».

Cette perception n’est pas anodine. Elle influence directement la manière dont les décisions sont prises, parfois en surestimant la fiabilité des résultats produits. Avant de s’appuyer sur ces outils, il est nécessaire de comprendre ce qu’ils font réellement… et ce qu’ils ne font pas.

Ce qui nous fait surestimer l’intelligence de l’IA

Depuis l’arrivée des modèles génératifs d’IA, nous semblons confondre de plus en plus performance et compréhension. On ne voit pas la mécanique, alors on imagine un esprit. Notre cerveau, incapable de tolérer le vide, attribue intention, raisonnement ou sens là où il n’y a qu’un enchaînement statistique.

Cette confusion n’a rien de moderne, elle surgit dès qu’un objet inerte emprunte nos codes : c’est l’anthropomorphisme. On retrouve ce phénomène en robotique militaire. Certains soldats déployés avec des robots-chiens développent une forme d’attachement au robot. Le robot avance, explore, revient. Il répète un comportement stable, presque familier. Lorsqu’il est détruit, ce n’est pas seulement un outil qu’on perd : c’est une présence imaginée. Dès qu’un système marche, réagit ou répond, nous lui prêtons une forme d’intention.

Effet ELIZA

Tendance à surestimer les capacités d’un système conversationnel et à lui attribuer une compréhension ou une intelligence qu’il ne possède pas. Nommé d’après ELIZA, un programme créé par Joseph Weizenbaum au MIT (1964-1966) qui simulait un psychothérapeute : bien qu’il ne fasse que manipuler des patterns linguistiques, ses utilisateurs lui confiaient des pensées intimes, convaincus qu’il les « comprenait » véritablement. Voir la définition complète

L’essor des modèles de langage n’a fait qu’amplifier cette illusion : lorsqu’une IA nuance, contextualise ou reformule, notre esprit glisse naturellement vers l’idée d’un raisonnement. Ce mécanisme cognitif n’est pas neutre : en entreprise, il peut conduire à accorder à l’IA un niveau de fiabilité ou de compréhension qu’elle ne possède pas.

La souveraineté des données

L’infogérance et la gouvernance des IA sont devenues des enjeux stratégiques pour les organisations qui intègrent des solutions d’intelligence artificielle dans leurs processus métier. Derrière un outil conversationnel ou un moteur d’automatisation se trouvent des infrastructures, des modèles d’entraînement, des flux de données et des dépendances techniques souvent opérés par des acteurs internationaux.

Les principaux fournisseurs de modèles et de cloud sont aujourd’hui majoritairement basés aux États-Unis (comme OpenAI, Microsoft ou Amazon Web Services), tandis que la Chine développe ses propres écosystèmes (Alibaba Cloud, Baidu). L’Union européenne tente d’encadrer ces usages via le AI Act et le RGPD, mais la réalité opérationnelle reste complexe : données hébergées hors UE, sous-traitance en cascade, modèles entraînés sur des corpus non maîtrisés. Le risque n’est pas uniquement juridique, il est aussi stratégique et réputationnel.

Dépendance technologique, perte de souveraineté sur les données, difficulté d’audit des modèles, incertitudes sur la localisation des traitements ou sur la traçabilité des sources : sans gouvernance claire, l’IA devient un angle mort du système d’information et un risque stratégique pour les organisations. Cette illusion de compréhension ne pose pas seulement un problème cognitif. Elle a aussi des conséquences très concrètes dans la manière dont les organisations intègrent ces technologies.

Retrouver une lucidité face aux technologies dites « intelligentes »

Dans ce contexte, faut-il confier l’ensemble de ses projets et de sa stratégie à une IA ? La question n’est pas tant si l’on doit l’utiliser que comment on le fait. Le véritable risque serait de le faire sans recul. Le véritable risque n’est pas d’utiliser l’IA, mais de l’utiliser sans cadre, sans recul et sans arbitrage.

Nous parlons « d’intelligence artificielle » or le terme façonne déjà notre perception. Dès lors que le mot intelligence est posé, notre esprit projette spontanément des attributs humains : compréhension, intention, discernement. Pourtant, ces systèmes ne possèdent ni conscience, ni volonté, ni capacité de jugement. Ils calculent, corrèlent, prédisent. Reconnaître ce mécanisme cognitif ne diminue en rien l’utilité de l’IA. Cela permet simplement de ne pas lui attribuer ce qu’elle n’a jamais porté : une intention, une responsabilité, une forme d’esprit.

L’enjeu est donc de conserver une position lucide. Utiliser l’IA pour ce qu’elle est réellement : un outil statistique extrêmement performant, capable d’amplifier l’analyse, d’accélérer la production et d’automatiser certaines tâches – mais jamais de décider à la place d’un dirigeant. La maturité numérique ne consiste pas à déléguer son discernement à la machine. Elle consiste à savoir précisément où s’arrête son utilité.

En résumé

La lucidité face à l’intelligence artificielle est déjà d’accepter que, malgré son nom, l’IA n’est pas une intelligence. C’est un modèle statistique sophistiqué, remarquable par ce qu’il permet, mais dénué de subjectivité. Ces solutions pour certaines sont hébergées et fournies par des fournisseurs dont les intérêts ne convergent pas avec ceux du pays ou d’une organisation. C’est seulement en regardant l’IA pour ce qu’elle est réellement, que nous pouvons décider de la place que nous voulons – ou non – lui donner.

Partager cet article