Il y a ce moment étrange que nous avons presque tous vécu récemment avec ChatGPT ou autre IA. Cet instant où la machine formule une réponse si juste que nous lui prêtons une forme d’humanité, d’intelligence. Le texte est si cohérent, la réponse si rapide, la formulation si fine que « ça » ne peut qu’être intelligent.
Depuis l’arrivée des modèles génératifs, nous semblons confondre de plus en plus performance et compréhension. On ne voit pas la mécanique, alors on imagine un esprit. Ou peut-être est-ce simplement notre cerveau, incapable de tolérer le vide, qui attribue intention, raisonnement ou sens là où il n’y a qu’un enchaînement statistique ?

Un réflexe humain vieux comme le monde
Cette confusion n’a rien de moderne. Elle surgit dès qu’un objet inerte emprunte nos codes. Percevoir une âme derrière un mouvement ou une régularité est un réflexe archaïque : nous voyons des visages dans les nuages, des silhouettes dans l’ombre, des émotions dans des objets immobiles. Ce mécanisme nous a longtemps protégés mais il continue de nous tromper.
On retrouve ce phénomène dans un territoire également inattendu : la robotique militaire. Certains soldats déployés avec des robots-chiens développent une forme d’attachement au robot. Le robot avance, explore, revient. Il répète un comportement stable, presque familier. Lorsqu’il est détruit, ce n’est pas seulement un outil qu’on perd : c’est une présence imaginée. C’est ainsi que dès qu’un système marche, réagit ou répond, nous lui prêtons une forme d’intention.
L’essor des modèles de langage n’a fait qu’accélérer cette illusion : lorsqu’une IA nuance, contextualise ou reformule, notre esprit glisse naturellement vers l’idée d’un raisonnement. Quand elle structure une analyse, nous projetons une pensée. Quand elle imite l’empathie, nous croyons percevoir une sensibilité. Le langage agit alors comme un voile : il masque la mécanique probabiliste sous-jacente. Ce que nous prenons pour une compréhension est une optimisation. Ce que nous lisons comme une intention n’est qu’un calcul.
Retrouver la lucidité face aux technologies que nous appelons « intelligentes »
Le premier malentendu est peut-être là : nous appelons « intelligence » une technologie qui n’en possède aucune. À partir du moment où le mot est posé, notre esprit l’intègre. Ce glissement raconte moins la technologie que notre époque : une époque qui confond parfois vitesse et sagesse, automatisation et compréhension, performance et pensée. Reconnaître ce mécanisme ne retire rien à l’utilité de l’IA cela nous évite simplement de lui prêter ce qu’elle n’a jamais porté : une intention, une conscience, une forme d’esprit.
La lucidité commence ici : accepter que, malgré son nom, l’IA n’est pas une intelligence. C’est un modèle statistique sophistiqué, remarquable par ce qu’il permet, mais dénué de subjectivité. Et c’est seulement en la regardant pour ce qu’elle est réellement, que nous pouvons décider de la place que nous voulons – ou non – lui donner.




