L’effet ELIZA désigne le biais cognitif par lequel les utilisateurs surestiment les capacités d’un système conversationnel et lui attribuent une compréhension, une intelligence ou une conscience qu’il ne possède pas réellement. Ce phénomène se manifeste par la tendance à projeter de l’intentionnalité, de l’empathie et du raisonnement sur un programme informatique capable de produire des réponses cohérentes et contextuellement appropriées, indépendamment des mécanismes réels qui sous-tendent son fonctionnement.
Origine
Le terme tire son nom d’ELIZA, un programme de traitement du langage naturel créé par Joseph Weizenbaum au MIT entre 1964 et 1966. ELIZA simulait un psychothérapeute rogérien en reformulant les propos de l’utilisateur sous forme de questions, s’appuyant sur des règles syntaxiques simples et la reconnaissance de mots-clés. Bien qu’ELIZA ne possède aucune compréhension sémantique et se contente de manipuler des patterns linguistiques, Weizenbaum fut stupéfait de constater que ses utilisateurs – y compris sa propre secrétaire et des collègues informés de son fonctionnement – développaient des relations émotionnelles avec le programme. Certains lui confiaient des pensées intimes et demandaient à être laissés seuls avec la machine, convaincus qu’elle les « comprenait » véritablement et manifestait une forme d’empathie.
Mécanisme psychologique
L’effet ELIZA repose sur plusieurs mécanismes cognitifs convergents : notre tendance à l’anthropomorphisme (attribution de caractéristiques humaines à des objets non-humains), notre difficulté à accepter l’absence d’intentionnalité derrière un comportement apparemment cohérent, et notre propension à combler les vides d’information par des inférences. Le langage naturel agit comme un catalyseur particulièrement puissant : dès qu’un système produit des phrases grammaticalement correctes et contextuellement pertinentes, notre esprit infère automatiquement l’existence d’une compréhension sous-jacente.
Pertinence contemporaine
L’effet ELIZA reste particulièrement pertinent face aux assistants conversationnels modernes et aux modèles de langage génératifs (LLM). La sophistication croissante de ces systèmes – leur capacité à nuancer, contextualiser, reformuler, voire imiter l’empathie – amplifie l’illusion de compréhension. Lorsqu’une IA génère une analyse structurée ou une réponse émotionnellement appropriée, les utilisateurs projettent naturellement l’existence d’une pensée, d’une sensibilité ou d’une conscience, alors que ces productions résultent d’optimisations statistiques sur des corpus massifs de textes. La fluidité du langage masque la mécanique probabiliste sous-jacente, rendant l’effet ELIZA plus insidieux que jamais.
Implications
Reconnaître l’effet ELIZA est crucial pour maintenir une posture critique face aux systèmes d’IA : il invite à distinguer performance linguistique et compréhension réelle, cohérence apparente et raisonnement authentique. Cette lucidité permet d’éviter les surinterprétations des capacités des systèmes, de mieux calibrer la confiance qu’on leur accorde, et de concevoir des interfaces qui n’exploitent pas ce biais pour créer une dépendance émotionnelle artificielle.
