Se rendre au contenu

Pourquoi l’IA nous semble intelligente : l’effet trompeur de l’anthropomorphisme

Nous projetons nos émotions et notre logique humaine sur des machines


Mon partenaire Philippe Buschini, mathématicien, l'explique clairement dans un de ses textes : "L’illusion d’intelligence que donne l’intelligence artificielle vient en grande partie de notre propre réflexe d’anthropomorphisme. Nous projetons sur la machine nos modes de raisonnement, notre rapport au langage, notre sensibilité. Lorsqu’un texte est bien construit, nous avons tendance à lui prêter une intention, comme s’il avait été écrit pour convaincre, émouvoir ou transmettre une pensée. Mais dans le cas de l’IA, cette intention n’existe pas. Elle n’écrit pas pour dire quelque chose : elle enchaîne des mots parce que, statistiquement, ce sont ceux qui suivent le plus souvent les précédents". 


L’intelligence artificielle ne comprend pas ce qu’elle produit, même si son discours semble cohérent


Ce réflexe anthropomorphique se manifeste aussi fortement avec les animaux de compagnie. Nous croyons percevoir dans leur regard des émotions, de la surprise, voire des pensées. Certes, les recherches montrent que les animaux, et particulièrement nos traditionnels chiens et chats, ressentent des émotions et établissent des relations avec les humains. Mais nous ne savons pas avec certitude s’ils vivent cela comme nous l’imaginons. Ce que nous percevons est souvent une construction de notre esprit, une illusion née de notre besoin de connexion et de sens.

De la même manière, comment en vient-on à penser qu’une machine puisse "halluciner", s’émouvoir de ses erreurs ou ressentir quelque chose face à ses propres incohérences ? Cette idée est absurde si l’on prend un peu de recul. 


Nous surestimons la capacité de l’IA à penser comme un humain


Peut-être avons-nous trop fantasmé sur la rapidité avec laquelle l’intelligence artificielle dépasserait les capacités humaines. Mais est-ce vraiment ce qu’on lui demande ?

Quand nous utilisons un outil comme ChatGPT, il ne s’agit pas de recevoir une vérité absolue, encore moins une pensée sensible. Serions-nous devenus des bénis oui-oui qui valident sans recul au prétexte que ces systèmes mobilisent une puissance énorme de calcul et seraient dès lors infaillibles ? Puisque les ordinateurs sont capables d’envoyer dans l’espace et de guider des satellites et des robots, il en serait de même lorsqu’ils génèrent un texte, qu’il soit ensuite lu ou énoncé. L’erreur ne vient pas de la machine, mais bien de l’humain qui lui pose une mauvaise question ou qui oublie de vérifier les réponses. 


L’intelligence artificielle doit rester un outil au service du jugement humain


Utilisée à bon escient, l’IA est un outil puissant : elle peut générer une trame structurée pour une lettre, un article, un discours, ou encore améliorer la clarté d’un texte. Mais elle ne peut pas — et ne doit pas — remplacer le jugement humain. Elle ne sait ni lire, ni écrire, ni penser. Elle ne comprend pas ce qu’elle produit. C’est donc à l’humain de relire, de vérifier, de remettre les informations dans un contexte culturel, historique, émotionnel.

 

Nous faisons parfois plus confiance à une IA qu’à un être humain, à tort

Il est étonnant de constater qu’on accorde parfois plus de crédit à une machine qu’à un jeune employé ou un stagiaire. Est-ce une forme d’anthropomorphisme, ou bien la croyance erronée que l’ordinateur, parce qu’il a toujours été perçu comme « exact », a forcément raison ?

Dans les systèmes de gestion classiques, lorsque les données sont bien saisies, les résultats sont fiables. Mais ici, avec l’IA, on ne parle plus de simples calculs ou extractions. On parle de génération de langage à partir de modèles statistiques, sans aucune compréhension réelle du contenu.


Quand l’IA produit un texte fluide, nous confondons souvent cohérence avec vérité


Quand on demande à une IA de faire la synthèse du parcours d’un Premier ministre, elle va produire un texte fluide, bien présenté — mais si l’on ne vérifie pas les sources, on risque de prendre cette synthèse pour un fait établi. Dans une démarche plus classique, nous aurions consulté plusieurs sources, croisé les informations, puis rédigé notre propre résumé.


Les hallucinations de l’IA reflètent nos erreurs d’interprétation, pas une défaillance de la machine

Les fameuses "hallucinations" de l’IA ne sont donc pas des erreurs de la machine au sens propre, mais le reflet d’une utilisation non critique par les humains. Il est crucial que les utilisateurs conservent leur esprit d’analyse et ne délèguent pas leur jugement à un outil, aussi impressionnant soit-il.  


En somme, ne soyons pas ébahis mais vigilants et utilisons l'IA comme un outil, tout simplement!


Pourquoi l’IA nous semble intelligente : l’effet trompeur de l’anthropomorphisme
Agence DEEP, Didier Vitrac 23 avril 2025
Partager cet article
Étiquettes
Archive
Se connecter pour laisser un commentaire.
J'ai engagé un IAssistant et je m'en félicite