Télécom Paris Ideas
Démystifier les hallucinations de l'IA : défis et solutions

Démystifier les hallucinations de l’IA : défis et solutions

Thomas Bonald, enseignant-chercheur en analyse de données et apprentissage automatique à Télécom Paris, avril 2025

Thomas Bonald (vignette Ideas)

Les IA génératives sont un peu aujourd’hui comme les machines à tout faire inventées par Turing qui pourraient se faire passer pour un humain tant elles nous facilitent la vie.

Mais cette facilité nous fait oublier à quel point ces IA génératives sont faillibles et notamment le fait qu’elles se trompent assez régulièrement et avec assurance.

Thomas Bonald nous parle des hallucinations de l’IA puisque c’est le terme consacré, mais aussi des solutions qui s’offrent à nous pour les contrer.

Propos recueillis par Isabelle Mauriac

Podcast

Retrouvez cette interview en format audio dans le cadre des podcasts Télécom Paris Ideas :

Podcast enregistré le 25 mars 2025 par Michel Desnoues, Télécom Paris

Apprendre sans comprendre

Les IA génératives se trompent. Pourquoi et comment hallucinent-elle ?

Le problème est qu’elles apprennent à répéter des phrases qu’elles ont lues sans forcément en comprendre le sens. C’est un peu comme si vous appreniez une langue étrangère sans aucun lien avec votre langue maternelle, sans traduction, sans référence. Si vous êtes doué, que vous avez du temps, de l’oreille et beaucoup de mémoire, vous allez finir par prononcer des phrases qui ont du sens dans cette langue mais sans vraiment en comprendre la signification. Et donc, vous allez forcément vous tromper. Ce peuvent être des erreurs factuelles ou syntaxiques parce que vous ne connaissez pas vraiment le sens de ce que vous dites, la logique des phrases.

Il vous manquera toujours ce lien essentiel avec le monde réel qui est le propre de l’humain et non de la machine.

Même en imaginant la meilleure IA du monde qui aurait levé tous les problèmes de propriété intellectuelle, de biais ou encore d’orientation culturelle des modèles, ça ne suffirait pas en faire un outil qui a un vrai raisonnement scientifique. Heureusement pourrait-on dire, car c’est encore le propre de l’humain mais n’est pas sans impact sur nos sociétés. Pourquoi ce problème est-il à ce point ignoré ? Quels sont ses dangers ?

Cette question n’est pas ignorée mais il est vrai qu’elle prend beaucoup moins de place que d’autres, comme les coûts énergétiques, les biais culturels ou les utilisations néfastes des IA, à des fins de désinformation par exemple, qui sont évidemment des questions majeures.

Mais le fait que les IA génératives se trompent, ne sont pas fiables, que la validité de leurs réponses ne peut jamais être certifiée est également une question très importante.

Même si elles se trompent assez rarement, quand on voit la vitesse à laquelle ces outils se répandent, il faut faire passer le message notamment aux plus jeunes, qu’il faut faire attention, ne pas se fier aux IA, être critique, vérifier les réponses, d’autant qu’il est possible de leur demander leurs sources, de dialoguer avec elles. Il ne faut pas s’en priver et vérifier ensuite que les sources sont les bonnes.

Intelligence artificielle symbolique

Quels sont les remèdes sur lesquels vous travaillez pour lutter contre la génération et la propagation de ces erreurs ?

Nous essayons de connecter ces IA dites génératives à des bases de connaissances avec des informations vérifiées en amont. Donc lorsque ces réponses portent sur ces connaissances, il ne peut pas y avoir d’erreurs. Il serait donc possible de certifier la validité de certaines réponses, lorsqu’elles portent sur des informations encodées dans ces bases.

Techniquement, c’est plutôt de l’IA symbolique ?
L’IA symbolique fait référence à un ensemble de techniques basées sur des connaissances encodées de manière formelle. Cela signifie que chaque entité est représentée, qui peut être une personne, un lieu, un livre, un événement… par un identifiant unique, une sorte de symbole bien défini à partir duquel il est possible de raisonner et faire des connexions avec d’autres symboles.

Pour donner un exemple, Paris, la ville, est une entité, un symbole et la capitale de la France, qui est une autre entité. Il y a un lien direct entre les deux. Toutes ces relations entre les entités forment un graphe de connaissances ; il est ensuite possible de raisonner sur ce graphe en posant des questions un peu plus complexes. Par exemple : « donne-moi la liste de toutes les capitales européennes ayant plus d’1 million d’habitants ». La réponse, pour peu que la base de connaissance soit complète et vérifiée, sera exacte.

Vous parlez de graphe : est-ce possible d’en donner une définition ?

Un graphe est une structure de données formée d’un ensemble d’objets (les « nœuds » du graphe) connectés entre eux. Il n’existe pas de relation entre toutes les paires d’objets mais uniquement entre certaines d’entre elles. Je donnais l’exemple de Paris et de la France, il existe un lien dans le graphe de connaissances du type « capitale ». D’autres exemples de graphes sont les réseaux sociaux, dans lesquels les nœuds sont des personnes et les liens sont les connexions sociales entres ces personnes. Dans un graphe de connaissances, les nœuds sont tous les objets de pensée (personnes, lieux, œuvres, événements, etc). Les liens sont sémantiques, porteurs de sens. Par exemple, tel auteur a écrit tel livre.

Un exemple de graphe de connaissance est Wikidata, un projet parallèle à Wikipédia. Pouvez-vous nous en parler ?

Tout le monde connaît Wikipédia, l’encyclopédie en ligne. Mais peu de gens connaissent Wikidata, une base de connaissance généraliste gérée par la même organisation, la Fondation Wikimédia. Wikipédia, c’est du texte, c’est la manière standard entre humains pour partager l’information, alors que Wikidata, justement, est un graphe. Donc pour savoir quelle est la capitale de la France sur Wikipédia, on va chercher l’information sur la page de la France. On va trouver une phrase au milieu de la page, pas toujours au même endroit selon la langue, qui nous dit par exemple « la France a pour capitale Paris et pour langue officielle le français ». Il y a donc d’autres informations que celles recherchées dans cette phrase. Il y a ainsi beaucoup de manières de transcrire cette information, alors que dans un graphe de connaissances, il n’en existe  qu’une : faire un lien entre l’entité Paris et l’entité France via le lien de type « capitale ». Dans ce cas, l’information est non ambiguë et elle est très facile à extraire, notamment par une machine.

Pour bien comprendre la différence, on peut remarquer qu’il y a autant de Wikipédia que de langue ; chaque langue, donc le français, l’anglais, le chinois, l’arabe, etc., a son Wikipédia, donc avec autant de manières de décrire le monde. Mais il y a un seul Wikidata, universel, parce que tout le monde s’accorde sur le fait qu’un lien « capitale » signifie que telle ville est la capitale de tel pays.

Des bases de connaissances plus accessibles

Ce que vous décrivez là sont des recherches à partir d’une base de connaissance, mais la spécificité des IA génératives est qu’elles produisent elles-mêmes de l’information, elles ne font pas que la trouver ou la synthétiser, elles vont parfois même se prendre pour un humain ?

C’est évidemment une question centrale, mais toutes les informations qu’elles ont ingérées, qu’elles ont lues, au gré des textes qu’on leur a présentés, se trouvent sous une forme plus ou moins explicite dans leurs neurones artificiels, dans cette grosse machine que sont ces IA génératives. Toutes leurs réponses se basent là-dessus, sur ces paramètres cachés, appris lors de l’entraînement de ces machines.

Ce sont des machines assez fascinantes pour ce qui est de la synthèse d’information. Par contre, elles ne sont pas faites pour générer des informations nouvelles.

Si on leur demande de la nouveauté, en changeant un peu le contexte, elles vont probablement inventer, et donc évidemment produire de l’information, mais fausse, potentiellement fausse. S’il s’agit d’écrire un roman, pourquoi pas, s’il s’agit de chercher une information factuelle, c’est plus embêtant.

Ce qui est fascinant est que, malgré l’absence de lien avec le monde réel et avec le monde symbolique propre à la logique, à la science, elles ont quand même une forme de logique mimétique, car il existe des arguments, des raisonnements, des pensées dans les textes qu’elles lisent.

Donc il est même possible de leur demander de faire des mathématiques, de leur demander de prouver certains résultats. Si les résultats sont connus, c’est la carte « synthèse » qui est jouée : elles vont être capables de faire cela très bien et d’expliquer, de donner des preuves, qu’elle ont lues. Par contre, si les résultats sont inconnus, il faut être très prudent, il peut y avoir des failles majeures dans le raisonnement… par exemple elles peuvent prendre un cas particulier pour un cas général, ce qui n’est évidemment pas l’approche mathématique.

Je ne dirais pas qu’elles produisent des informations, je dirais qu’elles peuvent aider un humain à en générer, en guidant son intuition par exemple, en agençant ses idées.

Et dans le cas des mathématiques, on peut même les connecter à des outils spécialisés d’aide à la preuve, elles vont produire l’intuition et aider cet outil à trouver entièrement des preuves, potentiellement des résultats nouveaux. Donc cela reste des objets formidables, mais on sort ici du cas des IA génératives utilisées par le grand public.

Parlons de votre recherche, justement. Vous contribuez à améliorer des bases de connaissances pour qu’elles soient plus transparentes, plus accessibles, dans le cadre d’un projet public ?

Wikidata est la plus grand base de connaissances généraliste. Comme Wikipédia, c’est un projet collaboratif, public, gratuit, porté par des bénévoles. Mon équipe travaille sur une base de connaissances, YAGO, qui est une sorte de clone « propre » de Wikidata, avec des données qui sont vérifiées à l’aide de règles et d’outils automatiques. Donc comme Wikidata, YAGO est une base de connaissances publique, accessible à tous et dont il est possible de vérifier toutes les informations.

Pour résumer, nous cherchons plutôt à connecter les IA avec des bases de connaissances générales, pour essayer de valider leurs réponses ou de les guider vers les bonnes informations.

Mais encoder toutes ces masses de données est une tâche pharaonique?

C’est déjà compliqué sur les encyclopédies classiques qui encodent le passé, les informations connues de tous. Si on pense à l’actualité, il est en effet très difficile d’encoder toutes ces informations qui nous arrivent tous les jours, sous forme textuelle typiquement, et d’en faire un graphe avec des sémantiques bien définies. Mais nous imaginons des solutions. Idéalement, les bases de connaissances devraient pouvoir ingérer des informations au fil de l’eau, provenant de sources fiables.

Le fait que les IA passent par vos bases de connaissance, les rendrait-il moins énergivores ? J’ai entendu dire que si toutes les recherches Google passaient sur chatGPT, toutes les ressources énergétiques de la planète seraient brûlées ?

Ces IA ne sont pas des modèles de frugalité, alors que les requêtes basées sur des mots-clés comme on en a l’habitude avec les recherches Google sont beaucoup moins énergivores. Mais la tendance actuelle est quand même de formuler les requêtes en langage naturel, notamment parce qu’il existe des subtilités qu’il n’est pas possible de faire passer avec des mots-clés.

Comme l’utilisateur ne va pas interroger lui-même une base de connaissances, la solution est de rendre ces IA génératives plus sobres à l’aide de modèles de langue plus petits, le seul objectif…

… étant de comprendre la requête de l’utilisateur afin de la traduire en une requête formelle vers la base de connaissances.

Il s’agirait d’une régulation plutôt a posteriori : dès qu’une réponse d’une IA générative est disponible, elle est passée au crible d’un vérificateur ?

Oui, il sera possible de connecter ces IA génératives à des bases de connaissances pour être sûr du résultat et éventuellement étiqueter les résultats vérifiés, avec les sources associées. C’est effectivement tout un travail de combiner ces deux mondes.

Et c’est d’autant plus important que les IA génératives sont actuellement entraînées essentiellement sur des données textuelles générées par des humains. Mais les IA génératives elles-mêmes génèrent du texte, donc il sera compliqué à l’avenir de savoir si tel texte a été généré par une machine ou un humain.

Et on peut imaginer que la machine s’emballe, c’est-à-dire que les IA génératives s’entraînent sur des informations qu’elle ont elles-mêmes créées. Disposer d’une sorte de vérification des informations, afin de casser ce cycle infernal, est absolument essentiel pour l’avenir.

 

Télécom Paris Ideas