Démystifier les hallucinations de l’IA : défis et solutions
Thomas Bonald, enseignant-chercheur en analyse de données et apprentissage automatique à Télécom Paris, avril 2025
Les IA génératives sont un peu aujourd’hui comme les machines à tout faire inventées par Turing qui pourraient se faire passer pour un humain tant elles nous facilitent la vie.
Thomas Bonald nous parle des hallucinations de l’IA puisque c’est le terme consacré, mais aussi des solutions qui s’offrent à nous pour les contrer.
Propos recueillis par Isabelle Mauriac
Podcast
Retrouvez cette interview en format audio dans le cadre des podcasts Télécom Paris Ideas :
Podcast enregistré le 25 mars 2025 par Michel Desnoues, Télécom Paris
Apprendre sans comprendre
Le problème est qu’elles apprennent à répéter des phrases qu’elles ont lues sans forcément en comprendre le sens. C’est un peu comme si vous appreniez une langue étrangère sans aucun lien avec votre langue maternelle, sans traduction, sans référence. Si vous êtes doué, que vous avez du temps, de l’oreille et beaucoup de mémoire, vous allez finir par prononcer des phrases qui ont du sens dans cette langue mais sans vraiment en comprendre la signification. Et donc, vous allez forcément vous tromper. Ce peuvent être des erreurs factuelles ou syntaxiques parce que vous ne connaissez pas vraiment le sens de ce que vous dites, la logique des phrases.
Il vous manquera toujours ce lien essentiel avec le monde réel qui est le propre de l’humain et non de la machine.
Cette question n’est pas ignorée mais il est vrai qu’elle prend beaucoup moins de place que d’autres, comme les coûts énergétiques, les biais culturels ou les utilisations néfastes des IA, à des fins de désinformation par exemple, qui sont évidemment des questions majeures.
Même si elles se trompent assez rarement, quand on voit la vitesse à laquelle ces outils se répandent, il faut faire passer le message notamment aux plus jeunes, qu’il faut faire attention, ne pas se fier aux IA, être critique, vérifier les réponses, d’autant qu’il est possible de leur demander leurs sources, de dialoguer avec elles. Il ne faut pas s’en priver et vérifier ensuite que les sources sont les bonnes.
Intelligence artificielle symbolique
Nous essayons de connecter ces IA dites génératives à des bases de connaissances avec des informations vérifiées en amont. Donc lorsque ces réponses portent sur ces connaissances, il ne peut pas y avoir d’erreurs. Il serait donc possible de certifier la validité de certaines réponses, lorsqu’elles portent sur des informations encodées dans ces bases.
Pour donner un exemple, Paris, la ville, est une entité, un symbole et la capitale de la France, qui est une autre entité. Il y a un lien direct entre les deux. Toutes ces relations entre les entités forment un graphe de connaissances ; il est ensuite possible de raisonner sur ce graphe en posant des questions un peu plus complexes. Par exemple : « donne-moi la liste de toutes les capitales européennes ayant plus d’1 million d’habitants ». La réponse, pour peu que la base de connaissance soit complète et vérifiée, sera exacte.
Un graphe est une structure de données formée d’un ensemble d’objets (les « nœuds » du graphe) connectés entre eux. Il n’existe pas de relation entre toutes les paires d’objets mais uniquement entre certaines d’entre elles. Je donnais l’exemple de Paris et de la France, il existe un lien dans le graphe de connaissances du type « capitale ». D’autres exemples de graphes sont les réseaux sociaux, dans lesquels les nœuds sont des personnes et les liens sont les connexions sociales entres ces personnes. Dans un graphe de connaissances, les nœuds sont tous les objets de pensée (personnes, lieux, œuvres, événements, etc). Les liens sont sémantiques, porteurs de sens. Par exemple, tel auteur a écrit tel livre.
Tout le monde connaît Wikipédia, l’encyclopédie en ligne. Mais peu de gens connaissent Wikidata, une base de connaissance généraliste gérée par la même organisation, la Fondation Wikimédia. Wikipédia, c’est du texte, c’est la manière standard entre humains pour partager l’information, alors que Wikidata, justement, est un graphe. Donc pour savoir quelle est la capitale de la France sur Wikipédia, on va chercher l’information sur la page de la France. On va trouver une phrase au milieu de la page, pas toujours au même endroit selon la langue, qui nous dit par exemple « la France a pour capitale Paris et pour langue officielle le français ». Il y a donc d’autres informations que celles recherchées dans cette phrase. Il y a ainsi beaucoup de manières de transcrire cette information, alors que dans un graphe de connaissances, il n’en existe qu’une : faire un lien entre l’entité Paris et l’entité France via le lien de type « capitale ». Dans ce cas, l’information est non ambiguë et elle est très facile à extraire, notamment par une machine.
Pour bien comprendre la différence, on peut remarquer qu’il y a autant de Wikipédia que de langue ; chaque langue, donc le français, l’anglais, le chinois, l’arabe, etc., a son Wikipédia, donc avec autant de manières de décrire le monde. Mais il y a un seul Wikidata, universel, parce que tout le monde s’accorde sur le fait qu’un lien « capitale » signifie que telle ville est la capitale de tel pays.
Des bases de connaissances plus accessibles
C’est évidemment une question centrale, mais toutes les informations qu’elles ont ingérées, qu’elles ont lues, au gré des textes qu’on leur a présentés, se trouvent sous une forme plus ou moins explicite dans leurs neurones artificiels, dans cette grosse machine que sont ces IA génératives. Toutes leurs réponses se basent là-dessus, sur ces paramètres cachés, appris lors de l’entraînement de ces machines.
Si on leur demande de la nouveauté, en changeant un peu le contexte, elles vont probablement inventer, et donc évidemment produire de l’information, mais fausse, potentiellement fausse. S’il s’agit d’écrire un roman, pourquoi pas, s’il s’agit de chercher une information factuelle, c’est plus embêtant.
Ce qui est fascinant est que, malgré l’absence de lien avec le monde réel et avec le monde symbolique propre à la logique, à la science, elles ont quand même une forme de logique mimétique, car il existe des arguments, des raisonnements, des pensées dans les textes qu’elles lisent.
Donc il est même possible de leur demander de faire des mathématiques, de leur demander de prouver certains résultats. Si les résultats sont connus, c’est la carte « synthèse » qui est jouée : elles vont être capables de faire cela très bien et d’expliquer, de donner des preuves, qu’elle ont lues. Par contre, si les résultats sont inconnus, il faut être très prudent, il peut y avoir des failles majeures dans le raisonnement… par exemple elles peuvent prendre un cas particulier pour un cas général, ce qui n’est évidemment pas l’approche mathématique.
Et dans le cas des mathématiques, on peut même les connecter à des outils spécialisés d’aide à la preuve, elles vont produire l’intuition et aider cet outil à trouver entièrement des preuves, potentiellement des résultats nouveaux. Donc cela reste des objets formidables, mais on sort ici du cas des IA génératives utilisées par le grand public.
Wikidata est la plus grand base de connaissances généraliste. Comme Wikipédia, c’est un projet collaboratif, public, gratuit, porté par des bénévoles. Mon équipe travaille sur une base de connaissances, YAGO, qui est une sorte de clone « propre » de Wikidata, avec des données qui sont vérifiées à l’aide de règles et d’outils automatiques. Donc comme Wikidata, YAGO est une base de connaissances publique, accessible à tous et dont il est possible de vérifier toutes les informations.
C’est déjà compliqué sur les encyclopédies classiques qui encodent le passé, les informations connues de tous. Si on pense à l’actualité, il est en effet très difficile d’encoder toutes ces informations qui nous arrivent tous les jours, sous forme textuelle typiquement, et d’en faire un graphe avec des sémantiques bien définies. Mais nous imaginons des solutions. Idéalement, les bases de connaissances devraient pouvoir ingérer des informations au fil de l’eau, provenant de sources fiables.
Ces IA ne sont pas des modèles de frugalité, alors que les requêtes basées sur des mots-clés comme on en a l’habitude avec les recherches Google sont beaucoup moins énergivores. Mais la tendance actuelle est quand même de formuler les requêtes en langage naturel, notamment parce qu’il existe des subtilités qu’il n’est pas possible de faire passer avec des mots-clés.
Comme l’utilisateur ne va pas interroger lui-même une base de connaissances, la solution est de rendre ces IA génératives plus sobres à l’aide de modèles de langue plus petits, le seul objectif…
Oui, il sera possible de connecter ces IA génératives à des bases de connaissances pour être sûr du résultat et éventuellement étiqueter les résultats vérifiés, avec les sources associées. C’est effectivement tout un travail de combiner ces deux mondes.
Et c’est d’autant plus important que les IA génératives sont actuellement entraînées essentiellement sur des données textuelles générées par des humains. Mais les IA génératives elles-mêmes génèrent du texte, donc il sera compliqué à l’avenir de savoir si tel texte a été généré par une machine ou un humain.