Pressroom

IA: les «agents conversationnels», perturbateurs et partenaires d’une société en mutation (RFI)

agent-conversa-getty-portishead-rfi

Exemple d’«agent conversationnel» (image d’illustration), Getty Images/portishead1 via RFI

Un confident ou un ami, un compagnon d’apprentissage, un thérapeute, parfois même un amoureux, un alter ego ou un proche décédé… Les « agents conversationnels », ces intelligences artificielles capables d’entretenir avec nous des échanges complexes, prennent aujourd’hui bien des formes. Et deviennent, pour beaucoup, des interlocuteurs privilégiés de la vie quotidienne. Avec des avantages et des risques encore difficiles à évaluer.

[…] Un simulacre séduisant

Nicolas Rollet Les raisons de succès sont aussi à chercher dans un contexte social plus global. « Il s’agit peut-être d’un effet de l’isolement général des individus, analyse Nicolas Rollet, sociologue, enseignant-chercheur à Télécom Paris et à l’Inria (Institut national de recherche en sciences et technologies du numérique). Les explications sont évidemment multiples, entre l’hypertrophie de l’individu, l’attractivité d’un autre disponible sans effort et sans contrepartie émotionnelle, la pression à la performance, peut-être aussi un fantasme de la modernité. Ce qui est particulier ici, c’est bien qu’un simulacre de réciprocité rend l’objet à la fois séduisant et gratuit. »

Les relations humaines se construisent souvent dans le débat, les désaccords, la confrontation ou l’incompréhension. Les agents conversationnels sont des interlocuteurs lisses, confortables, alignés sur l’utilisateur et faits pour répondre à ses attentes. Leur succès est peut-être aussi un « signe d’une forme d’appauvrissement du rapport à l’autre, de l’envie de l’autre, parce que l’altérité, ce n’est pas seulement “je t’utilise et je viens vers toi”, cela engendre des obligations », estime Nicolas Rollet, spécialisé dans les interactions humain/machine. Or, contrairement aux relations humaines, l’IA est une relation de service, que l’on peut éteindre à tout moment. En plus d’être, avant tout, un « divertissement, avec une forte dimension ludique », rappelle le sociologue.

Pour autant, le chercheur ne voit pas dans ces dialogues avec des êtres inanimés un phénomène récent. Est-ce si différent de l’enfant qui parle à ses jouets et les fait parler en retour ?

Le fait d’être attaché à des objets à qui on prête une dimension sociale, n’est pas nouveau. L’IA n’a a priori rien de social, tant que l’humain ne lui accorde pas, par des conduites concrètes, ce trait-là. C’est bien l’intelligence humaine qui agit socialement sur un type d’intelligence artificielle complexe ; c’est bien l’intelligence humaine qui se contente de ce simulacre et lui accorde tout un tas de traits qu’on prêterait d’ordinaire à un congénère ou un animal domestique.
Nicolas Rollet

[…] Une régulation nécessaire

[Il est nécessaire] pour de nombreux experts de réglementer le secteur afin d’éviter les abus ou les dérives. Comme cela a souvent été le cas à chaque révolution scientifique. « On sait fabriquer des voitures qui pourraient aller à 300 km/h, mais on bride les moteurs et on a une pratique éthique de la route qui fait qu’on limite les accidents, rappelle le sociologue Nicolas Rollet. On pourrait très bien avoir le même type de raisonnement avec le développement des IA parlantes. Il n’y a pas de raison qu’on ne régule pas cette technologie, comme on l’a fait pour toutes les autres. »

Le chercheur soutient l’idée d’un « progressisme vigilant », afin d’éviter les écueils de la panique morale d’un côté et ceux d’un enthousiasme naïf de l’autre. Le développement de l’intelligence artificielle pose de nombreux problèmes éthiques et polarise les débats. Certains intellectuels craignent que les IA dégradent le lien social, brutalisent la société et appauvrissent les relations humaines. Et les risques sont bien réels en fonction des usages, mais le problème n’est peut-être pas la machine elle-même. L’être humain qui est derrière, en revanche, semble comme toujours capable du meilleur comme du pire.