IA: les «agents conversationnels», perturbateurs et partenaires d’une société en mutation (RFI)
lundi 10 février 2025
Exemple d’«agent conversationnel» (image d’illustration), Getty Images/portishead1 via RFI
[…] Un simulacre séduisant
Les raisons de succès sont aussi à chercher dans un contexte social plus global. « Il s’agit peut-être d’un effet de l’isolement général des individus, analyse Nicolas Rollet, sociologue, enseignant-chercheur à Télécom Paris et à l’Inria (Institut national de recherche en sciences et technologies du numérique). Les explications sont évidemment multiples, entre l’hypertrophie de l’individu, l’attractivité d’un autre disponible sans effort et sans contrepartie émotionnelle, la pression à la performance, peut-être aussi un fantasme de la modernité. Ce qui est particulier ici, c’est bien qu’un simulacre de réciprocité rend l’objet à la fois séduisant et gratuit. »
Les relations humaines se construisent souvent dans le débat, les désaccords, la confrontation ou l’incompréhension. Les agents conversationnels sont des interlocuteurs lisses, confortables, alignés sur l’utilisateur et faits pour répondre à ses attentes. Leur succès est peut-être aussi un « signe d’une forme d’appauvrissement du rapport à l’autre, de l’envie de l’autre, parce que l’altérité, ce n’est pas seulement “je t’utilise et je viens vers toi”, cela engendre des obligations », estime Nicolas Rollet, spécialisé dans les interactions humain/machine. Or, contrairement aux relations humaines, l’IA est une relation de service, que l’on peut éteindre à tout moment. En plus d’être, avant tout, un « divertissement, avec une forte dimension ludique », rappelle le sociologue.
Pour autant, le chercheur ne voit pas dans ces dialogues avec des êtres inanimés un phénomène récent. Est-ce si différent de l’enfant qui parle à ses jouets et les fait parler en retour ?
[…] Une régulation nécessaire
[Il est nécessaire] pour de nombreux experts de réglementer le secteur afin d’éviter les abus ou les dérives. Comme cela a souvent été le cas à chaque révolution scientifique. « On sait fabriquer des voitures qui pourraient aller à 300 km/h, mais on bride les moteurs et on a une pratique éthique de la route qui fait qu’on limite les accidents, rappelle le sociologue Nicolas Rollet. On pourrait très bien avoir le même type de raisonnement avec le développement des IA parlantes. Il n’y a pas de raison qu’on ne régule pas cette technologie, comme on l’a fait pour toutes les autres. »
Le chercheur soutient l’idée d’un « progressisme vigilant », afin d’éviter les écueils de la panique morale d’un côté et ceux d’un enthousiasme naïf de l’autre. Le développement de l’intelligence artificielle pose de nombreux problèmes éthiques et polarise les débats. Certains intellectuels craignent que les IA dégradent le lien social, brutalisent la société et appauvrissent les relations humaines. Et les risques sont bien réels en fonction des usages, mais le problème n’est peut-être pas la machine elle-même. L’être humain qui est derrière, en revanche, semble comme toujours capable du meilleur comme du pire.