Télécom Paris Ideas
IA : enjeux de souveraineté, d'éthique et de durabilité

Souveraineté, éthique et durabilité : les grands enjeux du développement de l’IA en 2025

Thomas Le Goff, maître de conférences en droit et régulation du numérique à Télécom Paris, janvier 2025

[Télécom Paris Ideas] Thomas Le Goff Thomas Le Goff, spécialiste de la régulation de l’IA, répond à nos questions sur les enjeux démocratiques et écologiques autour de l’IA.

Ces deux sujets sont d’une actualité brûlante, avec d’un côté, les prises de position d’Elon Musk et de Mark Zuckerberg prônant la fin de la régulation sur les réseaux sociaux, annonçant la fin du fact checking pour leurs groupes aux États-Unis et dénonçant la censure de l’Union Européenne ; et de l’autre, l’annonce du projet Stargate, porté par Open AI et poussé par Donald Trump à peine arrivé à la Maison Blanche.

Propos recueillis par Isabelle Mauriac

Podcast

Retrouvez cette interview en format audio dans le cadre des podcasts Télécom Paris Ideas :

Podcast enregistré le 21 janvier 2025 par Michel Desnoues, Télécom Paris

L’Europe peut-elle réagir ?

L’Union Européenne paraît un peu démunie pour contrer l’attaque en règle, menée par le nouveau président américain et la Big Tech, contre les législations qui visent à réguler l’espace numérique. Des enquêtes sur les réseaux sociaux qui posent le plus de risques aux démocraties européennes sont pourtant en cours, notamment contre X, mais les Européens ont-ils vraiment les moyens de résister face à Donald Trump et aux plateformes américaines ?

À la question « en avons-nous les moyens ? », la réponse est oui, puisqu’il existe un arsenal de régulations qui permettent un certain nombre d’actions, notamment sur les questions qui ont été évoquées sur la fin du fact-checking, la question de la modération sur les grands réseaux sociaux. Il y a le DSA (le Digital Services Act ou le Règlement sur les services numériques) qui impose des obligations et des interdictions pour les services justement de plateformes, dont font partie les réseaux sociaux, notamment de limiter les risques sur les contenus de haine en ligne ou la diffusion de la désinformation. Et quand ces comportements sont caractérisés, des sanctions sont prévues. Si les amendes ne sont pas payées et en cas de récidive, il existe aussi des moyens d’action qui peuvent aller jusqu’à la restriction de ces services-là sur le territoire européen.

La question qui se pose plutôt, je crois, et qui va devoir trouver une réponse dans les prochains mois, c’est :
existe-t-il la volonté politique?

C’est une question qui ne relève pas du droit, mais qui est vraiment majeure pour savoir si nous mettons toutes les forces de notre côté dans l’instrumentalisation de ce corpus juridique pour nous défendre face à cette attaque contre les valeurs européennes via ces pratiques sur les réseaux.

Oui, parce qu’il y a déjà plusieurs enquêtes et certaines sur X (ex-Twitter) qui regardent la façon dont est effectuée la modération, l’efficacité des outils, l’efficacité des communautés… Et puis va aussi se poser très vite la question de savoir si Elon Musk va utiliser cette plateforme (si ce n’est pas déjà fait) pour amplifier ses opinions politiques. Avec toutes ces questions, quand la Commission Européenne pourra-t-elle être amenée à rendre ses conclusions ?

La régulation des plateformes en Europe est une régulation très ambitieuse et qui fait l’objet d’un assez grand consensus.

Et il y a eu une impulsion, notamment de l’ancien commissaire européen Thierry Breton, pour la mise en œuvre de ces textes. Une première enquête contre X est en cours et a été complétée suite aux annonces récentes sur les politiques de modération de Meta, mais aussi l’implication d’Elon Musk dans la campagne de Donald Trump. Cette enquête est renforcée par des demandes d’information complémentaires et la demande de la Commission Européenne de documenter tous les changements de modération qui vont avoir lieu sur X sur la période qui vient, pour justement voir ce qui va se passer avec ce contexte politique qui évolue et pouvoir prononcer des amendes ou des sanctions si nécessaire.

Donc c’est en cours ; cela pourrait-il aller plus vite ? La question peut se poser. Évidemment, ces procédures sont complexes et demandent beaucoup de travail, pour récolter l’information, pour la traiter, et ensuite, une volonté politique pour y répondre. Ce qui est sûr, c’est que j’ai le sentiment aujourd’hui que…

les valeurs de l’Union Européenne sont attaquées, la régulation européenne est mise au défi,

c’est comme un « stress test » (comme tester la résistance des téléphones portables, par exemple, en les mettant sous pression et voir s’ils cassent ou non. Sinon, la norme est respectée et ils sont considérés comme suffisamment solides). C’est un peu ce qui est en train de se passer avec la régulation européenne puisque des choix faits par des réseaux sociaux sont pour certains vraiment incompatibles avec la régulation européenne.

Finalement, cela teste notre capacité de réponse et notre volonté politique à mettre en œuvre ces réglementations.

Irons-nous jusqu’à infliger de fortes amendes, voire même des restrictions d’utilisation ou des blocages des applications qui ne respecteraient pas les valeurs européennes sur le territoire européen ? Nous sommes au moment où il va falloir définir une vraie stratégie européenne de mise en œuvre de ces réglementations.

Comment cela s’articule-t-il avec l’AI Act qui va entrer en partie en vigueur cette année, et dont les régulations vont se déployer par niveau de risque ? Ne sommes-nous pas, dans la gestion de l’IA appliquée aux réseaux sociaux, situés en haut risque démocratique et qui devrait à ce titre être régulé de façon prioritaire et spécifique ?

L’AI Act est un règlement qui vise la sécurité des produits au sein de l’Union Européenne. Sa destination première n’est pas de réguler le comportement ni des grandes plateformes ni des réseaux sociaux, ce qui est vraiment l’objet du DSA et du DMA. Sur la question des réseaux sociaux et de leur modération, de la protection des utilisateurs de ces grandes plateformes, c’est plutôt le DSA qui est concerné. Néanmoins, l’AI Act va réguler un certain nombre de systèmes en fonction de la façon dont ils sont utilisés, le cas échéant dans des réseaux sociaux.

Typiquement, parmi les pratiques interdites tout en haut de la pyramide de risques, se retrouve l’exploitation des vulnérabilités de certains groupes de personnes pour arriver à des effets néfastes à leur encontre.

Mark Zuckerberg a annoncé le retour de la communication politique sur les réseaux sociaux. Si demain est avérée la preuve que le système de publicité ciblée de Meta est instrumentalisé pour cibler des minorités afin d’altérer leurs votes ou avoir des conséquences négatives pour elles, cela concernerait potentiellement cette exploitation des vulnérabilités de groupes de personnes. Donc cela va vraiment dépendre des applications et des systèmes précis qui vont être mis en œuvre qui pourraient être ici régulés par l’AI Act.

Peut-être y a-t-il aussi une question de rapport de force ? L’Europe, ce sont 450 millions de consommateurs sans compter les entreprises et beaucoup d’utilisateurs des réseaux sociaux, peut-être même plus qu’aux États-Unis de X d’Instagram. Alors pouvons-nous peser et quel est le rapport de force ?

Ce rapport de force est justement toute la question puisque, comme je l’ai dit, nous avons les moyens. Ce qui va être déterminant est la volonté politique et la stratégie politique à adopter. Je donne un exemple très précis : si jamais les pratiques de modération s’avèrent instrumentalisées à des fins politiques et aboutissent à des discriminations, il serait tout à fait possible de bloquer l’accès sur le territoire européen.

Cela aurait des effets très positifs pour l’Union Européenne puisqu’elle « montrerait ses muscles », non seulement par la menace mais par le fait qu’elle est vraiment en capacité de mettre en œuvre les textes qu’elle a adoptés, qui seraient alors un vrai instrument géopolitique.

De plus, un espace serait libéré pour que des entreprises européennes puissent se développer puisqu’un marché serait ouvert. Les réseaux sociaux, aujourd’hui, ne sont pas une technologie très compliquée : nous savons faire. Le problème est que les acteurs en face sont trop gros pour venir leur faire concurrence. S’il y a des restrictions dues à des pratiques antidémocratiques ou en tout cas non compatibles avec nos régulations, il existe aussi un effet économique positif. En revanche, le risque est d’entrer dans une véritable guerre économique avec les États-Unis. N’est-ce pas déjà le cas avec un certain nombre d’acteurs au niveau international ? Mais sommes-nous prêts à bloquer l’accès aux réseaux sociaux si en face, nos droits de douane sont augmentés sur nos relations commerciales avec les États-Unis dans d’autres secteurs qui auraient potentiellement des effets économiques aussi importants ? Ce sont les arbitrages face auxquels nous allons nous trouver.

L’Europe paraît divisée à cause de certains pays qui ne sont pas forcément alignés avec ces valeurs démocratiques et qui souhaiteraient se rapprocher des États-Unis ou d’autres grandes puissances ?

Oui, nous sommes à un moment où il y a besoin d’une volonté politique extrêmement forte pour prendre des décisions dures et qui auront des effets à la fois potentiellement positifs mais aussi négatifs, et en parallèle le système politique est aujourd’hui très affaibli avec cette fragmentation que vous évoquez.

L’IA peut-elle être soutenable ?

Parlons maintenant d’un autre enjeu considérable touchant l’intelligence artificielle, sa soutenabilité. Avec la montée en puissance des IA génératives, a lieu une prise de conscience de l’empreinte carbone de l’IA et notamment des serveurs qui font tourner les modèles de machine learning. Les géants de la tech ont ainsi besoin de nouvelles capacités de calcul pour alimenter leurs modèles et ont multiplié les annonces d’investissement dans le nucléaire ces derniers mois aux États-Unis. Alors pourraient-ils également investir en Europe ?

Oui, ils pourraient investir en Europe et c’est déjà en projet. L’Europe a des atouts en termes énergétiques. La France bénéficie aujourd’hui du plus haut niveau de capacité de production d’électricité connue sur les dernières années en dépassant les 360 TWH, pour l’énergie nucléaire notamment. Le réseau électrique est relativement stable et donc pourrait accueillir de nouvelles capacités de production ou de nouvelles installations. Et surtout l’énergie est décarbonée à 95% et repose en grande partie sur l’énergie nucléaire et, pour une autre partie, sur les énergies renouvelables.

Tout cela constitue autant d’arguments qui font de la France un pays accueillant ou en tout cas un bon choix pour implanter des nouveaux data centers, comme déjà annoncé.

Maintenant il faut aussi être vigilant. Il va y avoir une grande tension politique et une grande compétition, au sein des pays de l’Union Européenne, mais aussi au niveau mondial parce que ces investissements sont énormes. Ces projets de data centers font parfois 10 fois la taille des data centers existants, cela se chiffre en milliards d’euros. Microsoft annonce 4 milliards d’euros en France.

Ce phénomène risque de s’amplifier avec l’annonce récente d’un plan d’investissements de 500 milliards dans l’IA, baptisé « Stargate », portés par des acteurs comme Open AI, Oracle et le japonais Softbank, avec le soutien du président américain lui-même (*).

Il va y avoir une vraie compétition pour attirer ces investissements et ces infrastructures qui ont, elles aussi, un impact sur l’environnement.

Justement, les impacts sur l’environnement des data centers ont-ils été mesurés, circonscrits ?

Nombre d’études étudient l’impact environnemental des data centers. Il faut savoir que, notamment en France, les data centers sont classés comme des installations classées pour la protection de l’environnement donc font l’objet d’un régime d’autorisation par les autorités publiques spécifiques et conditionné à la réalisation d’une évaluation environnementale et d’une enquête publique. Ce processus vise justement à évaluer tous ces impacts environnementaux, mener une enquête publique pour étudier l’acceptabilité au niveau local et au niveau national. C’est assez régulé. Mais ce qui est plus difficile à réguler sont les impacts globaux, puisque c’est au niveau d’un État ; quant au niveau local, il est possible de limiter les impacts sur la biodiversité, limiter les rejets d’eau chaude dans les cours d’eau, etc.

La réalité est que si des data centers sont construits partout, la question de la frugalité de l’IA n’est jamais posée, alors qu’il serait peut-être vertueux de raisonner à ressources contraintes et se demander : « Avec les data centers existants, n’existe-t-il pas plutôt un enjeu d’optimisation de ce qui est disponible, plutôt que de réfléchir à ressources infinies ? ».

L’Europe risque d’être un peu inaudible et j’imagine que les États-Unis ou la Chine sont moins préoccupées par la frugalité de l’IA ?

C’est un sujet qui vraiment très important. Au niveau européen, le souci est plutôt de raccorder des nouveaux projets de data centers au réseau électrique. Pourquoi ? Parce que de grandes capacités de production d’énergie renouvelable sont en construction dans de nombreux pays et mettent en tension le réseau parce que les ressources sont intermittentes, quand elles photovoltaïques ou éoliennes. Le processus de raccordement est relativement simple : une demande est formulée au réseau électrique puis le gestionnaire du réseau autorise ou non la connexion. Ici, en concurrence de ces projets, viennent des projets de data centers qui auront aussi besoin de venir se raccorder au réseau. Ainsi, des files d’attente ont lieu dans certains pays européens pour se connecter au réseau.

Il ne faudrait pas que des infrastructures extrêmement consommatrices aient la priorité pour des raisons économiques, alors qu’il faudrait peut-être déjà veiller à assurer notre sécurité d’approvisionnement et augmenter, notamment en Europe, les capacités de production d’énergie renouvelable.

En Europe, notre problème est donc plutôt de connecter les data centers au réseau dans des délais acceptables, parce que les délais de construction et d’autorisation sont très longs.

Au niveau mondial, se fait jour, c’est très peu connu, le véritable développement d’une stratégie sur l’implantation des data centers, puisque les États-Unis, notamment, se rendent compte que disposer de l’infrastructure de calcul donne le point final de contrôle sur la technologie. Pourquoi ? Si vous avez la main sur la capacité de calcul, demain, en cas de n’importe quel problème, vous pouvez restreindre voire couper l’utilisation. En janvier 2025, les États-Unis ont changé leur doctrine en matière de contrôle des exportations. C’est un régime qui vient restreindre les produits que vous avez le droit d’exporter, notamment à double usage, civil et militaire . Vous devez obtenir une autorisation de l’administration pour pouvoir les exporter ; les États-Unis viennent d’y ajouter les data centers et les modèles d’IA propriétaires. Cela signifie que demain, ils auront la possibilité d’ajouter des pays sur cette liste et d’imposer un régime d’autorisation leur donnant donc le pouvoir d’autoriser ou d’interdire l’implantation de data centers contenant des puces américaines dans d’autres pays.

C’est vraiment un sujet d’avenir : une vraie politique du data center au niveau mondial et un positionnement européen à définir dans ce nouvel ordre géostratégique.

Certains investissements des « Gafam » en Europe en matière de data centers risquent d’être compromis, mais qu’en est-il de leurs investissements dans le nucléaire ?
En effet, à coté de cette dynamique sur les data centers, ce sont des annonces d’investissement des « Gafam » notamment dans le secteur de l’énergie : le financement de la construction de nouvelles capacités de production, soit des projets renouvelables, soit des projets nucléaires.

Du nucléaire « classique », c’est le cas à Three Miles Island avec le redémarrage d’un des réacteurs sur un site – touché par un accident nucléaire en 1979 – ou bien le financement de start-up proposant des petits réacteurs modulaires, une nouvelle technologie de réacteurs nucléaires.

Pourquoi de tels investissements dans diverses technologies énergétiques ? Parce qu’il faut nourrir en énergie ces gros data centers et il y a beaucoup de zones dans le monde dans lesquelles les réseaux n’ont pas une telle quantité d’énergie disponible pour pouvoir les alimenter.

Les « Gafam » réfléchissent par exemple à construire de petits réacteurs nucléaires proches des data centers pour capter l’électricité produite et de ce fait s’assurer une sécurité d’approvisionnement. Pourquoi pas en France ? Cela demande justement, dans les négociations entre les pays et les collectivités qui vont accueillir ces projets de data centers, de négocier des investissements dans les capacités de production d’électricité en parallèle. C’est un peu la doctrine de l’État français aujourd’hui dans ses discussions avec les « Gafam » ; des annonces seront peut-être faites pendant le sommet mondial de l’IA.

Un sommet mondial pour l’IA à Paris

Vous mentionnez le sommet mondial de l’IA, du 6 au 11 février prochain à Paris. Pouvez-vous nous en dire plus sur la place qu’occupent, j’imagine, ces thèmes de la régulation et de la soutenabilité de l’IA au cours de cet événement majeur ?

Le sommet mondial de l’IA a lieu les 10 et 11 février ; l’Institut Polytechnique de Paris et l’Inria, notamment, organisent des journées scientifiques jeudi 6 et vendredi 7 février avec un workshop spécial dédié à la question de l’IA et de l’environnement. Lundi 10 février a lieu un grand événement au Grand Palais et mardi 11 février la séquence politique qui réunit les chefs de gouvernement. En parallèle de cette session politique sont organisés des « side events » dont l’un par le Ministère de la Transition écologique sur la question de l’IA et la durabilité, réunissant à la fois des entreprises, des chercheurs, des administrations et des représentants de l’État.

Sont aussi prévus des débats ou des conversations sur les questions de régulation (d’ailleurs, Elon Musk a été invité aussi mais n’a pas encore fait savoir s’il serait présent).

Ces questions de régulation interviennent certainement, soit en marge du sommet, soit le 11 février lors de la réunion politique en comité restreint. Nous avons aussi auparavant, au cours des journées scientifiques d’IP Paris et de l’Inria des 6 et 7 février, un workshop spécifique sur l’éthique de l’IA. Évidemment les questions des impacts de l’IA sur la démocratie et la désinformation y sont abordées.

De façon plus générale, quels sont les objectifs de ce sommet ? Est-ce justement de porter la voie de la France et plus largement de l’Europe auprès de la communauté mondiale ?

Oui, les objectifs sont multiples… L’idée est évidemment de positionner la France sur ces débats et sur le plan géopolitique, en étant le troisième pays – et le premier de l’UE – à accueillir ce sommet mondial de l’IA après le Royaume-Uni et la Corée du Sud.

L’objectif de l’État français est d’en faire un véritable étendard de ce qu’est l’IA à l’européenne, une IA respectueuse de l’éthique et des droits fondamentaux ainsi qu’une IA soutenable. Cette question de soutenabilité est intégrée dans les objectifs mêmes du sommet : promouvoir une IA durable et au service des droits des personnes.

Il existe aussi des objectifs ayant trait aux enjeux économiques : l’IA pour l’efficacité. Donc des enjeux économiques, éthiques, écologiques et, bien sûr en tant que sommet mondial, des enjeux politiques importants.

(*) NDLR : Stargate, objet de toutes les attentions de Trump, est néanmoins critiqué par Elon Musk, par ailleurs rallié au président américain [source : L’Usine Digitale]

Télécom Paris Ideas