Souveraineté, éthique et durabilité : les grands enjeux du développement de l’IA en 2025
Thomas Le Goff, maître de conférences en droit et régulation du numérique à Télécom Paris, janvier 2025
Thomas Le Goff, spécialiste de la régulation de l’IA, répond à nos questions sur les enjeux démocratiques et écologiques autour de l’IA.
Ces deux sujets sont d’une actualité brûlante, avec d’un côté, les prises de position d’Elon Musk et de Mark Zuckerberg prônant la fin de la régulation sur les réseaux sociaux, annonçant la fin du fact checking pour leurs groupes aux États-Unis et dénonçant la censure de l’Union Européenne ; et de l’autre, l’annonce du projet Stargate, porté par Open AI et poussé par Donald Trump à peine arrivé à la Maison Blanche.
Propos recueillis par Isabelle Mauriac
Podcast
Retrouvez cette interview en format audio dans le cadre des podcasts Télécom Paris Ideas :
Podcast enregistré le 21 janvier 2025 par Michel Desnoues, Télécom Paris
L’Europe peut-elle réagir ?
À la question « en avons-nous les moyens ? », la réponse est oui, puisqu’il existe un arsenal de régulations qui permettent un certain nombre d’actions, notamment sur les questions qui ont été évoquées sur la fin du fact-checking, la question de la modération sur les grands réseaux sociaux. Il y a le DSA (le Digital Services Act ou le Règlement sur les services numériques) qui impose des obligations et des interdictions pour les services justement de plateformes, dont font partie les réseaux sociaux, notamment de limiter les risques sur les contenus de haine en ligne ou la diffusion de la désinformation. Et quand ces comportements sont caractérisés, des sanctions sont prévues. Si les amendes ne sont pas payées et en cas de récidive, il existe aussi des moyens d’action qui peuvent aller jusqu’à la restriction de ces services-là sur le territoire européen.
La question qui se pose plutôt, je crois, et qui va devoir trouver une réponse dans les prochains mois, c’est :
existe-t-il la volonté politique?
C’est une question qui ne relève pas du droit, mais qui est vraiment majeure pour savoir si nous mettons toutes les forces de notre côté dans l’instrumentalisation de ce corpus juridique pour nous défendre face à cette attaque contre les valeurs européennes via ces pratiques sur les réseaux.
La régulation des plateformes en Europe est une régulation très ambitieuse et qui fait l’objet d’un assez grand consensus.
Et il y a eu une impulsion, notamment de l’ancien commissaire européen Thierry Breton, pour la mise en œuvre de ces textes. Une première enquête contre X est en cours et a été complétée suite aux annonces récentes sur les politiques de modération de Meta, mais aussi l’implication d’Elon Musk dans la campagne de Donald Trump. Cette enquête est renforcée par des demandes d’information complémentaires et la demande de la Commission Européenne de documenter tous les changements de modération qui vont avoir lieu sur X sur la période qui vient, pour justement voir ce qui va se passer avec ce contexte politique qui évolue et pouvoir prononcer des amendes ou des sanctions si nécessaire.
Donc c’est en cours ; cela pourrait-il aller plus vite ? La question peut se poser. Évidemment, ces procédures sont complexes et demandent beaucoup de travail, pour récolter l’information, pour la traiter, et ensuite, une volonté politique pour y répondre. Ce qui est sûr, c’est que j’ai le sentiment aujourd’hui que…
les valeurs de l’Union Européenne sont attaquées, la régulation européenne est mise au défi,
c’est comme un « stress test » (comme tester la résistance des téléphones portables, par exemple, en les mettant sous pression et voir s’ils cassent ou non. Sinon, la norme est respectée et ils sont considérés comme suffisamment solides). C’est un peu ce qui est en train de se passer avec la régulation européenne puisque des choix faits par des réseaux sociaux sont pour certains vraiment incompatibles avec la régulation européenne.
Finalement, cela teste notre capacité de réponse et notre volonté politique à mettre en œuvre ces réglementations.
Irons-nous jusqu’à infliger de fortes amendes, voire même des restrictions d’utilisation ou des blocages des applications qui ne respecteraient pas les valeurs européennes sur le territoire européen ? Nous sommes au moment où il va falloir définir une vraie stratégie européenne de mise en œuvre de ces réglementations.
L’AI Act est un règlement qui vise la sécurité des produits au sein de l’Union Européenne. Sa destination première n’est pas de réguler le comportement ni des grandes plateformes ni des réseaux sociaux, ce qui est vraiment l’objet du DSA et du DMA. Sur la question des réseaux sociaux et de leur modération, de la protection des utilisateurs de ces grandes plateformes, c’est plutôt le DSA qui est concerné. Néanmoins, l’AI Act va réguler un certain nombre de systèmes en fonction de la façon dont ils sont utilisés, le cas échéant dans des réseaux sociaux.
Mark Zuckerberg a annoncé le retour de la communication politique sur les réseaux sociaux. Si demain est avérée la preuve que le système de publicité ciblée de Meta est instrumentalisé pour cibler des minorités afin d’altérer leurs votes ou avoir des conséquences négatives pour elles, cela concernerait potentiellement cette exploitation des vulnérabilités de groupes de personnes. Donc cela va vraiment dépendre des applications et des systèmes précis qui vont être mis en œuvre qui pourraient être ici régulés par l’AI Act.
Ce rapport de force est justement toute la question puisque, comme je l’ai dit, nous avons les moyens. Ce qui va être déterminant est la volonté politique et la stratégie politique à adopter. Je donne un exemple très précis : si jamais les pratiques de modération s’avèrent instrumentalisées à des fins politiques et aboutissent à des discriminations, il serait tout à fait possible de bloquer l’accès sur le territoire européen.
De plus, un espace serait libéré pour que des entreprises européennes puissent se développer puisqu’un marché serait ouvert. Les réseaux sociaux, aujourd’hui, ne sont pas une technologie très compliquée : nous savons faire. Le problème est que les acteurs en face sont trop gros pour venir leur faire concurrence. S’il y a des restrictions dues à des pratiques antidémocratiques ou en tout cas non compatibles avec nos régulations, il existe aussi un effet économique positif. En revanche, le risque est d’entrer dans une véritable guerre économique avec les États-Unis. N’est-ce pas déjà le cas avec un certain nombre d’acteurs au niveau international ? Mais sommes-nous prêts à bloquer l’accès aux réseaux sociaux si en face, nos droits de douane sont augmentés sur nos relations commerciales avec les États-Unis dans d’autres secteurs qui auraient potentiellement des effets économiques aussi importants ? Ce sont les arbitrages face auxquels nous allons nous trouver.
Oui, nous sommes à un moment où il y a besoin d’une volonté politique extrêmement forte pour prendre des décisions dures et qui auront des effets à la fois potentiellement positifs mais aussi négatifs, et en parallèle le système politique est aujourd’hui très affaibli avec cette fragmentation que vous évoquez.
L’IA peut-elle être soutenable ?
Oui, ils pourraient investir en Europe et c’est déjà en projet. L’Europe a des atouts en termes énergétiques. La France bénéficie aujourd’hui du plus haut niveau de capacité de production d’électricité connue sur les dernières années en dépassant les 360 TWH, pour l’énergie nucléaire notamment. Le réseau électrique est relativement stable et donc pourrait accueillir de nouvelles capacités de production ou de nouvelles installations. Et surtout l’énergie est décarbonée à 95% et repose en grande partie sur l’énergie nucléaire et, pour une autre partie, sur les énergies renouvelables.
Maintenant il faut aussi être vigilant. Il va y avoir une grande tension politique et une grande compétition, au sein des pays de l’Union Européenne, mais aussi au niveau mondial parce que ces investissements sont énormes. Ces projets de data centers font parfois 10 fois la taille des data centers existants, cela se chiffre en milliards d’euros. Microsoft annonce 4 milliards d’euros en France.
Il va y avoir une vraie compétition pour attirer ces investissements et ces infrastructures qui ont, elles aussi, un impact sur l’environnement.
Nombre d’études étudient l’impact environnemental des data centers. Il faut savoir que, notamment en France, les data centers sont classés comme des installations classées pour la protection de l’environnement donc font l’objet d’un régime d’autorisation par les autorités publiques spécifiques et conditionné à la réalisation d’une évaluation environnementale et d’une enquête publique. Ce processus vise justement à évaluer tous ces impacts environnementaux, mener une enquête publique pour étudier l’acceptabilité au niveau local et au niveau national. C’est assez régulé. Mais ce qui est plus difficile à réguler sont les impacts globaux, puisque c’est au niveau d’un État ; quant au niveau local, il est possible de limiter les impacts sur la biodiversité, limiter les rejets d’eau chaude dans les cours d’eau, etc.
C’est un sujet qui vraiment très important. Au niveau européen, le souci est plutôt de raccorder des nouveaux projets de data centers au réseau électrique. Pourquoi ? Parce que de grandes capacités de production d’énergie renouvelable sont en construction dans de nombreux pays et mettent en tension le réseau parce que les ressources sont intermittentes, quand elles photovoltaïques ou éoliennes. Le processus de raccordement est relativement simple : une demande est formulée au réseau électrique puis le gestionnaire du réseau autorise ou non la connexion. Ici, en concurrence de ces projets, viennent des projets de data centers qui auront aussi besoin de venir se raccorder au réseau. Ainsi, des files d’attente ont lieu dans certains pays européens pour se connecter au réseau.
En Europe, notre problème est donc plutôt de connecter les data centers au réseau dans des délais acceptables, parce que les délais de construction et d’autorisation sont très longs.
Au niveau mondial, se fait jour, c’est très peu connu, le véritable développement d’une stratégie sur l’implantation des data centers, puisque les États-Unis, notamment, se rendent compte que disposer de l’infrastructure de calcul donne le point final de contrôle sur la technologie. Pourquoi ? Si vous avez la main sur la capacité de calcul, demain, en cas de n’importe quel problème, vous pouvez restreindre voire couper l’utilisation. En janvier 2025, les États-Unis ont changé leur doctrine en matière de contrôle des exportations. C’est un régime qui vient restreindre les produits que vous avez le droit d’exporter, notamment à double usage, civil et militaire . Vous devez obtenir une autorisation de l’administration pour pouvoir les exporter ; les États-Unis viennent d’y ajouter les data centers et les modèles d’IA propriétaires. Cela signifie que demain, ils auront la possibilité d’ajouter des pays sur cette liste et d’imposer un régime d’autorisation leur donnant donc le pouvoir d’autoriser ou d’interdire l’implantation de data centers contenant des puces américaines dans d’autres pays.
Du nucléaire « classique », c’est le cas à Three Miles Island avec le redémarrage d’un des réacteurs sur un site – touché par un accident nucléaire en 1979 – ou bien le financement de start-up proposant des petits réacteurs modulaires, une nouvelle technologie de réacteurs nucléaires.
Les « Gafam » réfléchissent par exemple à construire de petits réacteurs nucléaires proches des data centers pour capter l’électricité produite et de ce fait s’assurer une sécurité d’approvisionnement. Pourquoi pas en France ? Cela demande justement, dans les négociations entre les pays et les collectivités qui vont accueillir ces projets de data centers, de négocier des investissements dans les capacités de production d’électricité en parallèle. C’est un peu la doctrine de l’État français aujourd’hui dans ses discussions avec les « Gafam » ; des annonces seront peut-être faites pendant le sommet mondial de l’IA.
Un sommet mondial pour l’IA à Paris
Le sommet mondial de l’IA a lieu les 10 et 11 février ; l’Institut Polytechnique de Paris et l’Inria, notamment, organisent des journées scientifiques jeudi 6 et vendredi 7 février avec un workshop spécial dédié à la question de l’IA et de l’environnement. Lundi 10 février a lieu un grand événement au Grand Palais et mardi 11 février la séquence politique qui réunit les chefs de gouvernement. En parallèle de cette session politique sont organisés des « side events » dont l’un par le Ministère de la Transition écologique sur la question de l’IA et la durabilité, réunissant à la fois des entreprises, des chercheurs, des administrations et des représentants de l’État.
Ces questions de régulation interviennent certainement, soit en marge du sommet, soit le 11 février lors de la réunion politique en comité restreint. Nous avons aussi auparavant, au cours des journées scientifiques d’IP Paris et de l’Inria des 6 et 7 février, un workshop spécifique sur l’éthique de l’IA. Évidemment les questions des impacts de l’IA sur la démocratie et la désinformation y sont abordées.
Oui, les objectifs sont multiples… L’idée est évidemment de positionner la France sur ces débats et sur le plan géopolitique, en étant le troisième pays – et le premier de l’UE – à accueillir ce sommet mondial de l’IA après le Royaume-Uni et la Corée du Sud.
Il existe aussi des objectifs ayant trait aux enjeux économiques : l’IA pour l’efficacité. Donc des enjeux économiques, éthiques, écologiques et, bien sûr en tant que sommet mondial, des enjeux politiques importants.
(*) NDLR : Stargate, objet de toutes les attentions de Trump, est néanmoins critiqué par Elon Musk, par ailleurs rallié au président américain [source : L’Usine Digitale]