Newsroom

Mettre au régime l'IA, trop gourmande en énergie (IP Paris)

Vector ecology concept. Water pollution. Factory plant.
Portés par des avancées technologiques majeures et un certain engouement de la part des Big Tech, les modèles d’intelligence artificielle (IA) deviennent extrêmement gourmands en énergie.
Enzo Tartaglione, maître de conférences à Télécom Paris, Laboratoire traitement et communication de l’information (LTCI), tente de développer des modèles de Deep Learning plus économes en énergie. Focus sur les travaux du chercheur à l’occasion de l’événement IA, Science et Société des 6 et 7 février 2025, organisé par l’Institut Polytechnique de Paris.

Enzo Tartaglione (source Github/IP Paris)Malgré les prouesses réalisées ces dernières années, l’intelligence artificielle (IA) n’est pas exempte de défauts : les modèles deviennent de plus en plus volumineux, ce qui nécessite une quantité croissante d’énergie pour les faire fonctionner. À l’heure du changement climatique et de la crise énergétique, cet engouement pour l’IA a attiré l’attention de spécialistes comme Enzo Tartaglione, maître de conférences à Télécom Paris et membre de l’équipe Multimédia du département Image, Données, Signal (IDS) du LTCI, qui a entrepris de mettre les modèles d’IA au régime.

« Certains de ces modèles sont si volumineux qu’ils ne peuvent pas être utilisés localement et doivent l’être à distance, ce qui pose un problème à de multiples égards : protection de la vie privée, consommation d’énergie au niveau du serveur, consommation d’énergie dans la transmission, etc. », explique le scientifique, qui fait également partie du European Lighthouse of AI for Sustainability (ELIAS), un réseau qui réunit des universitaires et des partenaires de l’industrie pour cultiver des solutions d’IA originales qui contribuent à un avenir durable pour notre planète, favorisent la cohésion sociale et défendent les droits individuels.

Image d’entête source Vectorpouch/Freepik