Newsroom

L’intelligence artificielle pour chasser le « bruit » des images des satellites radar (IP Paris)

SAR-radar-image

Image radar SAR de champs de culture brute (à gauche) et traitée par apprentissage statistique (à droite)
© Florence Tupin via IP Paris

Fixés à un satellite ou un avion, les radars à synthèse d’ouverture (Synthetic Aperture Radar, SAR) ont bouleversé l’imagerie spatiale en permettant d’obtenir des images en haute résolution de la Terre, de jour comme de nuit, par beau temps ou pas. Problème : aussi performant soient-ils, les radars SAR ont du « bruit » plein les yeux.
Florence Tupin, chercheuse au Laboratoire Traitement et Communication de l’Information (LTCI) de Télécom Paris, a recours à l’apprentissage profond pour obtenir des images débarrassées des fluctuations inhérentes à l’imagerie radar. Focus sur les travaux de la chercheuse à l’occasion du sommet IA, Science et Société des 6 et 7 février 2025, organisé par l’Institut Polytechnique de Paris.

[Télécom Paris Ideas] Florence Tupin« Les images obtenues sont souvent pleines de fluctuations qui se traduisent par des « couleurs » altérées et une forme de granularité qui les rend difficiles à interpréter », explique Florence Tupin, professeure au Laboratoire Traitement et Communication de l’Information (LTCI) de Télécom Paris. La chercheuse, qui s’est fait une spécialité de « débruiter » ces images avec l’aide de l’intelligence artificielle (IA), ou plus précisément de l’apprentissage statistique, a développé des méthodes innovantes permettant « de les améliorer drastiquement ».

En traitement d’images, les réseaux de neurones artificiels – un système adaptatif d’IA qui apprend aux algorithmes à traiter des données à partir d’un grand nombre d’exemples – sont généralement entraînés à obtenir une image sans « bruit » en leur montrant le type d’images à obtenir à partir de l’image « bruitée » acquise. L’approche d’apprentissage profond (Deep Learning) de Florence Tupin et ses collègues permet au contraire de travailler sans image de « vérité terrain ». « En résumé, on fournit au réseau deux versions bruitées de la même scène, donc des images qui présentent la même information mais avec des bruits différents », explique la chercheuse. « C’est la partie identique aux deux images, c’est-à-dire la scène sans bruit, que le réseau sera capable de prédire. »