Newsroom

L’AI Act entre en scène (I'M Tech)

ai-act-imtech
L’AI Act vise à réguler l’intelligence artificielle au sein de l’UE. Avec une classification des systèmes d’IA selon leur niveau de risque, il fixe des restrictions strictes pour les technologies présentant des dangers pour la sécurité et les libertés individuelles. Quelles sont les différences par rapport à des encadrements existants et comment va-t-il se mettre en place ? Décryptage avec Winston Maxwell et Anne-Sophie Taillandier, deux experts en IA.

Le règlement européen sur l’intelligence artificielle, ou « AI Act » vise à réglementer l’utilisation des technologies d’intelligence artificielle (IA) dans l’UE. Adoptée le 13 juin 2024, cette législation s’appliquera progressivement aux systèmes d’IA à partir de février 2025. Elle cherche à établir un cadre juridique pour garantir que l’IA utilisée en Europe soit sûre, transparente, éthique et respectueuse des droits fondamentaux.

Le règlement adopte une approche basée sur les risques, classant les systèmes d’IA en quatre catégories : risque inacceptable, élevé, limité et minimal. Les systèmes à risque inacceptable, comme ceux qui manipulent ou exploitent les vulnérabilités des individus, seraient interdits. Les systèmes à risque élevé, utilisés dans des domaines critiques comme la santé ou les infrastructures, seraient soumis à des exigences strictes en matière de transparence, de robustesse et de sécurité. En posant un cadre législatif, l’AI Act vise à stimuler l’innovation tout en protégeant les individus contre les potentiels abus et discriminations liés à l’utilisation de l’IA.

Winston Maxwell, professeur de droit à Télécom Paris, et Anne-Sophie Taillandier, directrice de la plateforme TeraLab, reviennent sur l’origine et les enjeux de ce projet législatif.

Image d’entête source I’m Tech