Laboratoire :Laboratory:
Institut Interdisciplinaire de l’Innovation (i3)Interdisciplinary Institute of Innovation (i3)
Département :Department:
Sciences Économiques et Sociales (SES)Economics and Social Sciences (SES)
Dilia est doctorante à Télécom Paris – Institut Polytechnique de Paris, au sein de la chaire Finance Digitale, sous la direction de David Bounie et de Winston Maxwell au sein du département SES. Son projet de thèse est « Explicabilité de l’intelligence artificielle dans la sécurité financière : Une perspective pluridisciplinaire ».
Parcours scolaire
En guise d’introduction, je dirai qu’il n’y a pas eu de chemin tout tracé pour arriver là où je suis aujourd’hui. J’aimerais pouvoir dire que j’ai toujours rêvé de faire un doctorat en économie, mais ce ne serait pas vrai. À vrai dire, j’ai commencé tout cela en pensant que je deviendrais radiologue.
Comme beaucoup d’autres enfants d’immigrés aux États-Unis, mes options de carrière ont été décidées par mes parents : devenir soit médecin, soit avocate quand je serais grande. Au lycée, j’ai décidé que les avocats étaient sordides (ce qui n’est pas très juste, mais pour ma défense, j’étais au lycée) et que je deviendrai donc médecin. Sauf qu’une fois que j’ai commencé à me renseigner sur les machines utilisées par les médecins – les machines IRM en particulier – j’ai été fascinée par la physique derrière la technologie. Alors, quand je suis arrivée à Stanford, j’ai choisi la physique comme matière principale dès que j’en ai eu le droit. Je me suis rapidement passionnée pour l’astrophysique et j’ai rêvé de faire un doctorat en astrophysique pour pouvoir étudier l’univers et peut-être un jour devenir professeure pour enseigner ce que j’ai appris à d’autres esprits curieux.
Alors, que fais-je ici ?
La vérité est que, pour diverses raisons que je n’aborderai pas ici, je n’ai jamais eu la confiance nécessaire pour postuler à ce doctorat en physique, et jusqu’à la fin de ma dernière année d’étude, je n’avais aucune idée de ce que je ferais après l’université. À la fin de ma dernière année, je n’avais toujours pas terminé mon diplôme à temps, mon rêve de faire des études supérieures était mort et enterré, et bien que les perspectives d’emploi dans la région de la baie de San Francisco soient généralement bonnes pour une personne diplômée de Stanford, j’étais désillusionnée par la culture des start-up de la Silicon Valley. J’avais l’impression qu’elle était banale, peu sincère et manipulatrice (encore une fois, ce n’est pas l’évaluation la plus juste, mais elle n’est pas sans fondement). En fait, j’avais simplement peur de ne pas être assez intelligente ou compétitive pour réussir dans le domaine de la technologie. En bref, j’étais devenu blasée, ce qui, pour une optimiste autoproclamée comme moi, est le cauchemar ultime. Pour aggraver les choses, nous étions en 2015, et le conflit racial aux États-Unis devenait écrasant pour ceux d’entre nous qui étaient émotionnellement investis dans la lutte contre l’injustice raciale. Le début des primaires présidentielles cet été-là n’a pas arrangé la situation.
Je me suis donc retrouvée cet été-là sans diplôme, sans emploi, complètement perdue, et perdant la foi en un pays qui m’avait si bien traitée. Vous pouvez imaginer mon état d’esprit lorsque j’ai reçu un e-mail – un véritable deus ex machina – m’informant que j’avais été acceptée pour participer à un programme pour enseigner l’anglais en France, et pas seulement en France, je partais à Paris ! Tout à coup, je me suis retrouvée à acheter un aller simple pour l’aéroport Charles de Gaulle et à faire un tableau Pinterest des endroits à visiter en France.
Mais pourquoi la France ?
Cette question mériterait une réponse plus longue – il y a certainement des facteurs culturels et moraux en jeu – mais pour gagner du temps, je me concentrerai simplement sur ma curiosité sincère concernant l’approche française de la résolution de problèmes, qui fait contrepoids à la mentalité américaine. Les Américains ont tendance à avoir une mentalité de « fonceur » pour résoudre les problèmes – essayer quelque chose, n’importe quoi, et voir si ça marche. Si ça ne marche pas, essayez autre chose. Il suffit d’y aller et de régler le problème, bon sang. Et neuf fois sur dix, quelqu’un sera assez créatif, innovant ou ingénieux pour trouver la réponse, mais les raisons réelles du problème ne sont pas discutées ou comprises. Les Français, quant à eux, débattent d’un problème jusqu’à la dernière minute et, neuf fois sur dix, après un long (et je dis bien long) débat, il n’y a toujours pas de solution sur la table. Cependant, grâce aux débats, aux corrections et aux réflexions constants, chacun quitte la table avec une compréhension beaucoup plus approfondie des causes profondes du problème en question.
Je pense personnellement qu’il existe un équilibre optimal entre ces deux approches – un juste milieu, pourrait-on dire. Je savais que, quel que soit le travail que je finirais par faire, je voulais que mon processus de réflexion fonctionne dans cet espace.
Je me suis donc mise à la recherche d’un emploi.
Il s’est avéré qu’une licence américaine de quatre ans n’était pas suffisante en France pour trouver un emploi dans le domaine des sciences, de la technologie et de l’innovation, et j’ai dû obtenir un master pour y parvenir. Une de mes amis de mon cours de physique en Californie semblait bien se débrouiller en tant que data scientist avec seulement un diplôme de physique, alors j’ai pensé que je pourrais tenter ma chance dans ce domaine. À l’époque, la data science commençait tout juste à gagner du terrain, même aux États-Unis, et cela semblait donc être un bon domaine pour appliquer la pensée analytique que j’avais apprise en tant qu’étudiante en physique. Mais je devais d’abord obtenir un « master spécialisé » en data science dans une école de commerce (mon rêve d’aller à l’école supérieure s’est réalisé, mais pas de la manière dont je le pensais), ce qui nécessitait un stage de six mois. Je ne savais pas vraiment dans quel secteur je voulais travailler, et j’ai accepté un entretien pour un stage qu’un ami m’avait recommandé, dans le Data Lab nouvellement créé à La Banque Postale.
Je n’ai jamais envisagé de travailler dans une banque. Je n’aime pas vraiment les banques. Mais j’ai compris que La Banque Postale offrait un service nécessaire aux plus vulnérables d’entre nous, et je pouvais sincèrement soutenir leur mission. Plus important encore, ma patronne allait être une femme exceptionnellement gentille et intelligente. J’y gagnais sur toute la ligne.
C’est ainsi que je me suis retrouvée à travailler sur des algorithmes de lutte contre le blanchiment d’argent pour La Banque Postale, et qu’on m’a finalement proposé ce poste pour mener des recherches sur le sujet.
Sujet de thèse, enjeux et applications
Ces dernières années, le concept de confidentialité des données (data privacy) est devenu courant – Facebook aux États-Unis et Cambridge Analytica au Royaume-Uni sont deux des noms les plus connus, mais la vérité est que la science des données et le « big data » sont devenus de plus en plus omniprésents dans presque tous les secteurs. De votre épicerie à votre banque, tout le monde utilise vos données d’une manière ou d’une autre.
Les régulateurs de l’UE ont été parmi les plus réactifs à réagir contre l’exploitation des données et ont imposé des restrictions au type de données pouvant être utilisées par les entreprises. Les « données sensibles » – ou les données qui indiquent la race, le sexe, l’âge et le statut politique – sont très strictement réglementées. Plus récemment, l’attention se porte sur les algorithmes eux-mêmes et notre capacité à les interpréter. Il n’est pas surprenant que les algorithmes utilisés pour détecter la fraude et le blanchiment d’argent soient incroyablement complexes et impossible à interpréter par un humain. Dans le secteur, nous appelons ces types d’algorithmes des « boîtes noires » : vous introduisez vos données et les prédictions en sortent, mais vous ne savez pas vraiment ce qui se passe entre les deux. La nature opaque de ces algorithmes pose des problèmes en aval lorsque les régulateurs demandent le raisonnement exact derrière une décision particulière, surtout si le modèle utilise des données sensibles.
Mes recherches explorent les coûts et les bénéfices économiques et sociaux associés à l’augmentation ou à la diminution de la transparence de ces algorithmes et aux fluctuations de performance qui en découlent. En particulier, je me concentre sur les algorithmes d’IA utilisés dans les opérations de lutte contre le blanchiment d’argent et le financement du terrorisme et sur les implications économiques et sociales particulières au succès de ces activités.
La décision d’une banque de geler le compte d’une petite entreprise, par exemple, peut avoir de graves conséquences financières, et si l’IA a influencé cette décision de quelque manière que ce soit, la banque devrait être en mesure de se défendre de manière approfondie. Cependant, rendre ces algorithmes plus transparents afin qu’un humain puisse les interpréter signifie généralement diminuer leurs performances, ce qui peut faire la différence entre la détection d’une fraude ou d’un système de blanchiment d’argent en premier lieu. Pour La Banque Postale, une telle erreur il y a deux ans lui a coûté 50 millions d’euros d’amendes, et une cellule terroriste a reçu une importante somme d’argent pour poursuivre ses opérations.
L’objectif est de trouver l’équilibre optimal entre explicabilité et performance pour différents cas d’utilisation dans les opérations de lutte contre le blanchiment d’argent, de sorte que les banques, les régulateurs et les clients soient satisfaits.
Intérêts de recherche
La détermination du « coût » de l’explicabilité – pour ainsi dire – transcende de nombreux domaines. Il y a des implications sur les droits de l’homme fondamentaux et l’égalité, et pas seulement sur les lois et les règlements. La solution nécessite l’exploration de théories éthiques, politiques et économiques, ainsi que des développements techniques. Pour moi, cette question touche à une idée philosophique de base – le contrat social. Il s’agit d’une question de sécurité collective ou d’avantage financier au détriment de la vie privée individuelle ou de la discrimination sociale et vice versa. Le domaine spécifique auquel nous appliquons ces questions est assez de niche et technique, mais les concepts et globaux et les implications larges. J’espère que mes recherches pourront approfondir ces questions et sensibiliser la communauté de la science des données et de l’IA à ces idées.
Projets pour l’avenir
Je ne peux pas prétendre que je sais où je serai et ce que je ferai dans le futur. L’histoire m’a appris que les plans sont plutôt des lignes directrices, de toute façon. Je sais que je veux rester en France, et j’espère approfondir la politique économique et réglementaire autour de la science des données, de l’IA éthique, ou même de la lutte contre le terrorisme. Je rêve toujours d’enseigner un jour, bien sûr.
Trustworthy and Responsible AI Lab by Axa and Sorbonne University
Confiance numérique, Data science & IA — 03/05/2022Several members of the OpAIE team attended the inaugural seminar of the Trustworthy and [...]Algorithmic bias in the USA
Doctorat, Data science & IA — 27/05/2021As artificial intelligence becomes increasingly commonplace in industries that affect all facets of everyday life, AI experts and [...]