Les data scientists opérants de Wavestone
lundi 11 mai 2020Wavestone est un cabinet de conseil créé en 1990, présent sur quatre continents, spécialiste de la transformation des entreprises et des organisations. Il compte aujourd’hui 3 300 collaborateurs. Ce nombre a progressé d’un facteur 6 en douze ans, ce qui dénote une forte croissance.
L’objectif de Wavestone est de savoir comment aider et accompagner les entreprises à intégrer l’intelligence artificielle à leurs projets. Wavestone ne fait que du conseil et pas d’intégration logiciel. Il s’agit de proposer à ses clients des solutions entièrement adaptées à leurs besoins.
Stéphan Mir a comparé la « Data Science Kaggle » versus celle de la « réalité » c’est à dire celle en phase avec les besoins du marché. En effet, même si les projets de Data Science Kaggle sont intéressants pour se tenir au courant de nouveautés, il insiste sur l’importance des modèles classiques pouvant faire l’objet de développements robustes dans l’industrie. Le cœur du métier de conseiller est donc principalement axé sur la technologie en interaction directe avec le business.
Stéphan Mir a également mentionné l’aspect « great place to work » de l’entreprise. Au-delà de l’exigence du métier, l’accent est mis sur des échanges réguliers entre tous les collaborateurs et la qualité des relations humaines. Une attention particulière sur l’équilibre personnel des consultants permet un mode de fonctionnement peu hiérarchisé et épanouissant.
Stéphan Mir distingue trois façons de « faire » de l’IA :
- dans un laboratoire de recherche ou un centre de R&D d’une grande entreprise telle que chez les GAFA. On touche alors à des challenges impressionnants qui font avancer l’innovation dans la data science.
- au sein d’une start-up où il y a un mélange d’IA et d’un projet permettant une levée de fonds. L’objectif étant d’améliorer un produit ou un service.
- une troisième façon s’approchant des besoins des clients de Wavestone. Ces derniers ont des milliers de processus internes différents, concentrant de multiples contraintes, que des personnes en interne tentent d’améliorer sans avoir forcément accès aux bonnes données ou en étant dans les bonnes alliances politiques.
Le pôle Machine Learning & Data Lab de Wavestone est né de besoins et problématiques de clients grands comptes cherchant à mieux cerner les contours de l’IA d’abord, puis à incorporer cette dernière dans leur processus. Le pôle Machine Learning & Data Lab se compose de « data scientists opérants » exerçant leurs compétences aux frontières des aspects business, managériaux/organisationnels, IT et scientifiques.
Business
Dans le cadre du développement d’un algorithme efficace et de sa mise en production, des étapes telles que la préparation des données et le nettoyage apparaissent incontournables. Ensuite, le « data scientist opérant » se doit d’échanger avec le Métier concerné afin de mettre en perspective les besoins et problématiques avec les solutions apportées. Enfin, le data scientist accompagne la conduite du changement aux côtés du client. L’interaction Homme-Machine est ici au cœur de la démarche.
Management et organisation
Quant à l’aspect management/organisation, le data scientist caractérise ici le panel d’outils nécessaire à l’atteinte de l’objectif. La question de la « gouvernance data » (producteur de la donnée, stockage de la donnée, cohérence des formats, etc.), est également abordé via cet aspect. Au-delà est aussi envisagée toute la stratégie liée à la donnée où le propos va être de dresser l’ensemble des plans d’actions pour atteindre un objectif visé.
Technologies de l’information
L’aspect IT de la mission du data scientist vise à s’assurer que le code produit est supporté et bien documenté. Ce même aspect vise également à s’assurer de la robustesse de la chaîne d’approvisionnement de données, en collaboration notamment avec les équipes SI du client.
Science
L’aspect scientifique de la mission du data scientist vise à transposer les avancées académiques dans un cadre concret, s’articulant autour des besoins et problématiques des clients. C’est également un aspect nécessaire dans l’interprétabilité des résultats.
L’interprétabilité, ou encore l’explicabilité des résultats font d’ailleurs l’objet de mesures de la part des régulateurs. En Europe, le Règlement Général sur la Protection des Données (RGPD), Raison 71, énonce que : « La personne concernée devrait avoir le droit de ne pas faire l’objet d’une décision, qui peut comprendre une mesure, impliquant l’évaluation de certains aspects personnels la concernant, qui est prise sur le seul fondement d’un traitement automatisé et qui produit des effets juridiques la concernant ou qui, de façon similaire, l’affecte de manière significative, tels que le rejet automatique d’une demande de crédit en ligne ou des pratiques de recrutement en ligne sans aucune intervention humaine. […] En tout état de cause, un traitement de ce type devrait être assorti de garanties appropriées, qui devraient comprendre une information spécifique de la personne concernée ainsi que le droit d’obtenir une intervention humaine, d’exprimer son point de vue, d’obtenir une explication quant à la décision prise à l’issue de ce type d’évaluation et de contester la décision. »
Compte-rendu rédigé Thomas Rivière et Kaelig Castor, étudiants de la promotion 2019-2020 du Mastère Spécialisé Big Data de Télécom Paris.