La reconversion, parent pauvre des politiques d…
Comment intégrer la Datascience au sein des pratiques opérationnelles ? L’intérêt des plateformes numériques des communautés orientées Données !
Pour dépasser le simple fantasme et être en mesure de matérialiser les promesses liées l’intelligence artificielle, il est d'abord capital de comprendre quels sont les leviers permettant d’intégrer les nouvelles techniques de traitement de la donnée au sein des entreprises.
L’animation de nouvelles communautés, regroupant des talents venus de différents horizons, est la pierre angulaire du développement de plateformes numériques vivantes et dynamiques. Elles permettent le partage de données, d’algorithmes et de visualisations, avec pour finalité l’exposition de services (webservices) dont la valeur ajoutée va croissant au rythme de déploiements industrialisés et quotidiens.
Ces initiatives regroupent les responsables métiers, le système d’information et les artisans de la donnée (data-analyst et –scientist) autour d’un but commun : partager un catalogue de données, construire des modules algorithmiques intelligents et enfin permettre une mise en production éclair de nouveaux produits ou services.
L’établissement d’une cartographie des données permet de fédérer les différents acteurs autour d’un socle commun et de faciliter l’accès à des informations qualifiées, traitées et fiables. Un second avantage notable de cette démarche est qu’elle limite les doublons et la répétition des tâches effectuées lors de la validation de la qualité de ces données. Les Datascientists ont un rôle important à jouer dans cette phase amont souvent perçue comme ingrate et à moindre valeur ajoutée.
Même si les experts pointent du doigt les travaux généralement chronophages de nettoyage, prétraitement, changement de format et qualification, il reste néanmoins qu’il s’agit d’une étape clé pour fournir une base stable et solide de données pour réaliser des travaux de qualité.
Enfin, le partage des données brutes mais également celles retraitées et qualifiées ainsi que les algorithmes de traitements facilitent la mise en place d’un environnement bienveillant et favorable au partage, véritable catalyseur lors de la création d’une communauté proactive et impliquée.
Une façon robuste et efficace de construire le cœur algorithmique d’un produit est de procéder de manière progressive et itérative en intégrant module par module les éléments fonctionnels. Dans nos environnements agiles, il est primordial d’intégrer en amont une séparation fonctionnelle : acquisition, prétraitement, cœur Machine/Deep-Learning, module de restitution, … Cette segmentation facilite de surcroit la gestion de version des codes produits (back et front).
Les ateliers de conception doivent se concentrer sur un livrable partagé et un même langage : les end-points API. L’utilisation de connecteurs sur ces webservices quelle que soit la technologie retenue permet d’établir un unique point de passage de l’information, notion indispensable pour garantir sécurité et traçabilité.
Cette construction de prototype de manière incrémentale réalisée entre acteurs métier, responsable informatique et Datascientists permet à la fois d’engager la communauté mais surtout de fournir des produits viables, fonctionnels et adaptés à des besoins et contraintes multiples.
Le déploiement en production de ces expérimentations de Machine et Deep-Learning reste une opération complexe avec de nombreux freins. Par crainte d’effets de bord non contrôlés, les activités opérationnelles restent aujourd’hui réfractaires à l’utilisation opérationnelle de ces boites noires algorithmiques : que ce soit pour le suivi d’un réseau électrique, la gestion de la fraude bancaire ou encore la maintenance prédictive des équipements industriels.
Néanmoins, ces nouvelles modélisations peuvent coexister avec l’ancien monde pour gagner à la fois en robustesse et en qualité. La plateforme numérique se révèle être un outil incontournable permettant d’agréger mais également de suivre et de pondérer dynamiquement les méthodes classiques d’une part, et les techniques de Machine Learning d’autre part.
Conserver ainsi le Datascientist au plus proche des opérations et du terrain permet d’envisager une mise en production sécurisée doublée d’une amélioration continue de l’approche quantitative.
La mise en œuvre de plateformes numériques reste l’occasion idéale de fédérer les communautés de la donnée, mettant en avant les gains apportés par un meilleur partage des jeux de données, une facilitation lors de la phase de création et surtout une mise en production éclaire !
Si vous souhaitez en savoir plus sur nos solutions d'IA, rendez-vous sur notre site web Heka : https://heka.sia-partners.com/
Contact : david.martineau@sia-partners.com