Comment minimiser les risques technologiques et garantir la réussite des projets IA

Par Vincent Bonnot, Directeur Commercial de H2O.ai

Les difficultés de mise à l’échelle des projets d’IA et de Machine Learning ne sont pas liées à la technologie ; le problème vient du fait qu’ils sont développés en silos.

Un spectre hante l’Intelligence Artificielle (IA) européenne : il s’agit du risque de désillusion.

De plus en plus de signes apparaissent, montrant que les entreprises ne tirent pas profit de leurs investissements dans l’IA. Sur le fait que 28% des initiatives d’apprentissage automatique échouent, Gartner affirme que passent du prototype à l’industrialisation, et McKinsey s’inquiète du fait que la plupart des entreprises .

Unifier des communautés d’intérêts distinctes avec différents KPIs

Le problème, heureusement, n’est pas sous-jacent à l’IA ou aux modèles d’apprentissage automatique eux-mêmes. S’il y a des difficultés, et les chiffres ci-dessus le démontrent, celles-ci proviennent de la façon dont les projets sont assemblés et gérés en interne par les trois principaux acteurs impliqués dans la construction et le déploiement des modèles IA.

D’un côté, il y a l’entreprise qui se concentre sur la manière de prendre de meilleures décisions en utilisant l’apprentissage automatique ; de l’autre, les data scientists se soucient pour leur part de la façon dont cette technique sera utilisée afin de résoudre les défis des métiers ; et enfin, l’équipe informatique doit s’assurer que ses collègues utilisent de manière optimale les investissements de l’entreprise en matière d’infrastructure technologique.

Il s’agit souvent de communautés d’intérêts assez distinctes avec différents indicateurs de performance clés ; nous avons des silos d’informations et des perspectives qui ne sont que peu utiles lorsqu’il s’agit de fournir une solution informatique performante. Ce qu’il faut, c’est un moyen de combler les différences, et si cela n’est pas fait, l’immense promesse de l’IA ne sera pas tenue pour les entreprises européennes.

Notre argument est donc que la mise en route d’un projet IA, aussi incroyable que cela puisse paraître sur le papier, risque de poser des problèmes avant même le développement d’un quelconque code, si ce projet ne s’appuie pas sur une structure qui relie correctement toutes les parties prenantes et leurs activités, dans un environnement efficace et simple à utiliser. La bonne nouvelle est que cela est en train de se mettre en place, et voici comment.

Notre expérience montre que, pour exécuter un projet de Machine Learning percutant, un certain nombre d’étapes est nécessaire : préparer les données sur lesquelles le Machine Learning pourra s’appuyer, créer les modèles les plus performants ou optimum ; une fois qu’un modèle est construit, offrir la possibilité de l’examiner, de le comprendre et de s’assurer qu’il n’est pas biaisé, cela permet de mettre en place rapidement ce modèle particulier, tout en y ajoutant de la gouvernance et du suivi ; un moyen pour l’entreprise de prendre le modèle (de préférence, plusieurs modèles) et de l’intégrer dans les applications en toute confiance.

Ce que veulent les clients de l’IA dans le monde réel : un environnement de développement hybride

Les entreprises utilisent un grand nombre de technologies différentes et de multiples processus pour essayer de gérer tout cela, et c’est précisément ce qui retarde la mise en production des modèles et leur utilisation. S’il est possible de bénéficier d’une plate-forme permettant de répondre à ces enjeux essentiels, alors la vitesse à laquelle une entreprise tirera profit de cette plate-forme est considérablement augmentée. Pour ce faire, il est nécessaire d’avoir un cadre pour développer des applications de qualité optimale et pour satisfaire les clients internes, ainsi qu’un environnement pour ensuite faciliter l’utilisation de ces applications par l’entreprise.

Cela ressemblerait-il au Cloud ? Pas toujours. Lorsque vous envisagez de déployer l’IA, vous devez également réfléchir à la manière dont l’IA est consommée dans l’entreprise. Vous avez besoin d’une méthode pour faire passer ce projet de la R&D à la production. Mais quand celui-ci est déployé, comment l’utiliser réellement et en tirer profit ? Il faut comprendre que, ce qu’une entreprise souhaite réellement, c’est bénéficier d’un environnement hybride où cette combinaison de technologies pourrait fonctionner sans problème, quel que soit l’environnement de développement, comme dans le Cloud, sur site ou une combinaison des deux.

Pour minimiser davantage les risques, vous voudriez que ce projet s’appuie tant que possible sur des normes, afin d’éviter la dépendance exclusive d’un fournisseur et faciliter le remplacement des éléments qui ne fonctionnent pas, et soit, pour les mêmes raisons, le plus possible Open Source. Il est donc important d’utiliser le langage préféré des data scientists, qui est Python, et de se baser sur le système d’orchestration de conteneurs pour automatiser le déploiement, l’intégration et la gestion des applications informatiques, ce qui correspond bien sûr à Kubernetes. C’est prodigieux dans le sens où cela vous permet de contrôler le coût de votre infrastructure Cloud et également de déployer rapidement des éléments individuels si vous le souhaitez.

Cette partie langage (en Python) est très importante, car le problème qui peut se poser lors de la création d’applications à déployer sur le Web est qu’elles doivent être en Java, et vous n’avez pas une multitude de data scientists disposant des compétences nécessaires pour créer des applications IA à l’aide de frameworks de développement d’applications traditionnels. Mais si vous pouvez utiliser un langage qu’ils maîtrisent, votre productivité augmente.

Des centaines d’excellents modèles directement en production

Nous proposons ce type de plate-forme intégrée de « Cloud hybride » pour la création et le déploiement de l’IA dans l’entreprise. Récemment, un grand opérateur télécom nous a fait savoir qu’il était passé de quelques modèles de Machine Learning sortis chaque année par son Data Lab, à plusieurs centaines de modèles. Ils ont également pu faire évoluer ces modèles vers des applications en temps réel.

Cette entreprise est loin d’être la seule : d’autres clients y ont trouvé de la valeur, ils ont accéléré la livraison de modèles de Machine Learning, et les ont mis plus rapidement en production à grande échelle en rassemblant tous les outils au même endroit et en s’appuyant sur les métiers, comme décrit précédemment. Tout cela nous permet d’être optimistes sur le fait que les statistiques décevantes d’IDC et de Gartner ne sont qu’une partie de la courbe d’apprentissage de l’IA, et que les dangers d’une augmentation de son coût, le risque de promesses non tenues et de livraisons infructueuses ou même l’envie d’infrastructures d’IA souvent inutiles, diminueront rapidement à moyen terme.

En conclusion, voici notre réponse au spectre qui hante l’IA en Europe

Les choses ont changé. Aujourd’hui, nous avons un moyen de commencer à gagner, et à gagner gros, grâce à cette technologie transformatrice et collaborative combinée à une réflexion stratégique.

Share:

Author: Yves Grandmontagne

Rédacteur en chef de Datacenter Magazine - Co-fondateur de Human, Business & Technology SCOP SAS (éditeur de DCmag) - Journaliste, conférencier et analyste