Par Michael Chaouat, vice-président régional de Confluent
Dans presque tous les secteurs d’activité, les entreprises passent à un paradigme de type « digital first » où de grandes parties de leur activité sont définies par des logiciels. Elles s’appuient de plus en plus sur l’IoT pour connecter davantage leurs environnements. Le nombre d’appareils IoT ne cesse de croître, tout comme la quantité de données qu’ils génèrent – IDC estime d’ailleurs que ce volume atteindra 175 zettaoctets d’ici 2025.
Chaque jour, les expériences des clients sont réinventées. Dans l’industrie automobile par exemple, les clients demandent davantage d’options sur mesure pour créer une voiture adaptée à leurs besoins. Les fabricants doivent donc disposer des bonnes pièces au bon moment dans le processus de fabrication. Pour être compétitifs dans ce monde, les fabricants doivent tirer parti des données générées, ainsi qu’analyser et exploiter efficacement les volumes de données qui en résultent, et ce en temps réel.
L’évolution du paysage industriel
Les fabricants voient un nombre croissant de plateformes et d’applications entrer en jeu dans leurs chaînes d’approvisionnement, et utilisent de plus en plus des technologies telles que l’IoT, le cloud et le Machine Learning. D’un côté, ces plateformes les aident à travailler de manière plus efficace et productive, mais leur permettent également d’être réactifs face à des exigences qui évoluent rapidement. D’autre part, elles génèrent une quantité croissante de données structurées et non structurées, ce qui renforce la nécessité de maîtriser ces flux, de les analyser et de les rendre exploitables.
Une entreprise moderne ne peut pas attendre les cycles quotidiens de traitement par lots (batch) pour analyser et réagir aux données provenant de machines, de capteurs, d’applications et de bases de données cloisonnés. Les clients ne tolèrent pas les données périmées ou les expériences de données non entièrement intégrées. Ce qui rend l’adaptation à ce nouveau monde difficile, c’est que l’infrastructure de données traditionnelle n’est pas conçue pour répondre à ces exigences, la plateforme dont disposent la plupart des entreprises pour gérer les données étant la base de données. Les bases de données restent un élément important de la solution, mais elles présentent une limite critique : elles ont été conçues pour résoudre le problème des données au repos.
Des données qui circulent en permanence
Dans le contexte de l’industrie 4.0, pour que les fabricants restent compétitifs dans ce monde numérique, ils ont besoin d’un type d’infrastructure qui exploite de manière transparente le flux de données dans toutes les parties de l’organisation. Les entreprises doivent réagir aux données en permanence pour pouvoir s’adapter et répondre aux événements en temps réel – elles ont besoin d’une infrastructure pour les données en mouvement. La notion de temps réel devient un prérequis dans ces environnements, notamment pour exploiter au mieux l’important volume de données à traiter. De plus, cet event streaming de données en mouvement permet de combler le fossé entre les systèmes traditionnels et modernes. En effet, les systèmes traditionnels monolithiques et propriétaires sont encore très présents dans de nombreux environnements de production. Cependant, dans une telle architecture hybride, où les applications modernes sont basées sur le cloud mais doivent communiquer avec des systèmes périphériques ou échanger des données avec des datacenters, l’event streaming de données en mouvement permet de relier ces deux mondes de manière sécurisée.
Mon collègue Kai Waehner travaille en étroite collaboration avec les fabricants et résume les principaux avantages ainsi : « Les données en mouvement utilisées dans l’industrie manufacturière fournissent des informations vitales en temps réel pour le mouvement des biens et des services afin de permettre une planification et une logistique précises. Elles permettent également de surveiller et de prévoir les besoins de maintenance des machines afin de faciliter la planification des temps d’arrêt. L’assurance qualité sur la chaîne de production est un autre cas d’utilisation important où des modèles analytiques sont intégrés dans des applications de flux d’événements. En plus des avantages au niveau de l’atelier, le traitement des données en mouvement joue également un rôle en matière de cybersécurité en mettant en évidence les anomalies dans les données et les comportements malveillants en temps réel. »
Le système nerveux central des données
Il existe de nombreux exemples illustrant comment les données en mouvement permettent de réaliser d’importantes économies dans l’industrie manufacturière. Lorsqu’une entreprise intègre chacune de ses applications avec la plateforme de streaming d’événements, la corrélation des différentes informations permet d’optimiser les processus métier et de créer de nouvelles applications innovantes. Au fil du temps, la plateforme en vient à contenir l’état complet d’énormes portions de ce qui se passe dans une entreprise, en temps réel, ce qui alimente des centaines d’applications qui s’en nourrissent. Dans ce rôle, la plateforme agit comme un système nerveux central, reliant toutes les parties indépendantes du corps qui peuvent réagir et répondre en temps réel. C’est ce système nerveux central qui permet d’offrir aux clients le type d’expérience dont ils ont de plus en plus besoin pour être compétitifs et tirer son épingle du jeu dans le monde d’aujourd’hui.