L’edge computing : dans les starting blocks pour un déploiement massif

Par François Baranger, Chief Technical Officer chez T-Systems France

Cela fait un peu plus de deux ans que l’on parle de l’edge computing. Mais c’est aujourd’hui que son décollage à grande échelle se dessine. Technologie incontournable du futur, l’edge computing est un outil de traitement local de la donnée d’une efficacité redoutable. Son développement et son adoption par les acteurs du marché suivent un certain nombre de tendances industrielles, technologiques et de marché. Décryptage.

La puissance informatique sur le terrain

L’edge computing consiste à traiter la data d’un applicatif non plus dans le cloud mais directement à la périphérie d’un réseau. Cela présente plusieurs avantages : la puissance de calcul est en effet localisée au plus près des données à traiter, ce qui permet une meilleure réactivité et davantage de souplesse. Avec l’edge computing s’applique le principe de subsidiarité. Il s’agit de définir quel est le meilleur endroit entre le Cloud ou la périphérie du réseau pour recueillir, stocker et traiter la data. Le tout selon une approche décisionnelle et d’efficacité opérationnelle et économique. Cette prise de décision varie en fonction des situations et des écosystèmes informatiques.

Aujourd’hui, la technologie d’edge computing est déjà utilisée, mais cela s’apparente encore trop à une gestion à distance ou à la mise à disposition localement de capacités de calcul. Or l’ambition de l’edge computing va bien au-delà. Son déploiement est intrinsèquement lié au développement de technologies comme la 5G, de secteurs comme celui de la mobilité autonome et aux transformations structurelles des environnements informatiques. L’exemple du véhicule autonome est parlant : ce dernier ne pourra se passer d’une puissance de calcul locale pour analyser les données de l’ensemble de ses capteurs, pour appréhender son environnement et interagir avec.

Edge computing et 5G : des destins liés

Le déploiement généralisé des réseaux 5G permettra le développement de l’edge computing et son utilisation dans des applications industrielles. Il est en effet encore difficile aujourd’hui de faire dialoguer des machines de robotique entre elles avec un seul wifi industriel. La 5G ouvre ainsi la voie à un très fort débit et surtout à une très faible latence. C’est ce dernier aspect qui est essentiel pour l’edge computing car il permet plus de réactivité dans les échanges.

A mesure que la 5G va prendre de l’ampleur, nous devrions voir l’edge computing prendre son essor dans les applications industrielles. Cela inclut notamment la multiplication des jumeaux numériques et une certaine révolution dans la manière dont on supervise et maîtrise la maintenance prédictive des installations.

Moins de transfert de data pour plus d’efficacité

Selon le même principe de subsidiarité dont nous parlions précédemment, toutes les données récoltées d’un applicatif n’ont pas vocation à être traitées en machine learning ou à être stockées dans des data lakes. Tout l’enjeu consiste à les sélectionner en fonction de leur(s) finalité(s). L’edge computing permet désormais de les traiter localement pour en tirer des bénéfices immédiats, sans pour autant encombrer les serveurs Cloud.

Cette flexibilité n’est rendue possible que par l’allégement des environnements informatiques et le développement des conteneurs, qui sont des espaces d’exécution dédiés aux applications logicielles et permettent plus de légèreté et de portabilité. Cloud et edge computing sont donc loin d’être antinomiques. Au contraire, ils fonctionnent en complémentarité, selon les besoins de calcul et de stockage des données.

Vers une structuration des univers technologiques ?

Au-delà d’une certaine dépendance au déploiement de la 5G et de l’automatisation, l’edge computing risque d’être freiné dans son développement par le manque de standardisation des écosystèmes numériques. Conteners, open stack, outils propriétaires… on trouve sur le marché toute une variété de produits aux technologies diverses. L’utilisation à plus grande échelle de l’edge computing va nécessiter de faire communiquer les univers entre eux et donc de standardiser les environnements informatiques.

Se pose aussi la question de la cybersécurité. L’edge computing implique une contrainte de supervision et de management supplémentaire. Les logiciels de type EDR (endpoint detection and response) qui détectent les comportements anormaux et automatisent les réponses, sont particulièrement précieux dans les contextes qui incluent du traitement local de données.

En matière d’edge computing, le point de bascule est donc proche. Demain, pour tirer le plein bénéfice des applications edge, ces technologies seront directement intégrées au système d’information de l’entreprise au sens large. En chemin vers la maturité, l’edge computing va devenir un passage obligatoire pour accompagner le développement de l’architecture système et de la gestion des données des entreprises. Bonne nouvelle : sur ce marché, les acteurs européens sont en bonne position.

Author: Yves Grandmontagne

Rédacteur en chef de Datacenter Magazine - Co-fondateur de Human, Business & Technology SCOP SAS (éditeur de DCmag) - Journaliste, conférencier et analyste