Par Lori MacVittie, Principal Technical Evangelist, Office of the CTO chez F5
Dans le film Apollo 13, une scène montre l’importance de l’alimentation des équipements d’exploitation. L’énergie nécessaire au fonctionnement et au redémarrage du vaisseau est essentielle (alerte spoiler…) au succès du retour des astronautes sur Terre.
Une réalité que beaucoup d’entre nous ignorons – jusqu’à ce que nous n’ayons plus d’électricité en raison d’une tempête ou d’un autre événement extérieur – est que chaque application que nous utilisons consomme de l’énergie. La dépendance que nous avons aujourd’hui à l’égard des applications pour faire fonctionner nos lumières, verrouiller nos portes et faire rouler nos voitures induit que l’énergie est calculée à la fois sous forme de consommation électrique et de cycles de CPU.
Nous pouvons plaisanter sur la lenteur de notre navigateur et admettre avec un peu de gêne que c’est en fait peut-être parce que nous avons trente onglets ouverts, mais la vérité est que la puissance de calcul n’est pas illimitée.
Dans un environnement contraint, comme celui de l’edge computing, il y a encore moins de puissance de calcul pour exécuter l’automatisation, le traitement des données et les communications dont nous dépendons pratiquement tous les jours dans le cadre du travail et de nos loisirs.
Bien que nous ayons repoussé les limites techniques de ce qui est possible, il faut bien garder en tête le fait qu’il n’existe qu’un nombre limité de composants que nous pouvons intégrer dans un téléphone, ou encore, que la puissance de calcul que nous pouvons attendre d’un rack de serveurs installé dans une tour de téléphonie mobile est limitée.
Ainsi, l’edge computing – composé de tous les dispositifs, points d’extrémité et nœuds de calcul contraints – a besoin d’un moyen d’augmenter sa puissance de calcul disponible. Ce besoin est à l’origine de la “renaissance de l’infrastructure”, un mouvement qui passe inaperçu pour la plupart des gens et qui se concentre sur l’exploitation de la puissance de calcul spécialisée (optimisée) pour augmenter efficacement la capacité globale de ces environnements limités.
L’évolution du calcul optimisé au niveau matériel
L’évolution du calcul optimisé sur le plan matériel a commencé il y a longtemps avec les « cartes » d’accélération spécialisées dans la cryptographie, pour aboutir à l’unité de traitement graphique (GPU) et maintenant à l’unité de traitement des données (DPU).
Chaque évolution a extrait des tâches de traitement spécifiques qui sont codées en dur, littéralement, dans le silicium pour produire une capacité exponentielle de traitement des données plus rapide et plus efficace. C’est la base des cartes d’accélération cryptographique du milieu des années 2000 qui ont finalement encouragé l’adoption de SSL Everywhere en améliorant considérablement les performances du traitement du cryptage et du décryptage (cryptographique).
Des avancées similaires ont eu lieu sur les marchés adjacents, l’accent étant mis sur l’amélioration des vitesses de traitement du stockage. Le moteur hors ligne TCP (TOE) est un dispositif de mise en réseau qui implémente les protocoles TCP/IP sur une carte matérielle.
L’interface TOE offre également à Data ONTAP une interface avec l’infrastructure 1 ou 10 GbE. La carte TOE PCIe 10-GbE prend entièrement en charge les applications TCP NFS, CIFS et iSCSI dans Data ONTAP.
Chaque fois que nous avons eu besoin d’améliorer la capacité dans des environnements contraints – que cette contrainte soit économique ou physique – nous avons assisté à l’introduction de composants matériels optimisés.
Le DPU, actuellement le “chouchou du moment”, grâce à NVIDIA et à l’intérêt croissant pour les applications liées à l’IA et au ML, est la manifestation actuelle de nos efforts pour surmonter les contraintes physiques sur le calcul.
Le rôle du DPU à l’edge
Les environnements comme l’edge computing ont besoin de l’augmentation de puissance que procure le calcul optimisé au niveau matériel. Qu’il s’agisse du secteur du manufacturing, où l’Internet industriel des objets (IIoT) exige le traitement en temps réel des données avec une latence extrêmement faible (moins de 20 ms), ou du secteur de la santé où la vitesse de traitement des données de santé peut être une question de vie ou de mort, le calcul optimisé sur le plan matériel est une exigence.
Cela signifie que toute plate-forme centrée sur les applications qui cherche à permettre aux organisations de tirer parti de l’edge computing doit inclure le calcul optimisé sur le plan matériel comme capacité clé.
Le DPU représente une démocratisation de la puissance de calcul optimisée. Associée à la bonne pile logicielle et à la bonne plate-forme, l’edge sera en mesure d’offrir à l’entreprise la même efficacité et les mêmes avantages que ceux dont bénéficient actuellement les grands fournisseurs hyperscale.
C’est pourquoi nous continuons à travailler avec des partenaires comme NVIDIA. Bien que le logiciel se nourrisse de tout – y compris de l’edge – c’est toujours le matériel qui alimente tout. Et cette puissance peut être augmentée sans nécessiter plus d’espace en tirant parti de l’optimisation matérielle.