L’IPU d’Intel améliore l’efficacité et la facilité de gestion des datacenters et est le seul à avoir été conçu en collaboration avec des partenaires du cloud hyperscale.
A l’occasion du Six Five Summit, Intel a dévoilé sa vision de l’unité de traitement d’infrastructure (IPU), un dispositif de mise en réseau programmable conçu pour permettre aux fournisseurs de services de cloud computing et de communication de réduire les frais généraux et de libérer les performances des unités centrales de traitement (CPU). Avec une IPU, les clients pourront mieux utiliser les ressources grâce à une solution sûre, programmable et stable qui leur permettra d’équilibrer le traitement et le stockage.
« L’IPU est une nouvelle catégorie de technologies et constitue l’un des piliers stratégiques de notre stratégie de cloud. Elle s’appuie sur nos capacités SmartNIC et est conçue pour résoudre la complexité et les inefficacités du centre de données moderne. Chez Intel, nous nous consacrons à la création de solutions et à l’innovation aux côtés de nos clients et de nos partenaires : l’IPU est un exemple de cette collaboration », a déclaré Guido Appenzeller, chief technology officer, Data Platforms Group, Intel.
- Comment cela fonctionne
L’IPU est un dispositif réseau programmable qui gère intelligemment les ressources d’infrastructure au niveau du système en accélérant de manière sécurisée ces fonctions dans un centre de données.
Il permet aux opérateurs de clouds de passer à une architecture de stockage et de réseau entièrement virtualisée tout en maintenant des performances et une prévisibilité élevée, ainsi qu’un haut degré de contrôle.
L’IPU dispose d’une fonctionnalité dédiée à l’accélération des applications modernes construites à l’aide d’une architecture qui s’appuie sur les microservices dans le datacenter. Des recherches menées par Google et Facebook ont montré que 22% à 80% des cycles du processeur peuvent être consommés par les frais généraux de communication des microservices.
Avec l’IPU, un fournisseur de cloud computing peut gérer en toute sécurité les fonctions d’infrastructure tout en permettant à son client de contrôler entièrement les fonctions de l’unité centrale et de la mémoire système.
- L’IPU permet de :
· Accélérer les fonctions d’infrastructure, notamment la virtualisation du stockage, la virtualisation du réseau et la sécurité grâce à des accélérateurs de protocole dédiés.
· Libérer des cœurs d’unité centrale en transférant les fonctions de virtualisation de stockage et de réseau qui étaient auparavant exécutées en logiciel sur l’unité centrale vers l’IPU.
· Améliorer l’utilisation des centres de données en permettant une organisation flexible des charges de travail.
· Permettre aux fournisseurs de services cloud de personnaliser les déploiements de fonctions d’infrastructure à la vitesse du logiciel.
« Grâce à la collaboration d’Intel avec une majorité d’hyperscalers, Intel est déjà le leader en volume sur le marché des IPU avec nos composants Xeon-D, FPGA et Ethernet », déclare Patty Kummrow, vice-présidente du Data Platforms Group et directrice générale du Ethernet Products Group chez Intel. « Les premières plates-formes IPU d’Intel basées sur des FPGA sont déployées chez plusieurs fournisseurs de services cloud et notre première IPU ASIC est en cours de test. »
« Depuis avant 2015, Microsoft a été le pionnier de l’utilisation des SmartNIC reconfigurables sur plusieurs générations de serveurs Intel pour décharger et accélérer les piles de réseau et de stockage grâce à des services comme Azure Accelerated Networking. La SmartNIC nous permet de libérer des cœurs de traitement, d’évoluer vers des bandes passantes et des IOPS de stockage beaucoup plus élevés, d’ajouter de nouvelles fonctionnalités après le déploiement et de fournir des performances prévisibles à nos clients du cloud, déclare Andrew Putnam, principal Hardware Engineering manager chez Microsoft. Intel est notre partenaire de confiance depuis le début et nous sommes heureux de voir qu’Intel continue à promouvoir une vision industrielle forte pour le centre de données du futur avec l’unité de traitement de l’infrastructure. »
- Les prochaines étapes
Intel va déployer d’autres plates-formes IPU basées sur des FPGA et des ASIC dédiés. Ces solutions s’appuieront sur une puissante base logicielle qui permettra aux clients de créer des logiciels d’orchestration de pointe pour le cloud.
L’évolution des datacenters nécessitera une nouvelle architecture intelligente dans laquelle les systèmes informatiques hétérogènes distribués à grande échelle fonctionnent ensemble et sont connectés de manière transparente pour apparaître comme une plate-forme informatique unique. Cette nouvelle architecture permettra de résoudre les problèmes actuels de ressources bloquées, de flux de données encombrés et de sécurité des plateformes incompatibles. Cette architecture de centre de données intelligente comprendra trois catégories de calcul : CPU pour le calcul général, XPU pour l’accélération spécifique à une application ou à une charge de travail et IPU pour l’accélération de l’infrastructure – qui seront connectées par des réseaux programmables afin d’utiliser efficacement les ressources du centre de données.