HPE rend disponible sa plateforme de conteneurs

La plateforme de conteneurs HPE a été conçue pour prendre en charge les applications natives et non natives du cloud à l’aide d’une solution 100 % open source Kubernetes – fonctionnant sur des machines virtuelles (VM) ou en bare-metal, dans le datacenter, sur tout cloud public ou à la périphérie.

En outre, HPE introduit de nouveaux services professionnels pour garantir un délai de rentabilisation plus rapide et plusieurs nouvelles configurations de référence pour les charges de travail des applications à forte intensité de données telles que l’IA, le machine learning, le machine learning, l’analyse des données, l’edge computing et l’IoT.

La plateforme de conteneurs HPE et les conteneurs bare-metal présentent d’autres avantages :

  • La vitesse. Le déploiement et l’exécution d’applications conteneurisées sur du métal nu sont plus rapides. Il n’est pas nécessaire de démarrer le système d’exploitation invité (OS) de la VM, y compris un processus de démarrage complet ; cela accélère le développement, les opérations et le délai de mise sur le marché.
  • Réduction des coûts et des ressources. Comme chaque VM possède son propre système d’exploitation invité, son élimination réduit les ressources de mémoire vive, de stockage et de CPU, ainsi que les coûts associés au centre de données, nécessaires pour la maintenir.
  • Élimination d’une couche d’orchestration. Il n’est pas nécessaire d’avoir un cadre de gestion pour un environnement virtualisé et un environnement d’orchestration Kubernetes pour les conteneurs.
  • Augmentation de la densité par plate-forme matérielle. Exécution de plus de conteneurs sur un hôte physique donné que les VM, en éliminant les copies multiples des OS invités et leurs exigences en matière de CPU, de mémoire et de stockage.
  • Meilleures performances pour les applications qui nécessitent un accès direct au matériel. Les charges de travail en matière d’analyse et d’intelligence artificielle (IA) avec des algorithmes d’apprentissage machine (ML) nécessitent des calculs lourds pour entraîner les modèles ML ; ces applications fourniront des résultats plus rapides et un débit plus élevé sur du bare-metal.