IPU-POD128 et l’IPU-POD256 : GraphCore renforce son pétaflop

GraphCore dévoile deux nouvelles configurations pour les fournisseurs de cloud : IPU-POD 128 et 256. Ils peuvent atteindre jusqu’à 64 pétaflops en puissance de calculs. Les IPU-POD sont adaptés aux hyperscalers dans le cloud, aux laboratoires de calcul scientifique et de recherche axés IA en entreprise, ainsi qu’aux équipes IA actives dans les milieux financier et pharmaceutique afin qu’ils puissent augmenter leur capacité de  calcul. Ces nouveaux IPU-POD permettent par exemple un entraînement plus rapide de larges modèles pour l’IA. 

Ces nouvelles configurations se caractérisent par des connexions rack à rack horizontales qui étendent les liens entre IPU, avec un débit Ethernet standard de 100 Gbits/s. Les communications sont gérées par la passerelle située sur chaque machine M2000 et les connecteurs QSFP/OSFP doubles de cette dernière se chargent de la connectivité. Ceci permet un accès aux IPU à davantage de développeurs en divisant un système en partitions virtuelles (vPOD) de moindre taille, tout en offrant plus de flexibilité. Cette solution ouvre ainsi la voie à des avancées scientifiques via l’exploration de nouveaux modèles de transformeurs génératifs pré-entrainés tels que GPT et les réseaux de neurones pour graphs (GNN) à travers des systèmes entiers. 

Ces configurations sont disponbiles auprès d’Atos et des autres partenaires. 

Comme c’est le cas de tous les systèmes Graphcore, l’IPU-POD128 et l’IPU-POD256 s’accompagnent de la pile logicielle Poplar. Un kit de développement dédié est disponible. 

Les programmes PopRun et PopDist : ces programmes permettent aux développeurs d’exécuter leurs applications au niveau de multiples systèmes IPU-POD.

Le programme PopRun se présente sous la forme d’un utilitaire en ligne de commande via lequel il est possible de lancer des applications distribuées sur des systèmes IPU-POD. Le programme PopDist, quant à lui, s’accompagne d’un ensemble d’API dont les développeurs peuvent faire usage afin de préparer l’exécution distribuée de leurs applications.