Durant la Tesla AI Day du 20 août, Tesla a présenté plusieurs projets autour de la robotique et surtout autour de l’intelligence artificielle et comment Tesla développe son propre POD de calculs et des processeurs dédiés.
Tesla a besoin d’une puissance de calculs considérable pour pouvoir entraîner les modèles et gérer la masse de données nécessaire. Pour l’aider, le constructeur a créé la puce D1 Dojo.
Tesla annonce des chiffres assez impressionnants sur le D1 :
- 362 TFflops en précision BF16/CFP8
- 22,6 TFflops en précision FP32
- Une bande passante interne de 10 To/s
- 400 Watts (TDP)
La puce D1 est grande : 645 mm2. Elle embarque 50 milliards de transistors. Elle est gravée en technologie 7nm.
L’usage du D1 est d’être utilisé dans les traitements de machine learning donc pour entraîner les modèles. Elle a été entièrement développée par les équipes internes. L’architecture combine une architecture GPU avec une approche CPU pour pouvoir répondre aux exigences du machine learning.
L’architecture Dojo, le modèle HPC de Tesla, est une architecture distribuée en misant sur des bandes passantes réseaux à hautes vitesses, une faible latence.
Dans cette conception, les D1 sont regroupés sur des plaques de 25 puces avec les connecteurs réseau : les trainings tiles. Ce sont ces tuiles qui sont ensuite intégrées dans le HPC Dojo. Chaque tuile, selon Tesla, affiche 9 Petaflops en précision BF16 et CFP8.
Le Dojo apparaît particulièrement modulaire et flexible dans l’organisation et l’intégration. L’exaPOD, le supercalculateur maison intègre 120 trainings tiles soit une puissance de calculs théorique de 1,1 ExaFLOPS.
Pour découvrir le HPC selon Tesla, à partir de 1:45:40 :