Les métaplates-formes ont dévoilé des détails sur sa dernière puce d’accélérateur d’intelligence artificielle personnalisée.
Les projets de Meta visant à lancer une nouvelle itération d’une puce propriétaire pour centre de données pour répondre aux demandes informatiques croissantes liées à l’exécution d’applications d’IA sur Facebook, Instagram et WhatsApp ont été annoncés plus tôt cette année. Surnommée en interne « Artemis », cette puce vise à réduire la dépendance de Meta vis-à-vis des puces IA de Nvidia et à réduire les coûts énergétiques globaux.
Dans un article de blog, la société a révélé que la conception de cette puce vise principalement à atteindre un équilibre optimal entre puissance de calcul, bande passante mémoire et capacité de mémoire afin de répondre aux modèles de classement et de recommandation.
La puce nouvellement introduite s’appelle Meta Training and Inference Accelerator (MTIA). Il fait partie de la vaste initiative de silicium personnalisé de Meta, qui comprend l’exploration d’autres systèmes matériels. Parallèlement au développement de puces, Meta a investi massivement dans le développement de logiciels pour utiliser efficacement la puissance de son infrastructure.
En outre, la société investit des milliards dans l’achat de puces Nvidia et d’autres puces IA, le PDG Mark Zuckerberg annonçant son intention d’acquérir environ 350 000 puces phares. H100 puces de Nvidia cette année. En combinaison avec des puces d’autres fournisseurs, Meta vise à accumuler l’équivalent de 600 000 puces H100 d’ici la fin de l’année.
La puce sera fabriquée par Taiwan Semiconductor Manufacturing Co en utilisant son procédé 5 nm. Meta affirme offrir trois fois les performances de son prédécesseur.
La puce a déjà été déployée dans des centres de données et sert déjà des applications d’IA.
Écrit par Alius Noreïka
En savoir plus:
Que sont les matériaux 2D et pourquoi intéressent-ils les scientifiques ?
Publié à l’origine dans The European Times.