Meta dévoile quatre de ses propres accélérateurs d’IA, développés en interne pour son propre usage. Les puces nécessitent jusqu’à 512 Go de HBM chacune.
Meta sort le grand jeu avec quatre accélérateurs d’IA développés en interne. Ces puces MTIA s’appuient sur les MTIA 100 et MTIA 200 que Meta avait dévoilées précédemment. Ces puces étaient principalement adaptées à l’exécution de modèles de classement et de recommandation. Il s’agit des algorithmes qui, entre autres, rendent le flux Instagram des utilisateurs optimalement personnalisé (comprenez : addictif et rentable pour Meta).
Plus que du R&R
Meta continue sur cette lancée avec quatre nouvelles puces. La MTIA 300 est le successeur direct des processeurs précédents. Cet accélérateur est également optimisé pour exécuter et entraîner ces modèles de rank & recomendation (R&R).
La MTIA 400 est une variante plus puissante, développée pour un champ d’application plus large. Cette puce peut non seulement gérer les modèles R&R, mais aussi des charges de travail d’IA générative plus générales. Après des tests, Meta déploie actuellement la MTIA dans ses propres centres de données.
Un échelon plus haut se trouve la MTIA 450. Celle-ci est spécifiquement optimisée pour l’IA générative, et non plus pour le R&R. Meta souhaite surtout soutenir l’inférence interne avec cette puce. Elle arrivera dans les centres de données en 2027.
Cette même année, Meta espère déployer la MTIA 500. C’est la puce d’IA la plus puissante développée en interne sur laquelle l’entreprise communique actuellement. Le processeur devrait être environ 50 % plus rapide que la MTIA 450.
Dévoreuses de mémoire
Cette annonce montre comment Meta souhaite soutenir son développement en matière d’IA avec son propre matériel, en combinaison avec des puces de Nvidia et d’autres. Les puces MTIA indiquent également clairement où passe toute la mémoire RAM.
La MTIA 400, qui est déjà en cours de déploiement aujourd’hui et sert principalement à personnaliser les flux des utilisateurs de Meta, contient 216 Go de HBM par puce. Le modèle haut de gamme MTIA 500 embarque jusqu’à 512 Go de HBM.
Avec le dévoilement de ces puces, Meta souhaite mettre en avant son expertise en matière de matériel d’IA. Cependant, les détails sur les accélérateurs, et surtout sur la mémoire HBM, expliquent avant tout pourquoi votre prochain ordinateur portable sera tellement plus cher. Meta parle de mettre les expériences d’IA à l’échelle pour des milliards de personnes, mais c’est un euphémisme. En pratique, avec les puces MTIA, il s’agit en grande partie d’IA et de R&R destinés à maintenir les gens rivés à leurs flux et à leur servir les publicités appropriées.
La valeur sociétale de ces puces gourmandes en HBM est donc pour le moins discutable, alors que l’impact sur les prix des ordinateurs portables et des smartphones pour les utilisateurs finaux est, lui, bien réel.
