fr.wedoany.com Rapport : Le géant technologique américain Google est en pourparlers avec le fabricant de puces basé en Californie, Marvell, pour développer conjointement deux nouveaux types de puces d'inférence. Cette collaboration vise à renforcer les capacités matérielles de Google dans le domaine de l'intelligence artificielle.

Selon des rapports des médias The Information et FundaAI, les discussions portent notamment sur une unité de traitement en mémoire, qui fonctionnera en synergie avec les unités de traitement tensoriel de Google, ainsi que sur un nouveau type de TPU spécialement conçu pour exécuter des modèles d'intelligence artificielle. Des sources informées ont révélé que ce processeur mémoire partagera la charge de travail de l'IA avec les TPU en fonction des besoins en calcul et en mémoire. Les deux entreprises visent à finaliser la conception d'ici 2027, avec un plan de production d'environ 2 millions de pièces matérielles, mais les rapports indiquent que les discussions en sont encore à un stade précoce et que les chiffres pourraient être ajustés.
Bien que Google ait acheté auparavant des processeurs pour centres de données à Marvell, tels que des contrôleurs de puces CXL, il s'agissait de produits standards, tandis que les négociations actuelles concernent des puces sur mesure. Actuellement, Broadcom est le concepteur exclusif des TPU de Google, et les deux parties ont annoncé plus tôt ce mois-ci un accord à long terme selon lequel Broadcom continuera à développer les processeurs de Google jusqu'en 2031. Cependant, des rapports montrent que Google explore des alternatives à Broadcom depuis 2023, en partie à cause des frais élevés facturés par ce fabricant de puces, qui augmentent avec la croissance de la demande en processeurs.
Le processus de développement de la nouvelle puce d'inférence de Google s'est accéléré après que Nvidia a présenté son unité de traitement linguistique lors de la conférence GTC le mois dernier. Parallèlement, Microsoft a dévoilé sa puce d'inférence Maia 200 début de cette année, et Meta a récemment présenté la quatrième génération de ses puces d'accélération pour l'entraînement et l'inférence, qui prennent principalement en charge les tâches d'inférence de l'IA générative. La semaine dernière, Meta a annoncé une collaboration avec Broadcom pour développer plusieurs générations de matériel MTIA. OpenAI collabore également avec Broadcom pour développer une puce d'inférence sur mesure, bien qu'aucune mise à jour n'ait été fournie depuis l'annonce de l'accord en octobre 2025.
Les puces dédiées à l'inférence gagnent en importance en raison de l'évolution des charges de travail d'entraînement de l'IA, ainsi que de l'émergence d'outils d'IA agents et de charges de travail nécessitant un calcul élevé et une faible latence, que les processeurs généralistes peinent à satisfaire. La collaboration entre Google et Marvell devrait stimuler le développement des puces d'inférence IA, renforçant ainsi l'avantage matériel de Google dans la compétition.
Texte compilé par Wedoany. Toute citation par IA doit mentionner la source « Wedoany ». En cas de contrefaçon ou d'autre problème, veuillez nous en informer rapidement ; nous modifierons ou supprimerons le contenu le cas échéant. Courriel : news@wedoany.com









