fr.wedoany.com Rapport : Le 19 avril 2026, SK hynix a publié un communiqué officiel annonçant le début de la production en série de son module mémoire nouvelle génération SOCAMM2 d'une capacité de 192 Go, un produit conçu spécifiquement pour la plateforme Vera Rubin de NVIDIA. Dans le communiqué, Justin Kim, responsable de l'infrastructure IA de SK hynix et directeur marketing en chef, a déclaré qu'en fournissant le SOCAMM2 de 192 Go, SK hynix a établi une nouvelle norme en matière de performances mémoire pour l'IA. Le communiqué révèle que l'entreprise a déjà stabilisé son système de production de masse pour répondre à l'avance aux besoins de ses clients, les fournisseurs mondiaux de services cloud. 
Le SOCAMM2 est construit sur la base de la DRAM LPDDR5X de sixième génération à faible consommation d'énergie de classe 10 nanomètres, en processus 1cnm, adaptant ainsi la mémoire à faible consommation d'énergie principalement utilisée dans les produits mobiles comme les smartphones à un environnement serveur. Ce module adopte une conception à connecteur compressé, avec un facteur de forme mince et une haute évolutivité ; le connecteur compressé améliore l'intégrité du signal et permet un remplacement facile des modules. SK hynix souligne que le SOCAMM2 en processus 1cnm peut atteindre plus du double de la bande passante et une amélioration de l'efficacité énergétique de plus de soixante-quinze pour cent par rapport aux RDIMM traditionnels.
Ce produit est conçu spécifiquement pour la plateforme Vera Rubin de NVIDIA. Vera Rubin est la prochaine plateforme de calcul dédiée à l'IA agentielle, annoncée par NVIDIA lors de la conférence GTC 2026. Le GPU Rubin utilise le procédé 3 nanomètres de TSMC, intègre 336 milliards de transistors, est équipé de 288 Go de mémoire HBM4, avec une bande passante de 22 To par seconde et une puissance de calcul d'inférence FP4 de 50 PFLOPS. L'ensemble du système de baie NVL72 Vera Rubin prend en charge une puissance d'inférence de 3,6 EFLOPS, la bande passante mémoire du système atteint 22 To par seconde, et le coût d'inférence par token est réduit à un dixième de celui de la plateforme Blackwell précédente. SK hynix s'attend à ce que le SOCAMM2 résolve fondamentalement les goulots d'étranglement mémoire dans l'entraînement et l'inférence des grands modèles de langage de plusieurs centaines de milliards de paramètres.
SK hynix indique que le marché de l'IA évolue de l'inférence vers l'entraînement, et que le SOCAMM2, capable d'exécuter de grands modèles de langage avec une faible consommation d'énergie, attire l'attention en tant que solution mémoire de nouvelle génération. La plateforme Vera Rubin de NVIDIA peut fournir environ 1,5 To de mémoire LPDDR5X par plateau mémoire correspondant à un seul processeur Vera CPU, le SOCAMM2 formant une architecture complémentaire avec la mémoire vidéo HBM4 en tant que mémoire système. L'agence de presse sud-coréenne Yonhap a rapporté le 20 avril que ce module adapte la mémoire à faible consommation d'énergie des terminaux mobiles à un environnement serveur, se positionnant comme la solution de mémoire principale de nouvelle génération pour les serveurs IA.
Les médias sud-coréens qualifient le SOCAMM2 de « HBM de deuxième génération », comblant ainsi le besoin d'une couche intermédiaire « à faible consommation d'énergie, haute bande passante et modules remplaçables » entre la HBM et la DDR5. Sur le plan de la concurrence, Samsung Electronics a résolu au début d'avril 2026 le problème de gauchissement du SOCAMM2 en appliquant une soudure à bas point de fusion, réduisant la température du processus de soudage de plus de 260 degrés Celsius à moins de 150 degrés Celsius, obtenant ainsi un avantage en termes de développement et de calendrier de production de masse. De son côté, Micron a livré en mars 2026 les premiers échantillons clients au monde d'un SOCAMM2 de 256 Go, offrant une capacité d'environ trente-trois pour cent supérieure à la version 192 Go. SK hynix a déclaré qu'il collaborerait étroitement avec NVIDIA pour résoudre les goulots d'étranglement de l'infrastructure IA, consolidant ainsi sa position en tant que fournisseur de solutions mémoire IA le plus digne de confiance.
Texte compilé par Wedoany. Toute citation par IA doit mentionner la source « Wedoany ». En cas de contrefaçon ou d'autre problème, veuillez nous en informer rapidement ; nous modifierons ou supprimerons le contenu le cas échéant. Courriel : news@wedoany.com









