NVIDIA pousse un format de mémoire modulaire pensé pour les accélérateurs d’IA, avec l’ambition de réduire les coûts et de faciliter les mises à niveau. L’approche veut compléter la HBM (mémoire empilée à très large bande passante) plutôt que la supplanter.

GPU H100 - son successeur pourrait bien adopter un nouveau format de mémoire. © NVIDIA
GPU H100 - son successeur pourrait bien adopter un nouveau format de mémoire. © NVIDIA
L'info en 3 points
  • NVIDIA propose un format de mémoire modulaire pour les accélérateurs d'IA, visant à réduire coûts et faciliter les mises à niveau.
  • Cette mémoire modulaire complète la HBM, permettant maintenance et évolutivité sans immobiliser tout un châssis.
  • Trois géants de la mémoire, Micron, Samsung et SK hynix, s'intéressent à ce format pour dynamiser le marché.

Le géant américain des puces graphiques repart de zéro avec son format mémoire propriétaire. Alors que la course à l'armement s'intensifie dans l'IA, NVIDIA mise sur une approche modulaire pour répondre aux besoins croissants des serveurs nouvelle génération. Les enjeux économiques dépassent largement le cadre technique, avec plusieurs milliards de dollars de contrats en perspective.

SOCAMM 2 entre en scène

L'histoire de SOCAMM commence par un échec. NVIDIA a officiellement mis un terme au développement de la première version après des difficultés techniques persistantes qui ont entravé sa production. Plutôt que de s'obstiner, le constructeur a préféré pivoter vers une seconde génération, SOCAMM 2, qui conserve l'architecture initiale mais pousse les performances à un niveau supérieur. Les débits de transfert grimpent ainsi jusqu'à 9 600 MT/s, permettant d'atteindre une bande passante de près de 16 TB/s sur les futures plateformes Blackwell Ultra.

Là où la HBM est soudée et intimement liée au package, SOCAMM adopte une logique modulaire. Remplacer un module défectueux, adapter la capacité au cycle de vie des modèles, étaler les coûts d’exploitation: cette flexibilité parle aux équipes d’infrastructure. En complément, l’ouverture à une normalisation par le JEDEC permettrait d’en faire un socle partagé au‑delà de l’écosystème NVIDIA.

NVIDIA va donc délaisser son SOCAMM pour passe directement à la SOCAMM 2. © SK Hynix
NVIDIA va donc délaisser son SOCAMM pour passe directement à la SOCAMM 2. © SK Hynix

Trois fournisseurs en embuscade

La bataille de l’offre s’annonce serrée, avec Micron, Samsung et SK hynix sur les rangs pour livrer des modules capables de tenir les cadences. Chacun avance ses procédés d’assemblage avancé pour combiner épaisseur maîtrisée, robustesse thermique et interconnexions denses. À la clé, des volumes potentiels considérables si SOCAMM s’installe dans les baies des grands clouds.

HBM reste la cavalerie lourde des accélérateurs, imbattable en bande passante par watt lorsqu’elle est co‑packagée au plus près de la puce. SOCAMM trouve sa place en périphérie immédiate du calcul, comme réservoir extensible et rationalisable. Ce duo répond à une réalité: les modèles progressent plus vite que la densité de chaque génération mémoire.

Côté plateformes, l’alignement avec les générations Blackwell puis Rubin ancre SOCAMM dans une feuille de route pluriannuelle. Les intégrateurs y voient un moyen d’augmenter la mémoire utile sans multiplier les nœuds de calcul, avec à la clé des économies d’énergie et un meilleur taux d’utilisation. Si la norme LPDDR6 arrive à temps, un premier saut de débit accélérera l’adoption.

Le pari est clair : faire de la mémoire une ressource vivante, remplaçable et évolutive à l'instar de ce qui se fait dans l'informatique personnelle, plutôt qu’un bloc figé. Si la standardisation aboutit et que les trois fournisseurs convergent, SOCAMM pourrait s’imposer comme le complément naturel de la HBM, des centres de données aux stations de travail avancées. Prochaine étape à surveiller: l’équilibre entre coût, compatibilité et maturité industrielle, là où se joue souvent le destin d’un format.

Source : Tech Radar