AMD cerca in Corea la soluzione al collo di bottiglia della memoria HBM

Pubblicato il 13 March 2026 | Tradotto dallo spagnolo

La corsa alla supremazia nell'hardware per l'IA non si combatte solo nel design dei chip, ma nell'assicurazione di componenti critici. AMD affronta una sfida strategica con la carenza di memoria HBM, essenziale per le sue GPU e acceleratori. Per affrontarla, la CEO Lisa Su viaggerà in Corea del Sud per incontrare la dirigenza di Samsung Electronics. Questa mossa sottolinea una realtà: nell'industria attuale, la catena di fornitura può essere decisiva quanto l'innovazione architettonica.

Lisa Su, CEO de AMD, en una reunión de estrategia con ejecutivos de Samsung Electronics en Corea del Sur.

HBM: La colonna vertebrale del calcolo ad alte prestazioni 🔬

La memoria ad alta larghezza di banda (HBM) non è una DRAM convenzionale. La sua architettura 3D, dove vari chip di memoria sono impilati verticalmente e interconnessi mediante TSV (Through-Silicon Vias), offre una larghezza di banda massiccia e un ingombro ridotto. Questa integrazione è cruciale per alimentare le enormi matrici di core nelle GPU e acceleratori di IA, evitando il collo di bottiglia dei dati. Visualizzazioni 3D di questi stack permettono di analizzare la complessa interconnessione tra l'interposer di silicio, i die di memoria e il processore, mostrando perché la loro fabbricazione è un processo delicato e con capacità limitata.

La geopolitica della microarchitettura 🗺️

La visita di Lisa Su a Samsung va oltre una negoziazione commerciale. È un riconoscimento del fatto che l'ecosistema dei semiconduttori è profondamente interdipendente. Produttori di memoria come Samsung e SK Hynix hanno una posizione di potere inedita. Gli strumenti di modellazione 3D, usati per simulare flussi di fornitura e linee di produzione, ora devono anche modellare questi rischi geopolitici e di capacità. La battaglia per l'IA si vince assicurando ogni anello della catena.

Come sta trasformando la ricerca di soluzioni avanzate di imballaggio 3D e HBM in Corea l'architettura degli acceleratori di IA e la strategia di AMD rispetto a NVIDIA?

(PD: i 180nm sono come le reliquie: più piccoli, più difficili da vedere a occhio nudo)