Micron sendiri menjadi pemasok memori bagi Nvidia dan AMD, dua pemain utama GPU global.
GPU Rubin terbaru Nvidia bahkan sudah memasuki tahap produksi dengan dukungan HBM4 generasi terbaru. Setiap chip dibekali memori hingga 288 GB.
HBM tersebut dipasang dalam delapan blok di atas dan bawah prosesor, lalu dijual dalam satu rak server NVL72 yang menggabungkan 72 GPU dalam satu sistem.
Sebagai perbandingan, ponsel pintar konsumen umumnya hanya dibekali RAM 8 hingga 12 GB. Perbedaan kebutuhan ini menunjukkan betapa masifnya konsumsi memori di sektor AI.
BACA JUGA:Warga RI Rugi Rp9 Triliun Akibat Scam Menggila, Ini Modus Paling Banyak Dilaporkan
HBM juga jauh lebih kompleks dibanding RAM konvensional. Memori ini dirancang untuk bandwidth sangat tinggi dan diproduksi melalui proses rumit dengan menumpuk 12 hingga 16 lapisan memori dalam satu chip berbentuk kubus.
Konsekuensinya, setiap satu bit HBM yang diproduksi harus mengorbankan sekitar tiga bit memori konvensional yang seharusnya bisa digunakan untuk laptop atau smartphone.
Sadana menegaskan, peningkatan pasokan HBM otomatis mengurangi ketersediaan memori untuk pasar non-HBM. Rasio tiga banding satu membuat kelangkaan semakin terasa di segmen konsumen.
Bahkan Nvidia sebagai pelanggan terbesar HBM ikut disorot. Dalam konferensi pers di CES, CEO Nvidia Jensen Huang ditanya soal potensi dampak kekurangan memori terhadap harga kartu grafis dan konsol game.
BACA JUGA:5 Sektor Paling Potensial Jadi Mesin Cuan 2026, Investor Wajib Tahu
Huang mengakui Nvidia merupakan konsumen memori dalam skala sangat besar. Namun ia menegaskan kebutuhan AI yang luar biasa tinggi membuat industri harus membangun lebih banyak pabrik memori.
Menurut Huang, seluruh pemasok HBM kini bersiap meningkatkan kapasitas produksi. Permintaan AI yang terus meledak membuat investasi di sektor memori tak terhindarkan dalam beberapa tahun ke depan.***