Siap-Siap! Ledakan AI Bikin Harga Memori-RAM Global Meroket Sampai 55%

15 hours ago 5

Jakarta, CNBC Indonesia - Kebutuhan besar industri kecerdasan buatan atau Artificial Intelligence (AI) membuat pasar memori global mengalami kelangkaan pasokan pada 2026. Produsen chip seperti Nvidia, AMD, dan Google kini menjadi prioritas utama dalam antrean pembelian RAM, khususnya high-bandwidth memory (HBM) yang digunakan untuk chip AI.

Melansir CNBC, tiga pemain utama yakni Micron, SK Hynix, dan Samsung Electronics sebagai penguasa hampir seluruh pasar RAM dunia, menjadi pihak yang paling diuntungkan dari lonjakan permintaan ini.

"Kami telah melihat lonjakan permintaan memori yang sangat tajam dan signifikan, dan itu jauh melampaui kemampuan kami untuk memasok memori tersebut dan, menurut perkiraan kami, kemampuan pasokan seluruh industri memori," kata kepala bisnis Micron, Sumit Sadana, kepada CNBC di pameran dagang CES di Las Vegas dikutip Sabtu (10/1/2026).

Dampaknya, harga memori melonjak tajam. Riset TrendForce memproyeksikan harga rata-rata DRAM global naik 50%-55% pada kuartal ini dibandingkan kuartal IV-2025. Analis TrendForce Tom Hsu menyebut kenaikan tersebut "belum pernah terjadi sebelumnya."

Lonjakan permintaan terutama datang dari HBM, komponen penting yang mengelilingi GPU AI.

Menurut Sadana, produsen chip seperti Nvidia melapisi bagian chip yang melakukan komputasi unit pemrosesan grafis, atau GPU dengan beberapa blok komponen khusus yang cepat yang disebut memori bandwidth tinggi, atau HBM. HBM sering terlihat ketika produsen chip memamerkan chip baru mereka. Micron memasok memori ke Nvidia dan AMD, dua produsen GPU terkemuka.

GPU Rubin Nvidia, yang baru-baru ini memasuki tahap produksi, hadir dengan memori HBM4 generasi berikutnya hingga 288 gigabyte per chip.

"HBM dipasang dalam delapan blok yang terlihat di atas dan di bawah prosesor, dan GPU tersebut akan dijual sebagai bagian dari rak server tunggal yang disebut NVL72, yang secara tepat menggabungkan 72 GPU tersebut ke dalam satu sistem," ujarnya.

Sebagai perbandingan, smartphone biasanya hadir dengan memori DDR berdaya rendah 8 atau 12 GB.

Namun, memori HBM yang dibutuhkan chip AI jauh lebih menuntut daripada RAM yang digunakan untuk laptop dan ponsel pintar konsumen. HBM dirancang untuk spesifikasi bandwidth tinggi yang dibutuhkan oleh chip AI, dan diproduksi melalui proses yang rumit di mana Micron menumpuk 12 hingga 16 lapisan memori pada satu chip, mengubahnya menjadi "kubus."

Ketika Micron membuat satu bit memori HBM, mereka harus mengorbankan tiga bit memori konvensional untuk perangkat lain.

"Saat kami meningkatkan pasokan HBM, semakin sedikit memori yang tersisa untuk bagian pasar non-HBM, karena rasio tiga banding satu ini," kata Sadana.

Bahkan Nvidia, yang telah muncul sebagai pelanggan terbesar di pasar HBM, menghadapi pertanyaan tentang kebutuhan memorinya yang sangat besar khususnya, untuk produk konsumennya.

Pada konferensi pers Selasa di CES, CEO Nvidia Jensen Huang ditanya apakah ia khawatir bahwa pelanggan game perusahaan mungkin merasa kesal terhadap teknologi AI karena kenaikan harga konsol game dan kartu grafis yang didorong oleh kekurangan memori.

Huang mengatakan Nvidia adalah pelanggan memori yang sangat besar dan memiliki hubungan jangka panjang dengan perusahaan-perusahaan di bidang ini, tetapi pada akhirnya, akan dibutuhkan lebih banyak pabrik memori karena kebutuhan AI sangat tinggi.

"Karena permintaan kami sangat tinggi, setiap pabrik, setiap pemasok HBM, sedang bersiap, dan mereka semua bekerja dengan baik," kata Huang.

(dce)
[Gambas:Video CNBC]

Read Entire Article
Berita Kasus| | | |