21 February 2026, 05:29

Nvidia Rubin 5X Lebih Ganas dari Blackwell: Siap Jadi “Mesin Otak” AI untuk Meta, Microsoft, dan Hyperscaler

Nvidia Rubin klaim 5x lebih kencang dari Blackwell, pangkas biaya token AI 10x, jadi senjata baru Microsoft dan Meta.

Reporter: Hasida Kuchiki
Editor: Deden M Rojani
769
Nvidia Rubin 5X Lebih Ganas dari Blackwell: Siap Jadi “Mesin Otak” AI untuk Meta, Microsoft, dan Hyperscaler
Ilustrasi modern minimalis Nvidia: logo Nvidia di-highlight, chip Rubin, ikon AI, data center futuristik, warna kontras kompleks. (AI Generated by: Perspektif.co.id)

TEKNOLOGI, Perspektif.co.id — Nvidia resmi mengawali 2026 dengan manuver agresif di pasar komputasi AI: meluncurkan platform Vera Rubin, rangkaian enam chip baru yang diklaim mampu memangkas biaya inferensi token hingga 10 kali lipat dan mempercepat pelatihan model AI raksasa secara drastis dibanding generasi Blackwell. Pengumuman dilakukan di panggung CES Las Vegas, tepat ketika permintaan komputasi AI dari hyperscaler, cloud provider, dan raksasa media sosial melonjak ke titik tertinggi.

Dalam rilis resminya, Nvidia menjelaskan bahwa Rubin bukan sekadar satu GPU baru, melainkan satu platform AI superkomputer yang dibangun lewat “extreme codesign” antara CPU, GPU, interkoneksi, dan jaringan. Enam komponen kunci itu adalah Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX‑9 SuperNIC, BlueField‑4 DPU, dan Spectrum‑6 Ethernet Switch, yang dirancang bekerja sebagai satu kesatuan untuk memangkas waktu training dan biaya inferensi model AI skala besar, termasuk mixture‑of‑experts (MoE).

“Rubin hadir tepat pada waktunya, ketika permintaan komputasi AI untuk training dan inferensi benar‑benar melesat,” kata Jensen Huang, founder dan CEO Nvidia.

Nvidia mengklaim Rubin mampu memberikan hingga 5 kali performa AI compute dibanding platform Grace Blackwell yang saat ini menjadi tulang punggung banyak data center AI. Dengan memanfaatkan NVLink generasi terbaru, Transformer Engine yang diperbarui, fitur Confidential Computing, dan RAS Engine, Rubin diklaim bisa mengurangi jumlah GPU yang dibutuhkan untuk melatih model MoE hingga 4 kali lipat, sekaligus menurunkan biaya per token inferensi sampai 10 kali dibanding Blackwell.

“Dengan ritme tahunan menghadirkan generasi baru superkomputer AI—dan extreme codesign di enam chip baru—Rubin melompat jauh menuju frontier berikutnya AI,” ujar Huang dalam pengumuman yang sama.

Platform ini hadir dalam dua konfigurasi utama: Vera Rubin NVL72 sebagai solusi rack‑scale dan HGX Rubin NVL8 untuk sistem server yang lebih modular. Keduanya ditujukan untuk membangun data center AI generasi baru yang mampu menjalankan agentic AI, advanced reasoning, dan inferensi model MoE berskala masif dengan efisiensi daya dan biaya yang lebih baik. Nvidia juga menonjolkan Spectrum‑X Ethernet Photonics yang diklaim memberikan peningkatan efisiensi daya dan uptime jaringan hingga 5 kali lipat.

Di sisi ekosistem, Rubin langsung mendapatkan “pembeli” kelas berat. Microsoft mengumumkan rencana membangun Fairwater AI “superfactories” yang akan memanfaatkan sistem Vera Rubin NVL72 dalam skala ratusan ribu superchip untuk melayani beban kerja AI global. CoreWeave, salah satu penyedia cloud AI yang tumbuh cepat, juga menjadi mitra awal yang akan menawarkan Rubin melalui platform Mission Control mereka untuk pelanggan enterprise dan startup AI.

“Platform Rubin menetapkan standar baru untuk membangun, menerapkan, dan mengamankan sistem AI terbesar dan paling canggih di dunia dengan biaya serendah mungkin,” tulis Nvidia dalam pernyataan resminya.

Di luar Microsoft dan CoreWeave, Meta menandatangani kesepakatan multi‑tahun bernilai puluhan miliar dolar untuk membeli jutaan GPU Blackwell dan Rubin, serta CPU Grace mandiri, guna memperkuat data center AI di AS, India, dan berbagai wilayah lain. Meta juga akan mengadopsi switch Spectrum‑X sebagai bagian dari stack jaringan FBOSS, serta memanfaatkan platform Confidential Computing Nvidia untuk menghadirkan fitur AI dengan privasi yang ditingkatkan di WhatsApp dan layanan lain.

“@Meta menerapkan AI dalam skala besar melalui deep codesign di seluruh platform Nvidia. Kemitraan yang diperluas ini akan memungkinkan penerapan skala besar CPU Nvidia dan jutaan GPU Blackwell dan Rubin,” tulis akun resmi Nvidia Newsroom dalam pengumuman kolaborasi tersebut.

Teknologi Confidential Computing Nvidia memungkinkan data diproses di edge atau cloud publik dalam enclave terlindungi di dalam prosesor, sehingga mencegah akses tidak sah terhadap informasi sensitif. Meta menilai pendekatan ini penting untuk menghadirkan AI yang tetap menjaga privasi, karena enkripsi end‑to‑end hanya melindungi data saat transit, bukan ketika sedang diproses di server.

“Platform yang diamankan ini akan memastikan privasi selama komputasi, sekaligus membantu penyedia software dan perusahaan AI melindungi kekayaan intelektual mereka,” tulis Meta dalam pernyataan bersama Nvidia.

Siapa yang paling diincar Rubin? Jawabannya jelas: hyperscaler, cloud AI, dan perusahaan teknologi yang membangun model foundation raksasa—dari LLM hingga model multimodal dan agentic AI. Di mana Rubin akan beroperasi? Di data center skala global milik Microsoft, Meta, dan penyedia cloud seperti CoreWeave yang ingin menawarkan kapasitas AI premium. Kapan Rubin mulai tersedia? Nvidia menyebut chip Vera Rubin sudah memasuki produksi penuh dan akan tersedia di paruh kedua 2026, dengan roadmap tahunan yang mempertahankan ritme agresif setelah Grace Hopper dan Grace Blackwell.

Bagaimana Rubin mengubah peta persaingan? Dengan klaim 5x performa Blackwell dan 10x efisiensi biaya token, Rubin menekan kompetitor untuk mengejar atau kehilangan pangsa pasar di segmen AI data center bernilai ratusan miliar dolar. Strategi Nvidia yang tidak takut “makan” produk sendiri—merilis generasi baru sebelum generasi lama benar‑benar diperas habis—membuat pelanggan besar cenderung terus meng-upgrade, sementara pesaing kesulitan menandingi cadence produk tersebut.

Analisis industri menyoroti bahwa Rubin bukan hanya soal kecepatan GPU, tetapi tentang desain menyeluruh: CPU Vera untuk komputasi umum, NVLink 6 untuk interkoneksi berbandwidth tinggi, SuperNIC dan DPU untuk offload jaringan dan storage, serta Spectrum‑6 untuk fabric Ethernet yang dioptimalkan AI. Kombinasi ini menjadikan Rubin lebih mirip “AI factory platform” ketimbang sekadar kartu grafis generasi baru.

Bagi ekosistem AI yang lebih luas—dari startup model foundation hingga perusahaan yang membangun agentic AI dan sistem reasoning kompleks—Rubin membuka peluang untuk melatih model lebih besar, lebih cepat, dan dengan biaya yang lebih terkendali. Namun, di sisi lain, dominasi Nvidia yang kian menguat juga memunculkan kekhawatiran soal ketergantungan industri pada satu vendor, serta tekanan bagi pesaing seperti AMD dan pemain akselerator khusus lainnya.

Jika roadmap Nvidia berjalan sesuai janji dan Rubin benar‑benar memberikan lompatan 5x performa di dunia nyata, 2026 bisa menjadi tahun di mana standar baru komputasi AI ditetapkan—bukan hanya di lab, tetapi di data center yang menjalankan layanan yang dipakai miliaran pengguna setiap hari, dari rekomendasi konten hingga asisten AI generatif.

Berita Terkait