Revolusi Computex 2025 dari NVIDIA: Mengubah Pusat Data menjadi Pabrik AI

CEO NVIDIA, Jensen Huang, naik ke atas panggung Computex 2025 dengan mengenakan jaket kulit khasnya dan memperkenalkan perangkat keras baru serta paradigma komputasi yang telah dirancang ulang. Raksasa semikonduktor ini telah bertransformasi menjadi perusahaan infrastruktur AI, membangun fondasi untuk apa yang disebut Huang sebagai "infrastruktur kecerdasan" - revolusi infrastruktur besar ketiga setelah listrik dan internet.

Keynote ini bukan sekadar pengumuman produk, melainkan Jensen memaparkan cetak biru NVIDIA untuk membentuk ulang lanskap komputasi. Lompatan teknis, pivot strategis, dan permainan pasar yang ia ungkapkan kemungkinan besar akan menjadikan Computex ini sebagai referensi kami selama bertahun-tahun. Tonton video lengkapnya Keynote Nvidia Computex 2025.

Evolusi Strategis NVIDIA: Dari Kartu Grafis ke Penyedia Infrastruktur

Kisah transformasi NVIDIA sangat menakjubkan. Pada tahun 1993, Jensen melihat "peluang chip senilai 300 juta dolar AS" - sebuah pasar yang besar. Maju cepat ke masa kini, dan dia memimpin perusahaan raksasa infrastruktur AI bernilai triliunan dolar. Pertumbuhan eksplosif semacam itu tidak terjadi begitu saja-NVIDIA secara fundamental mengubah dirinya berkali-kali di sepanjang jalan.

Dalam keynote-nya, Jensen menyoroti titik balik yang membuat NVIDIA saat ini menjadi mungkin:

  1. 2006: CUDA mendarat dan menjungkirbalikkan komputasi paralel. Tiba-tiba, para pengembang yang tidak pernah mempertimbangkan untuk menggunakan GPU untuk komputasi umum membangun aplikasi yang tidak mungkin dilakukan pada CPU tradisional.

  2. 2016: DGX1 muncul sebagai sistem pertama NVIDIA yang berfokus pada AI tanpa kompromi. Dalam apa yang sekarang terlihat seperti sedikit pertanda yang hampir menakutkan, Jensen menyumbangkan unit pertama ke OpenAI, yang secara efektif memberi mereka fondasi komputasi yang pada akhirnya mengarah pada revolusi AI saat ini.

  3. 2019: Akuisisi Mellanox, memungkinkan NVIDIA untuk mengkonseptualisasikan kembali pusat data sebagai unit komputasi terpadu

Transformasi ini berujung pada posisi NVIDIA saat ini sebagai "perusahaan infrastruktur yang penting" - status yang ditekankan oleh Huang dengan menyoroti peta jalan publik lima tahun yang belum pernah ada sebelumnya, yang memungkinkan perencanaan infrastruktur global untuk penerapan AI.

Mendefinisikan Ulang Metrik Kinerja: Ekonomi Token

NVIDIA telah memperkenalkan perubahan mendasar dalam cara mengukur hasil komputasi. Alih-alih menggunakan metrik tradisional seperti FLOP atau operasi per detik, Huang memposisikan pusat data AI sebagai pabrik yang memproduksi "token" - unit kecerdasan komputasi:

"Perusahaan mulai berbicara tentang berapa banyak token yang mereka hasilkan pada kuartal terakhir dan berapa banyak token yang mereka hasilkan pada bulan lalu. Dalam waktu dekat, kita akan membahas berapa banyak token yang kita produksi setiap jam, seperti yang dilakukan oleh setiap pabrik."

Pembingkaian ulang ini secara langsung menghubungkan investasi komputasi dan hasil bisnis, menyelaraskan infrastruktur AI dengan kerangka kerja industri tradisional. Model ini menempatkan NVIDIA di pusat paradigma ekonomi baru di mana efisiensi komputasi secara langsung diterjemahkan ke dalam kapabilitas bisnis.

Peningkatan Arsitektur Blackwell: Spesifikasi dan Metrik Kinerja GB300

Sistem GB200

Pembaruan GB300 ke arsitektur Blackwell menunjukkan siklus peningkatan performa tanpa henti dari NVIDIA. Dijadwalkan untuk Q3 2025, GB300 akan hadir:

  • Peningkatan kinerja inferensi 1,5x lipat dibandingkan GB200

  • Peningkatan kapasitas memori 1,5x HBM

  • Peningkatan bandwidth jaringan 2x lipat

  • Desain berpendingin cairan sepenuhnya

  • Kompatibel dengan sasis dan sistem yang ada

Setiap node GB300 menghasilkan sekitar 40 petaflops - secara efektif menggantikan seluruh superkomputer Sierra (sekitar tahun 2018), yang membutuhkan 18.000 GPU Volta. Peningkatan performa 4.000x lipat dalam waktu enam tahun ini jauh melampaui penskalaan Hukum Moore tradisional, yang menunjukkan pendekatan multi-segi NVIDIA terhadap akselerasi performa melalui inovasi arsitektur, perangkat lunak, dan interkoneksi.

MVLink: Mendefinisikan Ulang Teknologi Interkoneksi

MVLink merupakan kemajuan paling signifikan dalam teknologi interkoneksi GPU sejak diperkenalkannya NVLink. Sistem ini memungkinkan pemilahan sumber daya komputasi secara menyeluruh di seluruh rak, mengubah 72 GPU (144 GPU mati) menjadi satu unit komputasi yang sangat besar.

Spesifikasi teknisnya sangat mengejutkan:

  • Sakelar MVLink individual: Bandwidth 7,2 TB/s

  • Spine MVLink: 130 TB/s bandwidth all-to-all

  • Implementasi fisik: 5.000 kabel koaksial dengan panjang yang sangat tepat (total sekitar 2 mil)

  • Kepadatan daya: 120 kilowatt per rak (memerlukan pendinginan cair)

Sebagai konteks, Huang mencatat bahwa lalu lintas puncak seluruh internet adalah sekitar 900 terabit per detik (112,5 TB/detik), sehingga satu MVLink spine mampu menangani lebih banyak lalu lintas daripada internet global pada kapasitas puncaknya.

MVLink Fusion: Menciptakan Ekosistem Infrastruktur AI Terbuka

MVLink Fusion mungkin merupakan permainan ekosistem paling inovatif yang pernah dilakukan NVIDIA dalam beberapa tahun terakhir. Alih-alih memaksa para mitra untuk menggunakan perangkat keras NVIDIA, mereka membuka arsitektur untuk memungkinkan perusahaan membangun sistem AI semi-kustom yang masih terkait dengan jagat NVIDIA.

Pendekatan ini ternyata sangat fleksibel:

  1. Integrasi ASIC khusus: Punya akselerator khusus Anda? Tidak masalah. Para mitra dapat menggunakan chiplet MVLink untuk menghubungkan silikon khusus mereka ke ekosistem NVIDIA. Ini seperti NVIDIA mengatakan, "Buatlah perangkat keras khusus apa pun yang Anda inginkan - pastikan perangkat keras tersebut dapat berbicara dengan produk kami."

  2. Integrasi CPU Khusus: Vendor CPU juga tidak ketinggalan. Mereka dapat secara langsung mengimplementasikan antarmuka chip-ke-chip MVLink, menciptakan jalan raya langsung antara prosesor mereka dan GPU Blackwell (atau arsitektur Ruben yang akan datang). MVLink sangat penting bagi perusahaan yang berinvestasi dalam arsitektur CPU tertentu.

Pengumuman mitra menjangkau industri semikonduktor:

  • Mitra implementasi silikon: LCHIP, Astera Labs, Marll, MediaTek

  • Vendor CPU: Fujitsu, Qualcomm

  • Penyedia EDA: Irama, Sinopsis

Pendekatan ini secara strategis memposisikan NVIDIA untuk menangkap nilai terlepas dari perangkat keras tertentu yang digunakan oleh pelanggan, yang mencerminkan pernyataan jujur Huang: "Tidak ada yang lebih membahagiakan saya selain ketika Anda membeli segala sesuatu dari NVIDIA. Saya ingin kalian mengetahui hal itu. Namun, saya akan sangat senang jika kalian membeli sesuatu dari NVIDIA."

Penerapan AI Perusahaan: RTX Pro Enterprise dan Server Omniverse

Server RTX Pro Enterprise dan Omniverse mewakili penawaran komputasi yang berfokus pada perusahaan yang paling signifikan dari NVIDIA, yang dirancang khusus untuk mengintegrasikan kemampuan AI ke dalam lingkungan TI tradisional:

  • Arsitektur yang sepenuhnya kompatibel dengan x86

  • Dukungan untuk hypervisor tradisional (VMware, Red Hat, Nanix)

  • Integrasi Kubernetes untuk orkestrasi beban kerja yang sudah dikenal

  • GPU Blackwell RTX Pro 6000s (8 per server)

  • Chip jaringan CX8 yang menyediakan bandwidth 800 Gb/s

  • Peningkatan kinerja 1,7x lipat dibandingkan Hopper H100

  • Performa 4x pada model yang dioptimalkan seperti Deepseek R1

Sistem ini menetapkan amplop kinerja baru untuk inferensi AI, yang diukur dalam kerangka kerja sumbu ganda throughput (token per detik) dan responsif (token per detik per pengguna) - metrik penting untuk apa yang Huang gambarkan sebagai era "penskalaan waktu inferensi" atau "AI yang berpikir".

Platform Data AI: Menata Ulang Penyimpanan untuk Data yang Tidak Terstruktur

Platform Data AI NVIDIA memperkenalkan pendekatan yang berbeda secara fundamental untuk penyimpanan perusahaan:

"Manusia melakukan kueri pada database terstruktur seperti SQL... Tapi AI ingin menanyakan data yang tidak terstruktur. Mereka ingin semantik. Mereka menginginkan makna. Jadi kita harus menciptakan jenis platform penyimpanan baru."

Komponen-komponen utama meliputi:

  • NVIDIA AIQ (atau IQ): Lapisan kueri semantik

  • Node penyimpanan yang diakselerasi oleh GPU menggantikan arsitektur tradisional yang berpusat pada CPU

  • Model AI pasca-pelatihan dengan sumber data pelatihan yang transparan

  • Kueri 15x lebih cepat dengan hasil yang lebih baik 50% dibandingkan dengan solusi yang ada saat ini

Mitra industri penyimpanan yang mengimplementasikan arsitektur ini termasuk Dell, Hitachi, IBM, NetApp, dan Vast, yang menciptakan ekosistem manajemen data AI perusahaan yang komprehensif.

Operasi AI dan Robotika: Kerangka Kerja Perangkat Lunak untuk Perusahaan Cerdas

Keynote tersebut memperkenalkan dua kerangka kerja perangkat lunak yang penting:

  1. Operasi AI (AI Operations (AIOps)): Tumpukan yang komprehensif untuk mengelola agen AI dalam konteks perusahaan, termasuk kurasi data, penyempurnaan model, evaluasi, pagar pembatas, dan keamanan. Mitra-mitranya meliputi Crowdstrike, Data IQ, Data Robots, Elastic, Newonix, Red Hat, dan Trend Micro.

  2. Isaac Groot Platform N1.5: Ekosistem pengembangan robotika bersumber terbuka, termasuk:

    • Mesin fisika Newton (dikembangkan bersama Google DeepMind dan Disney Research)

    • Prosesor robotika Jetson Thor

    • Sistem operasi NVIDIA Isaac

    • Cetak biru Groot Dreams untuk pembuatan data lintasan sintetis

Inisiatif robotika ini menjawab tantangan penting: "Agar robotika dapat terwujud, Anda membutuhkan AI. Tetapi untuk mengajarkan AI, Anda membutuhkan AI." Pola optimasi rekursif ini memanfaatkan AI generatif untuk memperluas data demonstrasi manusia yang terbatas ke dalam set pelatihan robotika yang komprehensif.

Posisi Strategis Taiwan dalam Revolusi Manufaktur AI

Sebagian besar dari presentasi tersebut menyoroti peran penting Taiwan dalam memproduksi dan mengimplementasikan teknologi AI:

  • Perusahaan manufaktur Taiwan (TSMC, Foxconn, Wistron, Pegatron, Delta Electronics, Quanta, Wiiwin, Gigabyte) menggunakan NVIDIA Omniverse untuk implementasi digital twin.

  • TSMC menggunakan alat bertenaga AI pada CUDA untuk mengoptimalkan tata letak pabrik dan sistem perpipaan

  • Mitra manufaktur menggunakan kembaran digital untuk perencanaan virtual dan pemeliharaan prediktif serta sebagai "gym robot" untuk melatih sistem robotik.

  • Foxconn, TSMC, pemerintah Taiwan, dan NVIDIA sedang membangun superkomputer AI berskala besar pertama di Taiwan.

Huang lebih lanjut memperkuat komitmen NVIDIA di wilayah ini dengan mengumumkan rencana untuk "NVIDIA Constellation," sebuah fasilitas kantor pusat baru di Taipei.

Analisis Teknis: Apa Artinya bagi Strategi AI Perusahaan

Pengumuman ini secara kolektif mewakili peninjauan kembali komputasi perusahaan yang komprehensif dengan beberapa implikasi strategis:

  1. Persyaratan Skala Komputasi: Tuntutan kinerja waktu inferensi dari "AI penalaran" dan sistem agen akan mendorong kebutuhan komputasi yang jauh lebih tinggi daripada penerapan model bahasa besar awal, yang memerlukan perencanaan arsitektur untuk kemampuan peningkatan dan pengurangan skala yang masif.

  2. Disagregasi AI Perusahaan: Ekosistem MVLink Fusion memungkinkan fleksibilitas yang belum pernah ada sebelumnya dalam membangun sistem AI heterogen, yang berpotensi mempercepat adopsi akselerator AI khusus sambil mempertahankan posisi NVIDIA dalam ekosistem melalui teknologi interkoneksi.

  3. Pergeseran dari Pusat Data ke Pabrik AI: Kita perlu memikirkan kembali cara kita mengukur nilai investasi infrastruktur. Sudah lewatlah sudah hari-hari ketika komputasi mentah atau kapasitas penyimpanan menceritakan keseluruhan cerita. Sekarang ini semua tentang produksi token-berapa banyak unit output AI yang dapat dihasilkan sistem Anda per detik, per watt, dan per dolar? Jensen tidak bercanda ketika ia mengatakan bahwa perusahaan akan segera melaporkan produksi token mereka, seperti metrik manufaktur. Pergeseran ke pabrik AI secara fundamental akan menulis ulang keekonomian tentang bagaimana kita menggunakan dan menjustifikasi pengeluaran infrastruktur AI.

  4. Integrasi Kembar Digital: Fakta bahwa setiap pabrikan besar Taiwan sedang membangun kembaran digital Omniverse memberi tahu kita semua yang perlu kita ketahui-ini bukan hanya demo teknologi yang keren lagi. Digital twin telah menjadi infrastruktur penting bagi perusahaan yang serius dalam hal pengoptimalan. Yang sangat menarik adalah bagaimana hal ini menciptakan lingkaran umpan balik: perusahaan membangun kembaran digital untuk mengoptimalkan proses fisik, kemudian menggunakan lingkungan yang sama untuk melatih AI dan robotika, yang selanjutnya meningkatkan dunia fisik. Ini adalah siklus peningkatan berkelanjutan yang terus meningkat.

  5. Perencanaan Tenaga Kerja Robotik: Konvergensi AI agenik dan robotika fisik menunjukkan bahwa organisasi harus mengembangkan strategi otomasi digital dan fisik yang terintegrasi, dengan implikasi yang signifikan untuk perencanaan tenaga kerja dan desain fasilitas.

  6. Infrastruktur yang Ditentukan oleh Perangkat Lunak: Terlepas dari pengumuman perangkat keras, penekanan NVIDIA yang terus berlanjut pada perpustakaan dan kerangka kerja perangkat lunak memperkuat bahwa keunggulan kompetitif dalam AI akan datang dari optimalisasi perangkat lunak seperti halnya kemampuan perangkat keras mentah.

Menavigasi Transisi Pabrik AI

Mengubah pusat data tradisional menjadi pabrik AI membutuhkan keahlian khusus yang menjembatani penerapan perangkat keras, pengoptimalan perangkat lunak, dan desain arsitektur. Di Introl, kami telah menerapkan teknologi canggih ini Solusi infrastruktur GPU yang canggih untuk perusahaan yang melompat ke komputasi AI. Pengalaman mendalam tim kami dengan ekosistem NVIDIA-mulai dari penerapan MVLink yang kompleks hingga implementasi kembar digital Omniverse-membantu perusahaan dalam menavigasi pergeseran paradigma ini tanpa kurva pembelajaran yang curam, yang biasanya terkait dengan infrastruktur mutakhir. Baik meningkatkan kemampuan AI penalaran atau membangun lantai pabrik AI pertama Anda, bermitra dengan spesialis dapat secara dramatis mempercepat waktu-ke-nilai Anda dalam lanskap yang berkembang pesat ini. Siap untuk menyelesaikannya? Hubungi kami hari ini.

Kesimpulan: Era Ketiga Komputasi Telah Tiba

Computex bukan hanya menjadi ajang NVIDIA untuk memamerkan chip yang lebih cepat. Apa yang dipaparkan Jensen melampaui pengumuman "20% lebih baik dari tahun lalu" yang biasa kita dengar. Dia secara fundamental membingkai ulang tujuan komputer. Kami telah menghabiskan waktu puluhan tahun untuk membangun mesin yang mengolah angka dan memindahkan data. Sekarang, NVIDIA membangun sistem yang menghasilkan kecerdasan sebagai hasil utamanya. Ini seperti membandingkan lemari arsip dengan otak. Tentu saja, keduanya menyimpan informasi, tetapi yang satu hanya duduk di sana sementara yang lain menciptakan ide-ide baru. Pergeseran ini mungkin terdengar seperti semantik hingga Anda menyadari bahwa hal ini mengubah segalanya tentang bagaimana kita membangun, menerapkan, dan mengukur sistem komputasi.

"Untuk pertama kalinya selama kami bekerja sama, kami tidak hanya menciptakan generasi TI berikutnya, tetapi kami juga telah melakukannya beberapa kali, dari PC ke internet ke cloud ke cloud mobile. Kami telah melakukannya beberapa kali. Namun kali ini, kami tidak hanya menciptakan generasi TI berikutnya, namun juga menciptakan sebuah industri yang benar-benar baru."

Transisi ini merupakan pergeseran paradigma komputasi besar ketiga, setelah revolusi komputasi personal dan era internet/cloud. Organisasi yang mengintegrasikan kemampuan infrastruktur AI ini kemungkinan besar akan membangun keunggulan kompetitif yang tidak dapat diatasi di seluruh industri.

Pabrik-pabrik kecerdasan komputasi sedang dibangun saat ini. Pertanyaannya bukan lagi apakah AI akan mengubah bisnis, melainkan apakah organisasi Anda membangun infrastruktur untuk tetap kompetitif di dunia di mana kecerdasan komputasi menjadi hal yang fundamental bagi operasi bisnis seperti halnya listrik.

Referensi dan Sumber Daya Tambahan

  1. Tinjauan Arsitektur Blackwell Resmi NVIDIA: https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/

  2. Dokumentasi Teknis NVIDIA MVLink: https://developer.nvidia.com/mvlink

  3. Platform NVIDIA Omniverse: https://www.nvidia.com/en-us/omniverse/

  4. Platform Robotika Isaac: https://developer.nvidia.com/isaac-ros

  5. NVIDIA AI Enterprise: https://www.nvidia.com/en-us/data-center/products/ai-enterprise/

  6. Materi Pers Resmi NVIDIA Computex 2025: https://nvidianews.nvidia.com/news/computex-2025

  7. Ikhtisar Perpustakaan NVIDIA CUDA-X: https://developer.nvidia.com/gpu-accelerated-libraries

  8. Sistem NVIDIA DGX: https://www.nvidia.com/en-us/data-center/dgx-systems/

Berikutnya
Berikutnya

Seni Pembongkaran Digital: Menonaktifkan Pusat Komputasi Berkinerja Tinggi dengan Presisi dan Tujuan