CoreWeave: Revolusi Infrastruktur AI - Bagaimana Startup Penambangan Kripto Menjadi Tulang Punggung Kecerdasan Buatan Senilai $23 Miliar
CoreWeave telah berkembang dari asal mula penambangan mata uang kripto menjadi penyedia infrastruktur cloud AI paling terspesialisasi di dunia, mengoperasikan superkomputer GPU dengan skala yang belum pernah ada sebelumnya sambil memelopori pendinginan cair dan arsitektur bare-metal yang membedakannya dengan hyperscalers tradisional. Transformasi perusahaan dari menambang Ethereum pada tahun 2017 menjadi model GPT OpenAI mewakili poros paling dramatis di Silicon Valley, divalidasi oleh pembiayaan utang sebesar $ 7,5 miliar dengan valuasi $ 19 miliar (Mei 2024) yang diikuti dengan penjualan sekunder sebesar $ 23 miliar (Oktober 2024), pertumbuhan pendapatan sebesar 737% secara eksplosif pada tahun 2024, dan dinilai sebagai salah satu perusahaan teratas dalam kerangka kerja ClusterMAX baru dari SemiAnalysis; laporan ini menyoroti isolasi penyewa CoreWeave, Kubernetes bare-metal, dan kematangan operasi.
Parit teknis yang dibangun CoreWeave memanfaatkan arsitektur khusus yang dioptimalkan secara eksklusif untuk komputasi yang dipercepat. Ketika penyedia cloud tradisional menyeimbangkan beban kerja tujuan umum dengan komputasi GPU, CoreWeave secara khusus membangun setiap lapisan tumpukannya untuk aplikasi AI dan HPC. Arsitektur Kubernetes bare-metal mereka menghilangkan overhead virtualisasi sepenuhnya, sementara pendingin cair langsung ke chip memungkinkan kepadatan rak 130 kilowatt yang tidak dapat ditandingi oleh fasilitas berpendingin udara. Keunggulan arsitektur fundamental ini, dikombinasikan dengan penjadwalan yang sadar akan topologi dan jaringan yang mengutamakan InfiniBand, menghasilkan apa yang dilaporkan CoreWeave sebagai pemanfaatan Model FLOPS lebih dari 50% pada GPU kelas Hopper - sekitar 20% lebih tinggi daripada model dasar yayasan publik menurut tolok ukur internal mereka.
Hubungan simbiosis perusahaan dengan NVIDIA melampaui kemitraan vendor pada umumnya, dengan NVIDIA mempertahankan sekitar 6% kepemilikan ekuitas pada Maret 2025 dan secara konsisten memilih CoreWeave untuk peluncuran perdana arsitektur terobosan. CoreWeave adalah yang pertama kali tersedia secara umum dengan sistem GB200 NVL72 (Februari 2025) dan yang pertama kali menggunakan sistem GB300 NVL72 (3 Juli 2025). Penyebaran GB300 menjanjikan apa yang digambarkan NVIDIA sebagai "peningkatan hingga 50x lipat dalam output inferensi model penalaran," meskipun ini lebih mewakili pemasaran vendor daripada tolok ukur yang ditinjau oleh rekan sejawat. (Panduan pemasaran NVIDIA; pembandingan independen masih dalam proses).
Metrik keuangan menggarisbawahi permintaan pasar yang sangat besar untuk infrastruktur AI khusus, dengan CoreWeave mencapai pendapatan kuartalan sebesar $1,21 miliar (Q2 2025), mempertahankan backlog kontrak senilai $30,1 miliar, dan mengamankan komitmen pelanggan utama dari Microsoft (mewakili 62% dari pendapatan tahun 2024), OpenAI (kontrak hingga $11,9 miliar ditambah ekspansi senilai $4 miliar), dan para pemimpin AI lainnya yang membutuhkan tingkat kinerja yang dioptimalkan untuk pelatihan dan kesimpulan berskala besar. IPO pada Maret 2025 dengan harga $40 per saham berhasil mengumpulkan dana sekitar $1,5 miliar, menjadikan CoreWeave sebagai perusahaan publik yang diposisikan untuk menangkap nilai seiring dengan meningkatnya permintaan komputasi AI global.
Namun di balik pertumbuhan yang eksplosif ini terdapat risiko eksekusi yang substansial, dengan CoreWeave memiliki lebih dari $11 miliar utang dengan beban bunga $267 juta pada Q2'25 (vs $67 juta pada Q2'24), yang mengimplikasikan laju tahunan sebesar $1 miliar lebih seiring dengan meningkatnya skala neraca. Struktur modal ini menuntut eksekusi yang sempurna karena perusahaan berlomba untuk menggunakan infrastruktur menjelang persaingan hyperscaler. Konsentrasi pelanggan yang ekstrem, dengan Microsoft menyumbang 62% dari pendapatan tahun 2024; dan dua pelanggan teratas sebesar 77%.
Analisis mendalam ini meneliti bagaimana CoreWeave merancang infrastruktur AI khusus dari prinsip-prinsip dasar, mengapa keunggulan teknis mereka terbukti bermakna dalam persaingan hyperscale, dan apakah strategi ekspansi agresif mereka dapat mempertahankan kepemimpinan teknologi sembari menavigasi realitas padat modal dalam membangun infrastruktur komputasi exascale. Melalui dokumentasi teknis, tolok ukur kinerja, dan analisis industri, kami mengungkap bagaimana perusahaan yang mulai menambang mata uang kripto di garasi New Jersey memposisikan dirinya sebagai infrastruktur penting untuk pengembangan kecerdasan buatan - dan tantangan keuangan yang dapat memengaruhi lintasan ini.
Keunggulan CoreWeave: Infrastruktur yang dibangun khusus untuk beban kerja AI
Wawasan mendasar CoreWeave-bahwa beban kerja AI menuntut infrastruktur yang sangat berbeda dari komputasi awan tradisional-mendorong keputusan arsitektural yang kini memberikan keuntungan kinerja terukur di seluruh beban kerja pelatihan, penyempurnaan, dan kesimpulan. Sementara hyperscalers menginvestasikan ratusan miliar untuk mengoptimalkan aplikasi web, database, dan perangkat lunak perusahaan, CoreWeave menyadari bahwa model bahasa dan jaringan saraf yang besar membutuhkan bandwidth memori yang ekstrem, interkoneksi latensi sangat rendah, dan pembuangan panas yang berkelanjutan yang sulit disediakan oleh pusat data tujuan umum secara konsisten.
Diferensiasi teknis dimulai dengan integrasi vertikal lengkap yang dioptimalkan secara eksklusif untuk beban kerja GPU. Pendekatan Kubernetes bare-metal CoreWeave menyediakan akses perangkat keras langsung ke sumber daya GPU, CPU, jaringan, dan penyimpanan tanpa lapisan virtualisasi. Penjadwalan yang memperhatikan topologi meminimalkan latensi komunikasi antar-GPU, sementara fabric InfiniBand khusus menghadirkan konektivitas 400 Gb/s per GPU. Perlu dicatat bahwa instance GPU hyperscaler tingkat atas sekarang juga menawarkan jaringan bandwidth tinggi - instance A3 Google Cloud mengekspos 3,2 Tbps per VM, ND H100 v5 Azure menyediakan konektivitas kelas 1,6-3,2 Tbps, dan cluster AWS P5 menghadirkan jaringan instance 3200 Gbps dengan SR-IOV / EFA. Perbedaannya tidak terletak pada kecepatan tautan mentah dan lebih pada topologi klaster CoreWeave, pengoptimalan penempatan penjadwal, dan manajemen termal berpendingin cairan pada skala rak.
Menurut tolok ukur yang dipublikasikan NVIDIA, Cohere mencapai pelatihan hingga 3x lebih cepat pada sistem CoreWeave GB200 NVL72 dibandingkan dengan GPU Hopper generasi sebelumnya - meskipun ini mewakili peningkatan perangkat keras generasi daripada perbandingan lintas cloud. Klaim performa pelanggan lainnya beredar dalam diskusi industri tetapi tidak memiliki verifikasi publik dari perusahaan itu sendiri.
Inovasi model bisnis terbukti sama pentingnya-dengan berfokus secara eksklusif pada komputasi GPU daripada menawarkan ratusan layanan, CoreWeave dapat mengoptimalkan setiap aspek operasinya untuk beban kerja AI. Spesialisasi ini memungkinkan penerapan generasi perangkat keras baru dengan cepat (beberapa minggu dibandingkan kuartal untuk cloud tradisional), operasi yang disederhanakan dengan overhead manajemen yang lebih rendah, hubungan langsung dengan pelanggan asli GPU yang memprioritaskan kinerja, dan model konsumsi yang fleksibel, termasuk contoh yang dipesan, sesuai permintaan, dan harga spot yang akan diluncurkan pada akhir tahun 2025.
Persaingan dari para hyperscalers semakin ketat karena mereka menyadari pentingnya infrastruktur AI secara strategis, dengan AWS, Google Cloud, dan Microsoft Azure, semuanya memperluas penawaran GPU mereka dengan jaringan yang lebih baik dan opsi bare-metal. Namun, pendekatan khusus CoreWeave dan keunggulannya sebagai yang terdepan dengan perangkat keras terbaru NVIDIA menciptakan diferensiasi. Sebagai satu-satunya penerima peringkat ClusterMAX tingkat Platinum dari SemiAnalysis pada Maret-April 2025, CoreWeave menunjukkan kepemimpinan teknis - meskipun sistem peringkat ini berencana melakukan pembaruan setiap 3-6 bulan, dan dinamika persaingan terus berkembang.
Mulai dari menambang Ethereum hingga melatih model yayasan: Kisah asal mula yang tidak biasa
Transformasi CoreWeave dari operasi penambangan mata uang kripto menjadi pembangkit tenaga listrik infrastruktur AI dimulai pada tahun 2017 ketika salah satu pendiri CoreWeave, Michael Intrator, Brian Venturo, dan Brannin McBee, menyadari bahwa keahlian GPU mereka dapat melayani tujuan yang lebih berharga daripada memecahkan teka-teki kriptografi. Operasi yang berbasis di Weehawken, New Jersey ini awalnya berfokus pada penambangan Ethereum, mengumpulkan ribuan GPU sambil mengembangkan solusi pendinginan khusus dan perangkat lunak orkestrasi yang nantinya terbukti sangat berharga untuk beban kerja AI.
Momen penting tiba pada tahun 2019 ketika pergeseran Ethereum ke arah proof-of-stake mengancam penambangan GPU yang sudah usang. Daripada melikuidasi aset seperti kebanyakan penambang, para pendiri CoreWeave mengidentifikasi peluang pasar yang sedang berkembang-menyediakan komputasi GPU untuk para peneliti pembelajaran mesin yang kesulitan mengakses perangkat keras di cloud tradisional. Pelanggan awal termasuk institusi akademik yang membutuhkan komputasi burst untuk eksperimen, studio efek visual yang merender CGI untuk film, dan perusahaan rintisan yang melatih model visi komputer.
Pandemi 2020 mempercepat poros CoreWeave karena pekerjaan jarak jauh mendorong permintaan untuk rendering cloud sekaligus mengkatalisasi adopsi AI di seluruh industri. Perusahaan ini menandatangani kontrak perusahaan besar pertamanya dengan hedge fund yang membutuhkan pemrosesan paralel besar-besaran untuk pemodelan risiko, memvalidasi model bisnis di luar spekulasi mata uang kripto. Pada akhir tahun, CoreWeave mengoperasikan 10.000+ GPU yang melayani beragam beban kerja mulai dari simulasi pelipatan protein hingga transcoding video secara real-time.
Terobosan tiba pada tahun 2022 ketika OpenAI memilih CoreWeave sebagai mitra infrastruktur untuk pelatihan model GPT, yang tertarik dengan kemampuan mereka untuk menyebarkan ribuan GPU A100 dengan cepat dengan jaringan InfiniBand - konfigurasi yang dioptimalkan untuk pelatihan berskala besar. Keberhasilan penerapan ini memvalidasi arsitektur CoreWeave pada skala yang belum pernah terjadi sebelumnya, yang berujung pada perluasan kontrak yang mencakup model pondasi tambahan. Pelanggan utama ini memberikan stabilitas pendapatan dan kredibilitas teknis yang menarik para pionir AI lainnya.
Modal ventura mengakui posisi strategis CoreWeave dalam rantai pasokan AI, dengan Magnetar Capital memimpin pendanaan Seri B senilai $200 juta pada tahun 2022, yang diikuti dengan pertumbuhan valuasi yang cepat. Pembiayaan utang pada Mei 2024 sebesar $7,5 miliar dari Blackstone, Coatue, dan lainnya dengan valuasi $19 miliar merupakan salah satu fasilitas kredit swasta paling luas dalam sejarah teknologi, yang memungkinkan ekspansi infrastruktur yang agresif untuk memenuhi permintaan yang meledak.
DNA budaya dari penambangan mata uang kripto-merangkul risiko teknis, mengoptimalkan efisiensi, mengoperasikan keandalan 24/7-diterjemahkan dengan sempurna ke dalam persyaratan infrastruktur AI. Insinyur yang sama yang memeras tingkat hash maksimum dari GPU sekarang mengoptimalkan operasi tensor, sementara disiplin keuangan yang diperlukan untuk mendapatkan keuntungan dari pasar kripto yang bergejolak membantu menavigasi bisnis infrastruktur yang padat modal. Kisah asal usul yang tidak biasa ini menunjukkan bagaimana disrupsi teknologi sering kali muncul dari industri yang berdekatan daripada petahana, dengan orang luar yang tidak dibatasi oleh pemikiran lama yang merancang solusi khusus dari prinsip-prinsip pertama.
Struktur modal yang kompleks mencerminkan peluang dan risiko.
Struktur modal CoreWeave mencerminkan peluang besar dalam infrastruktur AI dan sifat padat modal untuk bersaing pada skala besar. Riwayat pendanaannya meliputi fasilitas utang senilai $7,5 miliar dengan suku bunga sekitar 14% (Mei 2024), total pendanaan ekuitas yang melebihi $1 miliar dalam beberapa putaran, penjualan saham sekunder yang bernilai $23 miliar (Oktober 2024), dan IPO senilai $1,5 miliar dengan harga $40 per lembar saham (28 Maret 2025), sehingga menciptakan sebuah perusahaan publik dengan nilai perusahaan lebih dari $35 miliar, termasuk utang.
Investor jangkar menunjukkan nilai strategis di luar modal. Kepemilikan saham NVIDIA sebesar 6%, senilai $900 juta pada Maret 2025 dan hampir $1,6 miliar pada bulan Mei, memastikan akses istimewa terhadap pasokan GPU selama keterbatasan alokasi sekaligus memberikan kolaborasi teknis dalam pengoptimalan perangkat keras/perangkat lunak. Hubungan pelanggan Microsoft memvalidasi CoreWeave sebagai infrastruktur yang penting, terutama karena kemitraan OpenAI yang masif dan membutuhkan sumber daya komputasi yang besar. Konsorsium investor, termasuk Fidelity, BlackRock, dan Altimeter, memberikan kredibilitas institusional yang sangat penting untuk penjualan perusahaan dan peningkatan modal di masa depan.
Konsentrasi pelanggan menghadirkan validasi dan risiko. Microsoft mewakili sekitar 62% dari pendapatan CoreWeave tahun 2024 menurut pengajuan S-1 - ketergantungan yang memungkinkan penskalaan yang cepat tetapi menciptakan kerentanan terhadap negosiasi ulang kontrak atau perubahan strategis. Sifat jangka panjang dari kontrak-kontrak ini memberikan stabilitas, meskipun jangka waktu tertentu tidak diungkapkan secara publik (pesanan biasanya dua hingga lima tahun). Komitmen OpenAI hingga $11,9 miliar, ditambah ekspansi berikutnya sebesar $4 miliar yang diungkapkan dalam materi hubungan investor perusahaan, memberikan pendapatan tambahan. Basis pelanggan yang lebih luas, termasuk IBM dan lembaga keuangan terkemuka, menunjukkan perluasan pasar di luar penyewa awal.
Backlog pendapatan sebesar $30,1 miliar pada Q2 2025 menawarkan visibilitas yang belum pernah terjadi sebelumnya untuk perusahaan infrastruktur, dengan pendapatan terkontrak yang mewakili komitmen beberapa tahun ke depan - meskipun risiko eksekusi tetap substansial mengingat kompleksitas penerapan dan pengoperasian ratusan ribu GPU di lusinan pusat data. Pengakuan pendapatan bergantung pada ketersediaan infrastruktur, sehingga menciptakan tekanan untuk mempertahankan jadwal penerapan yang agresif sambil memastikan keandalan yang diminta oleh pelanggan perusahaan.
Kinerja keuangan mengungkapkan unit ekonomi infrastruktur AI yang menantang. Hasil Q2 2025 menunjukkan pendapatan sebesar $1,21 miliar tetapi kerugian yang melebar, dengan perusahaan menghadapi biaya penyusutan yang sangat besar untuk perangkat keras yang berkembang pesat, beban bunga mendekati $1 miliar per tahun, mengingat beban utang, dan biaya operasional yang terus meningkat seiring dengan penyebaran infrastruktur. Jalan menuju profitabilitas membutuhkan pencapaian skala yang lebih besar untuk mengamortisasi biaya tetap, meningkatkan tingkat pemanfaatan, dan mempertahankan disiplin harga meskipun ada tekanan persaingan - keseimbangan yang rumit antara pertumbuhan dan keberlanjutan.
Akuisisi Weights & Biases pada Mei 2025 dengan nilai sekitar $1,7 miliar (menurut laporan TechCrunch dan industri, meskipun persyaratan resminya masih dirahasiakan) menambah kemampuan MLOps sekaligus meningkatkan kompleksitas integrasi. Kesepakatan ini ditutup pada 5 Mei 2025, menggabungkan infrastruktur dengan alat pengembangan model yang digunakan oleh lebih dari 1.400 perusahaan.
Posisi pasar diperkuat oleh spesialisasi dan kemitraan.
Strategi pasar CoreWeave membalikkan pendekatan platform cloud tradisional dengan sengaja membatasi ruang lingkup untuk mencapai kedalaman yang tak tertandingi dalam komputasi yang dipercepat dengan GPU. Sementara AWS menawarkan 200+ layanan di setiap beban kerja yang dapat dibayangkan, CoreWeave menyediakan infrastruktur komputasi GPU terfokus yang dioptimalkan untuk pelatihan dan kesimpulan AI. Spesialisasi ini memungkinkan pengoptimalan arsitektur dan efisiensi operasional yang diseimbangkan oleh platform generalis terhadap kebutuhan yang lebih luas.
Dinamika persaingan terus berkembang dengan cepat. Hyperscalers telah secara signifikan meningkatkan penawaran GPU mereka, dengan AWS, Google Cloud, dan Azure yang kini menyediakan opsi jaringan bandwidth tinggi, instance bare-metal, dan ketersediaan GPU yang lebih baik. Diferensiasi semakin berpusat pada ketersediaan skala cluster, pengoptimalan topologi, manajemen termal, dan integrasi tumpukan perangkat lunak, bukan hanya pada spesifikasi mentah.
Strategi kemitraan CoreWeave memperkuat pendekatan terfokusnya melalui integrasi ekosistem yang mendalam. Hubungan NVIDIA melampaui dinamika pelanggan-pemasok - kepemilikan ekuitas NVIDIA dan pemilihan CoreWeave yang konsisten untuk peluncuran arsitektur baru (GB200 NVL72 pada Februari 2025, GB300 NVL72 pada Juli 2025) menunjukkan keselarasan strategis. Kemitraan dengan Databricks, Hugging Face, dan platform AI lainnya memastikan kompatibilitas alur kerja tanpa CoreWeave perlu membangun layanan yang bersaing.
Ekspansi geografis mengikuti pusat inovasi AI dengan komitmen sebesar $3,5 miliar untuk infrastruktur Eropa, termasuk 1 miliar poundsterling untuk operasi di Inggris dan fasilitas di Norwegia, Swedia, dan Spanyol, dengan memanfaatkan energi terbarukan. Perusahaan ini mengoperasikan 33 pusat data pada tahun 2025 dengan sekitar 470 MW daya TI aktif dan sekitar 2,2 GW kapasitas yang dikontrak (Q2 2025), memposisikan diri untuk pertumbuhan yang berkelanjutan.
Keunggulan kompetitif yang berkelanjutan berasal dari efek gabungan di mana infrastruktur khusus menarik pelanggan yang menuntut, permintaan yang terkonsentrasi membenarkan investasi yang berkelanjutan, dan kepemimpinan teknis memastikan akses awal ke perangkat keras baru. Hal ini menempatkan CoreWeave secara unik, meskipun risiko eksekusi tetap besar mengingat persyaratan modal dan tekanan persaingan.
Infrastruktur teknis: Rekayasa AI pada skala yang belum pernah terjadi sebelumnya
Jejak pusat data CoreWeave mencakup 33 fasilitas operasional di seluruh Amerika Serikat dan Eropa pada tahun 2025, yang mewakili salah satu penyebaran GPU khusus terbesar di dunia. Distribusi geografisnya mencakup 28 lokasi di Amerika Serikat dengan penyebaran besar, seperti fasilitas Plano, Texas, senilai $1,6 miliar, yang menampung lebih dari 3.500 GPU H100 di area seluas 454.421 kaki persegi. Dalam pengajuan MLPerf Training v5.0 (Juni 2025), CoreWeave, NVIDIA, dan IBM mencapai tolok ukur terbesar yang pernah ada dengan menggunakan 2.496 GPU GB200 untuk melatih Llama 3.1 405B dalam 27,3 menit-lebih dari 2x lebih cepat daripada ukuran klaster yang sebanding dari pengaju lainnya.
Infrastruktur daya merupakan pembeda penting dengan kapasitas aktif sekitar 470 megawatt dan sekitar 2,2+ gigawatt yang dikontrak pada Q2 2025, termasuk fasilitas yang dirancang untuk efisiensi yang luar biasa. Teknologi pendingin cair yang mendukung 130 kilowatt per rak - dibandingkan dengan batas tradisional 30 kilowatt berpendingin udara - memungkinkan penggunaan konfigurasi yang padat seperti sistem NVIDIA GB200 NVL72 yang mengemas 72 GPU per rak.
Armada GPU berpusat pada arsitektur terbaru NVIDIA dengan sekitar 250.000 total GPU yang digunakan. Komposisinya meliputi varian H100 dalam konfigurasi SXM5 dan PCIe, GPU H200 dengan memori HBM3e 141GB, dan penyebaran awal sistem GB200 NVL72. CoreWeave mencapai ketersediaan umum pertama di pasar untuk GB200 NVL72 (Februari 2025) dan penyebaran pertama GB300 NVL72 (3 Juli 2025), mempertahankan pola akses awal ke perangkat keras NVIDIA yang baru.
Tulang punggung jaringan menggunakan NVIDIA Quantum-2 InfiniBand yang menghadirkan 400Gb/s per GPU melalui adapter ConnectX-7 dalam topologi Fat Tree non-blocking, yang mencapai latensi sub-mikrodetik dengan throughput yang tinggi, meskipun kecepatan jaringan mentah sekarang menyamai penawaran hyperscaler tingkat atas. Perbedaannya terletak pada optimalisasi topologi, integrasi penjadwal, dan konfigurasi yang konsisten di seluruh cluster.
Arsitektur penyimpanan berpusat pada penerapan VAST Data Platform yang memanfaatkan arsitektur terpilah untuk penskalaan independen. Sistem ini mencapai throughput berkelanjutan hingga 1 GB/s per GPU dengan pola I/O yang dioptimalkan yang membedakan pembacaan pelatihan dari penulisan checkpointing. Teknologi LOTA (Local Object Transfer Accelerator) CoreWeave menyimpan data yang sering diakses di node GPU, mengurangi lalu lintas jaringan sekaligus meningkatkan throughput.
Tumpukan perangkat lunak yang dioptimalkan untuk kinerja bare-metal.
Arsitektur Kubernetes bare-metal CoreWeave menghilangkan overhead virtualisasi dengan menjalankan Kubernetes secara langsung pada perangkat keras. Pendekatan ini menyediakan akses perangkat keras langsung sambil mempertahankan multi-tenancy melalui NVIDIA BlueField DPU. Benchmark internal mengklaim bahwa hal ini memungkinkan pemanfaatan Model FLOPS lebih dari 50% pada GPU Hopper - sekitar 20% lebih tinggi daripada baseline publik, meskipun verifikasi independen terhadap angka-angka spesifik ini masih terbatas.
CoreWeave Kubernetes Service (CKS) melampaui Kubernetes terkelola pada umumnya dengan memungkinkan pelanggan mengontrol komponen bidang data sementara CoreWeave mengelola bidang kontrol. Telah dikonfigurasi sebelumnya dengan driver GPU, antarmuka jaringan/penyimpanan, dan plugin pengamatan, CKS terintegrasi dengan alat orkestrasi beban kerja termasuk Slurm, KubeFlow, dan KServe.
SUNK (Slurm on Kubernetes) menjembatani paradigma HPC dan cloud dengan menggunakan Slurm sebagai sumber daya Kubernetes yang terkontainerisasi, sehingga memungkinkan pembagian sumber daya yang dinamis antara pekerjaan batch dan layanan yang sudah berjalan lama. Ini mencapai pemanfaatan yang tinggi melalui penjadwalan yang sadar akan topologi yang dioptimalkan untuk konfigurasi fabric InfiniBand.
Teknologi Tensorizer mempercepat penyebaran model melalui serialisasi dan streaming yang dioptimalkan, mencapai kecepatan pemuatan model 5x lebih cepat daripada pendekatan standar menurut tolok ukur CoreWeave. Alat sumber terbuka ini memungkinkan pemuatan "zero-copy" yang mengalirkan model potongan demi potongan daripada memuat seluruh model ke dalam RAM.
Penerapan mutakhir dengan tolok ukur kinerja terverifikasi
Pencapaian infrastruktur CoreWeave mencakup pengiriman MLPerf yang dapat diverifikasi yang menunjukkan skala dan kinerja. Pengiriman MLPerf Training v5.0 pada Juni 2025 yang menggunakan 2.496 GPU NVIDIA GB200 menyelesaikan pelatihan Llama 3.1 405B dalam 27,3 menit - pengiriman terbesar oleh penyedia cloud mana pun dan lebih dari 2x lebih cepat daripada ukuran cluster yang sebanding.
Performa inferensi mencapai 800 token/detik pada Llama 3.1 405B menggunakan sistem GB200 berdasarkan hasil MLPerf Inference v5.0, menunjukkan peningkatan 2,86x per chip dibandingkan H200. Arsitektur GB200 NVL72 menggabungkan 72 GPU Blackwell dengan 36 CPU Grace per rak, menghasilkan 1,44 exaFLOPS dengan 13,5TB memori yang terhubung dengan NVLink.
Sistem peringkat ClusterMAX dari SemiAnalysis hanya menempatkan CoreWeave di tingkat Platinum pada peluncurannya di bulan Maret-April 2025, dengan mengevaluasi AWS, Google Cloud, Azure, dan penyedia lainnya di lebih dari 50 persyaratan teknis. Penilaian independen ini memvalidasi diferensiasi teknis, meskipun sistem pemeringkatan ini merencanakan pembaruan secara berkala seiring dengan perkembangan lanskap persaingan.
Kemitraan teknologi mempercepat kemampuan platform.
Kemitraan NVIDIA lebih dari sekadar hubungan antar vendor, dengan NVIDIA memiliki sekitar 6% saham ekuitas senilai hampir $1,6 miliar pada Mei 2025. Integrasi yang mendalam ini terwujud dalam penerapan arsitektur baru yang konsisten dan upaya rekayasa bersama dalam pengoptimalan. Pengajuan MLPerf bersama menunjukkan kolaborasi teknis ini.
Penyebaran infrastruktur CoreWeave IBM untuk pelatihan model Granite memanfaatkan sistem GB200 dengan jaringan Quantum-2 InfiniBand. Kemitraan infrastruktur Dell mencakup server PowerEdge XE9712 dengan GB200 NVL72 dalam rak berpendingin cairan. VAST Data mendukung penyimpanan di semua pusat data CoreWeave melalui platform arsitektur terpilah.
Akuisisi Weights & Biases dengan nilai sekitar $1,7 miliar (selesai pada 5 Mei 2025) menciptakan platform AI terintegrasi yang menggabungkan infrastruktur dengan kemampuan MLOps. Platform ini, yang digunakan oleh lebih dari 1.400 perusahaan termasuk OpenAI dan Meta, mempertahankan interoperabilitas sembari menambahkan pengembangan model dan alat pemantauan.
Lintasan masa depan menyeimbangkan pertumbuhan dengan keberlanjutan keuangan.
Inisiatif CoreWeave ke depan mencakup beberapa pengembangan utama. Penyebaran GB300 NVL72 (Juli 2025) menjanjikan apa yang dipasarkan NVIDIA sebagai "peningkatan 50x lipat dalam output inferensi model penalaran," meskipun ini merupakan proyeksi vendor dan bukan tolok ukur yang diverifikasi secara independen. Penyewaan GPU spot yang diluncurkan pada akhir 2025 akan menyediakan instance interruptible berbiaya lebih rendah dengan harga dinamis.
Ekspansi di Eropa senilai $3,5 miliar membangun kedaulatan data melalui fasilitas bertenaga terbarukan yang memenuhi persyaratan GDPR. Perusahaan terus meningkatkan kapasitas daya yang dikontrak sebesar 1,6 gigawatt sembari memperluas kemampuan pendingin cair untuk mendukung perangkat keras generasi berikutnya.
Tantangan keuangan membutuhkan navigasi yang cermat. Dengan lebih dari $11 miliar utang yang menghasilkan sekitar $1 miliar biaya bunga tahunan, CoreWeave harus menyeimbangkan pertumbuhan yang agresif dengan jalur menuju profitabilitas. Risiko konsentrasi pelanggan tetap tinggi dengan Microsoft yang mewakili 62% dari pendapatan tahun 2024. Perusahaan melaporkan kerugian yang melebar pada Q2 2025 meskipun mencapai $ 1,21 miliar dalam pendapatan kuartalan.
Peluang pasar masih sangat besar, dengan IDC memproyeksikan pengeluaran infrastruktur AI tahunan sebesar $500 miliar pada tahun 2027. Pendekatan khusus dan keunggulan teknis CoreWeave memposisikan mereka untuk mendapatkan nilai yang signifikan, meskipun risiko eksekusi tetap ada mengingat persyaratan modal, dinamika persaingan, dan kebutuhan untuk mendiversifikasi basis pelanggan mereka sambil mempertahankan momentum pertumbuhan.
Kesimpulan
CoreWeave telah merancang infrastruktur AI khusus yang memberikan keuntungan terukur melalui arsitektur Kubernetes bare-metal, pendingin cair yang mendukung kepadatan rak 130kW, dan penerapan teknologi terbaru NVIDIA yang konsisten di pasar. Transformasi mereka dari penambangan mata uang kripto menjadi satu-satunya penyedia dengan peringkat Platinum dalam sistem ClusterMAX SemiAnalysis (per Maret 2025) menunjukkan keberhasilan eksekusi strategi yang terfokus. Dengan pencapaian yang dapat diverifikasi termasuk pengiriman Pelatihan MLPerf terbesar - Llama 3.1 405B dalam 27,3 menit menggunakan 2.496 GB200 GPU - dan $ 30,1 miliar dalam backlog pendapatan yang dikontrak, CoreWeave telah memantapkan dirinya sebagai infrastruktur penting untuk pengembangan AI.
Namun, jalan ke depan membutuhkan navigasi tantangan substansial, termasuk lebih dari $11 miliar dalam bentuk utang, konsentrasi pelanggan dengan Microsoft yang mewakili sebagian besar pendapatan tahun 2024, dan persaingan dari penawaran hyperscaler yang semakin mumpuni. Seiring dengan peningkatan skala perusahaan menuju sekitar 2,2 gigawatt kapasitas daya yang dikontrak dan menerapkan sistem generasi berikutnya, kemampuannya untuk mempertahankan kepemimpinan teknis sambil mencapai keberlanjutan keuangan akan menentukan apakah mantan penambang kripto ini dapat secara permanen membentuk kembali lanskap infrastruktur AI.
Data terkini hingga 15 Agustus 2025. Sumber termasuk pengajuan perusahaan, dokumen SEC, tolok ukur MLPerf, dan analisis industri dari SemiAnalysis.
Referensi
CoreWeave, Inc - Formulir S-1 (pernyataan pendaftaran awal), U.S. SEC, diajukan pada tanggal 3 Maret 2025. (Riwayat pendapatan; pertumbuhan 737% tahun 2024; latar belakang perusahaan.)(SEC)
CoreWeave, Inc - Prospektus (Formulir 424B4), U.S. SEC, April 2025. (Konsentrasi pelanggan; Microsoft = 62% dari pendapatan tahun 2024.)(SEC)
CoreWeave - "CoreWeave Melaporkan Hasil Kuartal Kedua 2025 yang Kuat", Business Wire / IR, 12 Agustus 2025. ( Pendapatan Q2 $ 1,212 miliar, backlog $ 30,1 miliar; ~470 MW aktif, ~2,2 GW dikontrak; OpenAI $ 11,9 miliar + $ 4 miliar ekspansi).(Business Wire)
Reuters - "Pendapatan CoreWeave mengalahkan estimasi di tengah booming AI, namun sahamnya jatuh karena kerugian yang lebih besar", 12 Agustus 2025. (Hasil kuartal kedua; 33 pusat data.)(Reuters)
Reuters - "CoreWeave mengumpulkan $7,5 miliar utang dengan valuasi $19 miliar", 17 Mei 2024. (Kredit pribadi; Nilai $19 miliar).
Reuters - "CoreWeave menutup penjualan saham sekunder senilai $650 juta... senilai $23 miliar", 13 November 2024.( Valuasi sekunder senilai$23 miliar.)(Reuters)
SemiAnalysis - "Memperkenalkan Sistem Pemeringkatan Performa GPU Cloud - ClusterMAX (Q2 2025)", April 2025. (Metodologi ClusterMAX; CoreWeave = Platinum.)(SemiAnalysis)
CoreWeave - "Blackwell dalam Skala Besar: Ketersediaan Umum GB200 NVL72 di CoreWeave", 4 Februari 2025. (Pertama kali GA dengan GB200 NVL72.)(Reuters)
CoreWeave - "Penyebaran NVIDIA GB300 NVL72 Pertama" (blog), 3 Juli 2025. ( Penyebaran NVIDIA GB300 NVL72pertama.)(CoreWeave)
Blog Pengembang NVIDIA - "Blackwell Ultra untuk Era Penalaran AI", 19 Maret 2025. (**Klaim pemasaran "10× TPS per pengguna" + "5× TPS per MW" ⇒ klaim pemasaran "hingga 50× output" )(Pengembang NVIDIA)
MLCommons - Hasil Pelatihan MLPerf v5.0 (2025). (Llama-3.1 405B 27.3 menit pada 2.496 GB200; kiriman terbesar.)(Microsoft Learn)
MLCommons - Hasil Inferensi MLPerf v5.0 (Pusat Data) (2025). (Llama-3.1 405B throughput/latensi termasukperbandingan GB200 vs H200 yang digunakan dalam ringkasan vendor).(Microsoft Learn)
AWS - P5 Instance / EFA Networking (dokumen/blog resmi).( Jaringan instancehingga 3.200 Gbps pada p5 dengan EFA / SR-IOV.)(Amazon Web Services, Inc.)
Microsoft Azure - Halaman produk "ND H100 v5-Series (Pratinjau)".( Jaringankelas 1,6-3,2 Tbps.)(Dokumentasi AWS)
Google Cloud Blog - "A3 Ultra: 3,2 Tbps jaringan GPU per VM" (Materi peluncuran A3/A3 Ultra).(3,2 Tbps per VM.)(Google Cloud)
Dell Technologies - "Dell mengirimkan server PowerEdge XE9712 pertama dengan NVIDIA GB200 NVL72 ke CoreWeave", 20 Juni 2025. (Mitra pengiriman skala rak, berpendingin cairan.)(CoreWeave)
Data VAST - "Peningkatan performa AI di CoreWeave" (halaman studi kasus/solusi), 2025. (VAST digunakan di seluruh CoreWeave DC; arsitektur I/O.)(CoreWeave)
Weights & Bias - "Kami bergabung dengan CoreWeave" (pengumuman akuisisi), 5 Mei 2025. (Penutupan/waktu kesepakatan W&B; arah integrasi.)(FinTech Weekly - Halaman Utama)
Reuters - "CoreWeave akan menginvestasikan tambahan $2,2 miliar di Eropa, sehingga totalnya menjadi $3,5 miliar", 5 Juni 2024. (Skala/lokasi ekspansi Eropa.)(Reuters)
Investor's Business Daily - "Pengajuan IPO CoreWeave yang didukung Nvidia menunjukkan lonjakan pendapatan yang besar... Microsoft 62%; saham Nvidia 6%", Maret 2025. (Menguatkan ~6% saham NVIDIA yang tercatat dalam pengajuan/pers.)(Investor)