Pendinginan Cairan vs Udara: Panduan Rak GPU 50kW (2025)
Pertumbuhan beban kerja AI yang eksponensial telah mendorong pendinginan pusat data ke titik kritis. Seiring dengan kepadatan rak GPU yang melonjak melewati 50kW - dengan sistem generasi berikutnya yang menuntut 100kW dan lebih dari itu - pendinginan udara tradisional telah mencapai batas fisik fundamentalnya. Analisis komprehensif ini mengungkapkan bagaimana industri menavigasi transformasi termal ini melalui teknologi pendingin cair canggih, memberikan penghematan energi 10-21%, pengurangan biaya pendinginan 40%, dan memungkinkan infrastruktur yang diperlukan untuk revolusi AI.
Ketika udara menjadi hambatan
Kegagalan pendinginan udara pada kepadatan tinggi tidak terjadi secara bertahap - ini adalah jurang. Pada 50kW per rak, fisika menjadi tak kenal ampun: pendinginan membutuhkan 7.850 kaki kubik per menit (CFM) aliran udara pada perbedaan suhu 20°F. Gandakan menjadi 100kW, dan Anda membutuhkan 15.700 CFM - menciptakan angin kencang melalui intake server yang hanya berukuran 2-4 inci persegi. Persamaan dasar penghilangan panas (Q = 0,318 × CFM × ΔT) menunjukkan tantangan yang tidak dapat diatasi: seiring dengan meningkatnya kepadatan, aliran udara yang dibutuhkan meningkat secara linear, tetapi konsumsi daya kipas meningkat seiring dengan pangkat dua kecepatan kipas. Peningkatan aliran udara sebesar 10% membutuhkan daya kipas 33% lebih besar, menciptakan spiral konsumsi energi yang membuat pendinginan udara dengan kepadatan tinggi menjadi tidak mungkin dilakukan secara ekonomis dan praktis.
Bukti di dunia nyata menegaskan batasan teoritis ini. Satu kasus yang didokumentasikan menunjukkan 250 rak dengan daya hanya 6kW berubah dari suhu 72°F menjadi lebih dari 90°F dalam waktu 75 detik ketika pendinginan gagal. Pusat data tradisional yang dirancang untuk kepadatan rak rata-rata 5-10kW tidak dapat menangani beban kerja GPU modern. Bahkan dengan penahanan lorong panas/dingin yang canggih, pendinginan udara berjuang untuk melampaui 40kW, sementara sistem yang tidak terkendali mengalami kehilangan kapasitas 20-40% dari resirkulasi udara panas. Kelas lingkungan ASHRAE H1 yang baru, yang secara eksplisit dibuat untuk peralatan dengan kepadatan tinggi, membatasi suhu yang diizinkan hingga 18-22°C - kisaran yang tidak mungkin dipertahankan dengan pendinginan udara pada skala GPU.
Teknologi pendingin cair mengubah segala sesuatu yang mungkin menjadi mungkin.
Transisi ke pendingin cair lebih dari sekadar peningkatan inkremental - ini adalah penataan ulang mendasar dari pembuangan panas. Koefisien perpindahan panas air 3.500 kali lebih besar daripada udara, memungkinkan kapasitas pendinginan yang membuat rak 100kW+ menjadi rutinitas, bukan hanya luar biasa.
Pendinginan langsung ke chip memimpin transformasi ini, dengan pelat dingin yang menampilkan saluran mikro (27-100 mikron) yang terpasang langsung ke prosesor. Beroperasi dengan air suplai pada suhu 40°C dan kembali pada suhu 50°C, sistem ini menghilangkan 70-75% panas rak melalui cairan dengan tetap mempertahankan 1,02-1,03 PUE parsial. Implementasi modern mendukung 1.5kW+ per chip dengan laju aliran 13 liter per menit untuk server 9kW. Sisa 25-30% panas yang tersisa - dari memori, drive, dan komponen tambahan - masih membutuhkan pendinginan udara, sehingga sistem hibrida ini menjadi pilihan praktis untuk sebagian besar penerapan.
Pendinginan imersi mendorong batasan lebih jauh, menenggelamkan seluruh server dalam cairan dielektrik. Sistem fase tunggal yang menggunakan oli mineral berharga $50-100 per galon dan secara konsisten mendukung 200kW per rak. Sistem dua fase menjanjikan perpindahan panas yang unggul melalui pendidihan dan kondensasi, tetapi menghadapi tantangan: cairan fluorokarbon berharga $500-1000 per galon, dan penghentian produksi 3M pada tahun 2025 karena masalah lingkungan telah membekukan adopsi. Kompleksitas teknologi ini - penutup tertutup, risiko kavitasi, dan peraturan PFAS - membatasi penyebaran untuk aplikasi khusus.
Unit Distribusi Pendingin (CDU) merupakan tulang punggung infrastruktur pendingin cair. Unit modern berkisar dari sistem rack-mount 7kW hingga raksasa 2.000kW+ seperti CHx2000 dari CoolIT. Vendor-vendor terkemuka-Vertiv, Schneider Electric, Motivair, dan CoolIT-menawarkan solusi dengan redundansi N+1, penyaringan 50 mikron, dan drive frekuensi variabel untuk pencocokan beban. Pasar CDU, yang bernilai $1 miliar pada tahun 2024, diproyeksikan mencapai $3,6 miliar pada tahun 2031 (CAGR 20,5%), yang mencerminkan adopsi pendinginan cair yang cepat.
Seni dan ekonomi retrofit
Transisi pusat data yang ada ke pendingin cair membutuhkan pengaturan yang cermat. Pendekatan yang paling sukses mengikuti migrasi bertahap: dimulai dengan 1-2 rak dengan kepadatan tinggi, diperluas menjadi satu baris, kemudian ditingkatkan berdasarkan permintaan. Tiga jalur retrofit utama telah muncul: CDU cair-ke-udara yang memanfaatkan pendingin udara yang ada, penukar panas pintu belakang yang dapat mendinginkan hingga 40kW per rak, dan solusi langsung-ke-cip untuk efisiensi maksimum.
Modifikasi infrastruktur menghadirkan tantangan utama. Infrastruktur daya sering kali menjadi faktor pembatas-fasilitas yang dirancang untuk beban rata-rata 5-10kW tidak dapat mendukung rak 50kW+ terlepas dari kemampuan pendinginannya. Pemipaan membutuhkan pemodelan CFD yang cermat di lingkungan lantai yang ditinggikan atau pemasangan di atas kepala dengan panci tetes dalam konstruksi pelat. Pembebanan lantai, terutama untuk sistem perendaman, dapat melebihi kapasitas struktural pada fasilitas yang lebih tua.
Analisis biaya menunjukkan keekonomisan yang menarik meskipun investasi awal yang tinggi. Sebuah studi Komisi Energi California mendokumentasikan sistem pendingin cair lengkap untuk 1.200 server di 17 rak dengan total biaya $470.557, atau $392 per server, termasuk modifikasi fasilitas. Penghematan energi tahunan sebesar 355 MWh ($39.155 dengan biaya $0,11/kWh) menghasilkan pengembalian modal selama 12 tahun, meskipun implementasi yang dioptimalkan dapat menghasilkan pengembalian modal selama 2-5 tahun. Analisis Schneider Electric menunjukkan penghematan modal sebesar 14% melalui pemadatan 4x rak, sementara penghematan operasional mencakup pengurangan 10,2% dari total daya pusat data dan peningkatan 15,5% dalam Efektivitas Penggunaan Total.
Tantangan integrasi berlipat ganda dalam lingkungan hibrida. Bahkan fasilitas "berpendingin cairan sepenuhnya" membutuhkan kapasitas pendinginan udara 20-30% untuk komponen tambahan. Sistem kontrol harus mengoordinasikan beberapa teknologi pendinginan, memantau suhu saluran masuk rak dan kondisi air pasokan. Redundansi menjadi sangat penting - penukar panas pintu belakang harus gagal ke pendingin udara saat dibuka untuk diservis, sementara sistem direct-to-chip memiliki waktu perjalanan kurang dari 10 detik pada beban penuh.
Dari pilot hingga produksi
Penerapan di dunia nyata menunjukkan kematangan pendinginan cair. Meta memimpin adopsi dalam skala besar, menerapkan Pendinginan Cairan Berbantuan Udara di lebih dari 40+ juta kaki persegi ruang pusat data. Desain rak Catalina mereka mendukung 140kW dengan 72 GPU, sementara penerapan pendingin cair di seluruh fasilitas menargetkan penyelesaian pada awal 2025. Transformasi ini membutuhkan pembongkaran beberapa pusat data dalam konstruksi untuk mendesain ulang yang dioptimalkan untuk AI, dengan penghematan biaya sebesar 31% dari arsitektur baru ini.
Perjalanan Google selama tujuh tahun dengan TPU berpendingin cairan memberikan kumpulan data yang paling komprehensif di industri ini. Dengan menggunakan sistem loop tertutup di 2000+ TPU Pod pada skala gigawatt, mereka telah mencapai 99,999% waktu kerja sambil menunjukkan konduktivitas termal 30x lebih besar daripada udara. Desain CDU generasi kelima mereka, Project Deschutes, akan dikontribusikan ke Open Compute Project, untuk mempercepat adopsi di seluruh industri.
Microsoft mendorong batasan dengan pendinginan perendaman dua fase dalam produksi, menggunakan cairan dielektrik yang mendidih pada suhu 122 ° F-50 ° C lebih rendah dari air. Teknologi ini memungkinkan pengurangan daya server sebesar 5-15% sekaligus meniadakan kipas pendingin. Komitmen mereka terhadap pengurangan penggunaan air sebesar 95% pada tahun 2024 mendorong inovasi dalam sistem loop tertutup, tanpa penguapan.
Penyedia khusus seperti CoreWeave mendemonstrasikan pendingin cair untuk beban kerja AI. Merencanakan 4.000 penyebaran GPU pada akhir tahun 2024, mereka mencapai kepadatan rak 130kW dengan pemanfaatan sistem 20% lebih baik daripada pesaing. Desain yang dioptimalkan untuk rel menghemat 3,1 juta jam kerja GPU melalui peningkatan keandalan, dengan menggunakan cluster H100 dalam waktu kurang dari 60 hari.
Memenuhi kebutuhan termal akselerator AI
Spesifikasi GPU mengungkapkan mengapa pendingin cair menjadi hal yang wajib. NVIDIA H100 SXM5 beroperasi pada TDP 700W, membutuhkan pendingin cair untuk performa optimal. H200 mempertahankan amplop daya yang sama sembari memberikan memori HBM3e 141GB pada bandwidth 4,8TB/s-1,4x lebih besar, yang menghasilkan panas secara proporsional. B200 yang akan datang akan mendorong batasan lebih jauh: 1.200W untuk varian berpendingin cairan versus 1.000W untuk berpendingin udara, dengan performa FP4 20 PFLOPS yang menuntut manajemen termal yang canggih.
GB200 NVL72-mengemas72 GPU Blackwell dan 36 CPU Grace dalam satu rak-mewakili titik akhir dari kelayakan pendinginan udara. Pada daya rak 140kW, ini membutuhkan pendinginan cair wajib melalui pelat dingin yang baru dikembangkan dan CDU 250kW. Pertimbangan tingkat sistem menambah kompleksitas: Interkoneksi NVSwitch menambahkan masing-masing 10-15W, sementara memori berkecepatan tinggi dan sistem pengiriman daya menyumbangkan panas tambahan yang substansial.
Analisis teknis oleh JetCool menunjukkan perbedaan performa yang mencolok: H100 SmartPlate mereka mencapai ketahanan termal 0,021°C/W, menjalankan chip 35°C lebih dingin daripada alternatif udara sekaligus mendukung suhu inlet 60°C. Pengurangan suhu ini secara teoritis memperpanjang masa pakai GPU 8x lipat sekaligus memungkinkan kinerja maksimum yang berkelanjutan - sangat penting untuk menjalankan pelatihan AI selama beberapa minggu.
Peta jalan menuju 2030
Industri ini berada pada titik transformasi di mana praktik terbaik dengan cepat berkembang menjadi persyaratan. Kelas lingkungan H1 baru dari ASHRAE (direkomendasikan 18-22°C) mengakui bahwa pedoman tradisional tidak dapat mengakomodasi beban kerja AI. Standar pendingin cair Open Compute Project mendorong interoperabilitas, sementara Persyaratan Perendaman Rev. 2.10 mereka menetapkan proses kualifikasi untuk teknologi yang sedang berkembang.
Pendinginan imersi dua fase, terlepas dari tantangan yang ada saat ini, menunjukkan harapan untuk adopsi arus utama tahun 2025-2027. Proyeksi pasar menunjukkan pertumbuhan dari $375 juta (2024) menjadi $1,2 miliar (2032), didorong oleh perpindahan panas yang unggul yang memungkinkan 1.500W+ per chip. Inovasi seperti Accelsius NeuCool dan alternatif cairan 3M yang sudah tidak diproduksi lagi mengatasi masalah lingkungan dengan tetap mempertahankan kinerja.
Pengoptimalan berbasis AI memberikan hasil yang langsung terlihat. Implementasi Google DeepMind mencapai pengurangan energi pendinginan sebesar 40% melalui pembelajaran waktu nyata, sementara White Space Cooling Optimization dari Siemens dan platform serupa berkembang pesat. Sistem ini memprediksi kegagalan, mengoptimalkan kimia pendingin, dan menyesuaikan secara dinamis dengan pola beban kerja-kemampuan yang diharapkan oleh 91% vendor akan ada di mana-mana dalam waktu lima tahun.
Pemulihan panas limbah mengubah kewajiban menjadi aset. Stockholm Data Parks telah memanaskan 10.000 rumah tangga dengan limbah pusat data, dengan target 10% pemanasan kota pada tahun 2035. Tekanan regulasi mempercepat adopsi: Jerman mengamanatkan penggunaan kembali panas sebesar 20% pada tahun 2028, sementara California Title 24 mewajibkan infrastruktur pemulihan pada konstruksi baru. Teknologi pompa panas meningkatkan panas limbah 30-40°C menjadi 70-80°C untuk pemanasan distrik, menciptakan aliran pendapatan dari energi yang sebelumnya dibuang.
Melakukan transisi
Keberhasilan dalam penerapan pendingin cair membutuhkan perencanaan strategis di berbagai dimensi. Organisasi harus memulai dengan CDU liquid-to-air langsung untuk entri dengan penghalang terendah, tetapi harus menilai infrastruktur listrik terlebih dahulu -kapasitas listrik yang tidak memadaimendiskualifikasi kelayakan retrofit terlepas dari teknologi pendinginan. Memulai dengan 1-2 rak pilot memungkinkan pembelajaran sebelum penskalaan, sambil mempertahankan keahlian pendinginan udara tetap penting untuk operasi hibrida.
Pemodelan keuangan harus memperhitungkan nilai total sistem. Meskipun investasi awal berkisar antara $1.000 hingga $2.000 per kW kapasitas pendinginan, penghematan operasional bertambah: 27% pengurangan daya fasilitas dalam implementasi yang dioptimalkan, 30% penghematan energi pendinginan dibandingkan sistem konvensional, dan yang paling penting, kemampuan untuk menerapkan beban kerja AI yang menghasilkan pendapatan, yang tidak mungkin dilakukan dengan pendinginan udara. Implementasi terdepan mencapai pengembalian modal kurang dari 2 tahun melalui desain yang cermat: melewati integrasi pendingin yang tidak efisien menghemat 20-30%, sementara fokus pada aplikasi dengan kepadatan tertinggi memaksimalkan keuntungan.
Tim teknis membutuhkan kompetensi baru. Di luar pengetahuan HVAC tradisional, staf harus memahami kimia pendingin, protokol respons kebocoran, dan sistem kontrol terintegrasi. Kemitraan vendor terbukti penting - dukungan 24 jam/7 hari untuk komponen khusus dan pemeliharaan preventif rutin dengan interval 6 bulan menjadi kebutuhan operasional. Protokol keselamatan diperluas hingga mencakup penanganan cairan dielektrik dan manajemen sistem tekanan.
Pasar menandakan momentum yang luar biasa. Pendinginan cairan pusat data tumbuh dari $4,9 miliar (2024) hingga diproyeksikan mencapai $21,3 miliar (2030 ) pada CAGR 27,6%. Pendinginan direct-to-chip fase tunggal menjadi standar untuk beban kerja AI pada tahun 2025-2026, sementara perendaman dua fase mencapai adopsi arus utama pada tahun 2027. Pada tahun 2030, rak 1MW akan membutuhkan pendingin cair tingkat lanjut sebagai standar, bukan pengecualian.
Kesimpulan
Secara fisika sudah jelas: pendinginan udara telah mencapai batasnya. Pada kepadatan rak 50-100kW, kendala termodinamika yang mendasar membuat pendinginan cair tidak hanya lebih disukai, tetapi juga wajib. Transisi ini merupakan pergeseran infrastruktur yang paling signifikan dalam sejarah pusat data, yang membutuhkan keahlian baru, investasi yang cukup besar, dan transformasi operasional. Namun, manfaatnya - penghematan energi 10-21%, pengurangan biaya pendinginan 40%, peningkatan keandalan 8x lipat, dan yang paling penting, kemampuan untuk menggunakan infrastruktur AI generasi mendatang - membuat evolusi ini tidak dapat dihindari. Organisasi yang menguasai pendingin cair hari ini akan mendukung terobosan AI di masa depan - mereka yang menunda akan tertinggal saat industri berpacu menuju kepadatan komputasi yang semakin tinggi. Kita telah mencapai dinding termal; pendingin cair adalah cara kita menerobosnya.
Referensi
Perpustakaan Digital ACM. "Pelatihan LLM hemat energi di pusat data GPU dengan Sistem Pendinginan Imersi." Prosiding Konferensi Internasional ACM ke-16 tentang Sistem Energi Masa Depan dan Berkelanjutan. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.
AMAX. "Membandingkan Konfigurasi NVIDIA Blackwell." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.
---. "5 Pertimbangan Teratas untuk Menerapkan NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.
arXiv. "[1309.4887] iDataCool: HPC dengan Pendinginan Air Panas dan Penggunaan Ulang Energi." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.
---. "[1709.05077] Mengubah Optimasi Pendinginan untuk Pusat Data Hijau melalui Pembelajaran Penguatan Mendalam." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.
Attom. "Pembaruan Pedoman Termal Baru Ashrae: Tren Kepadatan Tinggi yang Baru." Pusat Data Rumah Pintar Hijau Pakar. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.
Chilldyne. "Desain pendingin cair berdaya tinggi: persyaratan solusi langsung ke chip untuk Rak 500 kW." Chilldyne | Pendinginan Cairan. 29 Juli 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.
Pusat Data Kompas. "Apa Itu Pendinginan Pusat Data?" 2025. https://www.compassdatacenters.com/data-center-cooling/.
Converge Digest. "Meta Menguraikan Peningkatan Infrastruktur AI di KTT OCP 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.
Core Winner LTD. "Panduan Komprehensif untuk Pendinginan Cairan: Masa Depan Pusat Data Berkinerja Tinggi dan Penerapan AI." 2025. https://www.corewinner.com/en/blog/detail/52.
CoreWeave. "Membangun Cluster AI untuk Perusahaan 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.
---. "GPU untuk Model dan Inovasi AI." 2025. https://www.coreweave.com/products/gpu-compute.
Penasihat Pertahanan Siber. "Pemeliharaan Prediktif Berbasis AI: Masa Depan Keandalan Pusat Data." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.
Katalog Pusat Data. "Meta Berencana Beralih ke Pendinginan Cair untuk Infrastruktur Pusat Data." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
Dinamika Pusat Data. "Pengenalan terhadap pendingin cair di pusat data." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.
---. "Hyperscalers bersiap untuk rak 1MW di OCP EMEA; Google mengumumkan CDU baru." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.
---. "Pedoman ASHRAE yang baru menantang dorongan efisiensi." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.
---. "CEO Nvidia mengonfirmasi sistem yang akan datang akan didinginkan dengan cairan." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.
---. "Mengoptimalkan efisiensi pusat data dengan pendinginan cairan langsung ke chip." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.
---. "Pendinginan dua fase akan terkena aturan EPA dan keluarnya 3M dari 'bahan kimia selamanya' PFAS." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.
Perbatasan Pusat Data. "8 Tren yang Akan Membentuk Industri Pusat Data Pada Tahun 2025." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.
---. "Praktik Terbaik untuk Menerapkan Server Berpendingin Cairan di Pusat Data Anda." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.
---. "Google Kembangkan Teknologi Pendingin 'Sadar Iklim' untuk Menghemat Air." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.
---. "Google Beralih ke Pendinginan Cair untuk Pengolah Data AI." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.
---. "Meta Berencana Beralih ke Pendinginan Cair untuk Infrastruktur Pusat Data." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
---. "Meta Mempratinjau Desain Pusat Data Baru untuk Masa Depan yang Didukung AI." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.
---. "Sorotan OCP 2024: Meta Memulai Debut Rak AI Berpendingin Cairan 140 kW; Google Mengincar Robotika hingga GPU Hyperscaler Otot." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.
---. "Mendorong Batas Pendinginan Udara di Lingkungan dengan Kepadatan Tinggi." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.
---. "Laporan: Meta Merencanakan Pergeseran ke Pendinginan Cair dalam Desain Ulang Pusat Data AI-Centric." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.
---. "Pentingnya Pendinginan Cairan untuk Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.
---. "Pemanfaatan Limbah Panas adalah Langkah Berikutnya dari Industri Pusat Data Menuju Energi Nol Nol." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.
---. "Teknologi Pendinginan Cairan HyperCool dari ZutaCore untuk Mendukung GPU NVIDIA H100 dan H200 yang Canggih untuk AI yang Berkelanjutan." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.
Pengetahuan Pusat Data. "Strategi Retrofit Pusat Data." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.
---. "Pendinginan Hibrida: Jembatan Menuju Pendinginan Cairan Penuh di Pusat Data." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.
Tinjauan Pusat Data. "Memanfaatkan limbah panas pusat data secara maksimal." Juni 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.
Pusat Data. "Peran CoreWeave dalam Kemitraan Cloud Google dan OpenAI Mendefinisikan Ulang Infrastruktur AI." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.
Dell. "Kapan Harus Beralih dari Pendinginan Udara ke Pendinginan Cairan untuk Pusat Data Anda." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.
Jaringan Infra Digital. "Langkah megawatt Google untuk AI: Pembenahan daya dan pendinginan." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.
Enconnex. "Pendinginan Cairan Pusat Data vs Pendinginan Udara." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.
Teknik di Meta. "Visi perangkat keras AI terbuka Meta." 15 Oktober 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.
Wawasan Bisnis Fortune. "Pasar Pendinginan Perendaman Cairan Pusat Data Dua Fase, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.
Google Cloud. "Mengaktifkan rak TI 1 MW dan pendingin cair di KTT OCP EMEA." Blog Google Cloud. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.
Pendinginan GR. "Menjelajahi Pendinginan Cairan Tingkat Lanjut: Perendaman vs Pendinginan Langsung ke Chip." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.
---. "Pendinginan Perendaman Dua Fase Versus Satu Fase." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.
HDR. "Pendinginan Cairan Langsung Ke Chip." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.
HiRef. "Ruang Hibrida: solusi gabungan untuk pendinginan udara dan cairan di pusat data." 2025. https://hiref.com/news/hybrid-rooms-data-centers.
HPCwire. "H100 Memudar: Nvidia Memamerkan Perangkat Keras 2024 dengan H200." November 13, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.
IDTechEx. "Manajemen Termal untuk Pusat Data 2025-2035: Teknologi, Pasar, dan Peluang." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.
JetCool. "Pendinginan Cairan Langsung vs Pendinginan Perendaman untuk Pusat Data." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.
---. "Sistem Pendingin Cair untuk GPU NVIDIA H100." 2025. https://jetcool.com/h100/.
Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.
Microsoft. "Proyek Natick Tahap 2." 2025. https://natick.research.microsoft.com/.
Berita Microsoft. "Untuk mendinginkan server pusat data, Microsoft beralih ke cairan mendidih." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.
Solusi Pendinginan Pusat Data Nortek. "Pemanfaatan Limbah Panas adalah Langkah Berikutnya dari Industri Pusat Data Menuju Energi Nol Nol." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.
NVIDIA. "GPU H200 Tensor Core." 2025. https://www.nvidia.com/en-us/data-center/h200/.
Open Compute Project. "Open Compute Project Foundation Memperluas Inisiatif Sistem Terbuka untuk AI." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.
P&S Intelligence. "Analisis Ukuran, Pangsa, dan Tren Pasar Pendinginan Imersi, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.
PR Newswire. "Supermicro Memperkenalkan SuperClusters AI Berpendingin Cairan Plug-and-Play Skala Rak untuk NVIDIA Blackwell dan NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.
---. "Teknologi Pendinginan Cairan HyperCool dari ZutaCore untuk Mendukung GPU NVIDIA H100 dan H200 yang Canggih untuk AI yang Berkelanjutan." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.
Rittal "Apa itu Pendinginan Langsung ke Chip - dan Apakah Pendinginan Cairan di Masa Depan Anda?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.
ScienceDirect. "Pendinginan cair pada pusat data: Sebuah kebutuhan yang menghadapi tantangan." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.
SemiAnalisis. "Anatomi Pusat Data Bagian 1: Sistem Kelistrikan." 14 Oktober 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.
---. "Anatomi Pusat Data Bagian 2 - Sistem Pendinginan." 13 Februari 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.
---. "Pelatihan Multi-Datacenter: Rencana Ambisius OpenAI Untuk Mengalahkan Infrastruktur Google." 4 September 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.
TechPowerUp. "Spesifikasi NVIDIA H100 PCIe 80 GB." Database GPU TechPowerUp. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.
TechTarget. "Pendinginan Cairan vs Pendinginan Udara di Pusat Data." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.
Unisys. "Bagaimana pengembang LLM terkemuka memicu ledakan pendinginan cair." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.
Upsite Technologies. "Bagaimana Kepadatan Rak dan Delta T Berdampak pada Strategi Manajemen Aliran Udara Anda." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.
---. "Kapan Harus Retrofit Pusat Data untuk Mengakomodasi AI, dan Kapan Tidak." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.
Uptime Institute. "Praktik Terbaik Pendinginan Pusat Data." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.
---. "Ekspektasi kinerja dari pendingin cair perlu diperiksa secara nyata." Blog Uptime Institute. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.
Penyelaman Utilitas. "Prospek 2025 untuk pendinginan pusat data." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.
Vertiv. "Menerapkan pendingin cair di pusat data: Memasang dan mengelola unit distribusi pendingin (CDU)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.
---. "Opsi Pendinginan Cairan dan Perendaman untuk Pusat Data." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---. "Opsi pendinginan cair untuk pusat data." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---. "Mengukur Dampak pada PUE dan Konsumsi Energi Saat Memperkenalkan Pendinginan Cairan ke dalam Pusat Data Berpendingin Udara." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.
---. "Memahami pendinginan langsung ke chip dalam infrastruktur HPC: Mendalami lebih dalam tentang pendinginan cairan." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.
---. "Vertiv™ CoolPhase CDU | Solusi Kepadatan Tinggi." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.
WGI. "Mendinginkan AI dan Pusat Data." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.