Melatih model bahasa besar (LLM) mutakhir seperti GPT-5 merupakan pekerjaan rekayasa, logistik, dan finansial yang sangat besar. Berita utama dan rumor tentang jumlah GPU yang digunakan sangat bervariasi — dari beberapa puluh ribu hingga ratusan ribu — dan sebagian dari variasi tersebut berasal dari perubahan generasi perangkat keras, peningkatan efisiensi dalam perangkat lunak, dan fakta bahwa perusahaan jarang mempublikasikan telemetri pelatihan lengkap. Dalam artikel ini, saya menjelaskan bagaimana estimasi tersebut diperoleh, dan menyoroti kendala yang menentukan angka akhir.
Berapa banyak GPU yang dibutuhkan untuk melatih GPT-5?
Jawaban singkatnya: Tidak ada angka tunggal. Sinyal publik dan rumus penskalaan teknis memberikan jawaban yang masuk akal, mulai dari ribuan (untuk pelatihan yang ringkas dan fleksibel waktu) hingga ratusan ribu jika Anda bersikeras melatih model yang sangat besar dan padat dalam waktu singkat dengan GPU standar. Ujung rentang tersebut yang Anda pilih bergantung pada Ukuran model, anggaran komputasi pelatihan (FLOP), token yang digunakan, throughput berkelanjutan per-GPU, anggaran waktu, dan apakah Anda menggunakan perangkat keras Blackwell skala rak yang lebih baru atau mesin A100/H100 yang lebih lama. OpenAI menyatakan bahwa GPT-5 dilatih pada superkomputer Microsoft Azure (bukan jumlah GPU yang tepat), dan cakupan eksternal serta estimasi rekayasa perkiraan awal memberikan gambaran yang lebih lengkap.
OpenAI (seperti kebanyakan organisasi) tidak menerbitkan jumlah FLOP pelatihan yang pasti atau buku besar jam GPU mentah untuk model terbesarnya, jadi kami menggabungkan spesifikasi vendor, pola penggunaan GPU historis yang diamati untuk model sebelumnya, dan hukum penskalaan untuk menghasilkan rentang yang dapat dipertahankan.
Aturan dasar apa yang menghubungkan ukuran model dengan jumlah GPU?
Rumus inti yang dapat Anda gunakan
Tim Megatron NVIDIA menyediakan perkiraan praktis dan banyak digunakan untuk waktu pelatihan ujung ke ujung: training_time (s)≈8⋅T⋅PN⋅X\text{training\_time (s)} \approx 8 \cdot \frac{T \cdot P}{N \cdot X}training_time (s)≈8⋅N⋅XT⋅P
di mana:
- PPP = jumlah parameter model (bobot)
- TTT = jumlah token pelatihan
- NNN = jumlah GPU
- XXX = throughput per-GPU yang berkelanjutan (dalam FLOP/detik, sering dinyatakan sebagai teraFLOP)
- faktor 8 berasal dari penghitungan maju+mundur + pengoptimal dan konstanta lainnya dalam perkiraan FLOP transformator.
Disusun ulang untuk memperkirakan GPU untuk jadwal target: N≈8⋅T⋅PX⋅waktu_latihan (dtk)N \approx 8 \cdot \frac{T \cdot P}{X \cdot \text{waktu_latihan (dtk)}}N≈8⋅X⋅waktu_latihan (dtk)T⋅P
Ini adalah rumus rekayasa paling penting untuk mengubah anggaran komputasi (FLOP) menjadi ukuran armada GPU, dan di sinilah kita memulai estimasi jumlah GPU.
Peringatan penting
- “X” (TFLOP per-GPU berkelanjutan) adalah angka yang paling sulit untuk ditentukan. Puncak FLOP teoritis (spesifikasi) biasanya jauh lebih tinggi daripada yang dicapai oleh pekerjaan pelatihan nyata karena lalu lintas memori, komunikasi, dan gelembung jalur pipa. NVIDIA melaporkan dicapai Throughput sekitar 163 TFLOP per GPU A100 dalam eksperimen pelatihan model besar ujung ke ujung; perangkat H100 dan Blackwell memiliki puncak teoretis yang jauh lebih tinggi, tetapi throughput berkelanjutan yang dapat dicapai bergantung pada tumpukan perangkat lunak, konfigurasi paralel model, dan struktur komunikasi. Gunakan throughput yang dicapai secara konservatif saat menganggarkan.
- Anggaran token TTT tidak terstandarisasi. NVIDIA menggunakan sekitar 450 miliar token untuk contoh parameter 1 triliun; tim lain menggunakan rasio token/parameter yang berbeda (dan token sintetis semakin banyak digunakan). Selalu nyatakan asumsi token secara eksplisit.
- Batasan memori dan topologi (memori per GPU, fabric NVLink, batasan paralelisme pipeline/tensor) dapat membuat jenis GPU tertentu lebih cocok untuk model besar yang ter-sharding rapat meskipun memiliki angka FLOP yang serupa. Sistem skala rak seperti NVIDIA GB300/GB300 NVL72 mengubah keseimbangan praktis antara FLOP dan memori.
Berapa banyak GPU yang digunakan generasi sebelumnya?
Jangkar historis: pelaporan GPT-3 dan GPT-4
Pelaporan industri dan komentar teknis telah berulang kali menggunakan jumlah GPU yang dilaporkan untuk model-model sebelumnya untuk mengaitkan estimasi untuk model-model selanjutnya. Beberapa media terpercaya dan pengamat industri memperkirakan bahwa pra-pelatihan GPT-4 melibatkan puluhan ribu GPU A100 selama berminggu-minggu hingga berbulan-bulan. Misalnya, pelaporan kontemporer menempatkan jejak pelatihan GPT-4 dalam kisaran ~10 ribu–25 ribu A100, tergantung pada apakah seseorang menghitung inventaris GPU puncak atau GPU yang aktif secara bersamaan selama pra-pelatihan. Jangkar historis tersebut berguna karena menunjukkan urutan besarnya dan bagaimana generasi perangkat keras (A100 → H100 / Blackwell) mengubah throughput per perangkat.
Implikasi: Jika GPT-4 menggunakan ~10 ribu–25 ribu A100, maka GPT-5—jika lebih besar satu orde atau lebih, atau dilatih dengan lebih banyak token—akan membutuhkan komputasi agregat yang jauh lebih banyak. Namun, peningkatan perangkat keras (H100/Blackwell/TPU) dan perangkat lunak (pengoptimal/presisi/kombinasi pakar, efisiensi data) dapat mengurangi jumlah perangkat fisik yang dibutuhkan untuk menghasilkan komputasi yang sama atau lebih besar.
Berapa banyak GPU yang Anda perlukan untuk berbagai skenario skala GPT-5?
Di bawah ini saya menjalankan tiga perhitungan skenario konkret—metode yang sama, asumsi yang berbeda—agar Anda dapat melihat bagaimana jumlah GPU berubah seiring dengan ukuran model, perangkat keras, dan anggaran waktu. Saya menyatakan asumsi secara eksplisit agar Anda dapat mengulangi atau menyesuaikannya.
Asumsi yang digunakan (eksplisit)
- Rumus inti FLOP: N≈8⋅T⋅PX⋅waktuN \approx 8 \cdot \frac{T \cdot P}{X \cdot \text{waktu}}N≈8⋅X⋅waktuT⋅P. (Lihat NVIDIA Megatron.)
- Skala jumlah token: Saya menggunakan contoh NVIDIA dengan ~450 miliar token per 1T parameter (jadi T≈0.45⋅PT \kira-kira 0.45 \cdot PT≈0.45⋅P) sebagai dasar dan menskalakan token secara linear dengan parameter untuk skenario ini. Itu pilihan yang masuk akal, tetapi tidak universal—beberapa tim menggunakan lebih banyak atau lebih sedikit token per parameter.
- Jendela pelatihan: 90 hari (≈ 7,776,000 detik). Jadwal yang lebih pendek membutuhkan GPU yang lebih banyak secara proporsional; jadwal yang lebih panjang membutuhkan lebih sedikit GPU.
- Throughput berkelanjutan per GPU (X, TFLOP): tiga tingkat pragmatis untuk menunjukkan kepekaan:
- Kelas A100 konservatif/lama mencapai: 163 TFLOPs per GPU (throughput yang dicapai NVIDIA dalam contoh 1T).
- Throughput efektif kelas H100 modern kelas atas: ~600 TFLOP (sebagian yang konservatif dan dapat dicapai dari puncak inti Tensor teoretis H100 setelah memperhitungkan inefisiensi tingkat sistem).
- Skala rak Blackwell/GB300 efektif: ~2,000 TFLOP per GPU (menunjukkan efisiensi rak Blackwell/GB300 generasi berikutnya yang agresif dan manfaat FP4/optimalisasi; angka berkelanjutan yang sebenarnya akan bervariasi berdasarkan beban kerja dan topologi).
Catatan: nilai X ini adalah asumsi Untuk ilustrasi teknik—gunakan sebagai tombol yang bisa Anda ubah. Intinya adalah menunjukkan besaran.
Hasil (dibulatkan)
Dengan menggunakan rumus dan asumsi di atas, untuk pelatihan selama 90 hari dengan token yang diskalakan sebagai T=0.45⋅PT=0.45\cdot PT=0.45⋅P:
1 triliun parameter (1T):
- dengan 163 TFLOP/GPU → ≈ 2,800 GPU.
- dengan 600 TFLOP/GPU → ≈ 770 GPU.
- dengan 2,000 TFLOP/GPU → ≈ 230 GPU.
3 triliun parameter (3T):
- dengan 163 TFLOP/GPU → ≈ 25,600 GPU.
- dengan 600 TFLOP/GPU → ≈ 6,900 GPU.
- dengan 2,000 TFLOP/GPU → ≈ 2,100 GPU.
10 triliun parameter (10T):
- dengan 163 TFLOP/GPU → ≈ 284,000 GPU.
- dengan 600 TFLOP/GPU → ≈ 77,000 GPU.
- dengan 2,000 TFLOP/GPU → ≈ 23,000 GPU.
Ini menunjukkan mengapa perkiraan orang sangat bervariasi: perubahan throughput berkelanjutan per GPU (perangkat keras dan perangkat lunak) atau waktu pelatihan yang diinginkan secara drastis mengubah jumlah GPU. Model yang sepuluh kali lebih besar membutuhkan parameter PPP sepuluh kali lebih banyak, dan karena token biasanya diskalakan dengan ukuran model juga, total FLOP (dan karenanya kebutuhan GPU) tumbuh secara superlinier jika Anda mempertahankan anggaran waktu yang tetap.
Kisaran upaya terbaik untuk GPT-5 (sintesis):
- Batas bawah (resep hemat komputasi + throughput kelas Blackwell/H100): ~10,000–25,000 GPU setara H100 yang digunakan selama berbulan-bulan (jika model menggunakan peningkatan efisiensi algoritmik yang signifikan dan jumlah parameter yang lebih kecil dengan penambahan/penyempurnaan data yang agresif).
- Sentral (skenario arus utama yang masuk akal): ~25,000–80,000 GPU setara H100 (mencocokkan peningkatan dari puluhan ribu yang dilaporkan GPT-4 untuk memperhitungkan anggaran komputasi dan jumlah token yang lebih besar).
- Batas atas (model parameter multi-triliun yang sangat besar dilatih dengan beberapa pintasan algoritmik): 80,000–150,000+ GPU setara H100 pada puncaknya (jika tim menginginkan waktu yang sangat singkat dan menggunakan banyak perangkat secara paralel).
Rentang ini konsisten dengan throughput vendor saat ini, riwayat penggunaan GPU untuk model sebelumnya, dan ukuran klaster industri yang dilaporkan. perkiraan, bukan penerimaan langsung dari OpenAI. Jumlah pasti untuk GPT-5 tetap menjadi rahasia.
Apa lagi yang menambah tagihan GPU selain proses pra-pelatihan mentah?
Faktor-faktor yang meningkatkan jumlah perangkat
- Ambisi dalam jumlah parameter dan token: Penggandaan parameter biasanya menyiratkan peningkatan yang sebanding dalam token agar komputasi tetap optimal.
- Keinginan untuk waktu jam dinding yang singkat: Untuk menyelesaikan pelatihan dalam hitungan minggu, bukan bulan, diperlukan peningkatan proporsional dalam jumlah GPU bersamaan.
- Rezim validasi besar atau RLHF: Siklus RLHF atau umpan balik manusia pasca-pelatihan yang substansial menambah penggunaan GPU yang berarti melampaui FLOP pra-pelatihan dasar.
- Inefisiensi jaringan dan infrastruktur: Skala interkoneksi yang buruk atau pemanfaatan yang rendah meningkatkan jumlah GPU fisik yang dibutuhkan untuk mewujudkan throughput yang diiklankan.
RLHF, fine-tuning, dan evaluasi
Pembelajaran penguatan dari fase umpan balik manusia (RLHF), fine-tuning multi-tahap, operasi red-teaming, dan evaluasi menyeluruh menambahkan komputasi ekstra yang substansial di atas FLOP "pra-pelatihan". Fase-fase lanjutan ini seringkali memerlukan loop pelatihan kebijakan yang efisien dan inferensi berulang dalam skala besar (yang disajikan pada kluster GPU lain), sehingga proyek Jejak GPU lebih besar daripada perkiraan pra-pelatihan tunggal. Pengembangan GPT-5 OpenAI secara eksplisit merujuk pada proses keamanan dan evaluasi canggih yang menambahkan komputasi di luar pra-pelatihan.
Pembuatan data dan token sintetis
Kelangkaan token berkualitas tinggi dalam skala yang sangat besar mendorong tim untuk menghasilkan token sintetis (self-play, kelanjutan yang dihasilkan model) yang membutuhkan komputasi untuk diproduksi dan diverifikasi. Dengan mempertimbangkan alur kerja tersebut, total GPU dan komputasi yang digunakan selama proyek model akan meningkat.
Melayani armada untuk peluncuran dan iterasi
Meluncurkan model ke jutaan pengguna membutuhkan armada inferensi besar yang terpisah dari klaster pelatihan. Laporan bahwa OpenAI memiliki ratusan ribu hingga lebih dari satu juta GPU online mencakup kapasitas layanan. Anggaran untuk hal ini berbeda dengan klaster pelatihan, tetapi sering kali disalahartikan dalam diskusi publik.
Kesimpulan
Tidak ada angka publik tunggal yang pasti untuk "berapa banyak GPU yang dibutuhkan untuk melatih GPT-5" karena jawabannya bergantung pada parameterisasi model, resep pelatihan, dan apakah prioritasnya adalah waktu yang terbatas atau total biaya. Dengan menggunakan spesifikasi vendor publik, riset hukum penskalaan, dan pelaporan industri sebagai acuan, publik perkiraannya adalah bahwa pelatihan kelas GPT-5 kemungkinan diperlukan puluhan ribu GPU setara H100 pada puncaknya (kisaran tengah yang masuk akal: ~25 ribu–80 ribu H100-setara), dengan agregat jam GPU di multi-juta jangkauan.
Tempat Mengakses GPT-5
Jika Anda menginginkan akses terprogram atau menyematkan GPT-5 Pro ke dalam produk, gunakan API. OpenAI, CometAPI, dll. menyertakan nama model untuk keluarga GPT-5 (gpt-5-pro / gpt-5-pro-2025-10-06) dan penagihan dilakukan per token yang digunakan. API ini memungkinkan fitur-fitur canggih seperti eksekusi yang didukung alat, jendela konteks yang lebih panjang, respons streaming, dan parameter model untuk mengontrol upaya penalaran/verbositas.
CometAPI adalah platform API terpadu yang menggabungkan lebih dari 500 model AI dari penyedia terkemuka—seperti seri GPT OpenAI, Gemini Google, Claude Anthropic, Midjourney, Suno, dan lainnya—menjadi satu antarmuka yang ramah bagi pengembang. Dengan menawarkan autentikasi yang konsisten, pemformatan permintaan, dan penanganan respons, CometAPI secara drastis menyederhanakan integrasi kapabilitas AI ke dalam aplikasi Anda. Baik Anda sedang membangun chatbot, generator gambar, komposer musik, atau alur kerja analitik berbasis data, CometAPI memungkinkan Anda melakukan iterasi lebih cepat, mengendalikan biaya, dan tetap tidak bergantung pada vendor—semuanya sambil memanfaatkan terobosan terbaru di seluruh ekosistem AI.
Pengembang dapat mengakses GPT-5 Pro melalui CometAPI, versi model terbaru selalu diperbarui dengan situs web resmi. Untuk memulai, jelajahi kemampuan model di tempat bermain dan konsultasikan Panduan API untuk petunjuk terperinci. Sebelum mengakses, pastikan Anda telah masuk ke CometAPI dan memperoleh kunci API. API Komet menawarkan harga yang jauh lebih rendah dari harga resmi untuk membantu Anda berintegrasi.
Siap untuk berangkat?→ Daftar ke CometAPI hari ini !
