OpenAI belum menerbitkan jumlah parameter resmi untuk GPT-5 — dari sekitar 1.7–1.8 triliun parameter (perkiraan gaya model padat) untuk puluhan triliun Jika Anda menghitung total kapasitas arsitektur bergaya Mixture-of-Experts (MoE), tidak satu pun dari angka-angka ini yang dikonfirmasi secara resmi, dan perbedaan dalam arsitektur (padat vs. MoE), pembagian parameter, kelangkaan, dan kuantisasi membuat angka utama tunggal menjadi menyesatkan.
Apa kata OpenAI tentang ukuran dan arsitektur GPT-5?
Materi publik OpenAI tentang GPT-5 menekankan kapabilitas, API, dan kontrol baru, alih-alih jumlah parameter mentah. Halaman produk dan pengembang perusahaan memperkenalkan fitur-fitur GPT-5 — pengodean yang ditingkatkan, verbosity parameter, dan kontrol penalaran baru — tetapi tidak mengungkapkan angka "parameter = X". Misalnya, halaman GPT-5 resmi OpenAI dan dokumentasi pengembang menjelaskan kapabilitas dan tombol konfigurasi, tetapi tidak mencantumkan spesifikasi jumlah parameter.
Mengapa keheningan itu penting
Jumlah parameter dulunya merupakan singkatan sederhana untuk skala model. Kini, jumlah parameter saja kurang informatif: pilihan desain model (Mixture-of-Experts, pembagian parameter, kuantisasi), komputasi pelatihan, kualitas data, dan perubahan algoritmik dapat menghasilkan perbedaan kapabilitas yang besar tanpa perubahan proporsional dalam total parameter yang dipublikasikan. Fokus OpenAI pada fitur dan peningkatan keamanan mencerminkan pergeseran tersebut: mereka lebih menekankan kinerja, uji keamanan, dan kontrol API daripada ukuran mentah.
Perkiraan independen apa yang ada — dan seberapa besar perbedaannya?
Karena OpenAI tidak mempublikasikan angkanya, tim kami membuat estimasi berdasarkan beberapa skenario yang telah menghasilkan estimasi dan hipotesis. Skenario-skenario ini dikelompokkan ke dalam beberapa kategori:
- ~1.7–1.8 triliun parameter (perkiraan gaya padat). Beberapa analisis membandingkan kinerja benchmark, harga, dan skala historis untuk memperkirakan GPT-5 berada dalam rentang parameter triliunan rendah — orde magnitudo yang serupa dengan beberapa estimasi untuk GPT-4. Estimasi ini bersifat hati-hati dan memperlakukan GPT-5 sebagai model padat berskala luas, alih-alih sistem MoE yang sangat besar.
- Puluhan triliun (total gaya MoE). Laporan lain menunjukkan GPT-5 (atau beberapa varian GPT-5) menggunakan pendekatan Campuran-Pakar di mana total Jumlah parameter di antara semua pakar dapat mencapai puluhan triliun — misalnya, konfigurasi MoE yang diklaim memiliki 52.5 triliun parameter telah beredar di komentar industri. Sistem MoE hanya mengaktifkan sebagian pakar per token, sehingga "total parameter" dan "parameter aktif per forward pass" merupakan metrik yang sangat berbeda.
- Pandangan konservatif yang menghindari satu angka. Beberapa tulisan teknis dan agregator menekankan bahwa hitungan parameter saja merupakan proksi yang buruk dan dengan demikian menolak memberikan angka pasti, lebih memilih menganalisis kinerja, latensi, harga, dan pertimbangan arsitektur.
Perbedaan ini penting: klaim “padat 1.8T” dan “total MoE 50T” tidak dapat dibandingkan secara langsung — klaim pertama menyiratkan matriks padat yang diterapkan pada setiap token, sedangkan klaim kedua menyiratkan pola aktivasi jarang yang membuat penggunaan komputasi dan memori efektif sangat berbeda.
Bagaimana sumber yang berbeda dapat menghasilkan angka yang berbeda pula?
Ada beberapa alasan teknis dan kontekstual mengapa estimasi berbeda.
(a) Arsitektur padat vs. jarang (Campuran Pakar)
Transformator padat menerapkan matriks bobot yang sama untuk setiap token; jumlah parameter model padat adalah jumlah bobot yang disimpan. Model MoE menyimpan banyak submodel pakar tetapi hanya mengaktifkan sebagian kecil per token. Terkadang orang melaporkan total jumlah parameter ahli (yang bisa sangat besar) sementara yang lain melaporkan efektif Jumlah parameter yang diaktifkan per token (jauh lebih kecil). Ketidakcocokan tersebut menghasilkan angka headline yang sangat berbeda.
(b) Berbagi parameter dan representasi yang efisien
Model produksi modern sering kali menggunakan trik berbagi parameter, adaptor peringkat rendah, atau kuantisasi agresif. Hal ini mengurangi jejak memori dan mengubah cara Anda menghitung "parameter" untuk kapasitas praktis. Dua model dengan jumlah parameter mentah yang sama dapat berperilaku sangat berbeda jika salah satunya menggunakan bobot atau kompresi bersama.
(c) Ekonomi yang menghadap publik dan pengemasan produk
Perusahaan mungkin mengekspos model yang berbeda varian (misalnya, GPT-5, GPT-5-mini, GPT-5-instant) dengan ukuran internal dan profil biaya yang berbeda. Harga, latensi, dan throughput untuk varian-varian tersebut memberikan petunjuk tidak langsung kepada analis — tetapi petunjuk tersebut memerlukan asumsi tentang batching, tumpukan perangkat keras, dan perangkat lunak yang menimbulkan kesalahan.
(d) Alasan tidak diungkapkan secara sengaja dan alasan persaingan
OpenAI dan perusahaan lain semakin memperlakukan detail arsitektur tertentu sebagai hak milik. Hal ini mengurangi apa yang dapat dipelajari dari penghitungan prinsip-prinsip awal dan memaksa komunitas untuk bergantung pada inferensi tidak langsung (benchmark, latensi, mitra infrastruktur yang dilaporkan), yang tidak akurat.
Perkiraan mana yang diterbitkan yang paling kredibel?
Penilaian singkat
Tidak ada satu pun sumber publik yang berwenang; kredibilitas bergantung pada metode:
- Analisis yang melakukan triangulasi dari tolok ukur, harga, dan latensi inferensi (misalnya, blog teknis industri yang cermat) berguna tetapi tentu saja bersifat perkiraan.
- Klaim jumlah parameter total yang sangat besar masuk akal if Arsitekturnya adalah MoE — tetapi total tersebut tidak dapat dibandingkan secara langsung dengan model padat dan seringkali berasal dari ekstrapolasi, alih-alih bukti primer. Anggaplah sebagai metrik yang berbeda.
- Keheningan OpenAI pada angka itu sendiri merupakan titik data yang penting: perusahaan menekankan perilaku, keselamatan, dan kontrol API atas jumlah mentah.
Cara menimbang angka-angka
Jika Anda memerlukan asumsi kerja untuk rekayasa atau pengadaan: model laku (latensi, throughput, biaya per token, ketepatan tugas Anda) lebih penting daripada total parameter yang belum diverifikasi. Jika Anda harus menggunakan estimasi numerik untuk biaya pemodelan, asumsikan secara konservatif triliunan rendah besaran pesanan kecuali Anda memiliki bukti langsung tentang MoE dan pola aktivasinya; jika MoE hadir, tanyakan apakah metriknya total vs aktif parameter sebelum menggunakan nomor untuk perencanaan kapasitas.
Apakah jumlah parameter masih memprediksi kinerja?
Jawaban singkat: sebagian, tetapi kurang dapat diandalkan dibandingkan sebelumnya.
Pandangan historis
Hukum penskalaan menunjukkan korelasi yang kuat antara ukuran model, komputasi, dan performa untuk tolok ukur tertentu. Peningkatan parameter (dan komputasi/data yang sesuai) secara historis meningkatkan kapabilitas dengan cara yang dapat diprediksi. Namun, hukum-hukum tersebut mengasumsikan arsitektur dan rejimen pelatihan yang serupa.
Peringatan modern
Saat ini, inovasi arsitektur (Mixture-of-Experts, optimasi yang lebih baik, pelatihan berantai pemikiran, penyetelan instruksi), kurasi data pelatihan, dan penyempurnaan terarah (RLHF, integrasi penggunaan alat) dapat meningkatkan kapabilitas jauh lebih banyak per parameter dibandingkan penskalaan naif. Pengumuman GPT-5 OpenAI menekankan kontrol penalaran dan parameter pengembang seperti verbosity dan reasoning_effort — pilihan desain yang mengubah pengalaman pengguna tanpa perlu mengetahui jumlah parameter apa pun.
Jadi: jumlah parameternya adalah satu prediktor di antara banyak; tidaklah perlu atau cukup untuk mengkarakterisasi kegunaan model.
Apa yang dikatakan berita terkini tentang GPT-5 selain ukurannya?
Laporan terbaru berfokus pada kapabilitas, keamanan, dan pilihan produk, alih-alih skala mentah. Media berita telah meliput klaim OpenAI bahwa GPT-5 mengurangi bias politik dalam keluarannya, bahwa perubahan pembatasan usia dan kebijakan konten baru akan segera hadir, dan bahwa OpenAI sedang melakukan iterasi untuk membuat model tersebut lebih bermanfaat dan lebih terkendali bagi para pengembang. Ini adalah sinyal produk dan kebijakan yang lebih penting dalam praktik daripada penghitungan parameter yang dirahasiakan.
Perubahan praktis dalam produk
Materi pengembang OpenAI mengumumkan parameter API baru (verbositas, upaya penalaran, alat khusus) yang dirancang untuk memungkinkan pengembang menyeimbangkan kecepatan, detail, dan kedalaman berpikir. Parameter-parameter ini konkret dan dapat langsung ditindaklanjuti oleh pengembang yang harus memutuskan varian atau pengaturan GPT-5 mana yang sesuai dengan produk mereka.
Apa yang harus dilakukan peneliti dan insinyur jika mereka perlu merencanakan kapasitas atau biaya?
Jangan bergantung pada satu nomor “parameter” saja
penggunaan pembandingan empiris pada beban kerja Anda. Ukur latensi, throughput, biaya token, dan akurasi pada prompt representatif. Metrik-metrik inilah yang akan Anda bayar dan yang akan dialami pengguna Anda. Model dengan jumlah parameter yang sama dapat memiliki biaya dunia nyata yang sangat berbeda.
Jika Anda harus memilih asumsi berbasis parameter
Dokumentasikan apakah Anda sedang membuat model total parameter (berguna untuk penyimpanan dan beberapa diskusi lisensi) versus aktif Parameter per token (berguna untuk memori/komputasi runtime). Jika estimasi publik digunakan, sebutkan sumber dan asumsinya (MoE vs. padat, kuantisasi, apakah bobot dibagi).
Pantau dokumen resmi dan perubahan yang dinyatakan OpenAI
OpenAI menerbitkan fitur dan harga API yang secara langsung memengaruhi biaya; fitur dan harga tersebut lebih mudah ditindaklanjuti daripada jumlah parameter yang spekulatif. Pantau halaman pengembang dan catatan rilis untuk mengetahui nama varian, harga, dan tingkatan latensi.
Jadi — akhirnya, berapa banyak parameter yang dimiliki GPT-5?
Ada tidak ada satu pun jawaban publik yang berwenang karena OpenAI belum mempublikasikan jumlah parameter dan estimasi pihak ketiga berbeda-beda. Ringkasan terbaik dan jujur:
- AI terbuka: Tidak ada jumlah parameter publik; fokusnya adalah pada kemampuan, keselamatan, dan kontrol pengembang.
- Perkiraan hati-hati yang independen: Banyak analisis menunjukkan bahwa triliunan rendah besaran orde (≈1.7–1.8T) jika Anda memodelkan GPT-5 sebagai transformator padat dengan ukuran skala. Anggap ini sebagai perkiraan, bukan fakta.
- Klaim MoE/parameter total: Terdapat klaim yang beredar (misalnya, ~52.5T) yang merujuk pada total kapasitas pakar dalam konfigurasi MoE hipotetis. Klaim ini tidak dapat dibandingkan secara langsung dengan jumlah padat dan bergantung pada perilaku aktivasi.
takeaways terakhir
- Jumlah parameter informatif tetapi tidak lengkap. Mereka membantu membangun intuisi tentang skala, tetapi kemampuan LLM modern bergantung pada arsitektur, data pelatihan, komputasi, dan penyempurnaan.
- OpenAI tidak menerbitkan total parameter GPT-5. Oleh karena itu, analis mengandalkan sinyal dan asumsi tidak langsung; mengharapkan berbagai estimasi.
- Total MoE vs. hitungan padat: Jika Anda melihat judul “puluhan triliun”, periksa apakah itu merujuk pada total pakar Kementerian Lingkungan Hidup or parameter aktif per token —mereka tidak sama.
- Tolok ukur mengalahkan spekulasi untuk keputusan produk. Ukur model berdasarkan tugas yang Anda minati (akurasi, latensi, biaya). Pengaturan API yang disediakan OpenAI (verbositas, upaya penalaran) kemungkinan akan lebih penting daripada angka parameter total yang belum diverifikasi.
Bagaimana cara memanggil API GPT-5 dengan lebih murah?
CometAPI adalah platform API terpadu yang menggabungkan lebih dari 500 model AI dari penyedia terkemuka—seperti seri GPT OpenAI, Gemini Google, Claude Anthropic, Midjourney, Suno, dan lainnya—menjadi satu antarmuka yang ramah bagi pengembang. Dengan menawarkan autentikasi yang konsisten, pemformatan permintaan, dan penanganan respons, CometAPI secara drastis menyederhanakan integrasi kapabilitas AI ke dalam aplikasi Anda. Baik Anda sedang membangun chatbot, generator gambar, komposer musik, atau alur kerja analitik berbasis data, CometAPI memungkinkan Anda melakukan iterasi lebih cepat, mengendalikan biaya, dan tetap tidak bergantung pada vendor—semuanya sambil memanfaatkan terobosan terbaru di seluruh ekosistem AI.
Pengembang dapat mengakses GPT-5 dan API GPT-5 Pro melalui CometAPI, versi model terbaru selalu diperbarui dengan situs web resmi. Untuk memulai, jelajahi kemampuan model di tempat bermain dan konsultasikan Panduan API untuk petunjuk terperinci. Sebelum mengakses, pastikan Anda telah masuk ke CometAPI dan memperoleh kunci API. API Komet menawarkan harga yang jauh lebih rendah dari harga resmi untuk membantu Anda berintegrasi.
Siap untuk berangkat?→ Daftar ke CometAPI hari ini !
Jika Anda ingin mengetahui lebih banyak tips, panduan, dan berita tentang AI, ikuti kami di VK, X dan Discord!



