OpenAI belum menerbitkan kiraan parameter rasmi untuk GPT-5 — daripada sekitar 1.7–1.8 trilion parameter (anggaran gaya model padat) kepada berpuluh trilion jika anda mengira jumlah kapasiti seni bina gaya Mixture-of-Experts (MoE). Tiada satu pun daripada nombor ini disahkan secara rasmi, dan perbezaan dalam seni bina (padat vs. MoE), perkongsian parameter, jarang dan pengkuantitian menjadikan satu nombor tajuk mengelirukan.
Apakah yang OpenAI katakan tentang saiz dan seni bina GPT-5?
Bahan awam OpenAI tentang GPT-5 menekankan keupayaan, API dan kawalan baharu dan bukannya kiraan parameter mentah. Halaman produk dan pembangun syarikat memperkenalkan ciri GPT-5 — pengekodan yang dipertingkatkan, yang baharu verbosity parameter, dan kawalan penaakulan baharu — tetapi lakukan tidak mendedahkan angka "parameter = X". Sebagai contoh, halaman GPT-5 rasmi OpenAI dan dokumentasi pembangun menerangkan keupayaan dan tombol konfigurasi tetapi meninggalkan spesifikasi kiraan parameter.
Mengapa senyap itu penting
Kiraan parameter digunakan sebagai trengkas mudah untuk skala model. Hari ini mereka kurang bermaklumat sahaja: pilihan reka bentuk model (Campuran Pakar, perkongsian parameter, pengkuantitian), pengiraan latihan, kualiti data dan perubahan algoritma boleh menghasilkan perbezaan keupayaan yang besar tanpa perubahan berkadar dalam jumlah parameter yang diterbitkan. Tumpuan OpenAI pada ciri dan peningkatan keselamatan mencerminkan anjakan itu: ia menyerlahkan prestasi, ujian keselamatan dan kawalan API lebih daripada saiz mentah.
Apakah anggaran bebas yang wujud — dan sejauh mana perbezaannya?
Oleh kerana OpenAI tidak menerbitkan nombor tersebut, Pasukan kami membuat anggaran berdasarkan beberapa senario yang telah menghasilkan anggaran dan hipotesis. Kelompok ini ke dalam beberapa kategori:
- ~1.7–1.8 trilion parameter (anggaran gaya padat). Beberapa analisis membandingkan prestasi penanda aras, harga dan penskalaan sejarah untuk menganggarkan GPT-5 berada dalam julat parameter trilion rendah — susunan magnitud yang serupa dengan beberapa anggaran untuk GPT-4. Anggaran ini berhati-hati dan menganggap GPT-5 sebagai model padat skala lanjutan dan bukannya sistem MoE yang besar.
- Puluhan trilion (jumlah gaya MoE). Laporan lain mencadangkan GPT-5 (atau beberapa varian GPT-5) menggunakan pendekatan Campuran Pakar di mana jumlah bilangan parameter merentas semua pakar boleh mencecah berpuluh trilion — contohnya, konfigurasi KPM 52.5 trilion parameter yang didakwa telah beredar dalam ulasan industri. Sistem KPM hanya mengaktifkan subset pakar setiap token, jadi "jumlah parameter" dan "parameter aktif setiap hantaran hadapan" adalah metrik yang sangat berbeza.
- Konservatif mengambil yang mengelakkan satu nombor. Sesetengah penulisan teknikal dan pengagregat menekankan bahawa kiraan parameter sahaja adalah proksi yang lemah dan dengan itu menolak untuk memberikan angka yang pasti, lebih suka menganalisis prestasi, kependaman, harga dan pertukaran seni bina.
Perbezaan ini penting: tuntutan "padat 1.8T" dan "jumlah 50T MoE" tidak dapat dibandingkan secara langsung — yang pertama membayangkan matriks padat yang digunakan pada setiap token, yang kedua menunjukkan corak pengaktifan yang jarang yang menjadikan penggunaan pengiraan dan memori yang berkesan sangat berbeza.
Bagaimanakah sumber yang berbeza boleh menghasilkan nombor yang berbeza?
Terdapat beberapa sebab teknikal dan kontekstual anggaran berbeza.
(a) Seni bina padat vs. jarang (Campuran Pakar).
Transformer tumpat menggunakan matriks berat yang sama untuk setiap token; kiraan parameter model padat ialah bilangan pemberat yang disimpan. Model MoE menyimpan banyak submodel pakar tetapi hanya mengaktifkan subset kecil bagi setiap token. Orang kadang-kadang melaporkan jumlah kiraan parameter pakar (yang boleh menjadi sangat besar) manakala yang lain melaporkan a berkesan kiraan parameter diaktifkan per-token (lebih kecil). Ketidakpadanan itu menghasilkan nombor tajuk yang sangat berbeza.
(b) Perkongsian parameter dan perwakilan yang cekap
Model pengeluaran moden sering menggunakan helah perkongsian parameter, penyesuai peringkat rendah atau pengkuantitian agresif. Ini mengurangkan jejak memori dan mengubah cara anda harus mengira "parameter" untuk kapasiti praktikal. Dua model dengan kiraan parameter mentah yang sama boleh berkelakuan sangat berbeza jika seseorang menggunakan pemberat atau pemampatan yang dikongsi.
(c) Ekonomi dan pembungkusan produk yang dihadapi orang ramai
Syarikat mungkin mendedahkan model yang berbeza varian (cth, GPT-5, GPT-5-mini, GPT-5-semerta) dengan saiz dalaman dan profil kos yang berbeza. Harga, kependaman dan daya pemprosesan untuk varian tersebut memberikan petunjuk tidak langsung kepada penganalisis — tetapi petunjuk tersebut memerlukan andaian tentang susunan kelompok, perkakasan dan perisian yang menimbulkan ralat.
(d) Ketidakdedahan yang disengajakan dan alasan persaingan
OpenAI dan syarikat lain semakin menganggap butiran seni bina tertentu sebagai proprietari. Itu mengurangkan perkara yang boleh dipelajari daripada pengiraan prinsip pertama dan memaksa komuniti untuk bergantung pada kesimpulan tidak langsung (penanda aras, kependaman, rakan kongsi infrastruktur yang dilaporkan), yang bising.
Antara anggaran yang diterbitkan yang manakah paling boleh dipercayai?
Penilaian pendek
Tiada sumber awam tunggal yang berwibawa; kredibiliti bergantung kepada kaedah:
- Analisis yang melakukan triangulasi daripada penanda aras, penetapan harga dan kependaman inferens (cth, blog teknikal industri yang teliti) berguna tetapi semestinya anggaran.
- Tuntutan jumlah kiraan parameter yang sangat besar adalah munasabah if seni binanya ialah MoE — tetapi jumlah tersebut tidak dapat dibandingkan secara langsung dengan model padat dan selalunya datang daripada ekstrapolasi dan bukannya bukti utama. Anggap mereka sebagai metrik yang berbeza.
- Senyap OpenAI pada nombor itu sendiri, titik data yang penting: syarikat itu menekankan tingkah laku, keselamatan dan kawalan API ke atas kiraan mentah.
Bagaimana untuk menimbang nombor
Jika anda memerlukan andaian kerja untuk kejuruteraan atau perolehan: model tingkah laku (kependaman, pemprosesan, kos setiap token, ketepatan pada tugas anda) lebih penting daripada jumlah parameter yang tidak disahkan. Jika anda mesti menggunakan anggaran berangka untuk kos pemodelan, secara konservatif andaikan a trilion rendah susunan magnitud melainkan anda mempunyai bukti langsung KPM dan corak pengaktifannya; jika KPM hadir, tanya sama ada metriknya jumlah vs aktif parameter sebelum menggunakan nombor untuk perancangan kapasiti.
Adakah kiraan parameter masih meramalkan prestasi?
Jawapan pendek: sebahagiannya, tetapi kurang dipercayai berbanding sebelum ini.
Pandangan sejarah
Undang-undang penskalaan menunjukkan korelasi yang kuat antara saiz model, pengiraan dan prestasi untuk penanda aras tertentu. Meningkatkan parameter (dan pengiraan/data yang dipadankan) secara sejarah meningkatkan keupayaan dengan cara yang boleh diramal. Walau bagaimanapun, undang-undang tersebut menganggap seni bina dan rejimen latihan yang serupa.
Kaveat moden
Hari ini, inovasi seni bina (Campuran Pakar, pengoptimuman yang lebih baik, latihan rantaian pemikiran, penalaan arahan), penyusunan data latihan dan penalaan halus yang disasarkan (RLHF, penyepaduan penggunaan alat) boleh meningkatkan lebih banyak keupayaan bagi setiap parameter berbanding penskalaan naif. Pengumuman GPT-5 OpenAI menekankan kawalan penaakulan dan parameter pembangun seperti verbosity and reasoning_effort — pilihan reka bentuk yang mengubah pengalaman pengguna tanpa sesiapa perlu mengetahui kiraan parameter tunggal.
Jadi: kiraan parameter ialah 1 peramal di kalangan ramai; ia tidak perlu dan tidak mencukupi untuk mencirikan kegunaan model.
Apakah yang dikatakan berita terkini tentang GPT-5 melebihi saiz?
Pelaporan terkini memfokuskan pada keupayaan, keselamatan dan pilihan produk berbanding skala mentah. Alur berita telah merangkumi dakwaan OpenAI bahawa GPT-5 mengurangkan berat sebelah politik dalam outputnya, bahawa perubahan umur dan dasar kandungan baharu akan datang, dan OpenAI sedang berulang untuk menjadikan model itu lebih berguna dan lebih terkawal untuk pembangun. Ini adalah isyarat produk dan dasar yang lebih penting dalam amalan daripada pengiraan parameter yang tidak didedahkan.
Perubahan praktikal dalam produk
Bahan pembangun OpenAI mengumumkan parameter API baharu (verbositi, usaha penaakulan, alatan tersuai) yang direka untuk membolehkan pembangun menukar kelajuan, perincian dan kedalaman pemikiran. Tombol tersebut adalah konkrit dan boleh diambil tindakan segera untuk pembangun yang mesti memutuskan varian atau tetapan GPT-5 yang sesuai dengan produk mereka.
Apakah yang perlu dilakukan oleh penyelidik dan jurutera jika mereka perlu merancang kapasiti atau kos?
Jangan bergantung pada satu nombor "parameter".
Penggunaan penanda aras empirikal pada beban kerja anda. Ukur kependaman, pemprosesan, kos token dan ketepatan pada gesaan perwakilan. Metrik tersebut ialah perkara yang akan anda bayar dan perkara yang akan dialami oleh pengguna anda. Model dengan kiraan parameter yang serupa boleh mempunyai kos dunia sebenar yang sangat berbeza.
Jika anda mesti memilih andaian berasaskan parameter
Dokumen sama ada anda sedang memodelkan jumlah parameter (berguna untuk penyimpanan dan beberapa perbincangan pelesenan) berbanding aktif parameter setiap token (berguna untuk memori masa jalan/pengiraan). Jika anggaran awam digunakan, nyatakan sumber dan andaiannya (MoE vs padat, pengkuantitian, sama ada pemberat dikongsi).
Pantau dokumen rasmi dan perubahan yang dinyatakan OpenAI
OpenAI menerbitkan ciri dan harga API yang secara langsung mempengaruhi kos; itu lebih boleh diambil tindakan daripada kiraan parameter spekulatif. Tonton halaman pembangun dan nota keluaran untuk nama varian, harga dan peringkat kependaman.
Jadi — berapa banyak parameter yang ada pada GPT-5, akhirnya?
Terdapat tiada satu pun jawapan awam yang berwibawa kerana OpenAI belum menerbitkan kiraan parameter dan anggaran pihak ketiga menyimpang. Ringkasan terbaik dan jujur:
- OpenAI: Tiada kiraan parameter awam; tumpuan adalah pada keupayaan, keselamatan dan kawalan pembangun.
- Anggaran berhati-hati bebas: Banyak analisis mencadangkan a trilion rendah tertib magnitud (≈1.7–1.8T) jika anda memodelkan GPT-5 sebagai pengubah padat saiz berskala. Anggap ini sebagai anggaran, bukan fakta.
- Tuntutan KPM/jumlah parameter: Terdapat tuntutan edaran (cth, ~52.5T) yang merujuk kepada jumlah kapasiti pakar dalam konfigurasi KPM hipotesis. Ini tidak dapat dibandingkan secara langsung dengan kiraan padat dan bergantung pada tingkah laku pengaktifan.
Pengambilan akhir
- Kiraan parameter adalah bermaklumat tetapi tidak lengkap. Mereka membantu membina intuisi tentang skala, tetapi keupayaan LLM moden bergantung pada seni bina, data latihan, pengiraan dan penalaan halus.
- OpenAI tidak menerbitkan jumlah parameter GPT-5. Oleh itu, penganalisis bergantung pada isyarat dan andaian tidak langsung; mengharapkan pelbagai anggaran.
- Jumlah KPM lwn. kiraan padat: Jika anda melihat tajuk "berpuluh trilion", semak sama ada ia merujuk kepada jumlah pakar KPM or parameter aktif setiap token — mereka tidak sama.
- Penanda aras mengatasi spekulasi untuk keputusan produk. Ukur model pada tugas yang anda ambil berat (ketepatan, kependaman, kos). Tetapan API yang disediakan OpenAI (verbositi, usaha penaakulan) mungkin lebih penting daripada nombor parameter jumlah yang tidak disahkan.
Bagaimana untuk memanggil API GPT-5 dengan lebih murah?
CometAPI ialah platform API bersatu yang mengagregatkan lebih 500 model AI daripada pembekal terkemuka—seperti siri GPT OpenAI, Google Gemini, Anthropic's Claude, Midjourney, Suno dan banyak lagi—menjadi satu antara muka mesra pembangun. Dengan menawarkan pengesahan yang konsisten, pemformatan permintaan dan pengendalian respons, CometAPI secara dramatik memudahkan penyepaduan keupayaan AI ke dalam aplikasi anda. Sama ada anda sedang membina chatbots, penjana imej, komposer muzik atau saluran paip analitik terdorong data, CometAPI membolehkan anda mengulangi dengan lebih pantas, mengawal kos dan kekal sebagai vendor-agnostik—semuanya sambil memanfaatkan penemuan terkini merentas ekosistem AI.
Pembangun boleh mengakses GPT-5 and API GPT-5 Pro melalui CometAPI, versi model terkini sentiasa dikemas kini dengan laman web rasmi. Untuk memulakan, terokai keupayaan model dalam Taman Permainan dan berunding dengan Panduan API untuk arahan terperinci. Sebelum mengakses, sila pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga yang jauh lebih rendah daripada harga rasmi untuk membantu anda menyepadukan.
Bersedia untuk Pergi?→ Daftar untuk CometAPI hari ini !
Jika anda ingin mengetahui lebih banyak petua, panduan dan berita tentang AI, ikuti kami VK, X and Perpecahan!



