Cara Menggunakan Parameter dan Alat Baru GPT-5: Panduan Praktis

CometAPI
AnnaAug 11, 2025
Cara Menggunakan Parameter dan Alat Baru GPT-5: Panduan Praktis

Peluncuran GPT-5 OpenAI menghadirkan tujuan yang sudah tidak asing lagi — akurasi, kecepatan, dan kontrol pengembang yang lebih baik — tetapi dipadukan dengan serangkaian parameter API dan integrasi alat baru yang mengubah cara tim merancang prompt, memanggil model, dan menghubungkan model ke runtime eksternal. Artikel ini menjelaskan perubahan-perubahan utama, menunjukkan pola penggunaan yang konkret, dan memberikan praktik terbaik untuk adopsi yang aman dan hemat biaya.

Model, parameter, dan alat GPT-5 baru apa yang perlu saya ketahui?

Apa itu GPT-5?

OpenAI kini menerbitkan GPT-5 dalam beberapa varian sehingga pengembang dapat mempertimbangkan latensi, biaya, dan kemampuan: gpt-5 (model penalaran penuh), gpt-5-mini (seimbang), dan gpt-5-nano (biaya rendah, latensi rendah). Ukuran ini memungkinkan Anda memilih model yang paling sesuai untuk penyelidikan singkat, pemrosesan batch, atau tugas penalaran yang berat. GPT-5 di ChatGPT disajikan sebagai sistem dengan komponen "berpikir", dan versi API menargetkan model penalaran langsung untuk digunakan oleh pengembang.

Parameter API baru (tingkat tinggi)

Beberapa parameter yang muncul yang mengubah cara Anda mengendalikan keluaran dan biaya sangatlah penting:

  • Parameter baru: verbosity (rendah/sedang/tinggi) untuk mengontrol panjang/bentuk jawaban, dan reasoning_effort (Sekarang: minimal, low, medium, high) untuk mengontrol seberapa banyak pemikiran yang dilakukan model sebelum menjawab. Gunakan minimal ketika Anda menginginkan kecepatan melalui rangkaian pemikiran yang mendalam.
  • mode minimal / penalaran — pilihan untuk lebih memilih tanggapan yang lebih cepat dan beralasan rendah (berguna untuk pengambilan fakta singkat) dibandingkan dengan penalaran yang diperluas (“berpikir”) ketika rantai pemikiran yang lebih dalam dibutuhkan.
  • Konteks & token panjang: GPT-5 mendukung konteks yang sangat besar (total ~400 ribu token: ~272 ribu masukan + 128 ribu keluaran dalam dokumen) — gunakan ini untuk dokumen besar, basis kode, atau percakapan panjang.

Parameter ini memungkinkan Anda menyesuaikan keseimbangan antara kualitas, latensi, dan biaya di tingkat panggilan, bukan hanya dengan memilih ukuran model.

Jenis alat baru dan dukungan muatan mentah

Salah satu tambahan paling praktis dari GPT-5 adalah custom jenis alat yang memungkinkan model untuk mengirim muatan teks mentah ke runtime alat Anda (misalnya: skrip Python, pernyataan SQL, perintah shell, atau teks konfigurasi arbitrer) tanpa memerlukan pemanggilan fungsi yang dibungkus JSON. Hal ini mengurangi hambatan saat menghubungkan model ke sandbox, interpreter, atau basis data dan memungkinkan pola "perangkat lunak sesuai permintaan" yang lebih kaya.

Membatasi keluaran: Anda dapat menerapkan tata bahasa/kontrak (Tata Bahasa Bebas Konteks, CFG) agar muatan alat valid secara sintaksis untuk runtime Anda. Panggilan alat paralel + CFG memungkinkan Anda mengotomatiskan alur kerja agen multi-langkah dengan aman.

Bagaimana cara memanggil parameter dan alat baru di API?

(Menggunakan pola Python SDK resmi from openai import OpenAI dan Responses API seperti dalam dokumen.)

1) Tetapkan verbositas + upaya penalaran

from openai import OpenAI
client = OpenAI(
    base_url="https://api.cometapi.com/v1/responses",
    api_key="<YOUR_CometAPI_KEY>",    
)

resp = client.responses.create(
    model="gpt-5",
    input="Summarize the following meeting notes in one short paragraph: ...",
    parameters={
        "verbosity": "low",            # low / medium / high

        "reasoning_effort": "minimal", # minimal / low / medium / high

        "max_output_tokens": 200
    }
)

print(resp.output_text)  # SDK convenience property aggregates returned text

Ini mengembalikan jawaban yang singkat dan cepat ketika Anda menginginkan latensi + keringkasan.

2) Panggil alat khusus dengan muatan teks mentah (bentuk bebas)

# Example: send a raw SQL query (not JSON) to your "sql_runner" custom tool

from openai import OpenAI
client = OpenAI(
    base_url="https://api.cometapi.com/v1/responses",
    api_key="<YOUR_CometAPI_KEY>",    
)

resp = client.responses.create(
    model="gpt-5",
    input="Fetch the average order value for last month and return a SQL query only.",
    tools=[
        {
            "name": "sql_runner",
            "type": "custom",
            "description": "Executes raw SQL and returns results."
        }
    ],
    parameters={
        "verbosity": "medium"
    }
)

# The model can emit text that the tool receives directly (raw SQL)

# How your backend receives and executes the model->tool payload depends on your webhook/runtime.
print(resp.output_text)

Gunakan CFG jika SQL harus mengikuti sintaksis yang ketat atau pola yang diizinkan. (, )

3) Contoh: memerlukan keluaran terbatas dengan CFG

# Pseudocode / conceptual example for attaching a grammar to a tool call.

client.responses.create(
    model="gpt-5",
    input="Generate a safe shell command to list .txt files.",
    tools=[{
        "name":"shell_exec",
        "type":"custom",
        "description":"Runs a shell command in a sandbox",
        "grammar": "COMMAND -> 'ls' ' ' DIR_FILTER; DIR_FILTER -> '*.txt' | '-la *.txt'"
    }],
    parameters={"verbosity":"low"}
)

The grammar/CFG memastikan GPT-5 hanya mengeluarkan pola perintah yang diizinkan dan diterima oleh pelari Anda.

Bagaimana cara mendaftar dan menggunakan custom alat untuk mengirim muatan mentah?

The custom Alat didefinisikan saat Anda mendaftarkan alat di sistem Anda. Alat menerima teks biasa (bukan JSON terstruktur), sehingga runtime Anda harus siap untuk mengurai dan memvalidasinya.

  1. Daftarkan alatnya (sisi server; pseudodefinisi):
{
  "name": "code_executor",
  "type": "custom",
  "description": "Runs Python code in a sandbox and returns output or errors."
}
  1. Model memanggil alat — contoh instruksi asisten (apa yang dihasilkan model saat ingin memanggil alat):
<tool name="code_executor">
print(run_tests_on_module('payment_processor'))
</tool>
  1. Waktu proses Anda dijalankan teks mentah dengan aman (kotak pasir), mengembalikan string keluaran kembali ke API atau ke loop agen Anda, dan model melanjutkan percakapan menggunakan teks yang dikembalikan.

Bagaimana seharusnya mendorong perubahan rekayasa dengan opsi baru GPT-5?

Kapan saya harus menggunakan “berpikir” (penalaran yang diperluas) vs tanggapan minimal?

Gunakan mode berpikir/penalaran luas untuk tugas-tugas yang memerlukan deduksi bertahap, perencanaan multi-tahap, atau pembuatan kode yang harus mematuhi batasan. Simpan penalaran minimal atau mini/nano untuk kueri singkat, tugas pengambilan data, dan beban kerja fan-out yang besar (misalnya, menilai banyak kandidat). Ketika akurasi sangat penting (keuangan, hukum, diagnosis), pilih penalaran yang lebih tinggi/default. gpt-5 dan menambahkan pemeriksaan pasca. OpenAI tetap menekankan bahwa GPT-5 bukanlah AGI — ia meningkatkan kapabilitas tetapi bukan sumber kebenaran yang sempurna — jadi pilihlah mode penalaran yang sesuai.

Apa praktik terbaik untuk mengintegrasikan GPT-5 dengan runtime dan alat eksternal?

Bagaimana saya harus merancang arsitektur runtime alat?

  • Mengisolasikan lingkungan eksekusi alat: kontainer sementara per permintaan atau proses kotak pasir khusus.
  • Batasan tarif dan kuota penggunaan alat secara terpisah dari model API untuk mengendalikan biaya dan risiko.
  • Log audit: mencatat masukan alat, keluaran, dan keputusan model untuk memanggil alat tersebut untuk postmortem dan kepatuhan.
  • Menangani kesalahan: merancang runtime untuk mengembalikan kode kesalahan terstruktur dan pesan singkat yang dapat dibaca manusia sehingga model dapat mencoba lagi, melakukan fallback, atau menjelaskan kesalahannya.

Kontrol keamanan apa yang penting?

  • Analisis statis untuk kode yang diterima sebagai teks mentah, memasukkan modul yang diizinkan dan API runtime ke dalam daftar putih.
  • Isolasi jaringan dan aturan keluar masuk kontainer yang ketat.
  • Manajemen rahasia — jangan pernah memaparkan kunci akun layanan secara langsung ke model; gunakan token sementara yang dibuat oleh backend Anda jika akses jarak jauh diperlukan.
  • Gerbang manusia-dalam-lingkaran untuk operasi berisiko tinggi (transaksi keuangan, penerapan). Ini adalah pola keamanan standar untuk agen yang menggunakan alat.

Tips praktis & praktik terbaik

  • Pick verbosity tidak segera melakukan operasi. penggunaan verbosity untuk menyesuaikan panjang/tingkat detail alih-alih menulis ulang perintah berulang kali.
  • penggunaan reasoning_effort untuk pertukaran biaya/latensi. set minimal untuk pengambilan fakta cepat atau UI, high untuk tugas penalaran yang kompleks.
  • Keamanan alat: Selalu validasi/escape teks mentah apa pun yang dipancarkan model sebelum mengeksekusinya. Gunakan CFG dan sanitasi sisi server sebagai lini pertahanan kedua. (Cookbook memperingatkan tentang praktik keamanan alat.)
  • Pemanggilan alat paralel: Anda dapat menjalankan beberapa panggilan alat sekaligus untuk mempercepat proses (misalnya, pencarian web + pencarian basis data), lalu biarkan model mensintesis hasilnya. Cocok untuk alur agensi.
  • Keluaran terstruktur saat Anda membutuhkannya. Jika konsumen Anda membutuhkan JSON, gunakan Output Terstruktur/dukungan Skema JSON. Gunakan format bebas hanya jika teks mentah lebih alami untuk runtime target.
  • Streaming & keluaran panjang: menggunakan streaming untuk memproses keluaran yang panjang (terutama dengan anggaran token yang besar) saat pembuatannya.

Bagaimana cara mengukur, menguji, dan mengoptimalkan kinerja dan biaya?

Metrik apa yang harus saya lacak?

  • Token per permintaan dan biaya per panggilan (gunakan ukuran model + verbositas untuk memperkirakan).
  • Latensi (hal.95/hal.99) dan tingkat kesalahan — terutama untuk permintaan yang memicu eksekusi alat eksternal.
  • Metrik kualitas: tingkat keberhasilan pemeriksaan otomatis, tingkat validasi manusia, frekuensi halusinasi pada tes emas.

Cara menjalankan eksperimen

  • Ukuran model A/B (gpt-5 vs gpt-5-mini) pada beban kerja representatif untuk mengukur akurasi vs. biaya. Untuk beban kerja yang membutuhkan banyak jawaban singkat, mini or nano Seringkali mengurangi biaya secara drastis sambil mempertahankan akurasi yang dapat diterima. Liputan vendor dan pers menyoroti kompromi ini dalam tolok ukur awal; jalankan pengujian Anda sendiri pada tugas-tugas penting.

Apa saja batasan dan pertimbangan penggunaan yang bertanggung jawab?

Apakah GPT-5 AGI atau sempurna?

OpenAI memposisikan GPT-5 sebagai peningkatan substansial dalam kegunaan dan penalaran, bukan AGI. Harapkan peningkatan kapabilitas yang signifikan (pengodean, matematika, penalaran multi-langkah), tetapi juga kesalahan dan halusinasi yang sesekali terjadi. Rencanakan alur kerja produk yang memverifikasi keluaran model untuk memastikan kebenarannya sebelum eksekusi otomatis di domain sensitif.

Kepatuhan, privasi, dan tata kelola data

  • Perlakukan perintah dan keluaran model sebagai hal yang sensitif: tutupi PII sebelum mengirim ke API jika kebijakan Anda melarang pengiriman data tersebut.
  • Pahami kebijakan penyimpanan dan penggunaan dalam ketentuan OpenAI untuk akun/wilayah Anda. Gunakan kontrak perusahaan untuk perlindungan data yang lebih kuat jika diperlukan.
  • Dokumentasikan dan ungkapkan peran model kepada pengguna akhir jika keputusan secara material memengaruhi mereka (persyaratan transparansi di banyak yurisdiksi).

Daftar periksa cepat dan pola kode untuk memulai

Daftar periksa pra-peluncuran

  1. Pilih model target (akurasi vs biaya): gpt-5, gpt-5-mini, atau gpt-5-nano.
  2. Menetapkan verbosity default untuk setiap titik akhir (misalnya, titik akhir API yang mendukung pencarian cepat vs analisis mendalam).
  3. Daftar dan perkuat custom waktu proses alat (sandboxing, validator, log).
  4. Tambahkan langkah verifikasi otomatis untuk setiap keluaran alat yang dijalankan pada sistem Anda.
  5. Buat dasbor pemantauan untuk token, latensi, dan metrik kualitas model.

Contoh pola orkestrasi (pseudocode)

  1. Permintaan pengguna → pilih model & verbositas (logika perutean).
  2. Perintah sistem mendefinisikan sintaksis alat + mode penalaran.
  3. Kirim permintaan penyelesaian obrolan.
  4. Jika asisten memanggil custom alat: validasi muatan → jalankan di kotak pasir → kembalikan hasil ke asisten → asisten menyelesaikan respons.
  5. Jika operasi berisiko tinggi: memerlukan persetujuan manusia.

Gunakan GPT-5 di CometAPI

CometAPI adalah platform API terpadu yang menggabungkan lebih dari 500 model AI dari penyedia terkemuka—seperti seri GPT OpenAI, Gemini Google, Claude Anthropic, Midjourney, Suno, dan lainnya—menjadi satu antarmuka yang ramah bagi pengembang. Dengan menawarkan autentikasi yang konsisten, pemformatan permintaan, dan penanganan respons, CometAPI secara drastis menyederhanakan integrasi kapabilitas AI ke dalam aplikasi Anda. Baik Anda sedang membangun chatbot, generator gambar, komposer musik, atau alur kerja analitik berbasis data, CometAPI memungkinkan Anda melakukan iterasi lebih cepat, mengendalikan biaya, dan tetap tidak bergantung pada vendor—semuanya sambil memanfaatkan terobosan terbaru di seluruh ekosistem AI.

Untuk referensi definitif, tinjau entri Buku Masak OpenAI tentang parameter dan alat GPT-5 — ini adalah sumber utama untuk bidang API, registrasi alat, dan pola penggunaan.

Pesan terakhir

Kombinasi ukuran model GPT-5, parameter baru seperti verbosity, dan custom Dukungan muatan mentah alat menciptakan opsi baru yang canggih bagi tim produk — mulai dari pekerjaan penilaian masif berbiaya rendah hingga alur kerja "perangkat lunak sesuai permintaan" di mana model menghasilkan kode atau SQL yang dieksekusi oleh runtime aman Anda. Komprominya sudah umum: kapabilitas vs. biaya, kecepatan vs. kedalaman, dan otomatisasi vs. pengawasan manusia. Mulailah dari yang kecil (pilih satu kasus penggunaan penemuan), gunakan instrumen secara intensif, dan ulangi — rancang runtime dan perintah alat Anda agar keluaran model diverifikasi sebelum menjadi tindakan.

Pengembang dapat mengakses GPT-5 , GPT-5 Nano dan GPT-5 Mini melalui CometAPI, versi model terbaru yang tercantum adalah per tanggal publikasi artikel. Untuk memulai, jelajahi kemampuan model di tempat bermain dan konsultasikan Panduan API untuk petunjuk terperinci. Sebelum mengakses, pastikan Anda telah masuk ke CometAPI dan memperoleh kunci API. API Komet menawarkan harga yang jauh lebih rendah dari harga resmi untuk membantu Anda berintegrasi.

Anda dapat menggunakan API gpt-5 Cpmr untuk bereksperimen dengan parameter baru. Cukup ganti kunci openAI dengan kunci CometAPI. Anda dapat menggunakan API gpt-5 CometAPI untuk bereksperimen dengan parameter baru. Cukup ganti kunci openAI dengan kunci CometAPI. Dua Pilihan: Pola pemanggilan fungsi Penyelesaian Obrolan dan Pola pemanggilan fungsi respons.

Melewati CoT hanya ada di Responses API. Hal ini meningkatkan kecerdasan, mengurangi jumlah token inferensi yang dihasilkan, meningkatkan tingkat cache hit, dan mengurangi latensi. Sebagian besar parameter lainnya tetap sama, tetapi formatnya berbeda. Oleh karena itu, kami merekomendasikan penggunaan Response format untuk mengakses gpt-5 di CometAPI.

SHARE THIS BLOG

Baca Selengkapnya

500+ Model dalam Satu API

Diskon hingga 20%