Panduan praktis berorientasi kode untuk Gemini 3.1 Pro — apa itu, cara memanggilnya (termasuk via CometAPI), kapabilitas multimodal dan kontrol “thinking level”, function-calling/pemakaian tool, tips vibe-coding, serta integrasi dengan GitHub Copilot, VS Code, Gemini CLI, dan Google Antigravity. Gemini 3.1 Pro mendorong maju batas model multimodal besar dengan cerita pengembang yang terfokus: jendela konteks lebih besar, mode “thinking” yang dapat dikonfigurasi, peningkatan tool- dan function-calling, serta dukungan eksplisit untuk alur kerja agentik.
Apa itu Gemini 3.1 Pro?
Gemini 3.1 Pro adalah tier “Pro” terbaru dalam keluarga Gemini 3: model yang secara native multimodal, berfokus pada penalaran, disetel untuk tugas kompleks, multi-langkah, dan pemakaian tool agentik. Model ini dihadirkan sebagai penyempurnaan atas Gemini 3 Pro dengan tiga fokus praktis: penalaran/landasan faktual yang lebih kuat, efisiensi token yang lebih baik, dan mode eksekusi yang dapat dikendalikan yang ditargetkan untuk alur kerja pengembang (kode, perencanaan, tugas yang ditingkatkan dengan pengambilan ulang). Kartu model dan halaman pengembang menggambarkannya sebagai dioptimalkan untuk perilaku rekayasa perangkat lunak, pipa agentik, dan input multimodal (teks, gambar, audio, video, dan repository).
Mengapa itu penting untuk Anda: kombinasi jendela konteks hingga sejuta token (pada banyak varian penyedia), primitif function-calling yang eksplisit, dan kontrol “thinking level” memberi tim biaya dan output yang lebih dapat diprediksi untuk segala hal mulai dari prototyping cepat hingga orkestrasi agen produksi. CometAPI sudah menampilkan 3.1 Pro melalui marketplace API dan jembatan yang kompatibel dengan OpenAI, menawarkan pola akses bayar sesuai pemakaian.
Bagaimana cara menggunakan Gemini 3.1 Pro API (CometAPI)?
Apa yang saya butuhkan sebelum memulai?
Checklist (prasyarat)
- Akun CometAPI dan CometAPI API key (simpan di environment variables).
- Secara opsional proyek Google Cloud / Google AI Studio & Gemini API key jika Anda ingin memanggil langsung Google (tidak diperlukan saat melalui Comet).
python 3.9+ataunode 18+,curltersedia untuk pengujian cepat.- Mekanisme rahasia yang aman: env vars, vault, atau CI secret store.
- Konfirmasi Comet model id untuk Gemini 3.1 Pro di konsol Comet Anda (mis.
"google/gemini-3.1-pro"atau alias khusus Comet).
CometAPI mendukung panggilan format native Gemini, serta panggilan format chat OpenAI. CometAPI menyederhanakan pergantian model, menawarkan satu base URL dan SDK, serta dapat mengurangi friksi integrasi untuk tumpukan multi-vendor.
Di bawah ini dua contoh konkret yang siap salin-tempel: pertama memanggil Gemini melalui CometAPI (klien kompatibel OpenAI), dan kedua memanggil Gemini melalui endpoint HTTP resmi Gemini milik Google. Ganti YOUR_API_KEY dengan kunci penyedia Anda dan set nama model ke varian yang tersedia dari penyedia (mis., gemini-3.1-pro-preview jika diekspos).
Contoh: memanggil Gemini 3.1 Pro menggunakan CometAPI (curl + Python)
Curl (wrapper kompatibel OpenAI menggunakan CometAPI base URL)
# curl example: CometAPI (OpenAI-compatible)curl https://api.cometapi.com/v1/chat/completions \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gemini-3.1-pro-preview", "messages": [ {"role":"system","content":"You are a concise programming assistant."}, {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."} ], "max_tokens": 800 }'
Python (klien kompatibel OpenAI dikonfigurasi ke CometAPI base_url)
from openai import OpenAI # or openai-python-compatible SDK offered by your platformclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.cometapi.com/v1")resp = client.chat.completions.create( model="gemini-3.1-pro-preview", messages=[ {"role": "system", "content": "You are a concise programming assistant."}, {"role": "user", "content": "Write a Python function to fetch CSV from a URL and return pandas DataFrame."} ], max_tokens=800,)print(resp.choices[0].message.content)
Alasan: CometAPI mengekspos jembatan yang kompatibel dengan OpenAI di banyak dokumentasi mereka, yang memungkinkan Anda menggunakan kembali kode klien OpenAI yang ada hanya dengan mengganti
base_urldan nama model. Ini nyaman untuk eksperimen multi-penyedia dan prototyping cepat.
Contoh: memanggil Gemini melalui API resmi Gemini (Node.js / HTTP)
Endpoint resmi Gemini milik Google adalah yang terbaik untuk set fitur lengkap (kontrol thinking-level, function calling, unggahan multimodal). Di bawah ini contoh HTTP minimal menggunakan permukaan API Gemini yang dijelaskan dalam dokumentasi pengembang Google AI.
Cukup ganti Base URL dan API Key di SDK resmi atau permintaan untuk menggunakannya:
- Base URL:
https://api.cometapi.com(gantigenerativelanguage.googleapis.com) - API Key: Ganti
$GEMINI_API_KEYdengan$COMETAPI_KEY
Curl (API resmi Gemini — ilustratif)
curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
-H "x-goog-api-key: $COMETAPI_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "How does AI work?"
}
]
}
]
}'
Parameter umum yang akan Anda setel
temperature(0.0–1.0) — tingkat keacakan. Gunakan0.0untuk output kode deterministik.max_output_tokens/max_tokens— batas panjang output.top_p— nucleus sampling.presence_penalty/frequency_penalty— mengurangi pengulangan.thinking_levelatau varian model — menentukan kedalaman penalaran (mis.,-low,-medium,-highatauthinking_leveleksplisit). Gunakan thinking level terendah yang memenuhi kebutuhan akurasi untuk mengendalikan biaya/latensi.
Apa kapabilitas multimodal Gemini 3.1 Pro?
Modalitas apa yang didukung Gemini 3.1 Pro?
Gemini 3.1 Pro menerima teks, gambar, video, audio, dan PDF di banyak build pratinjau — dan dapat mensintesis output teks yang mereferensikan atau merangkum konten multimodal. Comet mendukung penerusan input multimodal ke Gemini — baik melalui image URL, file upload (Comet file API), atau dengan membiarkan Gemini membaca file yang disimpan di cloud storage.
Bagaimana sebaiknya pengembang menyusun prompt multimodal?
- Strukturkan prompt multimodal dengan blok konteks yang jelas: misalnya, sertakan instruksi teks singkat terlebih dahulu, kemudian lampirkan metadata atau pointer untuk gambar/video/PDF.
- Gunakan lampiran media dan field unggah file di SDK daripada menyematkan data biner di field teks — klien resmi dan contoh Vertex AI / Gemini API menunjukkan cara mengirim media attachment dengan bersih.
Contoh praktis (pseudocode): tampilkan gambar plus pertanyaan
# Pseudocode — attach an image with a caption and ask a questionfrom google.gemini import GemSDK # conceptual import; use official client per docsresponse = client.generate( model="gemini-3.1-pro-preview", inputs = [ {"type": "text", "content": "Summarize the visual diagram and list actionable next steps."}, {"type": "image", "uri": "gs://my-bucket/diagram.png", "alt": "system architecture diagram"} ])print(response.text)
Tips praktis:
- Gunakan lampiran gambar untuk triase bug UI: lampirkan screenshot dan minta diff atau kemungkinan penyebab.
- Gabungkan transkripsi audio dengan contoh kode untuk ringkasan rekaman wawancara.
- Saat mengirim artefak besar (video, codebase besar), lebih baik pendekatan bertahap: unggah aset (cloud storage), kirim URL + manifest singkat, dan gunakan model untuk menggerakkan pipeline yang ditingkatkan dengan pengambilan ulang alih-alih memasukkan semuanya dalam satu prompt.
Apa itu Thinking Levels (Rendah, Menengah, Tinggi) dan kapan harus menggunakannya?
Apa itu “thinking levels”?
Seri Gemini 3 memperkenalkan parameter thinking_level yang mengarahkan anggaran compute/rantai-penalaran internal model. Anggap ini sebagai kenop yang menukar latensi + biaya dengan kedalaman penalaran yang meningkat:
- Rendah: penalaran minimal, dioptimalkan untuk throughput dan tugas pendek yang deterministik.
- Menengah: penalaran seimbang — baru di 3.1 dan ideal untuk banyak alur kerja rekayasa dan analitik.
- Tinggi: penalaran lebih dalam, gaya rantai-penalaran dinamis; terbaik untuk masalah kompleks multi-langkah.
(Ada juga nomenklaturminimal/maxdi varian lain — lihat dokumentasi model untuk opsi yang tersedia per varian.)
Bagaimana memilih thinking level?
- Gunakan Rendah untuk chat pengguna throughput tinggi, instruksi pendek, atau saat biaya/latensi kritis.
- Gunakan Menengah sebagai default untuk sebagian besar tugas pengembang yang membutuhkan penalaran terukur (ini adalah “sweet spot” baru di 3.1).
- Gunakan Tinggi saat memecahkan teka-teki, melakukan rantai logika panjang, perencanaan, atau saat Anda secara eksplisit menginginkan fidelitas tinggi dan bersedia menerima peningkatan latensi dan konsumsi token.
Cara menyetel thinking level dalam permintaan
curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
-H "x-goog-api-key: $COMETAPI_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{ "parts": [{ "text": "Explain quantum physics simply." }] }],
"generationConfig": {
"thinkingConfig": {
"thinkingLevel": "LOW"
}
}
}'
Bagaimana mengimplementasikan function calling dan pemakaian tool dengan Gemini 3.1 Pro?
Apa itu function calling / pemakaian tool?
Function calling (disebut juga pemakaian tool) memungkinkan model mengeluarkan objek “call” terstruktur yang memberi tahu aplikasi Anda tool atau fungsi eksternal mana yang harus dijalankan (misalnya, get_current_weather(location)) dan dengan argumen apa. Model dapat merangkai beberapa panggilan, menerima output tool, dan melanjutkan penalaran — memungkinkan perilaku agentik. SDK Gemini menawarkan dukungan bawaan untuk loop model-ke-tool (MCP/registry tool) sehingga Anda dapat mengotomatiskan eksekusi dengan aman.
Anda dapat mendeklarasikan tool dalam konfigurasi untuk mengaktifkan perilaku proxy. Tool bawaan yang didukung termasuk google_search, code_execution, dan url_context custom functions.
Pola aman untuk pemakaian tool
- Deklarasikan antarmuka tool: daftarkan fungsi/tool dengan skema yang jelas dan tipe argumen tervalidasi.
- Biarkan model mengusulkan panggilan: model mengeluarkan JSON terstruktur yang menjelaskan tool mana yang akan dipanggil.
- Host mengeksekusi tool yang diizinkan saja: terapkan daftar izin (allowlist) dan validasi ketat.
- Kembalikan output tool ke model: loop SDK memberi respons tool kembali ke model agar dapat melanjutkan perencanaan/mengeksekusi panggilan lanjutan.
Panduan integrasi Gemini 3.1 Pro
GitHub Copilot
GitHub Copilot (Copilot) telah menambahkan dukungan untuk model keluarga Gemini pada tier premium, memungkinkan tim memilih Gemini sebagai model dasar untuk chat dan saran Copilot. Artinya pengguna pada paket yang memenuhi syarat dapat memilih varian Gemini di pemilih model Copilot, menikmati peningkatan di tingkat model tanpa mengubah ekstensi IDE mereka. Untuk tim, Copilot tetap menjadi jalur terkelola yang nyaman untuk penalaran Gemini di dalam VS Code dan editor lain yang didukung.
Gemini CLI dan Code Assist
Open-source Gemini CLI mengekspos model Gemini ke terminal; ringan dan terintegrasi dengan alur kerja yang ada (diff, commit, CI, dan run di server headless). Gunakan CLI untuk iterasi cepat, skrip run agen, atau menanamkan model dalam alur DevOps. Gemini Code Assist adalah ekstensi VS Code dan integrasi IDE yang lebih luas yang menghadirkan saran kode kontekstual, ulasan PR, dan perbaikan otomatis langsung di editor. Alat ini memungkinkan Anda mengontrol pemilihan model, jendela konteks, dan preferensi thinking level.
Visual Studio Code
Visual Studio Code dan marketplace-nya menampung GitHub Copilot dan Gemini Code Assist. Anda dapat memasang Code Assist untuk Gemini atau tetap menggunakan Copilot; masing-masing menawarkan tradeoff berbeda (kecepatan, kedalaman, privasi). VS Code tetap menjadi permukaan paling matang untuk generasi kode interaktif, chat di editor, dan integrasi langsung dengan run lokal atau harness pengujian.
Google Antigravity
Google Antigravity adalah IDE dan platform berorientasi agen yang memperlakukan agen sebagai warga kelas satu, menawarkan “Mission Control” untuk orkestrasi agen, otomasi browser bawaan, dan UI untuk proyek multi-agen. Antigravity dan Gemini CLI melayani kebutuhan yang berbeda: Antigravity adalah permukaan IDE agentik lengkap; Gemini CLI bersifat terminal-native tetapi terintegrasi ke Antigravity dan VS Code melalui ekstensi dan server MCP (Model Context Protocol). Ekosistem Antigravity diposisikan untuk tim yang menginginkan orkestrasi agen berat dan permukaan visual yang lebih beropini.
Siapa sebaiknya menggunakan apa?
- Prototyping cepat & edit file tunggal: Gemini CLI + pengujian lokal atau Copilot untuk kecepatan.
- Penalaran mendalam, riset jangka panjang: Gemini API (Vertex) dengan thinking level tinggi dan function-calling.
- Orkestrasi agentik & otomasi multi-langkah: Antigravity untuk manajemen visual atau pipa agen kustom menggunakan function calling + MCP.
- Eksperimen multi-penyedia / kontrol biaya: Gunakan CometAPI atau agregator serupa untuk mengganti model atau mencoba Flash vs Pro secara ekonomis.
Pertimbangan desain untuk integrasi:
- Keamanan: hindari mengirim rahasia atau PII dalam prompt. Gunakan service account bertoken lingkup untuk panggilan sisi server.
- Lokal vs cloud: jalankan fitur asisten ringan secara lokal (kompletasi cepat) tetapi rute analisis multimodal berat ke cloud.
- Kontrol pengguna: sediakan “jelaskan saran ini” dan kontrol rollback yang mudah untuk edit kode yang dihasilkan model.
Pola integrasi & arsitektur yang direkomendasikan
Aplikasi ringan (chat atau asisten)
- Klien (browser/mobile) → backend microservice → Gemini API (thinking_level=low)
- Gunakan streaming / output parsial untuk UX chat. Validasi input pengguna, dan jangan pernah mengizinkan panggilan tool mentah dari klien yang tidak tepercaya.
Backend agentik (alur kerja otomatis)
- Layanan orkestrator: daftarkan set kecil tool yang diizinkan (DB read, CI job runner, API internal).
- Biarkan Gemini merencanakan dan mengeluarkan panggilan tool; orkestrator mengeksekusi panggilan tervalidasi dan mengembalikan hasil. Gunakan thinking_level tinggi untuk fase perencanaan dan menengah untuk langkah eksekusi.
Pipeline ingest multimodal
Pra-proses dan indeks dokumen besar, gambar, atau video.
Kapan Anda harus memilih Gemini 3.1 Pro?
Pilih Gemini 3.1 Pro saat Anda membutuhkan:
- penalaran multi-langkah berkualitas tinggi di seluruh input multimodal;
- orkestrasi tool yang andal dan alur kerja agentik;
- loop sintesis/edit kode yang lebih baik di IDE (via Copilot/CLI/Antigravity); atau
- prototyping perbandingan lintas penyedia dengan gateway seperti CometAPI.
Jika Anda peduli throughput dan biaya, terapkan strategi campuran: default ke menengah untuk sebagian besar alur kerja, rendah untuk chat pengguna throughput tinggi, dan tinggi hanya untuk tugas yang terbukti membutuhkan penalaran lebih dalam (perencanaan, pembuktian, sintesis multi-langkah).
Pemikiran akhir: posisi Gemini 3.1 Pro dalam stack
Gemini 3.1 Pro menegaskan kembali apa yang harus ditawarkan LLM modern yang berorientasi pengembang: pemahaman multimodal, orkestrasi tool eksplisit, dan kontrol pragmatis untuk anggaran penalaran. Baik Anda mengaksesnya langsung melalui API Google dan Vertex, melalui Copilot pada paket premium, atau melalui platform multi-model seperti CometAPI, keterampilan kritis untuk tim tetap sama: orkestrasi thinking-level yang hati-hati, pola function-calling yang aman, dan integrasi ke alur kerja pengembang yang solid (CLI, IDE, pengujian otomatis).
Pengembang dapat mengakses Gemini 3.1 Pro via CometAPI sekarang. Untuk memulai, jelajahi kapabilitas model di Playground dan lihat API guide untuk instruksi detail. Sebelum mengakses, pastikan Anda telah login ke CometAPI dan memperoleh API key. CometAPI menawarkan harga jauh lebih rendah daripada harga resmi untuk membantu Anda berintegrasi.
Siap Mulai?→ Sign up fo Gemini 3.1 pro today !
Jika Anda ingin mengetahui lebih banyak tips, panduan, dan berita AI, ikuti kami di VK, X dan Discord!
