Cara menggunakan Gemini 3.1 pro API

CometAPI
AnnaFeb 21, 2026
Cara menggunakan Gemini 3.1 pro API

Panduan praktikal berorientasikan kod untuk Gemini 3.1 Pro — apa itu, cara memanggilnya (termasuk melalui CometAPI), kawalan multimodal dan “thinking level”, pemanggilan fungsi/penggunaan alat, petua vibe-coding, serta integrasi dengan GitHub Copilot, VS Code, Gemini CLI, dan Google Antigravity. Gemini 3.1 Pro sedang memacu hadapan model multimodal berskala besar dengan cerita pembangun yang berfokus: tetingkap konteks lebih besar, mod “thinking” boleh dikonfigurasi, penambahbaikan pemanggilan alat/fungsi, dan sokongan jelas untuk aliran kerja berjentera (agentic).

Apakah Gemini 3.1 Pro?

Gemini 3.1 Pro ialah tingkat “Pro” terbaharu dalam keluarga Gemini 3: model secara asli multimodal, berorientasikan penaakulan, ditala untuk tugas kompleks berbilang langkah dan penggunaan alat berjentera. Ia diketengahkan sebagai penambahbaikan berbanding Gemini 3 Pro dengan tiga fokus praktikal: penaakulan/pembumian fakta yang lebih kukuh, kecekapan token yang lebih baik dan mod pelaksanaan boleh kawal yang disasarkan pada aliran kerja pembangun (kod, perancangan, tugas diperkaya pengambilan semula). Kad model dan halaman pembangun menerangkannya sebagai dioptimumkan untuk tingkah laku kejuruteraan perisian, saluran paip berjentera, dan input multimodal (teks, imej, audio, video dan repositori).

Mengapa ia penting untuk anda: gabungan tetingkap konteks sejuta token (pada banyak varian pembekal), primitif pemanggilan fungsi yang jelas, dan kawalan “thinking level” memberi pasukan kos dan output yang lebih boleh dijangka untuk segala-galanya daripada prototaip pantas hingga orkestrasi agen produksi. CometAPI sudah memaparkan 3.1 Pro melalui pasaran API dan jambatan serasi OpenAI, menawarkan corak akses bayar mengikut penggunaan.

Bagaimana menggunakan API Gemini 3.1 Pro (CometAPI)?

Apa yang diperlukan sebelum bermula?

Senarai semak (prasyarat)

  • Akaun CometAPI dan kunci API CometAPI (simpan dalam pembolehubah persekitaran).
  • Pilihan: projek Google Cloud / Google AI Studio & kunci API Gemini jika anda menghubungi Google secara langsung (tidak diperlukan apabila melalui Comet).
  • python 3.9+ atau node 18+, curl tersedia untuk ujian pantas.
  • Mekanisme rahsia yang selamat: pembolehubah persekitaran, vault, atau stor rahsia CI.
  • Sahkan id model Comet untuk Gemini 3.1 Pro dalam konsol Comet anda (cth. "google/gemini-3.1-pro" atau alias khusus Comet).

CometAPI menyokong panggilan format asli Gemini, serta panggilan format chat OpenAI. CometAPI memudahkan pertukaran model, menawarkan URL asas tunggal dan SDK, serta boleh mengurangkan geseran integrasi bagi timbunan pelbagai vendor.

Di bawah ialah dua contoh konkrit yang mesra salin-tampal: pertama memanggil Gemini melalui CometAPI (klien serasi OpenAI), dan kedua memanggil Gemini melalui titik akhir HTTP rasmi Gemini Google. Gantikan YOUR_API_KEY dengan kunci pembekal anda dan tetapkan nama model kepada varian yang tersedia dari pembekal (cth., gemini-3.1-pro-preview jika didedahkan).

Contoh: memanggil Gemini 3.1 Pro menggunakan CometAPI (curl + Python)

Curl (pembalut serasi OpenAI menggunakan URL asas CometAPI)

# curl example: CometAPI (OpenAI-compatible)curl https://api.cometapi.com/v1/chat/completions \  -H "Authorization: Bearer YOUR_API_KEY" \  -H "Content-Type: application/json" \  -d '{    "model": "gemini-3.1-pro-preview",    "messages": [      {"role":"system","content":"You are a concise programming assistant."},      {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    "max_tokens": 800  }'

Python (klien serasi OpenAI dikonfigurasikan kepada base_url CometAPI)

from openai import OpenAI  # or openai-python-compatible SDK offered by your platformclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.cometapi.com/v1")resp = client.chat.completions.create(    model="gemini-3.1-pro-preview",    messages=[        {"role": "system", "content": "You are a concise programming assistant."},        {"role": "user", "content": "Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    max_tokens=800,)print(resp.choices[0].message.content)

Rasional: CometAPI mendedahkan jambatan serasi OpenAI dalam banyak dokumentasi mereka, yang membolehkan anda menggunakan semula kod klien OpenAI sedia ada dengan hanya menukar base_url dan nama model. Ini mudah untuk eksperimen pelbagai pembekal dan prototaip pantas.

Contoh: memanggil Gemini melalui API rasmi Gemini (Node.js / HTTP)

Titik akhir rasmi Gemini Google adalah terbaik untuk set ciri penuh (kawalan thinking-level, pemanggilan fungsi, muat naik multimodal). Di bawah ialah contoh HTTP minimum menggunakan permukaan API Gemini seperti yang diterangkan dalam dokumen pembangun Google AI.

Hanya gantikan Base URL dan API Key dalam SDK rasmi atau permintaan untuk menggunakannya:

  • Base URL: https://api.cometapi.com (gantikan generativelanguage.googleapis.com)
  • API Key: Gantikan $GEMINI_API_KEY dengan $COMETAPI_KEY anda

Curl (API rasmi Gemini — ilustratif)

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "How does AI work?"
          }
        ]
      }
    ]
  }'

Parameter biasa yang akan anda tetapkan

  • temperature (0.0–1.0) — kebarangkalian rawak. Gunakan 0.0 untuk output kod deterministik.
  • max_output_tokens / max_tokens — bajet panjang output.
  • top_p — pensampelan nucleus.
  • presence_penalty / frequency_penalty — mengurangkan pengulangan.
  • thinking_level atau varian model — menentukan kedalaman penaakulan (cth., -low, -medium, -high atau thinking_level yang eksplisit). Gunakan thinking level terendah yang memenuhi keperluan ketepatan untuk mengawal kos/latensi.

Apakah keupayaan multimodal Gemini 3.1 Pro?

Modality apa yang disokong Gemini 3.1 Pro?

Gemini 3.1 Pro menerima teks, imej, video, audio, dan PDF dalam banyak binaan pratonton — dan boleh mensintesis output teks yang merujuk atau merumuskan kandungan multimodal. Comet menyokong pemajuan input multimodal ke Gemini — sama ada melalui URL imej, muat naik fail (API fail Comet), atau membenarkan Gemini membaca fail yang disimpan dalam storan awan.

Bagaimana pembangun harus berfikir tentang prom daripada multimodal?

  • Strukturkan prom multimodal dengan blok konteks yang jelas: sebagai contoh, sertakan arahan teks ringkas dahulu, kemudian lampirkan metadata atau penunjuk untuk imej/video/PDF.
  • Gunakan lampiran media dan medan muat naik fail dalam SDK dan bukannya membenamkan data binari dalam medan teks — klien rasmi dan contoh Vertex AI / API Gemini menunjukkan cara menyerahkan lampiran media dengan kemas.

Contoh praktikal (pseudokod): paparkan imej bersama soalan

# Pseudocode — attach an image with a caption and ask a questionfrom google.gemini import GemSDK  # conceptual import; use official client per docsresponse = client.generate(    model="gemini-3.1-pro-preview",    inputs = [        {"type": "text", "content": "Summarize the visual diagram and list actionable next steps."},        {"type": "image", "uri": "gs://my-bucket/diagram.png", "alt": "system architecture diagram"}    ])print(response.text)

Petua praktikal:

  • Gunakan lampiran imej untuk triage pepijat UI: lampirkan tangkapan skrin dan minta perbezaan atau punca yang berkemungkinan.
  • Gabungkan transkripsi audio dengan sampel kod untuk peringkasan rakaman temu duga.
  • Apabila menghantar artifak besar (video, pangkalan kod besar), utamakan pendekatan berperingkat: muat naik aset (storan awan), hantarkan URL + manifest ringkas, dan gunakan model untuk memacu saluran paip diperkaya pengambilan semula dan bukannya memasukkan segala-galanya dalam satu prom.

Apakah Thinking Levels (Rendah, Sederhana, Tinggi) dan bila harus digunakan?

Apakah “thinking levels”?

Siri Gemini 3 memperkenalkan parameter thinking_level yang membimbing bajet pengiraan/rantaian pemikiran dalaman model. Anggap ia seperti tombol yang menukar latensi + kos untuk meningkatkan kedalaman penaakulan:

  • Rendah: penaakulan minimum, dioptimumkan untuk throughput dan tugas pendek yang deterministik.
  • Sederhana: penaakulan seimbang — baharu dalam 3.1 dan sesuai untuk banyak aliran kerja kejuruteraan dan analitik.
  • Tinggi: penaakulan lebih mendalam, gaya rantaian pemikiran dinamik; terbaik untuk masalah kompleks berbilang langkah.
    (Terdapat juga penamaan minimal/max dalam varian lain — rujuk dokumen model untuk pilihan tepat yang tersedia bagi setiap varian.)

Bagaimana memilih thinking level?

  • Gunakan Rendah untuk chat pengguna ber-throughput tinggi, arahan pendek, atau apabila kos/latensi kritikal.
  • Gunakan Sederhana sebagai lalai untuk kebanyakan tugas pembangun yang memerlukan tahap penaakulan berukur (ini ialah “titik manis” baharu dalam 3.1).
  • Gunakan Tinggi apabila menyelesaikan teka-teki, melakukan rantaian logik panjang, perancangan, atau apabila anda secara jelas mahukan fideliti tinggi dan bersedia menerima peningkatan latensi serta penggunaan token.

Cara menetapkan thinking level dalam permintaan

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{ "parts": [{ "text": "Explain quantum physics simply." }] }],
    "generationConfig": {
      "thinkingConfig": {
        "thinkingLevel": "LOW"
      }
    }
  }'

Bagaimana melaksanakan pemanggilan fungsi dan penggunaan alat dengan Gemini 3.1 Pro?

Apakah pemanggilan fungsi / penggunaan alat?

Pemanggilan fungsi (juga dipanggil penggunaan alat) membolehkan model mengeluarkan objek “call” berstruktur yang memberitahu aplikasi anda alat atau fungsi luaran mana yang perlu dijalankan (contohnya, get_current_weather(location)) dan dengan argumen apa. Model boleh merantai berbilang panggilan, menerima output alat, dan meneruskan penaakulan — membolehkan tingkah laku berjentera. SDK Gemini menawarkan sokongan terbina dalam untuk gelung model-ke-alat (MCP/daftar alat) supaya anda boleh mengautomasi pelaksanaan dengan selamat.

Anda boleh mengisytiharkan alat dalam konfigurasi untuk membolehkan kelakuan proksi. Alat terbina dalam yang disokong termasuk fungsi tersuai google_search, code_execution, dan url_context.

Corak selamat untuk penggunaan alat

  1. Isytihar antara muka alat: daftar fungsi/alat dengan skema jelas dan jenis argumen yang disahkan.
  2. Benarkan model mencadangkan panggilan: model mengeluarkan JSON berstruktur yang menerangkan alat mana yang hendak dipanggil.
  3. Hos hanya melaksanakan alat yang disenarai putih: kuatkuasakan senarai benarkan dan pengesahan yang ketat.
  4. Kembalikan output alat kepada model: gelung SDK menyuapkan respons alat kembali kepada model supaya ia boleh meneruskan perancangan/melaksanakan lebih banyak panggilan.

Panduan Integrasi Gemini 3.1 Pro

GitHub Copilot

GitHub Copilot (Copilot) telah menambah sokongan untuk model keluarga Gemini pada lapisan premium, membolehkan pasukan memilih varian Gemini sebagai model asas untuk chat dan cadangan Copilot. Ini bermakna pengguna pada pelan yang layak boleh memilih varian Gemini dalam pemilih model Copilot, menikmati penambahbaikan peringkat model tanpa menukar sambungan IDE mereka. Untuk pasukan, Copilot kekal sebagai laluan terurus yang mudah ke penaakulan Gemini dalam VS Code dan editor lain yang disokong.

Gemini CLI dan Code Assist

Gemini CLI sumber terbuka mendedahkan model Gemini ke terminal; ia ringan dan berintegrasi dengan aliran kerja sedia ada (diff, komit, CI, dan run pelayan tanpa kepala). Gunakan CLI untuk iterasi pantas, menjalankan agen melalui skrip, atau membenamkan model dalam aliran DevOps. Gemini Code Assist ialah sambungan VS Code dan integrasi IDE yang lebih luas yang membawa cadangan kod peka konteks, semakan PR dan pembaikan automatik terus ke editor. Alat ini membolehkan anda mengawal pemilihan model, tetingkap konteks, dan keutamaan thinking level.

Visual Studio Code

Visual Studio Code dan pasarannya menempatkan kedua-dua GitHub Copilot dan Gemini Code Assist. Anda boleh memasang Code Assist untuk Gemini atau terus menggunakan Copilot; setiap satu menawarkan pertukaran berbeza (kelajuan, kedalaman, privasi). VS Code kekal sebagai permukaan paling matang untuk penjanaan kod interaktif, chat dalam editor dan integrasi langsung dengan run setempat atau rangka uji.

Google Antigravity

Google Antigravity ialah IDE dan platform berjentera yang mengangkat agen sebagai entiti kelas pertama, menawarkan “Mission Control” untuk orkestrasi agen, automasi pelayar terbina dalam, dan UI untuk projek berbilang agen. Antigravity dan Gemini CLI memenuhi keperluan berbeza: Antigravity ialah permukaan IDE berjentera sepenuhnya; Gemini CLI adalah asli terminal tetapi berintegrasi ke Antigravity dan VS Code melalui sambungan dan pelayan MCP (Model Context Protocol). Ekosistem Antigravity diposisikan untuk pasukan yang mahukan orkestrasi agen yang berat dan permukaan visual yang lebih berpendapat.

Siapa patut menggunakan apa?

  • Prototaip pantas & suntingan fail tunggal: Gemini CLI + ujian setempat atau Copilot untuk kelajuan.
  • Penaakulan mendalam, kajian jangka panjang: API Gemini (Vertex) dengan thinking level tinggi dan pemanggilan fungsi.
  • Orkestrasi berjentera & automasi berbilang langkah: Antigravity untuk pengurusan visual atau saluran paip agen khusus menggunakan pemanggilan fungsi + MCP.
  • Eksperimen pelbagai pembekal / kawalan kos: Gunakan CometAPI atau pengagregator seumpamanya untuk menukar model atau mencuba Flash vs Pro secara ekonomik.

Pertimbangan reka bentuk untuk integrasi:

  • Keselamatan: elakkan menghantar rahsia atau PII dalam prom. Gunakan akaun perkhidmatan berskala token untuk panggilan sisi pelayan.
  • Setempat vs awan: jalankan ciri pembantu ringan secara setempat (penyempurnaan pantas) tetapi salurkan analisis multimodal berat ke awan.
  • Kawalan pengguna: dedahkan “terangkan cadangan ini” dan kawalan undur yang mudah untuk suntingan kod yang dihasilkan oleh model.

Corak integrasi & seni bina yang disyorkan

Aplikasi ringan (chat atau pembantu)

  • Klien (pelayar/peranti mudah alih) → mikroservis backend → API Gemini (thinking_level=low)
  • Gunakan penstriman / output separa untuk UX chat. Sahkan input pengguna, dan jangan sekali-kali membenarkan panggilan alat mentah daripada klien yang tidak dipercayai.

Backend berjentera (aliran kerja automatik)

  • Servis pengorak: daftar set kecil alat yang disenarai putih (bacaan DB, pelari kerja CI, API dalaman).
  • Benarkan Gemini merancang dan mengeluarkan panggilan alat; pengorak melaksanakan panggilan yang disahkan dan mengembalikan hasil. Gunakan thinking_level tinggi untuk fasa perancangan dan sederhana untuk langkah pelaksanaan.

Saluran paip pengambilan multimodal

Praproses dan indeks dokumen besar, imej, atau video.

Bila harus memilih Gemini 3.1 Pro?

Pilih Gemini 3.1 Pro apabila anda memerlukan:

  • penaakulan berbilang langkah berkefideliti tinggi merentas input multimodal;
  • orkestrasi alat dan aliran kerja berjentera yang boleh dipercayai;
  • gelung sintesis/suntingan kod yang lebih baik dalam IDE (melalui Copilot/CLI/Antigravity); atau
  • memprototaip perbandingan silang pembekal dengan gerbang seperti CometAPI.

Jika anda mengambil berat tentang throughput dan kos, gunakan strategi campuran: lalai kepada sederhana untuk kebanyakan aliran kerja, rendah untuk chat pengguna ber-throughput tinggi, dan tinggi hanya untuk tugas yang terbukti memerlukan penaakulan lebih mendalam (perancangan, pembuktian, sintesis berbilang langkah).

Fikiran akhir: kedudukan Gemini 3.1 Pro dalam timbunan

Gemini 3.1 Pro menumpukan pada perkara yang mesti ditawarkan oleh LLM berwajah pembangun moden: pemahaman multimodal, orkestrasi alat yang eksplisit, dan kawalan pragmatik untuk bajet penaakulan. Sama ada anda mengaksesnya secara langsung melalui API Google dan Vertex, melalui Copilot pada pelan premium, atau melalui platform pelbagai model seperti CometAPI, kemahiran kritikal untuk pasukan adalah sama: orkestrasi thinking level yang teliti, corak pemanggilan fungsi yang selamat, dan integrasi ke dalam aliran kerja pembangun yang kukuh (CLI, IDE, ujian automatik).

Pembangun boleh mengakses Gemini 3.1 Pro melalui CometAPI sekarang. Untuk bermula, terokai keupayaan model dalam Playground dan rujuk Panduan API untuk arahan terperinci. Sebelum mengakses, pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga jauh lebih rendah daripada harga rasmi untuk membantu integrasi anda.

Sedia untuk bermula?→ Daftar Gemini 3.1 Pro hari ini !

Jika anda mahu lebih banyak petua, panduan dan berita tentang AI, ikuti kami di VK, X dan Discord!

Akses Model Terbaik dengan Kos Rendah

Baca Lagi