Sådan bruger du Gemini 3.1 pro API

CometAPI
AnnaFeb 21, 2026
Sådan bruger du Gemini 3.1 pro API

En praktisk, kodefokuseret guide til Gemini 3.1 Pro — hvad det er, hvordan man kalder det (inklusive via CometAPI), dets multimodale og “thinking level”-kontroller, funktionskald/værktøjsbrug, vibe-coding tips og integrationer med GitHub Copilot, VS Code, Gemini CLI og Google Antigravity. Gemini 3.1 Pro rykker grænsen for store multimodale modeller med en fokuseret udviklerhistorie: større kontekstvinduer, konfigurerbare “thinking”-tilstande, forbedret værktøjs- og funktionskald samt eksplicit support for agentiske workflows.

Hvad er Gemini 3.1 Pro?

Gemini 3.1 Pro er det nyeste “Pro”-niveau i Gemini 3-familien: en naturligt multimodal, reasoning-first model tunet til komplekse, flertrinsopgaver og agentisk værktøjsbrug. Den præsenteres som en forfining af Gemini 3 Pro med tre praktiske fokusområder: stærkere reasoning/faktuel forankring, bedre token-effektivitet og kontrollerbare eksekveringstilstande målrettet udvikler-workflows (kode, planlægning, retrieval-forstærkede opgaver). Modelkortet og udviklersiderne beskriver den som optimeret til software engineering-adfærd, agentiske pipelines og multimodale input (tekst, billeder, lyd, video og repositorier).

Hvorfor det er relevant for dig: kombinationen af et kontekstvindue på en million tokens (på mange udbydervarianter), eksplicitte funktionskald-primitiver og “thinking level”-kontroller giver teams mere forudsigelige omkostninger og outputs til alt fra hurtig prototyping til orkestrering af produktionsagenter. CometAPI eksponerer allerede 3.1 Pro via API-markedspladser og OpenAI-kompatible broer, og tilbyder pay-as-you-go adgangsmønstre.

Hvordan kan du bruge Gemini 3.1 Pro API (CometAPI)?

Hvad skal jeg have, før jeg starter?

Tjekliste (forudsætninger)

  • En CometAPI-konto og en CometAPI API-nøgle (opbevar den i miljøvariabler).
  • Valgfrit et Google Cloud / Google AI Studio-projekt & Gemini API-nøgle, hvis du nogen sinde kalder Google direkte (ikke påkrævet ved brug af Comet).
  • python 3.9+ eller node 18+, curl tilgængelig til hurtige tests.
  • En sikker hemmelighedsmekanisme: env vars, vault eller CI secret store.
  • Bekræft Comet-model-id’et for Gemini 3.1 Pro i din Comet-konsol (fx "google/gemini-3.1-pro" eller et Comet-specifikt alias).

CometAPI understøtter Gemini native-formatkald samt OpenAIs chat-formatkald. CometAPI forenkler modelskift, tilbyder en enkelt base-URL og SDK’er og kan reducere integrationsfriktion for multi-leverandør-stakke.

Nedenfor er to konkrete, copy-paste-venlige eksempler: først kald Gemini via CometAPI (OpenAI-kompatibel klient), og dernæst kald Gemini via Googles officielle Gemini HTTP-endpoint. Erstat YOUR_API_KEY med din udbydernøgle og sæt modelnavne til den variant, udbyderen eksponerer (fx gemini-3.1-pro-preview hvor tilgængelig).

Eksempel: kald Gemini 3.1 Pro med CometAPI (curl + Python)

Curl (OpenAI-kompatibel wrapper med CometAPI-base-URL)

# curl example: CometAPI (OpenAI-compatible)curl https://api.cometapi.com/v1/chat/completions \  -H "Authorization: Bearer YOUR_API_KEY" \  -H "Content-Type: application/json" \  -d '{    "model": "gemini-3.1-pro-preview",    "messages": [      {"role":"system","content":"You are a concise programming assistant."},      {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    "max_tokens": 800  }'

Python (OpenAI-kompatibel klient konfigureret til CometAPI base_url)

from openai import OpenAI  # or openai-python-compatible SDK offered by your platformclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.cometapi.com/v1")resp = client.chat.completions.create(    model="gemini-3.1-pro-preview",    messages=[        {"role": "system", "content": "You are a concise programming assistant."},        {"role": "user", "content": "Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    max_tokens=800,)print(resp.choices[0].message.content)

Begrundelse: CometAPI eksponerer en OpenAI-kompatibel bro i mange af deres docs, hvilket lader dig genbruge eksisterende OpenAI-klientkode ved blot at ændre base_url og modelnavn. Dette er praktisk til multi-udbydereksperimenter og hurtig prototyping.

Eksempel: kald Gemini via den officielle Gemini API (Node.js / HTTP)

Googles officielle Gemini-endpoints er bedst til det fulde funktionssæt (thinking-level-kontroller, funktionskald, multimodale uploads). Nedenfor er et minimalt HTTP-eksempel ved brug af Gemini API-overfladen beskrevet i Google AI-udviklerdocs.

Erstat blot base-URL og API-nøgle i den officielle SDK eller dine requests for at bruge den:

  • Base URLhttps://api.cometapi.com (erstat generativelanguage.googleapis.com)
  • API Key: Erstat $GEMINI_API_KEY med din $COMETAPI_KEY

Curl (officiel Gemini API — illustrativt)

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "How does AI work?"
          }
        ]
      }
    ]
  }'

Almindelige parametre, du vil sætte

  • temperature (0.0–1.0) — tilfældighed. Brug 0.0 for deterministiske kodeoutput.
  • max_output_tokens / max_tokens — outputlængde-budget.
  • top_p — nucleus sampling.
  • presence_penalty / frequency_penalty — modvirk gentagelser.
  • thinking_level eller modelvariant — bestemmer reasoning-dybde (fx -low, -medium, -high eller eksplicit thinking_level). Brug det laveste thinking level, der opfylder nøjagtighedsbehovene, for at styre omkostning/latens.

Hvad er de multimodale kapaciteter i Gemini 3.1 Pro?

Hvilke modaliteter understøtter Gemini 3.1 Pro?

Gemini 3.1 Pro accepterer tekst, billeder, video, lyd og PDF’er i mange preview-builds — og kan syntetisere tekstoutput, der refererer til eller opsummerer multimodalt indhold. Comet understøtter videresendelse af multimodale input til Gemini — enten via billed-URL, filupload (Comet file API) eller ved at lade Gemini læse filer, der er gemt i cloud storage.

Hvordan bør udviklere tænke om multimodale prompts?

  • Strukturér multimodale prompts med klare kontekstblokke: inkluder for eksempel den korte tekstinstruktion først, og vedhæft derefter metadata eller henvisninger til billeder/videoer/PDF’er.
  • Brug SDK’ens medievedhæftninger og filupload-felter i stedet for at indlejre binære data i tekstfelter — de officielle klienter og Vertex AI / Gemini API-eksempler demonstrerer, hvordan man passer medievedhæftninger rent.

Praktisk eksempel (pseudokode): vis et billede plus et spørgsmål

# Pseudocode — attach an image with a caption and ask a questionfrom google.gemini import GemSDK  # conceptual import; use official client per docsresponse = client.generate(    model="gemini-3.1-pro-preview",    inputs = [        {"type": "text", "content": "Summarize the visual diagram and list actionable next steps."},        {"type": "image", "uri": "gs://my-bucket/diagram.png", "alt": "system architecture diagram"}    ])print(response.text)

Praktiske tips:

  • Brug billedvedhæftninger til UI-bug-triage: vedhæft et screenshot og bed om diffs eller sandsynlige årsager.
  • Kombinér lydtransskriptioner med kodeeksempler til opsummering af interviewoptagelser.
  • Når du sender store artefakter (videoer, store kodebaser), foretræk en trinvis tilgang: upload assets (cloud storage), videregiv URL’er + kort manifest, og brug modellen til at drive en retrieval-forstærket pipeline frem for at proppe alting ind i én prompt.

Hvad er Thinking Levels (Low, Medium, High), og hvornår bør jeg bruge dem?

Hvad er “thinking levels”?

Gemini 3-serien introducerer en thinking_level-parameter, der styrer modellens interne compute/chain-of-thought-budget. Tænk på det som en knap, der bytter latens + omkostning for øget dybde i reasoning:

  • Low: minimal reasoning, optimeret til throughput og korte, deterministiske opgaver.
  • Medium: balanceret reasoning — ny i 3.1 og ideel til mange engineering- og analytiske workflows.
  • High: dybere reasoning, dynamisk chain-of-thought-stil; bedst til komplekse flertrinsproblemer.
    (Der findes også en minimal/max-nomenklatur i andre varianter — se modeldocs for de præcise tilgængelige muligheder pr. variant.)

Hvordan skal jeg vælge et thinking level?

  • Brug Low til brugerchat med høj throughput, korte instruktioner eller når omkostning/latens er kritisk.
  • Brug Medium som standard til de fleste udvikleropgaver, der har brug for et afmålt niveau af reasoning (det er den nye “sweet spot” i 3.1).
  • Brug High ved løsning af gåder, lange logiske kæder, planlægning eller når du eksplicit ønsker høj troskab og accepterer øget latens og token-forbrug.

Sådan sætter du thinking level i en forespørgsel

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{ "parts": [{ "text": "Explain quantum physics simply." }] }],
    "generationConfig": {
      "thinkingConfig": {
        "thinkingLevel": "LOW"
      }
    }
  }'

Hvordan implementerer jeg funktionskald og værktøjsbrug med Gemini 3.1 Pro?

Hvad er funktionskald/værktøjsbrug?

Funktionskald (også kaldet værktøjsbrug) lader modellen afgive strukturerede “call”-objekter, som fortæller din applikation, hvilket eksternt værktøj eller hvilken funktion der skal køres (for eksempel get_current_weather(location)) og med hvilke argumenter. Modellen kan kæde flere kald, modtage værktøjsoutput og fortsætte reasoning — hvilket muliggør agentisk adfærd. Gemini SDK’er tilbyder indbygget support for model-til-værktøj-loopen (MCP/tool registry), så du kan automatisere eksekvering sikkert.

Du kan deklarere værktøjer i konfigurationen for at aktivere proxy-adfærd. Understøttede indbyggede værktøjer inkluderer google_search, code_execution og url_context brugerdefinerede funktioner.

Sikker praksis for værktøjsbrug

  1. Deklarér værktøjsgrænseflader: registrér funktioner/værktøjer med klare skemaer og validerede argumenttyper.
  2. Lad modellen foreslå kald: modellen afgiver struktureret JSON, der beskriver, hvilket værktøj der skal kaldes.
  3. Værten eksekverer kun whitelisten værktøjer: håndhæv en allowlist og streng validering.
  4. Returnér værktøjsoutput til modellen: SDK-loopen giver værktøjsresponsen tilbage til modellen, så den kan fortsætte planlægningen/eksekvere flere kald.

Gemini 3.1 Pro integrationsguide

GitHub Copilot

GitHub Copilot (Copilot) har siden tilføjet support for Gemini-familien på premium-niveauer, hvilket giver teams mulighed for at vælge Gemini som den underliggende model til Copilot-chat og forslag. Det betyder, at brugere på berettigede planer kan vælge Gemini-varianter i Copilot’s modelvælger og nyde model-forbedringer uden at ændre deres IDE-udvidelse. For teams er Copilot fortsat en bekvem managed vej til Gemini reasoning i VS Code og andre understøttede editorer.

Gemini CLI og Code Assist

Den open-source Gemini CLI eksponerer Gemini-modeller i terminalen; den er letvægts og integrerer med eksisterende workflows (diffs, commits, CI og headless server-kørsler). Brug CLI’en til hurtig iteration, scripting af agent-kørsler eller indlejring af modellen i DevOps-flows. Gemini Code Assist er VS Code-udvidelsen og bredere IDE-integration, der bringer kontekstbevidste kodeforslag, PR-reviews og automatiserede rettelser direkte ind i editoren. Disse værktøjer lader dig styre modelvalg, kontekstvinduer og thinking level-præferencer.

Visual Studio Code

Visual Studio Code og dets marketplace huser både GitHub Copilot og Gemini Code Assist. Du kan installere Code Assist til Gemini eller fortsætte med at bruge Copilot; hver tilbyder forskellige kompromiser (hastighed, dybde, privatliv). VS Code er fortsat den mest modne overflade til interaktiv kodegenerering, in-editor chat og direkte integration med lokale kørsler eller test-harnesses.

Google Antigravity

Google Antigravity er et agent-først IDE og platform, der behandler agenter som førsteklasses borgere, og tilbyder et “Mission Control” til agentorkestrering, indbygget browserautomatisering og en UI til multi-agent-projekter. Antigravity og Gemini CLI dækker forskellige behov: Antigravity er en fuld agentisk IDE-overflade; Gemini CLI er terminal-native men integrerer i Antigravity og VS Code via udvidelser og MCP (Model Context Protocol) servere. Antigravity-økosystemet er positioneret til teams, der ønsker tung agentorkestrering og en mere opinionspræget, visuel overflade.

Hvem bør bruge hvad?

  • Hurtig prototyping & enkeltfil-redigeringer: Gemini CLI + lokale tests eller Copilot for hastighed.
  • Dyb reasoning, langvarig research: Gemini API (Vertex) med højt thinking level og funktionskald.
  • Agentisk orkestrering & flertrins-automatisering: Antigravity til visuel styring eller en custom agentpipeline ved brug af funktionskald + MCP.
  • Multi-udbydereksperimenter / omkostningskontrol: Brug CometAPI eller lignende aggregators til at skifte modeller eller prøve Flash vs Pro økonomisk.

Designovervejelser for integration:

  • Sikkerhed: undgå at sende hemmeligheder eller PII i prompts. Brug token-afgrænsede servicekonti til server-side kald.
  • Lokalt vs cloud: kør lette assistentfunktioner lokalt (hurtige completions), men rut tung multimodal analyse til skyen.
  • Brugerkontrol: eksponér “forklar dette forslag” og nemme rollback-kontroller for kodeændringer produceret af modellen.

Integrationsmønstre og anbefalet arkitektur

Letvægtsapp (chat eller assistent)

  • Klient (browser/mobil) → backend-mikrotjeneste → Gemini API (thinking_level=low)
  • Brug streaming / delvise outputs til chat-UX. Validér brugerinput, og tillad aldrig rå værktøjskald fra utroværdige klienter.

Agent-baseret backend (automatiserede workflows)

  • Orkestrator-service: registrér et lille sæt whitelisten værktøjer (DB-læsning, CI job-runner, interne API’er).
  • Lad Gemini planlægge og afgive værktøjskald; orkestratoren eksekverer validerede kald og returnerer resultater. Brug højt thinking_level til planlægningsfaser og medium til eksekveringstrin.

Multimodal indlæsningspipeline

Forbehandl og indekser store dokumenter, billeder eller videoer.

Hvornår bør du vælge Gemini 3.1 Pro?

Vælg Gemini 3.1 Pro, når du har brug for:

  • høj-fidelitets, flertrins reasoning på tværs af multimodale input;
  • pålidelig værktøjsorkestrering og agentiske workflows;
  • bedre kode-syntese/redigeringssløjfer i IDE’er (via Copilot/CLI/Antigravity); eller
  • at prototype cross-provider-sammenligninger med en gateway som CometAPI.

Hvis du går op i throughput og omkostninger, så anvend en blandet strategi: brug medium thinking som standard for de fleste workflows, low til brugerchat med høj throughput, og high kun til opgaver, der påviseligt kræver dybere reasoning (planlægning, beviser, flertrins-syntese).

Afsluttende tanker: hvor Gemini 3.1 Pro passer i stakken

Gemini 3.1 Pro forstærker det, som moderne udviklerfokuserede LLM’er skal tilbyde: multimodal forståelse, eksplicit værktøjsorkestrering og pragmatiske kontroller for reasoning-budget. Uanset om du tilgår den direkte gennem Googles API’er og Vertex, gennem Copilot på premium-planer eller via multi-model-platforme som CometAPI, er de kritiske færdigheder for teams de samme: omhyggelig orkestrering af thinking level, sikre funktionskalds-mønstre og integration i solide udvikler-workflows (CLI, IDE, automatiserede tests).

Udviklere kan tilgå Gemini 3.1 Pro via CometAPI nu. For at komme i gang, udforsk modellens kapaciteter i Playground og se API-vejledningen for detaljerede instruktioner. Før adgang, sørg venligst for, at du er logget ind på CometAPI og har fået API-nøglen. CometAPI tilbyder en pris, der er langt lavere end den officielle pris, for at hjælpe dig med integrationen.

Klar til at komme i gang? → Tilmeld dig Gemini 3.1 Pro i dag!

Hvis du vil have flere tips, guides og nyheder om AI, så følg os på VK, X og Discord!

Adgang til topmodeller til lav pris

Læs mere