En praktisk, kodefokusert guide til Gemini 3.1 Pro — hva det er, hvordan du kaller det (inkludert via CometAPI), dets multimodale og «thinking level»-kontroller, funksjonskalling/verktøybruk, vibe-kodingstips, og integrasjoner med GitHub Copilot, VS Code, Gemini CLI og Google Antigravity. Gemini 3.1 pro flytter fronten for store multimodale modeller med en målrettet utviklerhistorie: større kontekstvinduer, konfigurerbare «thinking»-moduser, forbedret verktøy- og funksjonskalling, og eksplisitt støtte for agentiske arbeidsflyter.
Hva er Gemini 3.1 Pro?
Gemini 3.1 Pro er den nyeste «Pro»-klassen i Gemini 3-familien: en nativt multimodal, resonnement-først-modell tunet for komplekse, flertrinns oppgaver og agentisk verktøybruk. Den presenteres som en forbedring over Gemini 3 Pro med tre praktiske fokus: sterkere resonnement/faktagrunnlag, bedre token-effektivitet og kontrollerbare utførelsesmoduser rettet mot utviklerarbeidsflyter (kode, planlegging, oppgaver med retrieval-augmentering). Modellkortet og utviklersidene beskriver den som optimalisert for programvareingeniør-atferd, agentiske pipelines og multimodale input (tekst, bilder, lyd, video og repositories).
Hvorfor det er relevant for deg: kombinasjonen av en kontekstvindu på en million token (på mange leverandørvarianter), eksplisitte funksjonskall-primitive, og «thinking level»-kontroller gir team mer forutsigbare kostnader og utdata for alt fra rask prototyping til produksjonsagent-orkestrering. CometAPI eksponerer allerede 3.1 Pro via API-markedsplasser og OpenAI-kompatible broer, og tilbyr pay-as-you-go-tilgangsmønstre.
Hvordan kan du bruke Gemini 3.1 Pro API (CometAPI)?
Hva trenger jeg før jeg starter?
Sjekkliste (forutsetninger)
- En CometAPI-konto og en CometAPI API-nøkkel (lagre den i miljøvariabler).
- Valgfritt et Google Cloud / Google AI Studio-prosjekt & Gemini API-nøkkel hvis du noen gang kaller Google direkte (ikke nødvendig når du går gjennom Comet).
python 3.9+ellernode 18+,curltilgjengelig for raske tester.- En sikker hemmelighetsmekanisme: env vars, vault eller CI secret store.
- Bekreft Comet-modell-ID for Gemini 3.1 Pro i din Comet-konsoll (f.eks.
"google/gemini-3.1-pro"eller et Comet-spesifikt alias).
CometAPI støtter Gemini native format-kall, samt OpenAIs chatformat-kall. CometAPI forenkler bytte av modeller, tilbyr én base-URL og SDK-er, og kan redusere integrasjonsfriksjon for multi-leverandør-stakker.
Nedenfor er to konkrete, kopier-og-lim-vennlige eksempler: først å kalle Gemini via CometAPI (OpenAI-kompatibel klient), og deretter å kalle Gemini via Googles offisielle Gemini HTTP-endepunkt. Erstatt YOUR_API_KEY med din leverandørnøkkel og sett modellnavn til varianten som er tilgjengelig hos leverandøren (f.eks. gemini-3.1-pro-preview der den eksponeres).
Eksempel: kalle Gemini 3.1 Pro med CometAPI (curl + Python)
Curl (OpenAI-kompatibel innpakning som bruker CometAPI base-URL)
# curl example: CometAPI (OpenAI-compatible)curl https://api.cometapi.com/v1/chat/completions \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gemini-3.1-pro-preview", "messages": [ {"role":"system","content":"You are a concise programming assistant."}, {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."} ], "max_tokens": 800 }'
Python (OpenAI-kompatibel klient konfigurert til CometAPI base_url)
from openai import OpenAI # or openai-python-compatible SDK offered by your platformclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.cometapi.com/v1")resp = client.chat.completions.create( model="gemini-3.1-pro-preview", messages=[ {"role": "system", "content": "You are a concise programming assistant."}, {"role": "user", "content": "Write a Python function to fetch CSV from a URL and return pandas DataFrame."} ], max_tokens=800,)print(resp.choices[0].message.content)
Begrunnelse: CometAPI eksponerer en OpenAI-kompatibel bro i mange av dokumentene sine, som lar deg gjenbruke eksisterende OpenAI-klientkode ved å bare endre
base_urlog modellnavn. Dette er praktisk for eksperimenter med flere leverandører og rask prototyping.
Eksempel: kalle Gemini via den offisielle Gemini API-en (Node.js / HTTP)
Googles offisielle Gemini-endepunkter er best for det fulle funksjonssettet (thinking-level-kontroller, funksjonskalling, multimodale opplastinger). Nedenfor er et minimalt HTTP-eksempel med Gemini API-overflaten beskrevet i Google AI-utviklerdokumenter.
Bare bytt Base URL og API-nøkkel i den offisielle SDK-en eller forespørsler for å bruke den:
- Base URL:
https://api.cometapi.com(bytt utgenerativelanguage.googleapis.com) - API Key: Bytt ut
$GEMINI_API_KEYmed$COMETAPI_KEY
Curl (offisiell Gemini API — illustrativt)
curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
-H "x-goog-api-key: $COMETAPI_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "How does AI work?"
}
]
}
]
}'
Vanlige parametere du vil sette
temperature(0.0–1.0) — tilfeldighet. Bruk0.0for deterministiske kodeutdata.max_output_tokens/max_tokens— budsjett for utgangslengde.top_p— nucleus sampling.presence_penalty/frequency_penalty— motvirk repetisjon.thinking_leveleller modellvariant — bestemmer resonnementsdybde (f.eks.-low,-medium,-higheller eksplisittthinking_level). Bruk laveste thinking level som oppfyller nøyaktighetsbehov for å kontrollere kostnad/latens.
Hva er de multimodale funksjonene i Gemini 3.1 Pro?
Hvilke modaliteter støtter Gemini 3.1 Pro?
Gemini 3.1 Pro aksepterer tekst, bilder, video, lyd og PDF-er i mange forhåndsvisningsbygg — og kan syntetisere tekstutdata som refererer til eller oppsummerer multimodalt innhold. Comet støtter videresending av multimodale input til Gemini — enten via bilde-URL, filopplasting (Comet file API), eller ved å la Gemini lese filer lagret i skylagring.
Hvordan bør utviklere tenke om multimodale prompt?
- Strukturer multimodale prompt med klare kontekstblokker: for eksempel, inkluder kort tekstinstruks først, og legg ved metadata eller pekere til bilder/videoer/PDF-er.
- Bruk SDK-ens medievedlegg og filopplastingsfelt i stedet for å bygge inn binære data i tekstfelt — de offisielle klientene og Vertex AI / Gemini API-eksemplene viser hvordan du passer medievedlegg ryddig.
Praktisk eksempel (pseudokode): vis et bilde og et spørsmål
# Pseudocode — attach an image with a caption and ask a questionfrom google.gemini import GemSDK # conceptual import; use official client per docsresponse = client.generate( model="gemini-3.1-pro-preview", inputs = [ {"type": "text", "content": "Summarize the visual diagram and list actionable next steps."}, {"type": "image", "uri": "gs://my-bucket/diagram.png", "alt": "system architecture diagram"} ])print(response.text)
Praktiske tips:
- Bruk bildevedlegg for UI-feiltriage: legg ved et skjermbilde og spør etter diffs eller sannsynlige årsaker.
- Kombiner lydtranskripsjoner med kodeeksempler for oppsummering av intervjupptak.
- Når du sender store artefakter (videoer, store kodebaser), foretrekk en etappevis tilnærming: last opp ressurser (skylagring), send URL-er + kort manifest, og bruk modellen til å drive en retrieval-augmentert pipeline i stedet for å stappe alt inn i ett enkelt prompt.
Hva er Thinking Levels (Low, Medium, High), og når bør jeg bruke dem?
Hva er «thinking levels»?
Gemini 3-serien introduserer en thinking_level-parameter som styrer modellens interne compute/chain-of-thought-budsjett. Tenk på det som en bryter som bytter latens + kostnad mot økt resonnementsdybde:
- Low: minimal resonnement, optimalisert for gjennomstrømming og korte, deterministiske oppgaver.
- Medium: balansert resonnement — nytt i 3.1 og ideelt for mange ingeniør- og analytiske arbeidsflyter.
- High: dypere resonnement, dynamisk chain-of-thought-stil; best for komplekse flertrinnsproblemer.
(Det finnes også enminimal/max-nomenklatur i andre varianter — se modelldokumentasjonen for nøyaktig tilgjengelige alternativer per variant.)
Hvordan bør jeg velge et thinking level?
- Bruk Low for høy-gjennomstrømmingsbrukerchat, korte instruksjoner eller når kostnad/latens er kritisk.
- Bruk Medium som standard for de fleste utvikleroppgaver som trenger en moderat grad av resonnement (dette er den nye «sweet spot» i 3.1).
- Bruk High når du løser puslespill, gjør lange logiske kjeder, planlegger, eller når du eksplisitt ønsker høy nøyaktighet og er villig til å akseptere økt latens og tokenforbruk.
Slik setter du thinking level i en forespørsel
curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
-H "x-goog-api-key: $COMETAPI_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{ "parts": [{ "text": "Explain quantum physics simply." }] }],
"generationConfig": {
"thinkingConfig": {
"thinkingLevel": "LOW"
}
}
}'
Hvordan implementerer jeg function calling og verktøybruk med Gemini 3.1 Pro?
Hva er function calling / verktøybruk?
Function calling (også kalt verktøybruk) lar modellen emitere strukturerte «call»-objekter som forteller applikasjonen din hvilken ekstern tjeneste eller funksjon som skal kjøres (for eksempel get_current_weather(location)) og med hvilke argumenter. Modellen kan kjede flere kall, motta verktøyutdata og fortsette resonnement — som muliggjør agentisk adferd. Gemini SDK-er tilbyr innebygd støtte for model-to-tool-loopen (MCP/tool registry) slik at du kan automatisere utførelse sikkert.
Du kan deklarere verktøy i konfigurasjonen for å aktivere proxy-oppførsel. Støttede innebygde verktøy inkluderer google_search, code_execution og url_context tilpassede funksjoner.
Sikkert mønster for verktøybruk
- Deklarer verktøygrensesnitt: registrer funksjoner/verktøy med klare skjemaer og validerte argumenttyper.
- La modellen foreslå kall: modellen emitterer strukturert JSON som beskriver hvilket verktøy som skal kalles.
- Verten kjører kun hvitelistede verktøy: håndhev en allowlist og streng validering.
- Returner verktøyutdata til modellen: SDK-loopen mater verktøyresponsen tilbake til modellen slik at den kan fortsette planlegging/kjøre flere kall.
Gemini 3.1 Pro integrasjonsguide
GitHub Copilot
GitHub Copilot (Copilot) har siden lagt til støtte for Gemini-familien på premium-nivåer, slik at team kan velge Gemini som underliggende modell for Copilot-chat og -forslag. Det betyr at brukere på kvalifiserte planer kan velge Gemini-varianter i Copilot-modellvelgeren, og nyte modellforbedringer uten å endre IDE-utvidelsen. For team forblir Copilot en praktisk, administrert vei til Gemini-resonnement inne i VS Code og andre støttede editorer.
Gemini CLI og Code Assist
Den åpne Gemini CLI eksponerer Gemini-modeller i terminalen; den er lettvekts og integreres med eksisterende arbeidsflyter (diffs, commits, CI og headless serverkjøringer). Bruk CLI-en for rask iterasjon, skripting av agentkjøringer eller for å embedde modellen i DevOps-flyter. Gemini Code Assist er VS Code-utvidelsen og bredere IDE-integrasjon som bringer kontekstbevisste kodeforslag, PR-gjennomganger og automatiske fiks direkte inn i editoren. Disse verktøyene lar deg kontrollere modellvalg, kontekstvinduer og preferanser for thinking level.
Visual Studio Code
Visual Studio Code og markedsplassen huser både GitHub Copilot og Gemini Code Assist. Du kan installere Code Assist for Gemini eller fortsette å bruke Copilot; hver tilbyr forskjellige avveininger (hastighet, dybde, personvern). VS Code forblir den mest modne overflaten for interaktiv kodegenerering, chat i editoren og direkte integrasjon med lokale kjøringer eller testharnesser.
Google Antigravity
Google Antigravity er et agent-først IDE og plattform som behandler agenter som førsteklasses borgere, og tilbyr en «Mission Control» for agent-orkestrering, innebygd nettleserautomatisering og et UI for multi-agent-prosjekter. Antigravity og Gemini CLI dekker ulike behov: Antigravity er en full agentisk IDE-overflate; Gemini CLI er terminal-native men integreres i Antigravity og VS Code via utvidelser og MCP (Model Context Protocol)-servere. Antigravity-økosystemet er posisjonert for team som ønsker tung agent-orkestrering og en mer opinert, visuell overflate.
Hvem bør bruke hva?
- Rask prototyping & enkel-fil-redigeringer: Gemini CLI + lokale tester eller Copilot for hastighet.
- Dyp resonnement, langvarig forskning: Gemini API (Vertex) med høy thinking level og funksjonskalling.
- Agentisk orkestrering & flertrinns automatisering: Antigravity for visuell styring eller en tilpasset agentpipeline med function calling + MCP.
- Multi-leverandør-eksperimenter / kostnadskontroll: Bruk CometAPI eller lignende aggregatorer for å bytte modeller eller prøve Flash vs Pro økonomisk.
Designhensyn ved integrering:
- Sikkerhet: unngå å sende hemmeligheter eller PII i prompt. Bruk token-skopede tjenestekontoer for server-side-kall.
- Lokalt vs sky: kjør lettvekts assistentfunksjoner lokalt (raske completions), men rute tung multimodal analyse til skyen.
- Brukerkontroll: eksponer «forklar dette forslaget» og enkel rollback-kontroll for kodeendringer produsert av modellen.
Integrasjonsmønstre og anbefalt arkitektur
Lettvektsapp (chat eller assistent)
- Klient (nettleser/mobil) → backend-mikrotjeneste → Gemini API (thinking_level=low)
- Bruk streaming / delvise utdata for chat-UX. Valider brukerinput, og tillat aldri rå verktøykall fra ubetrodde klienter.
Agentisk backend (automatiserte arbeidsflyter)
- Orkestrator-tjeneste: registrer et lite sett med hvitelistede verktøy (DB-lesing, CI-jobbkjører, interne API-er).
- La Gemini planlegge og emitere verktøykall; orkestratoren kjører validerte kall og returnerer resultater. Bruk høy thinking_level for planleggingsfaser og medium for utførelsessteg.
Multimodal inntakspipeline
Forhåndsprosessér og indekser store dokumenter, bilder eller videoer.
Når bør du velge Gemini 3.1 Pro?
Velg Gemini 3.1 Pro når du trenger:
- høy-presisjon, flertrinns resonnement på tvers av multimodale input;
- pålitelig verktøyorkestrering og agentiske arbeidsflyter;
- bedre kode-syntese/redigeringssløyfer i IDE-er (via Copilot/CLI/Antigravity); eller
- å prototype sammenligninger på tvers av leverandører med en gateway som CometAPI.
Hvis du bryr deg om gjennomstrømming og kostnad, adopter en blandet strategi: standardiser på medium thinking for de fleste arbeidsflyter, low for høy-gjennomstrømmingsbrukerchat, og high kun for oppgaver som beviselig trenger dypere resonnement (planlegging, bevis, flertrinns syntese).
Avsluttende tanker: hvor Gemini 3.1 Pro passer i stacken
Gemini 3.1 Pro dobler ned på det moderne utviklerrettede LLM-er må tilby: multimodal forståelse, eksplisitt verktøyorkestrering, og pragmatiske kontroller for resonnement-budsjett. Enten du får tilgang direkte gjennom Googles API-er og Vertex, gjennom Copilot på premium-planer, eller via multi-modell-plattformer som CometAPI, er de kritiske ferdighetene for team de samme: nøye thinking-level-orkestrering, sikre funksjonskall-mønstre, og integrasjon i solide utviklerarbeidsflyter (CLI, IDE, automatiserte tester).
Utviklere kan få tilgang til Gemini 3.1 Pro via CometAPI nå. For å begynne, utforsk modellens funksjoner i Playground og se API guide for detaljerte instruksjoner. Før tilgang, sørg for at du har logget inn på CometAPI og hentet API-nøkkelen. CometAPI tilbyr en pris langt under den offisielle prisen for å hjelpe deg å integrere.
Klar til å starte?→ Registrer deg for Gemini 3.1 pro i dag !
Hvis du vil ha flere tips, guider og nyheter om AI, følg oss på VK, X og Discord!
