Tekniske specifikationer — Gemini 3.1 Pro
| Punkt | gemini-3-pro (offentlig oversigt) |
|---|---|
| Udbyder | |
| Kanonisk model-id | gemini-3-pro (offentlig forhåndsvisning) |
| Inputtyper | Tekst, billede, video, lyd, PDF |
| Outputtyper | Tekst (naturligt sprog, strukturerede output, funktionskalds-payloads) |
| Grænse for inputtokens (kontekst) | 1,048,576 tokens |
| Grænse for outputtokens | 65,536 tokens |
| Funktionskald / brug af værktøjer | Understøttet (funktionskald, strukturerede output, værktøjsintegrationer) |
| Multimodalitet | Fuld multimodal understøttelse (billeder, video, lyd, dokumenter) |
| Kodeeksekvering og agent-arbejdsgange | Understøttet (agent-tilstand, kodeassistance, værktøjsorkestrering) |
| Vidensgrænse | januar 2025 |
Hvad er Gemini 3.1 Pro?
Gemini 3.1 Pro er Googles offentlige flagskib i Gemini 3-familien, positioneret som en topmoderne multimodal ræsonnementsmodel med avancerede agent- og udviklerværktøjer. Modellen lægger vægt på kapacitetsstærk konteksthåndtering (over 1M tokens i input), bred medieunderstøttelse (billeder, video, lyd, PDF) og dybe integrationer til værktøjsbrug, funktionskald og kodecentrerede arbejdsgange (f.eks. Gemini Code Assist og agenttilstande).
Gemini 3 Pro præsenteres af Google som optimeret til både interaktive udvikleroplevelser (kodning med lav latenstid og agent-arbejdsgange) og højpræcis multimodal forståelse (fortolkning og ræsonnement på tværs af blandede medieinput).
Hovedfunktioner i Gemini 3.1 Pro
Gemini-3.1 Pro (via sin forhåndsvisning) introducerer følgende funktioner:
Multimodal integration
Behandler input på tværs af:
- Naturligt sprog
- Billeder
- Tale/lyd
- Video
med en samlet tokenrepræsentation til tværmodal ræsonnement.
Udvidet kontekstvindue
En usædvanligt stor kontekstkapacitet på op til ~1 million tokens muliggør håndtering af:
- Lange dokumenter
- Multidokument-syntese
- Kodebaser og transskripter.
Dette overgår mange konkurrerende modeller, som typisk understøtter ~32 K–262 K tokens.
Sparse Mixture-of-Experts (MoE)-skalering
Sparsom MoE-routing gør det muligt at skalere den interne modelkapacitet uden proportionale beregningsomkostninger og forbedrer ræsonnement i stor skala.
Avanceret ræsonnement/planlægning
Innovationer som chain-of-thought-træning, reinforcement learning fra menneskelig feedback og specialiserede benchmarks gør den stærk i logiske og matematiske opgaver.
Angivne benchmarks:
AIME 2025: 100% (med kodeeksekvering)
SWE-Bench Verified: 83.9%
ARC-AGI-2: 71.8%
LiveCodeBench Pro: 2844 Elo
Terminal-Bench 2.0: 63.5%
MMMLU: 93.6%
Repræsentative anvendelsestilfælde for virksomheder
- End-to-end mediepipelines: Indtag video, transskription og billeder for at producere synkroniserede resuméer, metadata og strukturerede indsigter i stor skala.
- Storskalakodegenerering og -gennemgang: Brug i IDE'er og CI-pipelines til automatisk at generere kode, refaktorere projekter med flere filer og komme med testforslag på tværs af store kodebaser.
- Agentisk automatisering: Koordinér agenter med flere værktøjer, der interagerer med cloudtjenester, orkestreringssystemer og interne API'er via strukturerede funktionskald.
- Forskning og indholdsproduktion: Udarbejd langformet indhold (rapporter, bøger), der kombinerer tekst og indlejrede multimedier, med interne krydsreferencer bevaret.
Sådan får du adgang til Gemini 3.1 Pro API
Trin 1: Tilmeld dig for at få en API-nøgle
Log ind på cometapi.com. Hvis du endnu ikke er vores bruger, skal du først registrere dig. Log ind på din CometAPI console. Hent grænsefladens adgangslegitimation API-nøgle. Klik på “Add Token” ved API token i det personlige center, få token-nøglen: sk-xxxxx og indsend.
Trin 2: Send anmodninger til Gemini 3.1 Pro API
Vælg “gemini-3.1-pro”-endpointet for at sende API-anmodningen og angive anmodningskroppen. Anmodningsmetode og anmodningskrop findes i vores websteds API-dokumentation. Vores websted tilbyder også Apifox-test for din bekvemmelighed. Erstat <YOUR_API_KEY> med din faktiske CometAPI-nøgle fra din konto. Basis-URL'en er Gemini Generating Content og Chat.
Indsæt dit spørgsmål eller din anmodning i content-feltet — det er dette, modellen svarer på. Behandl API-svaret for at få det genererede svar.
Trin 3: Hent og verificér resultater
Behandl API-svaret for at få det genererede svar. Efter behandling svarer API'et med opgavens status og outputdata.
Se også Gemini 3 Pro API