Tekniske specifikationer for Kimi k2.5
| Punkt | Værdi / bemærkninger |
|---|---|
| Modelnavn / leverandør | Kimi-K2.5 (v1.0) — Moonshot AI (åbne vægte). |
| Arkitekturfamilie | Mixture-of-Experts (MoE) hybrid ræsonneringsmodel (DeepSeek-stil MoE). |
| Parametre (samlet / aktive) | ≈ 1 billion samlede parametre; ~32B aktive pr. token (384 eksperter, 8 valgt pr. token rapporteret). |
| Modaliteter (input / output) | Input: tekst, billeder, video (multimodalt). Output: primært tekst (rige ræsonneringsspor), valgfrit strukturerede værktøjsopkald / flertrins-output. |
| Kontekstvindue | 256k tokens |
| Træningsdata | Kontinuerlig prætræning på ~15 billion blandede visuelle + tekst-tokens (leverandørrapporteret). Træningslabels/datasætsammensætning: ikke offentliggjort. |
| Tilstande | Thinking mode (returnerer interne ræsonneringsspor; anbefalet temp=1.0) og Instant mode (ingen ræsonneringsspor; anbefalet temp=0.6). |
| Agentfunktioner | Agent Swarm / parallelle under-agenter: orkestratoren kan starte op til 100 under-agenter og udføre et stort antal værktøjsopkald (leverandøren hævder op til ~1.500 værktøjsopkald; parallel eksekvering reducerer køretid). |
Hvad er Kimi K2.5?
Kimi K2.5 er Moonshot AI’s flagskibs-sprogmodel med åbne vægte, designet som et indbygget multimodalt og agentorienteret system i stedet for en tekst-only LLM med tilføjede komponenter. Den integrerer sproglig ræsonnering, visuel forståelse og langkontekstbehandling i én arkitektur, hvilket muliggør komplekse flertrinsopgaver, der involverer dokumenter, billeder, videoer, værktøjer og agenter.
Den er designet til langtidshorisonterede, værktøjsunderstøttede arbejdsflows (kodning, flertrins-søgning, dokument-/videoforståelse) og leveres med to interaktionstilstande (Thinking og Instant) samt indbygget INT4-kvantisering for effektiv inferens.
Kernefunktioner i Kimi K2.5
- Indbygget multimodal ræsonnering
Vision og sprog trænes samlet fra prætræningen og frem. Kimi K2.5 kan ræsonnere på tværs af billeder, skærmbilleder, diagrammer og videorammer uden at være afhængig af eksterne vision-adaptere. - Ultralangt kontekstvindue (256K tokens)
Muliggør vedvarende ræsonnering over hele kodebaser, lange forskningsartikler, juridiske dokumenter eller udvidede samtaler over flere timer uden kontekstafkortning. - Agent Swarm-eksekveringsmodel
Understøtter dynamisk oprettelse og koordinering af op til ~100 specialiserede under-agenter, hvilket muliggør parallel planlægning, brug af værktøjer og opdeling af opgaver for komplekse arbejdsgange. - Flere inferenstilstande
- Instant mode for lav-latens svar
- Thinking mode for dyb flertrinsræsonnering
- Agent / Swarm mode for autonom opgaveeksekvering og orkestrering
- Stærk vision-til-kode-evne
Kan konvertere UI-mockups, skærmbilleder eller videodemonstrationer til fungerende frontend-kode og debugge software ved hjælp af visuel kontekst. - Effektiv MoE-skalering
MoE-arkitekturen aktiverer kun en delmængde af eksperter pr. token, hvilket muliggør kapacitet på billion-parameter-niveau med håndterbare inferensomkostninger sammenlignet med tætte modeller.
Benchmark-ydeevne for Kimi K2.5
Offentligt rapporterede benchmarkresultater (primært i ræsonneringsfokuserede konfigurationer):
Ræsonnerings- og vidensbenchmarks
| Benchmark | Kimi K2.5 | GPT-5.2 (xhigh) | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| HLE-Full (med værktøjer) | 50.2 | 45.5 | 43.2 | 45.8 |
| AIME 2025 | 96.1 | 100 | 92.8 | 95.0 |
| GPQA-Diamond | 87.6 | 92.4 | 87.0 | 91.9 |
| IMO-AnswerBench | 81.8 | 86.3 | 78.5 | 83.1 |
Vision- og videobenchmarks
| Benchmark | Kimi K2.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMMU-Pro | 78.5 | 79.5* | 74.0 | 81.0 |
| MathVista (Mini) | 90.1 | 82.8* | 80.2* | 89.8* |
| VideoMMMU | 87.4 | 86.0 | — | 88.4 |
Scores markeret med * afspejler forskelle i evalueringsopsætninger rapporteret af de oprindelige kilder.
Overordnet demonstrerer Kimi K2.5 stærk konkurrenceevne inden for multimodal ræsonnering, langkontekst-opgaver og agent-stil arbejdsflows, især når den evalueres ud over kortformet QA.
Kimi K2.5 vs. andre førende modeller
| Dimension | Kimi K2.5 | GPT-5.2 | Gemini 3 Pro |
|---|---|---|---|
| Multimodalitet | Indbygget (vision + tekst) | Integrerede moduler | Integrerede moduler |
| Kontekstlængde | 256K tokens | Lang (præcis grænse ikke offentliggjort) | Lang (<256K typisk) |
| Agentorkestrering | Multi-agent-sværm | Single-agent-fokus | Single-agent-fokus |
| Modeladgang | Åbne vægte | Proprietær | Proprietær |
| Udrulning | Lokalt / cloud / tilpasset | Kun API | Kun API |
Vejledning i modelvalg:
- Vælg Kimi K2.5 til udrulning med åbne vægte, forskning, langkontekst-ræsonnering eller komplekse agent-arbejdsflows.
- Vælg GPT-5.2 for produktionsklar generel intelligens med stærke værktøjsøkosystemer.
- Vælg Gemini 3 Pro for dyb integration med Googles produktivitets- og søgestak.
Repræsentative anvendelsestilfælde
- Stor-skala dokument- og kodeanalyse
Bearbejd hele repositories, juridiske korpora eller forskningsarkiver i ét kontekstvindue. - Visuelle softwareingeniør-arbejdsflows
Generér, refaktorér eller debug kode ved hjælp af skærmbilleder, UI-designs eller optagede interaktioner. - Autonome agent-pipelines
Udfør end-to-end-arbejdsflows med planlægning, hentning, værktøjsopkald og syntese via agent-sværme. - Automatisering af virksomhedsviden
Analyser interne dokumenter, regneark, PDF'er og præsentationer for at producere strukturerede rapporter og indsigter. - Forskning og modeltilpasning
Finjustering, alignment-forskning og eksperimenter muliggjort af åbne modelvægte.
Begrænsninger og overvejelser
- Høje hardwarekrav: Udrulning i fuld præcision kræver betydelig GPU-hukommelse; produktionsbrug bygger typisk på kvantisering (fx INT4).
- Agent Swarm-modenhed: Avancerede multi-agent-adfærd er stadig under udvikling og kan kræve omhyggelig orkestreringsdesign.
- Inferenskompleksitet: Optimal ydeevne afhænger af inferensmotor, kvantiseringsstrategi og routeringskonfiguration.
Sådan får du adgang til Kimi k2.5 API via CometAPI
Trin 1: Registrer dig for en API-nøgle
Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, skal du registrere dig først. Log ind på din CometAPI-konsol. Hent API-nøglen til adgang til interfacet. Klik på “Add Token” ved API-token i det personlige center, hent token-nøglen: sk-xxxxx, og indsend.

Trin 2: Send forespørgsler til Kimi k2.5 API
Vælg “kimi-k2.5”-endpointet for at sende API-forespørgslen og angiv request body. Forespørgselsmetoden og request body findes i vores websites API-dokumentation. Vores website tilbyder også Apifox-test for din bekvemmelighed. Erstat med din faktiske CometAPI-nøgle fra din konto. Base-URL er Chat Completions.
Indsæt dit spørgsmål eller din anmodning i feltet content—det er det, modellen vil svare på . Bearbejd API-svaret for at hente det genererede svar.
Trin 3: Hent og verificer resultater
Bearbejd API-svaret for at hente det genererede svar. Efter bearbejdning svarer API'et med opgavestatus og outputdata.