Modeller
Priser
Bedrift
Ressurser
Begynn gratis
Begynn gratis
DeepSeek V3.1 Blogg
DeepSeek V3.1 Blogg
Jan 6, 2026
deepseek
DeepSeek V3.1
DeepSeek-V3.1-Terminus
DeepSeek-V3.1-Terminus: Funksjon, referanseverdier og betydning
DeepSeek-V3.1-Terminus er den nyeste forbedringen i DeepSeek-familien – en hybrid, agentorientert storspråkmodell (LLM) som DeepSeek posisjonerer som en
Jan 6, 2026
deepseek
DeepSeek V3.1
Slik distribuerer du deepseek-v3.1 lokalt via ollama: Eastest-guiden
DeepSeek-V3.1 er en hybrid «tenkende / ikke-tenkende» MoE-språkmodell (671 milliarder totalt, ≈37 milliarder aktivert per token) som kan kjøres lokalt hvis du bruker riktig
Jan 6, 2026
DeepSeek V3.1
Slik kjører du DeepSeek-V3.1 på din lokale enhet
DeepSeek-V3.1 er en hybrid Mixture-of-Experts (MoE) chatmodell utgitt av DeepSeek i august 2025 som støtter to inferensmoduser – en rask «ikke-tenkende»
Jan 6, 2026
DeepSeek V3.1
Slik bruker du DeepSeek-V3.1 API – en praktisk utviklerveiledning
DeepSeek-V3.1 er den nyeste hybride resonneringsmodellen fra DeepSeek som støtter både en rask «ikke-tenkende» chatmodus og en mer bevisst «tenkning/resonnering».
Jan 6, 2026
DeepSeek V3.1
DeepSeek V3.1 API
DeepSeek V3.1 er den nyeste oppgraderingen i DeepSeek’s V-series: en hybrid «tenkende / ikke-tenkende» stor språkmodell rettet mot generell intelligens med høy gjennomstrømning og lav kostnad, samt agentbasert verktøybruk. Den beholder API-kompatibilitet i OpenAI-stil, legger til smartere verktøykall, og — ifølge selskapet — leverer raskere generering og forbedret pålitelighet for agenter.
Jan 6, 2026
DeepSeek V3.1
DeepSeek-V3.1: Funksjoner, arkitektur og referansetester
I august 2025 annonserte den kinesiske AI-oppstartsbedriften DeepSeek lanseringen av DeepSeek-V3.1, en oppgradering i mellomgenerasjonen som selskapet omtaler som sitt første skritt «mot