ModellenPrijzenOnderneming
500+ AI Model API, Alles In Één API. Gewoon In CometAPI
Modellen API
Ontwikkelaar
Snelle StartDocumentatieAPI Dashboard
Bedrijf
Over onsOnderneming
Bronnen
AI-modellenBlogWijzigingslogboekOndersteuning
ServicevoorwaardenPrivacybeleid
© 2026 CometAPI · All rights reserved
Home/Models/Google/Gemini 3.1 Flash-Lite
G

Gemini 3.1 Flash-Lite

Invoer:$0.2/M
Uitvoer:$1.2/M
Gemini 3.1 Flash-Lite is een zeer kostenefficiënt Tier-3-model met lage latentie in de Gemini 3-serie van Google, ontworpen voor AI-workflows in productie met hoog volume, waarbij doorvoer en snelheid zwaarder wegen dan maximale redeneringsdiepte. Het combineert een groot multimodaal contextvenster met efficiënte inferentieprestaties tegen lagere kosten dan de meeste topmodellen.
Nieuw
Commercieel gebruik
Playground
Overzicht
Functies
Prijzen
API
Versies

📊 Technische specificaties

SpecificatieDetails
ModelfamilieGemini 3 (Flash-Lite)
ContextvensterTot 1 miljoen tokens (multimodale tekst, afbeeldingen, audio, video)
Limiet voor uitvoertokensTot 64 K tokens
InvoertypenTekst, afbeeldingen, audio, video
Basis van de kernarchitectuurGebaseerd op Gemini 3 Pro
ImplementatiekanalenGemini API (Google AI Studio), Vertex AI
Prijzen (preview)~$0.25 per 1M inputtokens, ~$1.50 per 1M outputtokens
RedeneerinstellingenInstelbare “denkniveaus” (bijv. minimaal tot hoog)

🔍 Wat is Gemini 3.1 Flash-Lite?

Gemini 3.1 Flash-Lite is de kostenefficiënte footprintvariant van Google’s Gemini 3-serie, geoptimaliseerd voor grootschalige AI-workloads—vooral waar lagere latentie, lagere kosten per token en hoge doorvoer prioriteit hebben. Het behoudt de multimodale redeneerruggengraat van Gemini 3 Pro en richt zich op bulkverwerkingstoepassingen zoals vertaling, classificatie, contentmoderatie, UI-generatie en synthese van gestructureerde data.

✨ Belangrijkste functies

  1. Ultragroot contextvenster:
    Verwerkt tot 1 M tokens aan multimodale input, wat redeneren over lange documenten en video/audio-contextverwerking mogelijk maakt.
  2. Kostenefficiënte uitvoering:
    Aanzienlijk lagere kosten per token vergeleken met eerdere Flash-Lite-modellen en concurrenten, waardoor gebruik op grote schaal mogelijk is.
  3. Hoge doorvoer en lage latentie:
    ~2.5× snellere time-to-first-token en ~45 % snellere outputdoorvoer dan Gemini 2.5 Flash.
  4. Dynamische redeneersturing:
    “Denkniveaus” laten ontwikkelaars per request de balans tussen prestaties en diepere redenering afstemmen.
  5. Multimodale ondersteuning:
    Native verwerking van afbeeldingen, audio, video en tekst binnen één uniforme contextruimte.
  6. Flexibele API-toegang:
    Beschikbaar via de Gemini API in Google AI Studio en enterprise-werkstromen op Vertex AI.

📈 Benchmarkprestaties

De volgende metrics tonen Gemini 3.1 Flash-Lite’s efficiëntie en capaciteiten vergeleken met eerdere Flash/Lite-varianten en andere modellen (gerapporteerd maart 2026):

BenchmarkGemini 3.1 Flash-LiteGemini 2.5 Flash DynamicGPT-5 Mini
GPQA Diamond (wetenschappelijke kennis)86.9 %66.7 %82.3 %
MMMU-Pro (multimodale redenering)76.8 %51.0 %74.1 %
CharXiv (redeneren over complexe grafieken)73.2 %55.5 %75.5 % (+python)
Video-MMMU84.8 %60.7 %82.5 %
LiveCodeBench (coderedenering)72.0 %34.3 %80.4 %
1M Long-Context12.3 %5.4 %Not supported

Deze scores geven aan dat Flash-Lite, ondanks het op efficiëntie gerichte ontwerp, een competitief redeneervermogen en multimodaal begrip behoudt en oudere Flash-varianten vaak overtreft op belangrijke benchmarks.

⚖️ Vergelijking met gerelateerde modellen

KenmerkGemini 3.1 Flash-LiteGemini 3.1 Pro
Kosten per tokenLager (instapklasse)Hoger (premium)
Latentie / doorvoerGeoptimaliseerd voor snelheidGebalanceerd met diepte
Diepte van redeneringInstelbaar, maar minder diepSterker in diepe redenering
ToepassingsfocusBulkpijplijnen, moderatie, vertalingMissiekritieke redeneertaken
Contextvenster1 M tokens1 M tokens (zelfde)

Flash-Lite is afgestemd op schaal en kosten; Pro is voor hoge precisie en diepe redenering.

🧠 Zakelijke toepassingen

  • Vertaling en moderatie op grote schaal: Real-time taal- en contentpijplijnen met lage latentie.
  • Bulkdata-extractie en -classificatie: Verwerking van grote corpora met efficiënte token-economie.
  • UI/UX-generatie: Gestructureerde JSON, dashboardsjablonen en front-endskeletten.
  • Simulatieprompting: Logische toestandstracking over langere interacties.
  • Multimodale toepassingen: Door video, audio en afbeeldingen geïnformeerde redenering binnen uniforme contexten.

🧪 Beperkingen

  • De diepte van redenering en analytische precisie kan achterblijven bij Gemini 3.1 Pro in complexe, missiekritieke taken. :
  • Benchmarkresultaten zoals long-context fusion laten ruimte voor verbetering zien ten opzichte van vlaggenschipmodellen.
  • Dynamische redeneersturing ruilt snelheid in voor grondigheid; niet alle niveaus garanderen dezelfde outputkwaliteit.

GPT-5.3 Chat (Alias: gpt-5.3-chat-latest) — Overzicht

GPT-5.3 Chat is het nieuwste productiechatmodel van OpenAI, aangeboden als de gpt-5.3-chat-latest endpoint in de officiële API en de motor achter ChatGPT’s dagelijkse conversatie-ervaring. Het richt zich op het verbeteren van de kwaliteit van alledaagse interacties—met soepelere, nauwkeurigere en beter gecontextualiseerde antwoorden—terwijl het sterke technische capaciteiten behoudt die het overneemt van de bredere GPT-5-familie. :contentReference[oaicite:1]{index=1}


📊 Technische specificaties

SpecificatieDetails
Modelnaam/aliasGPT-5.3 Chat / gpt-5.3-chat-latest
AanbiederOpenAI
Contextvenster128,000 tokens
Max. uitvoertokens per request16,384 tokens
Kennisafkapdatum31 augustus 2025
InvoermodaliteitenTekst- en afbeeldingsinvoer (alleen visie)
UitvoermodaliteitenTekst
FunctieaanroepenOndersteund
Gestructureerde outputOndersteund
StreamingantwoordenOndersteund
Fine-tuningNiet ondersteund
Distillatie / embeddingsDistillatie niet ondersteund; embeddings ondersteund
Typische gebruiksendpointsChat completions, Responses, Assistants, Batch, Realtime
Functieaanroepen & toolsFunctieaanroepen ingeschakeld; ondersteunt web- & bestandszoekopdrachten via de Responses API

🧠 Wat maakt GPT-5.3 Chat uniek

GPT-5.3 Chat vertegenwoordigt een incrementele verfijning van chatgerichte capaciteiten binnen de GPT-5-lijn. Het primaire doel van deze variant is om meer natuurlijke, contextueel coherente en gebruiksvriendelijke conversatie-antwoorden te bieden dan eerdere modellen zoals GPT-5.2 Instant. Verbeteringen zijn gericht op:

  • Dynamische, natuurlijke toon met minder onnodige disclaimers en directere antwoorden.
  • Betere contextbegrip en relevantie in veelvoorkomende chatscenario’s.
  • Soepelere integratie met rijke chat-use-cases, waaronder meerstapsdialoog, samenvatting en conversatie-assistentie.

GPT-5.3 Chat wordt aanbevolen voor ontwikkelaars en interactieve applicaties die de nieuwste conversatieverbeteringen nodig hebben zonder de gespecialiseerde redeneerdiepte van toekomstige “Thinking”- of “Pro”-varianten van GPT-5.3 (die nog komen).


🚀 Belangrijkste kenmerken

  • Groot chatcontextvenster: 128K tokens maakt rijke gespreksgeschiedenissen en langdurige contexttracking mogelijk. :contentReference[oaicite:17]{index=17}
  • Verbeterde antwoordkwaliteit: Verfijnde conversatiestroom met minder onnodige kanttekeningen of overdreven voorzichtige weigeringen. :contentReference[oaicite:18]{index=18}
  • Officiële API-ondersteuning: Volledig ondersteunde endpoints voor chat, batchverwerking, gestructureerde output en real-time werkstromen.
  • Veelzijdige inputondersteuning: Accepteert en contextualiseert tekst- en afbeeldingsinput, geschikt voor multimodale chat-use-cases.
  • Functieaanroepen & gestructureerde output: Maakt gestructureerde en interactieve toepassingspatronen via de API mogelijk. :contentReference[oaicite:21]{index=21}
  • Brede ecosysteemcompatibiliteit: Werkt met v1/chat/completions, v1/responses, Assistants en andere moderne OpenAI API-interfaces.

📈 Typische benchmarks en gedrag

📈 Benchmarkprestaties

OpenAI en onafhankelijke rapporten tonen verbeterde prestaties in de praktijk:

MetriekGPT-5.3 Instant vs GPT-5.2 Instant
Hallucinatiegraad met webzoekopdracht−26.8%
Hallucinatiegraad zonder zoekfunctie−19.7%
Door gebruikers gemarkeerde feitelijke fouten (web)~−22.5%
Door gebruikers gemarkeerde feitelijke fouten (intern)~−9.6%

Opmerkelijk is dat GPT-5.3’s focus op de real-world conversatiekwaliteit betekent dat verbeteringen in benchmarkscore (zoals gestandaardiseerde NLP-metrics) minder een release-highlight zijn — de verbeteringen komen het duidelijkst naar voren in gebruikerservaringsmetrics in plaats van in ruwe testscores.

In industriële vergelijkingen staan chatvarianten uit de GPT-5-familie erom bekend beter te presteren dan eerdere GPT-4-modules op alledaagse chatrelevantie en contexttracking, hoewel gespecialiseerde redeneertaken nog steeds de voorkeur kunnen geven aan toegewijde “Pro”-varianten of endpoints die op redeneren zijn geoptimaliseerd.


🤖 Use-cases

GPT-5.3 Chat is zeer geschikt voor:

  • Klantondersteuningsbots en conversatie-assistenten
  • Interactieve tutorial- of educatieve agents
  • Samenvatting en conversatiezoekopdrachten
  • Interne kennisagents en chathelpers voor teams
  • Multimodale Q&A (tekst + afbeeldingen)

De balans tussen conversatiekwaliteit en API-veelzijdigheid maakt het ideaal voor interactieve applicaties die natuurlijke dialoog combineren met gestructureerde data-output.

🔍 Beperkingen

  • Niet de variant met de diepste redenering: Voor missiekritieke, diepgaande analytische taken zijn de nog te verschijnen GPT-5.3 Thinking- of Pro-modellen mogelijk geschikter.
  • Beperkte multimodale output: Hoewel invoerafbeeldingen worden ondersteund, zijn volledige beeld-/videogeneratie of rijke multimodale outputworkflows niet de primaire focus van deze variant.
  • Fine-tuning wordt niet ondersteund: Je kunt dit model niet fijnregelen, al kun je gedrag sturen via system prompts.

How to access Gemini 3.1 flash lite API

Stap 1: Registreer voor een API-sleutel

Log in op cometapi.com. Als je nog geen gebruiker bent, registreer je dan eerst. Meld je aan bij je CometAPI console. Haal de toegangssleutel API key van de interface op. Klik bij de API token in het persoonlijke centrum op “Add Token”, verkrijg de tokensleutel: sk-xxxxx en dien in.

cometapi-key

Stap 2: Verzoeken verzenden naar de Gemini 3.1 flash lite API

Selecteer het “` gemini-3.1-flash-lite” endpoint om het API-verzoek te verzenden en stel de request body in. De requestmethode en request body zijn te vinden in onze website-API-doc. Onze website biedt ook Apifox test voor je gemak. Vervang <YOUR_API_KEY> door je daadwerkelijke CometAPI-sleutel uit je account. De basis-URL is Gemini Generating Content

Plaats je vraag of verzoek in het content-veld—dit is waarop het model zal reageren . Verwerk de API-respons om het gegenereerde antwoord te verkrijgen.

Stap 3: Resultaten ophalen en verifiëren

Verwerk de API-respons om het gegenereerde antwoord te krijgen. Na verwerking antwoordt de API met de taakstatus en uitvoergegevens.

FAQ

What tasks is Gemini 3.1 Flash-Lite best suited for?

Gemini 3.1 Flash-Lite is geoptimaliseerd voor latentiegevoelige workflows met hoog volume, zoals vertaling, contentmoderatie, classificatie, UI-/dashboardgeneratie en pijplijnen voor simulatieprompts, waarbij snelheid en lage kosten prioriteit hebben.

What is the context window and output capability of Gemini 3.1 Flash-Lite?

Gemini 3.1 Flash-Lite ondersteunt een groot contextvenster tot 1 miljoen tokens voor multimodale input, waaronder tekst, afbeeldingen, audio en video, met tot 64 K tokens uitvoer.

How does Gemini 3.1 Flash-Lite compare to Gemini 2.5 Flash in performance and cost?

Vergeleken met Gemini 2.5 Flash-modellen levert Gemini 3.1 Flash-Lite ~2.5× sneller time-to-first-answer en ~45 % hogere output throughput, terwijl het per miljoen tokens aanzienlijk goedkoper is voor zowel input als output. }

Does Gemini 3.1 Flash-Lite support adjustable reasoning depth?

Ja — het biedt meerdere redeneer- of “denk”-niveaus (bijv. minimaal, laag, medium, hoog), zodat ontwikkelaars snelheid kunnen afwegen tegen diepere redenering bij complexe taken. :contentReference[oaicite:3]{index=3}

What are typical benchmark strengths of Gemini 3.1 Flash-Lite?

Op benchmarks zoals GPQA Diamond (wetenschappelijke kennis) en MMMU Pro (multimodaal begrip) scoort Gemini 3.1 Flash-Lite sterk ten opzichte van eerdere Flash-Lite-modellen, met GPQA ~86.9 % en MMMU ~76.8 % in officiële evaluaties.

How can I access Gemini 3.1 Flash-Lite via API?

U kunt de endpoint gemini-3.1-flash-lite-preview gebruiken via de CometAPI voor enterprise-integratie.

When should I choose Gemini 3.1 Flash-Lite vs Gemini 3.1 Pro?

Kies Flash-Lite wanneer throughput, latentie en kosten prioriteit hebben bij grootschalige taken; kies Pro voor taken die de hoogste redeneringsdiepte, analytische nauwkeurigheid of missiekritisch begrip vereisen.

Functies voor Gemini 3.1 Flash-Lite

<think> 用户要求我将英文文本翻译成荷兰语(Nederlands)。我需要注意: 1. 保持格式和特殊字符(如{} 变量占位符) 2. 技术术语保持准确性 3. 保持语气和风格 4. UI文本要简洁明了 5. 只返回翻译文本,不要添加解释 6. 不要添加任何前缀或说明 原文是: "Explore the key features of Gemini 3.1 Flash-Lite, designed to enhance performance and usability. Discover how these capabilities can benefit your projects and improve user experience." 这看起来是产品或技术介绍的文本,需要翻译成荷兰语。我需要保持Gemini 3.1 Flash-Lite这个占位符不变。 让我翻译: - Explore = Ontdek/Verken - key features = belangrijkste functies/eigenschappen - designed to enhance = ontworpen om te verbeteren - performance = prestaties - usability = bruikbaarheid - Discover = Ontdek - capabilities = mogelijkheden - benefit = ten goede komen/voordeel opleveren - projects = projecten - improve = verbeteren - user experience = gebruikerservaring 翻译: Ontdek de belangrijkste functies van Gemini 3.1 Flash-Lite, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring kunnen verbeteren. 不过"Ontdek"出现了两次,可能需要调整一下: Verken de belangrijkste functies van Gemini 3.1 Flash-Lite, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring kunnen verbeteren. I'll explore how these capabilities can positively impact your projects and optimize the user experience. </think> Verken de belangrijkste functies van Gemini 3.1 Flash-Lite, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring verbeteren.

Prijzen voor Gemini 3.1 Flash-Lite

Ontdek concurrerende prijzen voor Gemini 3.1 Flash-Lite, ontworpen om te passen bij verschillende budgetten en gebruiksbehoeften. Onze flexibele abonnementen zorgen ervoor dat u alleen betaalt voor wat u gebruikt, waardoor het gemakkelijk is om op te schalen naarmate uw vereisten groeien. Ontdek hoe Gemini 3.1 Flash-Lite uw projecten kan verbeteren terwijl de kosten beheersbaar blijven.
Comet Prijs (USD / M Tokens)Officiële Prijs (USD / M Tokens)Korting
Invoer:$0.2/M
Uitvoer:$1.2/M
Invoer:$0.25/M
Uitvoer:$1.5/M
-20%

Voorbeeldcode en API voor Gemini 3.1 Flash-Lite

Krijg toegang tot uitgebreide voorbeeldcode en API-bronnen voor Gemini 3.1 Flash-Lite om uw integratieproces te stroomlijnen. Onze gedetailleerde documentatie biedt stapsgewijze begeleiding en helpt u het volledige potentieel van Gemini 3.1 Flash-Lite in uw projecten te benutten.
POST
/v1/chat/completions
POST
/v1beta/models/{model}:{operator}
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Python Code Example

from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

JavaScript Code Example

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1beta";
const model = "gemini-3.1-flash-lite-preview";
const operator = "generateContent";

const response = await fetch(`${base_url}/models/${model}:${operator}`, {
  method: "POST",
  headers: {
    "Content-Type": "application/json",
    Authorization: api_key,
  },
  body: JSON.stringify({
    contents: [
      {
        parts: [{ text: "Explain how AI works in a few words" }],
      },
    ],
  }),
});

const data = await response.json();
console.log(data.candidates[0].content.parts[0].text);

Curl Code Example

curl "https://api.cometapi.com/v1beta/models/gemini-3.1-flash-lite-preview:generateContent" \
  -H "Authorization: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "Explain how AI works in a few words"
          }
        ]
      }
    ]
  }'

Versies van Gemini 3.1 Flash-Lite

De reden waarom Gemini 3.1 Flash-Lite meerdere snapshots heeft, kan mogelijke factoren omvatten zoals variaties in de uitvoer na updates die oudere snapshots vereisen voor consistentie, het bieden van een overgangsperiode voor ontwikkelaars om zich aan te passen en te migreren, en verschillende snapshots die overeenkomen met wereldwijde of regionale eindpunten om de gebruikerservaring te optimaliseren. Voor gedetailleerde verschillen tussen versies, raadpleeg de officiële documentatie.
Model-IDBeschrijvingBeschikbaarheidVerzoek
gemini-3-1-flashVerwijst automatisch naar het nieuwste model✅Gemini Generating Content
gemini-3-1-flash-previewOfficiële preview✅Gemini Generating Content
gemini-3.1-flash-lite-preview-thinkingthinking-versie✅Gemini Generating Content
gemini-3.1-flash-lite-thinkingthinking-versie✅Gemini Generating Content

Meer modellen

C

Claude Opus 4.7

Invoer:$4/M
Uitvoer:$20/M
Het intelligentste model voor agenten en coderen
C

Claude Opus 4.6

Invoer:$4/M
Uitvoer:$20/M
Claude Opus 4.6 is het “Opus”-klasse grote taalmodel van Anthropic, uitgebracht in februari 2026. Het is gepositioneerd als een werkpaard voor kenniswerk en onderzoekswerkstromen — met verbeteringen in redeneren over lange contexten, planning in meerdere stappen, het gebruik van tools (waaronder agentische softwareworkflows), en computertaken zoals het automatisch genereren van dia’s en spreadsheets.
A

Claude Sonnet 4.6

Invoer:$2.4/M
Uitvoer:$12/M
Claude Sonnet 4.6 is ons meest capabele Sonnet-model tot nu toe. Het is een volledige upgrade van de vaardigheden van het model op het gebied van coderen, computergebruik, redeneren met lange context, agentplanning, kenniswerk en ontwerp. Sonnet 4.6 biedt daarnaast een contextvenster van 1M tokens in bèta.
O

GPT-5.4 nano

Invoer:$0.16/M
Uitvoer:$1/M
GPT-5.4 nano is ontworpen voor taken waarbij snelheid en kosten het belangrijkst zijn, zoals classificatie, data-extractie, ranking en subagenten.
O

GPT-5.4 mini

Invoer:$0.6/M
Uitvoer:$3.6/M
GPT-5.4 mini brengt de sterke punten van GPT-5.4 naar een sneller en efficiënter model dat is ontworpen voor grootschalige workloads.
Q

Qwen3.6-Plus

Invoer:$0.32/M
Uitvoer:$1.92/M
Qwen 3.6-Plus is nu beschikbaar, met verbeterde mogelijkheden voor codeontwikkeling en hogere efficiëntie in multimodale herkenning en inferentie, waardoor de Vibe Coding-ervaring nog beter wordt.

Gerelateerde blogs

Hoe verkrijg je Gemini 3.1 Deep Think
Mar 13, 2026

Hoe verkrijg je Gemini 3.1 Deep Think

Gemini 3.1 Deep Think is een geavanceerde redeneermodus, ontwikkeld door Google en Google DeepMind, die AI-systemen in staat stelt tot meerstapsredenering, wetenschappelijke analyse en complexe probleemoplossing. Het is momenteel voornamelijk beschikbaar via Google AI Ultra-abonnementen, de Gemini-app en ontwikkelaarstools zoals Gemini API en AI Studio.
Google onthult Gemini 3.1 Flash-Lite — een snel en voordelig LLM
Mar 5, 2026
gemini-3-1-flash-lite

Google onthult Gemini 3.1 Flash-Lite — een snel en voordelig LLM

Google heeft Gemini 3.1 Flash-Lite geïntroduceerd, het nieuwste lid van de Gemini 3-familie, specifiek ontworpen als een engine met hoge doorvoer en lage latentie die kostenefficiënt is voor ontwikkelaars- en bedrijfsworkloads. Google positioneert Flash-Lite als het "snelste en meest kostenefficiënte" model in de Gemini 3-lijn: een lichtgewicht variant die is bedoeld om streaminginteracties, grootschalige achtergrondverwerking en hoogfrequente productietaken (bijvoorbeeld vertaling, extractie, UI-generatie en classificatie van grote volumes) te leveren tegen een aanzienlijk lagere prijs dan de Pro-varianten.