ModeleCenyPrzedsiębiorstwo
Ponad 500 API modeli AI, wszystko w jednym API. Tylko w CometAPI
API modeli
Deweloper
Szybki startDokumentacjaPanel API
Firma
O nasPrzedsiębiorstwo
Zasoby
Modele Sztucznej InteligencjiBlogDziennik zmianWsparcie
Warunki korzystania z usługiPolityka Prywatności
© 2026 CometAPI · All rights reserved
Home/Models/Google/Gemini 3.1 Flash-Lite
G

Gemini 3.1 Flash-Lite

Wejście:$0.2/M
Wyjście:$1.2/M
Gemini 3.1 Flash-Lite to wysoce efektywny kosztowo i o niskich opóźnieniach model Tier-3 z serii Google Gemini 3, zaprojektowany do produkcyjnych przepływów pracy AI o dużej skali, w których przepustowość i szybkość są ważniejsze niż maksymalna głębokość rozumowania. Łączy duże multimodalne okno kontekstu z wydajnym wnioskowaniem przy niższym koszcie niż większość flagowych odpowiedników.
Nowy
Użycie komercyjne
Playground
Przegląd
Funkcje
Cennik
API
Wersje

📊 Specyfikacje techniczne

ParametrSzczegóły
Model familyGemini 3 (Flash-Lite)
Context windowDo 1 miliona tokenów (multimodalne: tekst, obrazy, audio, wideo)
Output token limitDo 64 K tokenów
Input typesTekst, obrazy, audio, wideo
Core architecture basisBazuje na Gemini 3 Pro
Deployment channelsGemini API (Google AI Studio), Vertex AI
Pricing (preview)~$0.25 za 1M tokenów wejściowych, ~$1.50 za 1M tokenów wyjściowych
Reasoning controlsRegulowane „poziomy myślenia” (np. od minimalnego do wysokiego)

🔍 Czym jest Gemini 3.1 Flash-Lite?

Gemini 3.1 Flash-Lite to kosztowo efektywny wariant o niewielkim śladzie zasobowym z serii Gemini 3, zoptymalizowany pod kątem masowych obciążeń SI — zwłaszcza tam, gdzie priorytetem są mniejsze opóźnienia, niższy koszt na token i wysoka przepustowość. Zachowuje podstawowy multimodalny kręgosłup rozumowania Gemini 3 Pro, jednocześnie celując w zastosowania przetwarzania masowego, takie jak tłumaczenie, klasyfikacja, moderacja treści, generowanie UI oraz synteza danych strukturyzowanych.

✨ Najważniejsze funkcje

  1. Ultraduże okno kontekstu: Obsługuje do 1 M tokenów wejścia multimodalnego, umożliwiając rozumowanie nad długimi dokumentami oraz przetwarzanie kontekstu wideo/audio.
  2. Efektywne kosztowo działanie: Znacząco niższe koszty na token w porównaniu z wcześniejszymi modelami Flash-Lite i konkurencją, co umożliwia użycie na dużą skalę.
  3. Wysoka przepustowość i niskie opóźnienia: ~2,5× szybszy czas do pierwszego tokena i ~45% szybsza przepustowość wyjścia względem Gemini 2.5 Flash.
  4. Dynamiczne sterowanie rozumowaniem: „Poziomy myślenia” pozwalają deweloperom dostrajać kompromis między wydajnością a głębszym rozumowaniem dla każdego żądania.
  5. Obsługa multimodalna: Natywne przetwarzanie obrazów, audio, wideo i tekstu w jednolitej przestrzeni kontekstowej.
  6. Elastyczny dostęp do API: Dostępny przez Gemini API w Google AI Studio oraz w korporacyjnych przepływach Vertex AI.

📈 Wydajność w benchmarkach

Poniższe metryki pokazują efektywność i możliwości Gemini 3.1 Flash-Lite w porównaniu z wcześniejszymi wariantami Flash/Lite oraz innymi modelami (raport: marzec 2026):

BenchmarkGemini 3.1 Flash-LiteGemini 2.5 Flash DynamicGPT-5 Mini
GPQA Diamond (scientific knowledge)86.9 %66.7 %82.3 %
MMMU-Pro (multimodal reasoning)76.8 %51.0 %74.1 %
CharXiv (complex chart reasoning)73.2 %55.5 %75.5 % (+python)
Video-MMMU84.8 %60.7 %82.5 %
LiveCodeBench (code reasoning)72.0 %34.3 %80.4 %
1M Long-Context12.3 %5.4 %Not supported

Wyniki wskazują, że Flash-Lite utrzymuje konkurencyjne możliwości rozumowania i rozumienia multimodalnego, mimo projektowej orientacji na efektywność — często przewyższając starsze warianty Flash w kluczowych benchmarkach.

⚖️ Porównanie z pokrewnymi modelami

CechaGemini 3.1 Flash-LiteGemini 3.1 Pro
Koszt na tokenNiższy (segment podstawowy)Wyższy (segment premium)
Opóźnienie / przepustowośćZoptymalizowany pod szybkośćZrównoważony względem głębi
Głębokość rozumowaniaRegulowana, ale płytszaSilniejsze głębokie rozumowanie
Fokus zastosowańPrzetwarzanie masowe, moderacja, tłumaczenieZadania rozumowania o krytycznym znaczeniu
Okno kontekstu1 M tokenów1 M tokenów (takie samo)

Flash-Lite jest dostosowany do skali i kosztów; Pro służy do wysokiej precyzji i głębokiego rozumowania.

🧠 Zastosowania w przedsiębiorstwach

  • Tłumaczenia i moderacja na dużą skalę: Potoki językowe i treści w czasie rzeczywistym o niskich opóźnieniach.
  • Hurtowe wydobywanie i klasyfikacja danych: Przetwarzanie dużych korpusów z efektywną ekonomią tokenów.
  • Generowanie UI/UX: Strukturalny JSON, szablony pulpitów i rusztowanie front-endu.
  • Prompting symulacyjny: Śledzenie stanu logicznego w długich interakcjach.
  • Aplikacje multimodalne: Rozumowanie oparte na wideo, audio i obrazach w zjednoczonym kontekście.

🧪 Ograniczenia

  • Głębokość rozumowania i precyzja analityczna mogą ustępować Gemini 3.1 Pro w złożonych, krytycznych zadaniach. :
  • Wyniki benchmarków, takich jak fuzja długiego kontekstu, wskazują na pole do poprawy względem modeli flagowych.
  • Dynamiczne sterowanie rozumowaniem wymienia prędkość na wnikliwość; nie wszystkie poziomy gwarantują tę samą jakość wyników.

GPT-5.3 Chat (Alias: gpt-5.3-chat-latest) — Przegląd

GPT-5.3 Chat to najnowszy produkcyjny model czatu od OpenAI, dostępny jako endpoint gpt-5.3-chat-latest w oficjalnym API i zasilający codzienne doświadczenie konwersacyjne ChatGPT. Koncentruje się na poprawie jakości codziennych interakcji — czyniąc odpowiedzi płynniejszymi, dokładniejszymi i lepiej osadzonymi w kontekście — przy zachowaniu silnych możliwości technicznych odziedziczonych z szerszej rodziny GPT-5. :contentReference[oaicite:1]{index=1}


📊 Specyfikacje techniczne

ParametrSzczegóły
Model name/aliasGPT-5.3 Chat / gpt-5.3-chat-latest
ProviderOpenAI
Context window128,000 tokens
Max output tokens per request16,384 tokens
Knowledge cutoff31 sierpnia 2025
Input modalitiesWejścia tekstowe i obrazowe (wyłącznie wizja)
Output modalitiesTekst
Function callingObsługiwane
Structured outputsObsługiwane
Streaming responsesObsługiwane
Fine-tuningNieobsługiwane
Distillation / embeddingsDestylacja nieobsługiwana; osadzenia obsługiwane
Typical use endpointsChat completions, Responses, Assistants, Batch, Realtime
Function calling & toolsWywoływanie funkcji włączone; obsługuje wyszukiwanie w sieci i plikach poprzez Responses API

🧠 Co wyróżnia GPT-5.3 Chat

GPT-5.3 Chat stanowi stopniowe udoskonalenie możliwości ukierunkowanych na czat w rodzinie GPT-5. Głównym celem tej odmiany jest dostarczanie bardziej naturalnych, kontekstowo spójnych i przyjaznych użytkownikowi odpowiedzi niż wcześniejsze modele, takie jak GPT-5.2 Instant. Ulepszenia są ukierunkowane na:

  • Dynamiczny, naturalny ton przy mniejszej liczbie nieprzydatnych zastrzeżeń i bardziej bezpośrednich odpowiedziach.
  • Lepsze rozumienie kontekstu i trafność w typowych scenariuszach czatu.
  • Płynniejszą integrację z bogatymi przypadkami użycia czatu, w tym dialogami wieloturowymi, streszczaniem i asystą konwersacyjną.

GPT-5.3 Chat jest rekomendowany dla deweloperów i aplikacji interaktywnych, które potrzebują najnowszych usprawnień konwersacyjnych bez specjalizowanej głębi rozumowania przyszłych wariantów „Thinking” lub „Pro” GPT-5.3 (które są w przygotowaniu).


🚀 Kluczowe funkcje

  • Duże okno kontekstu czatu: 128K tokenów umożliwia bogatą historię rozmów i śledzenie długiego kontekstu. :contentReference[oaicite:17]{index=17}
  • Poprawiona jakość odpowiedzi: Udoskonalony przepływ konwersacji z mniejszą liczbą niepotrzebnych zastrzeżeń lub nadmiernie ostrożnych odmów. :contentReference[oaicite:18]{index=18}
  • Oficjalne wsparcie API: W pełni obsługiwane endpointy dla czatu, przetwarzania wsadowego, wyjść strukturyzowanych i przepływów czasu rzeczywistego.
  • Wszechstronna obsługa wejść: Akceptuje i kontekstualizuje tekst oraz obrazy, nadając się do multimodalnych scenariuszy czatu.
  • Wywoływanie funkcji i ustrukturyzowane wyjście: Umożliwia strukturyzowane i interaktywne wzorce aplikacyjne poprzez API. :contentReference[oaicite:21]{index=21}
  • Szeroka kompatybilność z ekosystemem: Działa z v1/chat/completions, v1/responses, Assistants i innymi nowoczesnymi interfejsami OpenAI API.

📈 Typowe benchmarki i zachowanie

📈 Wydajność w benchmarkach

OpenAI i niezależne raporty pokazują poprawioną wydajność w rzeczywistych zastosowaniach:

MetrykaGPT-5.3 Instant vs GPT-5.2 Instant
Wskaźnik halucynacji z wyszukiwaniem w sieci−26.8%
Wskaźnik halucynacji bez wyszukiwania−19.7%
Błędy faktograficzne zgłaszane przez użytkowników (web)~−22.5%
Błędy faktograficzne zgłaszane przez użytkowników (wewnętrzne)~−9.6%

Co istotne, nacisk GPT-5.3 na jakość konwersacji w realnych zastosowaniach oznacza, że poprawy wyników benchmarków (np. znormalizowanych miar NLP) są mniej wyeksponowane — ulepszenia najlepiej widać w metrykach doświadczenia użytkownika, a nie w samych surowych wynikach testów.

W porównaniach branżowych warianty czatu rodziny GPT-5 są znane z przewyższania wcześniejszych modułów GPT-4 w zakresie codziennej trafności i śledzenia kontekstu, choć specjalistyczne zadania rozumowania mogą nadal faworyzować dedykowane warianty „Pro” lub endpointy zoptymalizowane pod rozumowanie.


🤖 Zastosowania

  • Boty wsparcia klienta i asystenci konwersacyjni
  • Interaktywne tutoriale lub agenci edukacyjni
  • Streszczanie i konwersacyjna wyszukiwarka
  • Wewnętrzni agenci wiedzy i pomocnicy w czatach zespołowych
  • Multimodalne Q&A (tekst + obrazy)

Połączenie jakości konwersacji i wszechstronności API czyni go idealnym dla aplikacji interaktywnych, które łączą naturalny dialog ze strukturyzowanymi wyjściami danych.

🔍 Ograniczenia

  • Nie jest wariantem o najgłębszym rozumowaniu: W zadaniach o krytycznym znaczeniu i wysokiej stawce bardziej odpowiednie mogą być nadchodzące modele GPT-5.3 Thinking lub Pro.
  • Ograniczone wyjścia multimodalne: Choć wejścia obrazów są obsługiwane, pełne generowanie obrazów/wideo lub bogate multimodalne wyjścia nie są głównym celem tej odmiany.
  • Dostrajanie (fine-tuning) nie jest obsługiwane: Nie można dostrajać tego modelu, choć można sterować zachowaniem przez prompt systemowy.

Jak uzyskać dostęp do Gemini 3.1 flash lite API

Krok 1: Zarejestruj się po klucz API

Zaloguj się na cometapi.com. Jeśli nie jesteś jeszcze naszym użytkownikiem, zarejestruj się najpierw. Zaloguj się do swojej konsoli CometAPI. Uzyskaj klucz API (poświadczenie dostępu) interfejsu. Kliknij „Add Token” w sekcji tokena API w centrum osobistym, pobierz klucz tokena: sk-xxxxx i zatwierdź.

cometapi-key

Krok 2: Wyślij żądania do Gemini 3.1 flash lite API

Wybierz endpoint „` gemini-3.1-flash-lite” do wysłania żądania API i ustaw ciało żądania. Metodę żądania i ciało żądania znajdziesz w naszej dokumentacji API na stronie. Nasza strona oferuje również test w Apifox dla Twojej wygody. Zamień <YOUR_API_KEY> na swój rzeczywisty klucz CometAPI z konta. base url is Gemini Generating Content

Wstaw swoje pytanie lub prośbę w pole content — to na to model odpowie . Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź.

Krok 3: Odbierz i zweryfikuj wyniki

Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź. Po przetworzeniu API zwróci status zadania i dane wyjściowe.

FAQ

Do jakich zadań najlepiej nadaje się Gemini 3.1 Flash-Lite?

Gemini 3.1 Flash-Lite jest zoptymalizowany pod kątem wysokowolumenowych przepływów pracy wrażliwych na opóźnienia, takich jak tłumaczenie, moderacja treści, klasyfikacja, generowanie UI/pulpitów nawigacyjnych oraz potoki promptów symulacyjnych, gdzie priorytetem są szybkość i niski koszt.

Jakie są okno kontekstowe i możliwości wyjściowe Gemini 3.1 Flash-Lite?

Gemini 3.1 Flash-Lite obsługuje duże okno kontekstowe do 1 miliona tokenów dla wejść multimodalnych obejmujących tekst, obrazy, audio i wideo, z wyjściem do 64 tys. tokenów.

Jak Gemini 3.1 Flash-Lite wypada w porównaniu z Gemini 2.5 Flash pod względem wydajności i kosztów?

W porównaniu z modelami Gemini 2.5 Flash, Gemini 3.1 Flash-Lite zapewnia około 2,5× szybszy czas do pierwszej odpowiedzi oraz około 45 % wyższą przepustowość wyjściową, a jednocześnie jest znacznie tańszy za milion tokenów zarówno wejściowych, jak i wyjściowych. }

Czy Gemini 3.1 Flash-Lite obsługuje regulowaną głębokość rozumowania?

Tak — oferuje wiele poziomów rozumowania lub „myślenia” (np. minimalny, niski, średni, wysoki), dzięki czemu deweloperzy mogą wymieniać szybkość na głębsze rozumowanie przy złożonych zadaniach. :contentReference[oaicite:3]{index=3}

Jakie są typowe mocne strony Gemini 3.1 Flash-Lite w benchmarkach?

W benchmarkach takich jak GPQA Diamond (wiedza naukowa) i MMMU Pro (rozumienie multimodalne), Gemini 3.1 Flash-Lite osiąga bardzo dobre wyniki względem wcześniejszych modeli Flash-Lite, z GPQA około 86,9 % i MMMU około 76,8 % w oficjalnych ewaluacjach.

Jak uzyskać dostęp do Gemini 3.1 Flash-Lite przez API?

Możesz użyć endpointu gemini-3.1-flash-lite-preview za pośrednictwem CometAPI do integracji przedsiębiorstwowej.

Kiedy wybrać Gemini 3.1 Flash-Lite zamiast Gemini 3.1 Pro?

Wybierz Flash-Lite, gdy priorytetem są przepustowość, opóźnienia i koszt w zadaniach o dużym wolumenie; wybierz Pro do zadań wymagających najwyższej głębokości rozumowania, dokładności analitycznej lub krytycznego dla misji zrozumienia.

Funkcje dla Gemini 3.1 Flash-Lite

Poznaj kluczowe funkcje Gemini 3.1 Flash-Lite, zaprojektowane w celu zwiększenia wydajności i użyteczności. Odkryj, jak te możliwości mogą przynieść korzyści Twoim projektom i poprawić doświadczenie użytkownika.

Cennik dla Gemini 3.1 Flash-Lite

Poznaj konkurencyjne ceny dla Gemini 3.1 Flash-Lite, zaprojektowane tak, aby pasowały do różnych budżetów i potrzeb użytkowania. Nasze elastyczne plany zapewniają, że płacisz tylko za to, czego używasz, co ułatwia skalowanie w miarę wzrostu Twoich wymagań. Odkryj, jak Gemini 3.1 Flash-Lite może ulepszyć Twoje projekty przy jednoczesnym utrzymaniu kosztów na rozsądnym poziomie.
Cena Comet (USD / M Tokens)Oficjalna cena (USD / M Tokens)Zniżka
Wejście:$0.2/M
Wyjście:$1.2/M
Wejście:$0.25/M
Wyjście:$1.5/M
-20%

Przykładowy kod i API dla Gemini 3.1 Flash-Lite

Uzyskaj dostęp do kompleksowego przykładowego kodu i zasobów API dla Gemini 3.1 Flash-Lite, aby usprawnić proces integracji. Nasza szczegółowa dokumentacja zapewnia wskazówki krok po kroku, pomagając wykorzystać pełny potencjał Gemini 3.1 Flash-Lite w Twoich projektach.
POST
/v1/chat/completions
POST
/v1beta/models/{model}:{operator}
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Python Code Example

from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-flash-lite-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

JavaScript Code Example

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1beta";
const model = "gemini-3.1-flash-lite-preview";
const operator = "generateContent";

const response = await fetch(`${base_url}/models/${model}:${operator}`, {
  method: "POST",
  headers: {
    "Content-Type": "application/json",
    Authorization: api_key,
  },
  body: JSON.stringify({
    contents: [
      {
        parts: [{ text: "Explain how AI works in a few words" }],
      },
    ],
  }),
});

const data = await response.json();
console.log(data.candidates[0].content.parts[0].text);

Curl Code Example

curl "https://api.cometapi.com/v1beta/models/gemini-3.1-flash-lite-preview:generateContent" \
  -H "Authorization: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "Explain how AI works in a few words"
          }
        ]
      }
    ]
  }'

Wersje modelu Gemini 3.1 Flash-Lite

Powody, dla których Gemini 3.1 Flash-Lite posiada wiele migawek, mogą obejmować takie czynniki jak: różnice w wynikach po aktualizacjach wymagające starszych migawek dla zachowania spójności, zapewnienie programistom okresu przejściowego na adaptację i migrację, oraz różne migawki odpowiadające globalnym lub regionalnym punktom końcowym w celu optymalizacji doświadczenia użytkownika. Aby poznać szczegółowe różnice między wersjami, zapoznaj się z oficjalną dokumentacją.
Identyfikator modeluOpisDostępnośćŻądanie
gemini-3-1-flashAutomatycznie wskazuje najnowszy model✅Generowanie treści Gemini
gemini-3-1-flash-previewOficjalna wersja Preview✅Generowanie treści Gemini
gemini-3.1-flash-lite-preview-thinkingwersja thinking✅Generowanie treści Gemini
gemini-3.1-flash-lite-thinkingwersja thinking✅Generowanie treści Gemini

Więcej modeli

C

Claude Opus 4.7

Wejście:$4/M
Wyjście:$20/M
Najinteligentniejszy model dla agentów i programowania
C

Claude Opus 4.6

Wejście:$4/M
Wyjście:$20/M
Claude Opus 4.6 to duży model językowy firmy Anthropic klasy „Opus”, wydany w lutym 2026 r. Jest pozycjonowany jako podstawowe narzędzie wspierające pracę opartą na wiedzy oraz procesy badawcze — usprawnia rozumowanie w długim kontekście, planowanie wieloetapowe, korzystanie z narzędzi (w tym agentowe przepływy pracy oprogramowania) oraz zadania związane z obsługą komputera, takie jak automatyczne generowanie slajdów i arkuszy kalkulacyjnych.
A

Claude Sonnet 4.6

Wejście:$2.4/M
Wyjście:$12/M
Claude Sonnet 4.6 to nasz najbardziej zaawansowany model Sonnet do tej pory. To pełna aktualizacja umiejętności modelu, obejmująca programowanie, korzystanie z komputera, rozumowanie w długim kontekście, planowanie agentowe, pracę opartą na wiedzy oraz projektowanie. Sonnet 4.6 oferuje również okno kontekstu 1M tokenów w wersji beta.
O

GPT-5.4 nano

Wejście:$0.16/M
Wyjście:$1/M
GPT-5.4 nano został zaprojektowany z myślą o zadaniach, w których kluczowe są szybkość i koszt, takich jak klasyfikacja, ekstrakcja danych, ranking oraz sub-agenty.
O

GPT-5.4 mini

Wejście:$0.6/M
Wyjście:$3.6/M
GPT-5.4 mini przenosi zalety GPT-5.4 do szybszego i bardziej wydajnego modelu, zaprojektowanego z myślą o zadaniach o dużej skali.
Q

Qwen3.6-Plus

Wejście:$0.32/M
Wyjście:$1.92/M
Qwen 3.6-Plus jest już dostępny i oferuje ulepszone możliwości tworzenia kodu oraz wyższą wydajność w zakresie multimodalnego rozpoznawania i wnioskowania, dzięki czemu doświadczenie Vibe Coding jest jeszcze lepsze.

Powiązane blogi

Jak uzyskać Gemini 3.1 Deep Think
Mar 13, 2026

Jak uzyskać Gemini 3.1 Deep Think

Gemini 3.1 Deep Think to zaawansowany tryb rozumowania opracowany przez Google i Google DeepMind, który umożliwia systemom sztucznej inteligencji wieloetapowe rozumowanie, analizy naukowe oraz rozwiązywanie złożonych problemów. Obecnie jest dostępny przede wszystkim w ramach subskrypcji Google AI Ultra, w aplikacji Gemini oraz w narzędziach deweloperskich, takich jak Gemini API i AI Studio.
Google prezentuje Gemini 3.1 Flash-Lite — szybki, niedrogi LLM
Mar 5, 2026
gemini-3-1-flash-lite

Google prezentuje Gemini 3.1 Flash-Lite — szybki, niedrogi LLM

Google wprowadziło Gemini 3.1 Flash-Lite, najnowszego członka rodziny Gemini 3, zaprojektowanego specjalnie jako silnik o wysokiej przepustowości, niskich opóźnieniach i efektywny kosztowo dla obciążeń deweloperskich i korporacyjnych. Google pozycjonuje Flash-Lite jako „najszybszy i najbardziej efektywny kosztowo” model w linii Gemini 3: lekki wariant, który ma zapewniać interakcje strumieniowe, przetwarzanie w tle na dużą skalę oraz zadania produkcyjne o wysokiej częstotliwości (na przykład tłumaczenie, ekstrakcję, generowanie interfejsów użytkownika i klasyfikację na dużą skalę) w znacznie niższej cenie niż jego odpowiedniki Pro.