ModeleCenyPrzedsiębiorstwo
Ponad 500 API modeli AI, wszystko w jednym API. Tylko w CometAPI
API modeli
Deweloper
Szybki startDokumentacjaPanel API
Firma
O nasPrzedsiębiorstwo
Zasoby
Modele Sztucznej InteligencjiBlogDziennik zmianWsparcie
Warunki korzystania z usługiPolityka Prywatności
© 2026 CometAPI · All rights reserved
Home/Models/Google/Gemini 2.5 Flash
G

Gemini 2.5 Flash

Wejście:$0.24/M
Wyjście:$2/M
Kontekst:1M
Maks. wyjście:65K
Gemini 2.5 Flash to model AI opracowany przez Google, zaprojektowany tak, aby zapewniać szybkie i ekonomiczne rozwiązania dla deweloperów, zwłaszcza dla aplikacji wymagających zwiększonych możliwości wnioskowania. Zgodnie z zapowiedzią wersji zapoznawczej Gemini 2.5 Flash, model został udostępniony w wersji zapoznawczej 17 kwietnia 2025 r., obsługuje wejście multimodalne i ma okno kontekstu o wielkości 1 miliona tokenów. Ten model obsługuje maksymalną długość kontekstu wynoszącą 65,536 tokenów.
Nowy
Użycie komercyjne
Playground
Przegląd
Funkcje
Cennik
API
Wersje

Gemini 2.5 Flash został zaprojektowany tak, aby dostarczać szybkie odpowiedzi bez kompromisów w zakresie jakości wyników. Obsługuje wejścia multimodalne, w tym tekst, obrazy, dźwięk i wideo, co czyni go odpowiednim do zróżnicowanych zastosowań. Model jest dostępny na platformach takich jak Google AI Studio i Vertex AI, zapewniając deweloperom narzędzia niezbędne do bezproblemowej integracji z różnymi systemami.


Informacje podstawowe (Funkcje)

Gemini 2.5 Flash wprowadza kilka wyróżniających się funkcji, które odróżniają go w rodzinie Gemini 2.5:

  • Hybrid Reasoning: Programiści mogą ustawić parametr thinking_budget, aby precyzyjnie kontrolować, ile tokenów model przeznacza na wewnętrzne rozumowanie przed wygenerowaniem odpowiedzi.
  • Granica Pareto: Umieszczony w optymalnym punkcie koszt–wydajność, Flash oferuje najlepszy stosunek ceny do inteligencji wśród modeli 2.5.
  • Obsługa multimodalna: Natywnie przetwarza tekst, obrazy, wideo i dźwięk, umożliwiając bogatsze rozmowy i analizy.
  • Kontekst 1 miliona tokenów: Niezrównana długość kontekstu umożliwia głęboką analizę i zrozumienie długich dokumentów w jednym żądaniu.

Wersjonowanie modelu

Gemini 2.5 Flash przeszedł przez następujące kluczowe wersje:

  • gemini-2.5-flash-lite-preview-09-2025: Ulepszona użyteczność narzędzi: poprawiona wydajność w złożonych, wieloetapowych zadaniach, ze wzrostem wyniku SWE-Bench Verified o 5% (z 48.9% do 54%). Zwiększona efektywność: po włączeniu rozumowania uzyskiwana jest wyższa jakość wyników przy mniejszej liczbie tokenów, co obniża opóźnienia i koszty.
  • Preview 04-17: Wczesny dostęp z „thinking”, dostępny via gemini-2.5-flash-preview-04-17.
  • Stabilna dostępność ogólna (GA): Od 17 czerwca 2025 r. stabilny endpoint gemini-2.5-flash zastępuje wersję zapoznawczą, zapewniając niezawodność klasy produkcyjnej bez zmian w API względem wydania z 20 maja.
  • Wycofanie wersji zapoznawczej: Endpointy preview zostały zaplanowane do wyłączenia 15 lipca 2025 r.; użytkownicy muszą przejść na endpoint GA przed tą datą.

Od lipca 2025 r. Gemini 2.5 Flash jest teraz publicznie dostępny i stabilny (bez zmian względem gemini-2.5-flash-preview-05-20). Jeśli używasz gemini-2.5-flash-preview-04-17, dotychczasowe ceny wersji preview będą obowiązywać do planowanego wycofania endpointu modelu 15 lipca 2025 r., kiedy zostanie on wyłączony. Możesz przejść na ogólnie dostępny model "gemini-2.5-flash".

Szybszy, tańszy, mądrzejszy:

  • Cele projektowe: niskie opóźnienia + wysoka przepustowość + niski koszt;
  • Ogólne przyspieszenie w rozumowaniu, przetwarzaniu multimodalnym i zadaniach na długich tekstach;
  • Zużycie tokenów zmniejszone o 20–30%, co znacząco obniża koszty rozumowania.

Specyfikacje techniczne

Okno kontekstu wejściowego: do 1 miliona tokenów, co pozwala na szerokie utrzymanie kontekstu.

Tokeny wyjściowe: może generować do 8,192 tokenów na odpowiedź.

Obsługiwane modalności: tekst, obrazy, dźwięk i wideo.

Platformy integracyjne: dostępny przez Google AI Studio i Vertex AI.

Cennik: konkurencyjny, oparty na tokenach model rozliczeń, ułatwiający opłacalne wdrożenia.


Szczegóły techniczne

Pod maską Gemini 2.5 Flash to duży model językowy oparty na architekturze transformera, trenowany na mieszance danych z sieci, kodu, obrazów i wideo. Kluczowe techniczne specyfikacje obejmują:

Trening multimodalny: Trenowany do wyrównywania wielu modalności, Flash może bezproblemowo łączyć tekst z obrazami, wideo lub dźwiękiem, co przydaje się w zadaniach takich jak streszczanie wideo czy opisy audio.

Dynamiczny proces rozumowania: Implementuje wewnętrzną pętlę rozumowania, w której model planuje i rozbija złożone polecenia przed wygenerowaniem końcowego wyniku.

Konfigurowalne budżety rozumowania: Parametr thinking_budget można ustawić od 0 (brak rozumowania) do 24,576 tokenów, co pozwala równoważyć opóźnienia i jakość odpowiedzi.

Integracja narzędzi: Obsługuje Grounding with Google Search, Code Execution, URL Context oraz Function Calling, umożliwiając wykonywanie działań w świecie rzeczywistym bezpośrednio z poleceń w języku naturalnym.


Wydajność w benchmarkach

W rygorystycznych ewaluacjach Gemini 2.5 Flash wykazuje wiodącą w branży wydajność:

  • LMArena Hard Prompts: Wynik drugi po 2.5 Pro w wymagającym benchmarku Hard Prompts, co pokazuje silne możliwości wieloetapowego rozumowania.
  • Wynik MMLU 0.809: Przewyższa średnią wydajność modeli z dokładnością MMLU 0.809, odzwierciedlając szeroką wiedzę dziedzinową i zdolności rozumowania.
  • Opóźnienia i przepustowość: Osiąga 271.4 tokens/sec szybkości dekodowania przy 0.29 s Time-to-First-Token, co czyni go idealnym do obciążeń wrażliwych na opóźnienia.
  • Lider stosunku ceny do wydajności: Przy \$0.26/1 M tokens, Flash jest tańszy od wielu konkurentów, jednocześnie dorównując im lub je przewyższając w kluczowych benchmarkach.

Te wyniki wskazują na przewagę konkurencyjną Gemini 2.5 Flash w obszarach rozumowania, rozumienia naukowego, rozwiązywania problemów matematycznych, programowania, interpretacji wizualnej oraz kompetencji wielojęzycznych:


Ograniczenia

Choć potężny, Gemini 2.5 Flash ma pewne ograniczenia:

  • Ryzyka bezpieczeństwa: Model może wykazywać „pouczający” ton i wytwarzać wiarygodnie brzmiące, lecz niepoprawne lub stronnicze odpowiedzi (halucynacje), szczególnie przy zapytaniach brzegowych. Niezbędny pozostaje rygorystyczny nadzór człowieka.
  • Limity szybkości: Użycie API jest ograniczone limitami (10 RPM, 250,000 TPM, 250 RPD), co może wpływać na przetwarzanie wsadowe lub zastosowania o dużej skali.
  • Próg inteligencji: Choć wyjątkowo zdolny jak na model „flash”, pozostaje mniej dokładny niż 2.5 Pro w najbardziej wymagających zadaniach agentowych, takich jak zaawansowane kodowanie czy koordynacja wielu agentów.
  • Kompromisy kosztowe: Mimo najlepszego stosunku ceny do wydajności, intensywne korzystanie z trybu thinking zwiększa całkowite zużycie tokenów, podnosząc koszty dla zapytań wymagających głębokiego rozumowania.

Funkcje dla Gemini 2.5 Flash

Poznaj kluczowe funkcje Gemini 2.5 Flash, zaprojektowane w celu zwiększenia wydajności i użyteczności. Odkryj, jak te możliwości mogą przynieść korzyści Twoim projektom i poprawić doświadczenie użytkownika.

Cennik dla Gemini 2.5 Flash

Poznaj konkurencyjne ceny dla Gemini 2.5 Flash, zaprojektowane tak, aby pasowały do różnych budżetów i potrzeb użytkowania. Nasze elastyczne plany zapewniają, że płacisz tylko za to, czego używasz, co ułatwia skalowanie w miarę wzrostu Twoich wymagań. Odkryj, jak Gemini 2.5 Flash może ulepszyć Twoje projekty przy jednoczesnym utrzymaniu kosztów na rozsądnym poziomie.

gemini-2.5-flash (same price across variants)

Model familyVariant (model name)Input price (USD / 1M tokens)Output price (USD / 1M tokens)
gemini-2.5-flashgemini-2.5-flash-thinking$0.24$2.00
gemini-2.5-flashgemini-2.5-flash-all$0.24$2.00
gemini-2.5-flashgemini-2.5-flash$0.24$2.00

Przykładowy kod i API dla Gemini 2.5 Flash

Gemini 2.5 Flash API to najnowszy multimodalny model AI Google, zaprojektowany z myślą o zadaniach wymagających wysokiej szybkości i efektywności kosztowej, z kontrolowalnymi możliwościami rozumowania, które pozwalają deweloperom włączać lub wyłączać zaawansowane funkcje „myślenia” za pośrednictwem Gemini API.
POST
/v1beta/models/{model}:{operator}
POST
/v1/chat/completions
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-2.5-flash",
    contents="Tell me a three sentence bedtime story about a unicorn.",
)

print(response.text)

Python Code Example

from google import genai
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-2.5-flash",
    contents="Tell me a three sentence bedtime story about a unicorn.",
)

print(response.text)

JavaScript Code Example

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1beta";
const model = "gemini-2.5-flash";
const operator = "generateContent";

async function main() {
  const response = await fetch(`${base_url}/models/${model}:${operator}`, {
    method: "POST",
    headers: {
      "Content-Type": "application/json",
      Authorization: api_key,
    },
    body: JSON.stringify({
      contents: [
        {
          parts: [
            { text: "Tell me a three sentence bedtime story about a unicorn." },
          ],
        },
      ],
    }),
  });

  const data = await response.json();
  console.log(data.candidates[0].content.parts[0].text);
}

await main();

Curl Code Example

curl "https://api.cometapi.com/v1beta/models/gemini-2.5-flash:generateContent" \
  -H "Authorization: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "Tell me a three sentence bedtime story about a unicorn."
          }
        ]
      }
    ]
  }'

Wersje modelu Gemini 2.5 Flash

Powody, dla których Gemini 2.5 Flash posiada wiele migawek, mogą obejmować takie czynniki jak: różnice w wynikach po aktualizacjach wymagające starszych migawek dla zachowania spójności, zapewnienie programistom okresu przejściowego na adaptację i migrację, oraz różne migawki odpowiadające globalnym lub regionalnym punktom końcowym w celu optymalizacji doświadczenia użytkownika. Aby poznać szczegółowe różnice między wersjami, zapoznaj się z oficjalną dokumentacją.
version
gemini-2.5-flash-deepsearch
gemini-2.5-flash-lite-preview-06-17-thinking
gemini-2.5-flash-lite-thinking
gemini-2.5-flash-lite
gemini-2.5-flash-image
gemini-2.5-flash-image-preview
gemini-2.5-flash-lite-preview-06-17
gemini-2.5-flash-preview-05-20
gemini-2.5-flash-preview-09-2025
gemini-2.5-flash-thinking
gemini-2.5-flash-all
gemini-2.5-flash-lite-preview-09-2025
gemini-2.5-flash
gemini-2.5-flash-preview-04-17

Więcej modeli

C

Claude Opus 4.7

Wejście:$3/M
Wyjście:$15/M
Najinteligentniejszy model dla agentów i programowania
A

Claude Sonnet 4.6

Wejście:$2.4/M
Wyjście:$12/M
Claude Sonnet 4.6 to nasz najbardziej zaawansowany model Sonnet do tej pory. To pełna aktualizacja umiejętności modelu, obejmująca programowanie, korzystanie z komputera, rozumowanie w długim kontekście, planowanie agentowe, pracę opartą na wiedzy oraz projektowanie. Sonnet 4.6 oferuje również okno kontekstu 1M tokenów w wersji beta.
O

GPT 5.5 Pro

Wejście:$24/M
Wyjście:$144/M
Zaawansowany model zaprojektowany z myślą o niezwykle złożonej logice i profesjonalnych wymaganiach, reprezentujący najwyższy standard głębokiego rozumowania i precyzyjnych zdolności analitycznych.
O

GPT 5.5

Wejście:$4/M
Wyjście:$24/M
Flagowy model multimodalny nowej generacji, łączący wyjątkową wydajność z szybkim czasem reakcji, zaprojektowany z myślą o dostarczaniu kompleksowych i stabilnych usług AI ogólnego przeznaczenia.
O

GPT Image 2 ALL

Na żądanie:$0.04
GPT Image 2 to najnowocześniejszy model generowania obrazów openai, przeznaczony do szybkiego i wysokiej jakości generowania oraz edycji obrazów. Obsługuje elastyczne rozmiary obrazów oraz wejścia obrazowe o wysokiej wierności.
O

GPT 5.5 ALL

Wejście:$4/M
Wyjście:$24/M
GPT-5.5 wyróżnia się w pisaniu kodu, badaniach online, analizie danych oraz operacjach między narzędziami. Model nie tylko zwiększa swoją autonomię w obsłudze złożonych, wieloetapowych zadań, ale także znacząco poprawia zdolności wnioskowania i wydajność realizacji, zachowując przy tym taki sam poziom opóźnienia jak jego poprzednik, co stanowi ważny krok w kierunku zautomatyzowanej automatyzacji prac biurowych w AI.

Powiązane blogi

Nano Banana 2 Flash Wkrótce – Błyskawiczna ewolucja generowania obrazów przez AI
Jan 6, 2026
nano-banana-2

Nano Banana 2 Flash Wkrótce – Błyskawiczna ewolucja generowania obrazów przez AI

Google po raz kolejny wstrząsnęło krajobrazem sztucznej inteligencji generatywnej, zapowiadając Nano Banana 2 Flash, który wkrótce zadebiutuje, najnowszy dodatek do powszechnie uznanej rodziny "Nano Banana" do generowania obrazów. Po ogromnym sukcesie Nano Banana Pro (Gemini 3 Pro Image) pod koniec ubiegłego roku, ta nowa iteracja obiecuje zdemokratyzować syntezę wizualną klasy profesjonalnej, łącząc najbardziej zaawansowaną inteligencję architektury Gemini 3 z bezprecedensową szybkością i wydajnością.
Zniżki Nano Banana: prawdziwa oszczędność dla deweloperów w 2026 r.
Dec 25, 2025
nano-banana-pro

Zniżki Nano Banana: prawdziwa oszczędność dla deweloperów w 2026 r.

Podsumowując: Oficjalne API Nano Banana nie oferuje żadnych zniżek z okazji Bożego Narodzenia, Nowego Roku ani innych świąt. To fakt, który wszyscy deweloperzy planujący w 2026 roku korzystać z Nano Banana (w tym Nano Banana Pro) do generowania obrazów, tworzenia treści lub integracji z produktem muszą zrozumieć. Google nie oferuje sezonowych zniżek na API Nano Banana, czy to z okazji Bożego Narodzenia, Black Friday, czy Nowego Roku. Oficjalny system cenowy API jest konsekwentnie stabilny i przejrzysty, praktycznie nie pozostawiając miejsca na zniżki. Pojawia się więc pytanie: jeśli jesteś deweloperem i planujesz w okresie Bożego Narodzenia lub Nowego Roku przeprowadzać na dużą skalę generowanie obrazów, testowanie modeli albo iteracje produktu, czy istnieje jakikolwiek sposób na obniżenie kosztów korzystania z Nano Banana?
Czy darmowe API Gemini 2.5 Pro nie działa? Zmiany w bezpłatnym limicie w 2025 roku.
Dec 11, 2025
gemini-2-5-pro
gemini-2-5-flash

Czy darmowe API Gemini 2.5 Pro nie działa? Zmiany w bezpłatnym limicie w 2025 roku.

Google znacząco zaostrzył zasady bezpłatnego planu Gemini API: Gemini 2.5 Pro został usunięty z bezpłatnego planu, a dzienne bezpłatne żądania dla Gemini 2.5 Flash zostały drastycznie ograniczone (według doniesień: ~250 → ~20/dzień). To nie oznacza, że model jest trwale „martwy” dla eksperymentów — ale oznacza, że bezpłatny dostęp został de facto mocno okrojony w wielu realnych zastosowaniach.
Kompletny przewodnik po Nano-Bananie: Jak go używać i jak go używać
Sep 8, 2025
gemini-2-5-flash-image

Kompletny przewodnik po Nano-Bananie: Jak go używać i jak go używać

Niedawno wydana przez Google aplikacja Gemini 2.5 Flash Image — nazywana „Nano-Banana” — szybko stała się narzędziem do edycji obrazów w konwersacjach: zachowuje ona podobieństwa
Jak korzystać z Nano Banana za pośrednictwem API? (Gemini-2-5-flash-image)
Aug 28, 2025
gemini-2-5-flash-image

Jak korzystać z Nano Banana za pośrednictwem API? (Gemini-2-5-flash-image)

Nano Banana to społeczna nazwa (i wewnętrzny skrót) narzędzia Gemini 2.5 Flash Image firmy Google — wysokiej jakości narzędzia do generowania obrazów multimodalnych o niskim opóźnieniu +