O

GPT-5.2 Pro

Kontekst:400,000
Wejście:$12.00/M
Wyjście:$96.00/M
gpt-5.2-pro to członek rodziny GPT-5.2 OpenAI o najwyższych możliwościach, przeznaczony do zastosowań produkcyjnych, udostępniany za pośrednictwem Responses API dla zadań wymagających maksymalnej dokładności, wielokrokowego rozumowania, rozbudowanego wykorzystania narzędzi oraz największych limitów kontekstu i przepustowości, jakie oferuje OpenAI.
O

GPT-5.2 Chat

Kontekst:128,000
Wejście:$1.40/M
Wyjście:$11.20/M
gpt-5.2-chat-latest to migawka rodziny OpenAI GPT-5.2 zoptymalizowana pod czat (w ChatGPT oznaczona jako GPT-5.2 Instant). Jest to model do interaktywnych/czatowych przypadków użycia wymagających połączenia szybkości, obsługi długiego kontekstu, wejść multimodalnych oraz niezawodnego zachowania konwersacyjnego.
O

GPT-5.2

Kontekst:400,000
Wejście:$1.40/M
Wyjście:$11.20/M
GPT-5.2 to wielowariantowy zestaw modeli (Instant, Thinking, Pro) zaprojektowany pod kątem lepszego rozumienia długich kontekstów, bardziej zaawansowanego programowania i korzystania z narzędzi oraz wyraźnie wyższej wydajności w profesjonalnych benchmarkach „knowledge-work”.
O

GPT-5.1 Chat

Kontekst:400.0k
Wejście:$1.00/M
Wyjście:$8.00/M
GPT-5.1 Chat to dostrojony za pomocą instrukcji konwersacyjny model językowy do ogólnych zastosowań: czatu, rozumowania i pisania. Obsługuje wieloturowe dialogi, podsumowywanie, tworzenie szkiców, odpowiadanie na pytania w oparciu o bazę wiedzy oraz lekkie wsparcie kodowania na potrzeby asystentów w aplikacjach, automatyzacji wsparcia i współpilotów przepływów pracy. Do najważniejszych aspektów technicznych należą dopasowanie zoptymalizowane pod kątem czatu, sterowalne i ustrukturyzowane odpowiedzi oraz ścieżki integracji do wywoływania narzędzi i przepływów pozyskiwania informacji, gdy są dostępne.
O

GPT-5.1

Wejście:$1.00/M
Wyjście:$8.00/M
GPT-5.1 to uniwersalny model językowy dostrojony do wykonywania instrukcji, skoncentrowany na generowaniu tekstu i wnioskowaniu w procesach produktowych. Obsługuje wieloturowe dialogi, ustrukturyzowane formatowanie wyników oraz zadania ukierunkowane na kod, takie jak tworzenie, refaktoryzacja i wyjaśnianie. Typowe zastosowania obejmują asystentów czatu, QA wspierane wyszukiwaniem, transformację danych oraz automatyzację w stylu agenta z użyciem narzędzi lub interfejsów API, gdy jest to obsługiwane. Najważniejsze cechy techniczne obejmują modalność zorientowaną na tekst, podążanie za instrukcjami, wyniki w stylu JSON oraz zgodność z wywoływaniem funkcji w popularnych frameworkach orkiestracji.
O

GPT-5 nano

Kontekst:400K
Wejście:$0.04/M
Wyjście:$0.32/M
GPT-5 Nano to model sztucznej inteligencji dostarczany przez OpenAI.
O

GPT-5 mini

Kontekst:400K
Wejście:$0.20/M
Wyjście:$1.60/M
GPT-5 mini to zoptymalizowany pod kątem kosztów i opóźnień członek rodziny GPT-5 firmy OpenAI, przeznaczony do dostarczania znacznej części mocnych stron GPT-5 w zakresie multimodalności i wykonywania instrukcji przy znacznie niższym koszcie dla zastosowań produkcyjnych na dużą skalę. Jest skierowany do środowisk, w których przepustowość, przewidywalne ceny za token i szybkie odpowiedzi są głównymi ograniczeniami, wciąż zapewniając silne możliwości ogólnego przeznaczenia.
O

GPT 5 Chat

Kontekst:400K
Wejście:$1.00/M
Wyjście:$8.00/M
GPT-5 Chat (najnowszy) jest modelem sztucznej inteligencji oferowanym przez OpenAI.
O

GPT-5

Kontekst:400K
Wejście:$1.00/M
Wyjście:$8.00/M
GPT-5 to najpotężniejszy jak dotąd model programistyczny OpenAI. Wykazuje znaczące usprawnienia w generowaniu złożonego front-endu oraz debugowaniu rozległych baz kodu. Potrafi przekuwać pomysły w rzeczywistość, dostarczając intuicyjne i estetycznie dopracowane rezultaty, tworząc piękne i responsywne strony internetowe, aplikacje i gry z wyczuciem estetyki — wszystko na podstawie jednego polecenia. Wcześni testerzy zwrócili też uwagę na jego decyzje projektowe oraz głębsze zrozumienie elementów takich jak odstępy, typografia i biała przestrzeń.
O

GPT-4.1 nano

Kontekst:1.0M
Wejście:$0.08/M
Wyjście:$0.32/M
GPT-4.1 nano to model sztucznej inteligencji udostępniany przez OpenAI. gpt-4.1-nano: Zapewnia większe okno kontekstu—obsługujące do 1 miliona tokenów kontekstu oraz lepsze wykorzystanie tego kontekstu dzięki ulepszonemu rozumieniu długiego kontekstu. Ma zaktualizowaną datę odcięcia wiedzy na czerwiec 2024. Ten model obsługuje maksymalną długość kontekstu wynoszącą 1,047,576 tokenów.
O

GPT-4.1

Kontekst:1.0M
Wejście:$1.60/M
Wyjście:$6.40/M
GPT-4.1 to model sztucznej inteligencji dostarczany przez OpenAI. gpt-4.1-nano: Charakteryzuje się większym oknem kontekstu — obsługuje do 1 miliona tokenów kontekstowych i potrafi lepiej wykorzystywać ten kontekst dzięki ulepszonemu rozumieniu długiego kontekstu. Ma zaktualizowaną datę odcięcia wiedzy: czerwiec 2024. Ten model obsługuje maksymalną długość kontekstu wynoszącą 1,047,576 tokenów.
O

GPT-4o mini

Wejście:$0.12/M
Wyjście:$0.48/M
GPT-4o mini to model sztucznej inteligencji dostarczany przez OpenAI.
O

Whisper-1

Wejście:$24.00/M
Wyjście:$24.00/M
Zamiana mowy na tekst, tworzenie tłumaczeń
O

TTS

Wejście:$12.00/M
Wyjście:$12.00/M
Synteza mowy OpenAI
O

Sora 2 Pro

Na Sekundę:$0.24
Sora 2 Pro to nasz najbardziej zaawansowany i najpotężniejszy model generowania multimediów, zdolny do generowania wideo z zsynchronizowanym dźwiękiem. Może tworzyć szczegółowe, dynamiczne klipy wideo na podstawie języka naturalnego lub obrazów.
O

Sora 2

Na Sekundę:$0.08
Niezwykle potężny model generowania wideo, z efektami dźwiękowymi, obsługuje format czatu.
O

GPT Image 1 mini

Wejście:$2.00/M
Wyjście:$6.40/M
Kosztowo zoptymalizowana wersja GPT Image 1. To natywny multimodalny model językowy, który przyjmuje zarówno tekst, jak i obrazy jako dane wejściowe oraz generuje wynik w postaci obrazów.
O

GPT 4.1 mini

Kontekst:1.0M
Wejście:$0.32/M
Wyjście:$1.28/M
GPT-4.1 mini to model sztucznej inteligencji oferowany przez OpenAI. gpt-4.1-mini: Znaczący skok w wydajności małych modeli, nawet przewyższający GPT-4o w wielu benchmarkach. Dorównuje lub przewyższa GPT-4o w ocenach inteligencji, jednocześnie zmniejszając opóźnienie niemal o połowę i koszty o 83%. Ten model obsługuje maksymalną długość kontekstu 1,047,576 tokenów.
O

o4-mini-deep-research

Kontekst:200K
Wejście:$1.60/M
Wyjście:$6.40/M
O4-Mini-Deep-Research to najnowszy model agentowego rozumowania od OpenAI, łączący lekki backbone o4-mini z zaawansowanym frameworkiem Deep Research. Zaprojektowany, by zapewniać szybką i efektywną kosztowo głęboką syntezę informacji, umożliwia deweloperom i badaczom wykonywanie zautomatyzowanych wyszukiwań w sieci, analiz danych oraz rozumowania w łańcuchu myśli w ramach jednego wywołania API.
O

o4-mini

Wejście:$0.88/M
Wyjście:$3.52/M
O4-mini to model sztucznej inteligencji udostępniany przez OpenAI.
O

O3 Pro

Kontekst:200K
Wejście:$16.00/M
Wyjście:$64.00/M
OpenAI o3‑pro to wariant „pro” modelu rozumowania o3, zaprojektowany do dłuższego wnioskowania i dostarczania najbardziej niezawodnych odpowiedzi poprzez zastosowanie prywatnego uczenia ze wzmocnieniem opartego na łańcuchu rozumowania oraz ustanawianie nowych, najlepszych w swojej klasie benchmarków w takich dziedzinach jak nauka, programowanie i biznes — jednocześnie autonomicznie integrując w ramach API narzędzia takie jak wyszukiwanie w sieci, analiza plików, wykonywanie kodu w Pythonie i rozumowanie wizualne.
O

o3-mini

Wejście:$0.88/M
Wyjście:$3.52/M
O3-mini jest modelem sztucznej inteligencji udostępnianym przez OpenAI.
O

o3-deep-research

Wejście:$8.00/M
Wyjście:$32.00/M
Sieciowy agent do dogłębnych badań, oparty na modelu O3, z obsługą wielokrokowego wnioskowania i raportów z analizy cytowań.
O

o3

Wejście:$1.60/M
Wyjście:$6.40/M
O3 to model sztucznej inteligencji dostarczany przez OpenAI.
O

GPT-4o mini Audio

Wejście:$0.12/M
Wyjście:$0.48/M
GPT-4o mini Audio to multimodalny model do interakcji głosowych i tekstowych. Wykonuje rozpoznawanie mowy, tłumaczenie i syntezę mowy, stosuje się do instrukcji oraz może wywoływać narzędzia do realizacji ustrukturyzowanych działań z odpowiedziami strumieniowymi. Typowe zastosowania obejmują asystentów głosowych w czasie rzeczywistym, napisy i tłumaczenia na żywo, podsumowywanie połączeń oraz aplikacje sterowane głosem. Najważniejsze cechy techniczne obejmują wejście i wyjście audio, odpowiedzi strumieniowe, wywoływanie funkcji oraz ustrukturyzowane wyjście JSON.
O

codex-mini-latest

Wejście:$1.20/M
Wyjście:$4.80/M
Codex Mini to model sztucznej inteligencji dostarczany przez OpenAI. Jest to najnowsze osiągnięcie OpenAI w dziedzinie generowania kodu, lekki model specjalnie zoptymalizowany pod interfejs wiersza poleceń Codex (CLI). Jako dostrojona wersja o4-mini, model ten dziedziczy wysoką wydajność i szybkość odpowiedzi modelu bazowego, a jednocześnie został specjalnie zoptymalizowany pod kątem rozumienia i generowania kodu.
O

GPT-4o mini TTS

Wejście:$9.60/M
Wyjście:$38.40/M
GPT-4o mini TTS to neuronowy model syntezy mowy zaprojektowany do naturalnego, niskoopóźnionego generowania głosu w aplikacjach skierowanych do użytkownika końcowego. Przekształca tekst w naturalnie brzmiącą mowę, oferując wybór głosów, wieloformatowe wyjście oraz strumieniową syntezę zapewniającą płynne, responsywne doświadczenia. Typowe zastosowania obejmują asystentów głosowych, IVR i przepływy kontaktowe, funkcje czytania na głos w produktach oraz narrację do mediów. Najważniejsze cechy techniczne obejmują strumieniowanie oparte na API i eksport do popularnych formatów audio, takich jak MP3 i WAV.
O

GPT-4o Realtime

Wejście:$60.00/M
Wyjście:$240.00/M
Realtime API umożliwia programistom tworzenie doświadczeń multimodalnych o niskiej latencji, w tym funkcjonalności zamiany mowy na mowę. Tekst i audio przetwarzane przez Realtime API są wyceniane oddzielnie. Ten model obsługuje maksymalną długość kontekstu wynoszącą 128,000 tokenów.
O

GPT-4o Search

Wejście:$60.00/M
Wyjście:$60.00/M
GPT-4o Search to multimodalny model oparty na GPT-4o, skonfigurowany do wnioskowania wspomaganego wyszukiwaniem oraz udzielania osadzonych w źródłach, aktualnych odpowiedzi. Stosuje się do poleceń i wykorzystuje narzędzia wyszukiwania w sieci do pozyskiwania, oceniania i syntezy informacji zewnętrznych, wraz z kontekstem źródłowym, gdy jest dostępny. Typowe zastosowania obejmują wsparcie badawcze, weryfikację faktów, monitorowanie wiadomości i trendów oraz odpowiadanie na zapytania wrażliwe na czas. Najważniejsze cechy techniczne obejmują wywoływanie narzędzi/funkcji do przeglądania i pozyskiwania, obsługę długiego kontekstu oraz ustrukturyzowane wyniki odpowiednie do cytowań i linków.
O

ChatGPT-4o

Wejście:$4.00/M
Wyjście:$12.00/M
W oparciu o najnowszą iterację GPT-4o, multimodalnego dużego modelu językowego (LLM), który obsługuje wejście i wyjście tekstu, obrazu, dźwięku i wideo.
O

tts-1-hd-1106

Wejście:$24.00/M
Wyjście:$24.00/M
O

tts-1-hd

Wejście:$24.00/M
Wyjście:$24.00/M
O

tts-1-1106

Wejście:$12.00/M
Wyjście:$12.00/M
O

tts-1

Wejście:$12.00/M
Wyjście:$12.00/M
O

text-embedding-ada-002

Wejście:$0.08/M
Wyjście:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

Wejście:$0.02/M
Wyjście:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

Wejście:$0.10/M
Wyjście:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

Na żądanie:$0.00
O

omni-moderation-2024-09-26

Na żądanie:$0.00
O

o1-pro-all

Wejście:$120.00/M
Wyjście:$480.00/M
O

o1-pro-2025-03-19

Wejście:$120.00/M
Wyjście:$480.00/M
O

o1-pro

Wejście:$120.00/M
Wyjście:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

Na żądanie:$0.16
O

o1-preview-2024-09-12

Wejście:$12.00/M
Wyjście:$48.00/M
O

o1-preview

Wejście:$12.00/M
Wyjście:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

Na żądanie:$0.08
O

o1-mini-2024-09-12

Wejście:$0.88/M
Wyjście:$3.52/M
O

o1-mini

Wejście:$0.88/M
Wyjście:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

Na żądanie:$0.16
O

o1-2024-12-17

Wejście:$12.00/M
Wyjście:$48.00/M
O

o1

Wejście:$12.00/M
Wyjście:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

Wejście:$0.48/M
Wyjście:$0.96/M
Ekonomiczna wersja GPT w czasie rzeczywistym — zdolna do reagowania na dane wejściowe audio i tekstowe w czasie rzeczywistym za pośrednictwem połączeń WebRTC, WebSocket lub SIP.
C

gpt-oss-20b

Wejście:$0.08/M
Wyjście:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

Wejście:$0.16/M
Wyjście:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

Wejście:$8.00/M
Wyjście:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

Wejście:$2.00/M
Wyjście:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

Wejście:$2.00/M
Wyjście:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

Wejście:$8.00/M
Wyjście:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

Na żądanie:$0.04
O

gpt-4-turbo-preview

Wejście:$8.00/M
Wyjście:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

Wejście:$8.00/M
Wyjście:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

Wejście:$8.00/M
Wyjście:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

Na żądanie:$0.04
O

gpt-4-gizmo-*

Wejście:$24.00/M
Wyjście:$48.00/M
O

gpt-4-gizmo

Wejście:$24.00/M
Wyjście:$48.00/M
O

gpt-4-dalle

Na żądanie:$0.04
O

gpt-4-all

Wejście:$24.00/M
Wyjście:$48.00/M
A

gpt-4-32k

Wejście:$48.00/M
Wyjście:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

Wejście:$8.00/M
Wyjście:$16.00/M
O

gpt-4-0613

Wejście:$24.00/M
Wyjście:$48.00/M
O

gpt-4-0314

Wejście:$24.00/M
Wyjście:$48.00/M
O

gpt-4-0125-preview

Wejście:$8.00/M
Wyjście:$16.00/M
O

gpt-4

Wejście:$24.00/M
Wyjście:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

Wejście:$0.40/M
Wyjście:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

Wejście:$0.40/M
Wyjście:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

Na żądanie:$0.02
New version of DALL-E for image generation.
O

dall-e-2

Wejście:$8.00/M
Wyjście:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

Kontekst:200K
Wejście:$2.40/M
Wyjście:$12.00/M
Claude Sonnet 4.5 notuje znaczący skok możliwości w zastosowaniach komputerowych. Na OSWorld, platformie benchmarkowej do testowania modeli AI na rzeczywistych zadaniach komputerowych, Sonnet 4.5 wskoczył na szczyt z wynikiem 61.4%, podczas gdy zaledwie cztery miesiące wcześniej Sonnet 4 prowadził z 42.2%. Nasze rozszerzenie Claude for Chrome wprowadza te ulepszone funkcje w praktyce.
A

Claude Opus 4.5

Kontekst:200K
Wejście:$4.00/M
Wyjście:$20.00/M
Claude Opus 4.5 to dostrojony do wykonywania poleceń duży model językowy od Anthropic, zaprojektowany do złożonego rozumowania, programowania i wieloturowych dialogów. Obsługuje przetwarzanie rozszerzonego kontekstu, wywoływanie narzędzi/funkcji, ustrukturyzowane wyniki oraz integrację z przepływami pracy wspomaganymi wyszukiwaniem. Typowe zastosowania obejmują asystentów analitycznych, generowanie i przegląd kodu, QA na bazie wiedzy oraz szkicowanie treści z odpowiedziami zgodnymi z politykami. Najważniejsze cechy techniczne obejmują precyzyjne wykonywanie poleceń, zachowanie przyjazne RAG oraz mechanizmy bezpieczeństwa dostępne we wdrożeniach Claude.
C

Claude Opus 4.1

Kontekst:200K
Wejście:$12.00/M
Wyjście:$60.00/M
Claude Opus 4.1 to zaktualizowana wersja flagowego modelu firmy Anthropic, oferująca lepszą wydajność w zakresie programowania, wnioskowania i zadań agentowych. Uzyskuje wynik 74.5% w SWE-bench Verified, wykazując znaczące ulepszenia w wieloplikowej refaktoryzacji kodu, dokładności debugowania oraz w wnioskowaniu zorientowanym na szczegóły. Model ten obsługuje rozszerzone rozumowanie do 64K tokenów i jest zoptymalizowany pod kątem zadań obejmujących badania, analizę danych oraz wnioskowanie wspomagane narzędziami.
C

Claude 4 Sonnet

Kontekst:200K
Wejście:$2.40/M
Wyjście:$12.00/M
Najszybszy, najbardziej opłacalny model, okno kontekstu 200K.
C

Claude Opus 4

Kontekst:200K
Wejście:$12.00/M
Wyjście:$60.00/M
Optymalna równowaga inteligencji, kosztów i szybkości. Okno kontekstu 200K.
C

Claude 3.7 Sonnet

Wejście:$2.40/M
Wyjście:$12.00/M
Duże posunięcie Claude przeciwko R1, potężny 3.7 jest już oficjalnie online. Ten model obsługuje maksymalną długość kontekstu 200,000 tokenów. Ze wsparciem rozumowania.
C

Claude Haiku 4.5

Kontekst:200K
Wejście:$0.80/M
Wyjście:$4.00/M
Najszybszy, najbardziej opłacalny model.
C

Claude 3.5 Haiku

Wejście:$0.80/M
Wyjście:$4.00/M
Te aliasy automatycznie wskazują na najnowszą migawkę danego modelu. Choć są przydatne do eksperymentów, zalecamy używanie konkretnych wersji modelu (np. claude-3-5-sonnet-20241022) w aplikacjach produkcyjnych, aby zapewnić spójne zachowanie. Gdy wydajemy nowe migawki modelu, migrujemy alias -latest tak, aby wskazywał na nową wersję (zwykle w ciągu tygodnia od wydania nowej wersji). Alias -latest ma takie same limity żądań i stawki cenowe jak wersja modelu, do której się odnosi. Ten model obsługuje maksymalną długość kontekstu wynoszącą 200,000 tokenów.
C

Claude 3 Haiku

Wejście:$0.20/M
Wyjście:$1.00/M
Claude Haiku 3 jest modelem sztucznej inteligencji oferowanym przez Anthropic.
G

Veo 3.1 Pro

Na żądanie:$2.00
Veo 3.1‑Pro oznacza dostęp/konfigurację o wysokich możliwościach w rodzinie Veo 3.1 firmy Google — generacji modeli wideo do krótkich form z obsługą audio, które wprowadzają bogatsze natywne audio, ulepszone narzędzia sterowania narracją i montażem oraz narzędzia do rozszerzania scen.
G

Veo 3.1

Na żądanie:$0.40
Veo 3.1 to inkrementalna, lecz znacząca aktualizacja Google’a rodziny Veo typu tekst‑i‑obraz→wideo, wprowadzająca bogatsze natywne audio, dłuższe i lepiej kontrolowalne materiały wideo oraz bardziej precyzyjną edycję i sterowanie na poziomie scen.
G

Veo 3 Pro

Na żądanie:$2.00
Veo 3 pro oznacza doświadczenie pracy z modelem wideo Veo 3 klasy produkcyjnej (wysoka wierność, natywny dźwięk i rozszerzony zestaw narzędzi).
G

Veo 3 Fast

Na żądanie:$0.40
Veo 3 Fast to wariant Google’a zoptymalizowany pod kątem szybkości, należący do rodziny generatywnych modeli wideo Veo (Veo 3 / Veo 3.1 itd.). Został zaprojektowany do tworzenia krótkich, wysokiej jakości klipów wideo z natywnie generowanym dźwiękiem, kładąc nacisk na przepustowość i koszt na sekundę — poświęcając część najwyższej wierności wizualnej i/lub dłuższy czas trwania pojedynczego ujęcia na rzecz znacznie szybszego generowania i niższego kosztu. Czym jest Veo 3 Fast — zwięzłe wprowadzenie
G

Veo 3

Na żądanie:$0.40
Veo 3 firmy Google DeepMind reprezentuje najnowocześniejszy poziom generowania wideo na podstawie tekstu, stanowiąc pierwszy przypadek, gdy wielkoskalowy generatywny model SI płynnie synchronizuje wideo o wysokiej jakości z towarzyszącą ścieżką dźwiękową — w tym dialogami, efektami dźwiękowymi i ambientowymi pejzażami dźwiękowymi.
G

Gemini 2.5 Pro

Kontekst:1M
Wejście:$1.00/M
Wyjście:$8.00/M
Gemini 2.5 Pro to model sztucznej inteligencji oferowany przez Google. Ma natywne możliwości przetwarzania multimodalnego oraz ultradługie okno kontekstu o długości do 1 miliona tokenów, zapewniając bezprecedensowo silne wsparcie dla złożonych zadań z długimi sekwencjami. Według danych Google, Gemini 2.5 Pro szczególnie dobrze radzi sobie w złożonych zadaniach. Model ten obsługuje maksymalną długość kontekstu wynoszącą 1,048,576 tokenów.
G

Gemini 2.5 Flash

Kontekst:1M
Wejście:$0.24/M
Wyjście:$2.00/M
Gemini 2.5 Flash to model AI opracowany przez Google, zaprojektowany tak, aby zapewniać szybkie i ekonomiczne rozwiązania dla deweloperów, zwłaszcza dla aplikacji wymagających zwiększonych możliwości wnioskowania. Zgodnie z zapowiedzią wersji zapoznawczej Gemini 2.5 Flash, model został udostępniony w wersji zapoznawczej 17 kwietnia 2025 r., obsługuje wejście multimodalne i ma okno kontekstu o wielkości 1 miliona tokenów. Ten model obsługuje maksymalną długość kontekstu wynoszącą 65,536 tokenów.
G

Nano Banana

Na żądanie:$0.03
Gemini 2.5 Flash Image (znany również jako nano-banana) to najnowocześniejszy model Google do generowania i edycji obrazów. Ta aktualizacja umożliwia łączenie wielu obrazów w jeden, utrzymywanie spójności postaci, by opowiadać bogate historie, wykonywanie celowanych modyfikacji za pomocą języka naturalnego oraz wykorzystywanie wiedzy o świecie modelu Gemini do generowania i edycji obrazów.
G

Gemini 2.5 Flash Lite

Kontekst:1M
Wejście:$0.08/M
Wyjście:$0.32/M
Zoptymalizowany model Gemini 2.5 Flash pod kątem wysokiej efektywności kosztowej i wysokiej przepustowości. Najmniejszy, najbardziej efektywny kosztowo model, zaprojektowany do zastosowań na dużą skalę.
G

Gemini 2.5 Pro DeepSearch

Wejście:$8.00/M
Wyjście:$64.00/M
Model głębokiego wyszukiwania, z rozszerzonymi możliwościami głębokiego wyszukiwania i pozyskiwania informacji, to idealny wybór do złożonej integracji i analizy wiedzy.
G

Gemini 2.5 Pro (All)

Wejście:$2.00/M
Wyjście:$16.00/M
Gemini 2.5 Pro (All) to model multimodalny do rozumienia tekstu i mediów, zaprojektowany dla asystentów ogólnego przeznaczenia oraz rozumowania osadzonego w faktach. Obsługuje wykonywanie poleceń, pisanie analityczne, rozumienie kodu oraz rozumienie obrazów i dźwięku, zapewniając niezawodne wywoływanie narzędzi/funkcji i zachowanie przyjazne dla RAG. Typowe zastosowania obejmują agentów czatu dla przedsiębiorstw, analizę dokumentów i interfejsów użytkownika, wizualne odpowiadanie na pytania oraz automatyzację przepływów pracy. Najważniejsze cechy techniczne obejmują zunifikowane wejścia obraz‑tekst‑audio, obsługę długiego kontekstu, ustrukturyzowane wyjście JSON, odpowiedzi strumieniowe oraz kontrolę instrukcji systemowych.
G

Gemini 2.5 Flash DeepSearch

Wejście:$4.80/M
Wyjście:$38.40/M
Model głębokiego wyszukiwania, z rozszerzonymi możliwościami głębokiego wyszukiwania i wyszukiwania informacji, idealny wybór do złożonej integracji i analizy wiedzy.
G

Gemini 2.5 Flash (All)

Wejście:$0.24/M
Wyjście:$2.00/M
Gemini 2.5 Flash to model sztucznej inteligencji opracowany przez Google, zaprojektowany, aby zapewniać szybkie i ekonomiczne rozwiązania dla programistów, w szczególności dla aplikacji wymagających zwiększonych możliwości wnioskowania. Zgodnie z zapowiedzią wersji zapoznawczej Gemini 2.5 Flash, model został udostępniony w wersji zapoznawczej 17 kwietnia 2025 r., obsługuje multimodalne dane wejściowe i ma okno kontekstu o rozmiarze 1 miliona tokenów. Ten model obsługuje maksymalną długość kontekstu wynoszącą 65,536 tokenów.
G

Gemini 2.0 Flash Lite

Wejście:$0.08/M
Wyjście:$0.32/M
Gemini 2.0 Flash Lite to kompaktowy, dostrojony instrukcjami model multimodalny, zoptymalizowany pod kątem wnioskowania o niskich opóźnieniach i wysokiej przepustowości. Obsługuje rozumienie tekstu i obrazów, streszczanie, klasyfikację oraz lekkie wnioskowanie, z wywoływaniem funkcji/narzędzi i kontrolą struktury wyjścia. Typowe zastosowania obejmują agentów konwersacyjnych, szybkie przygotowywanie treści, wyodrębnianie metadanych z dokumentów lub zrzutów ekranu oraz przepływy pracy wspomagane wyszukiwaniem. Najważniejsze cechy techniczne obejmują wejścia tekst-obraz, generowanie strumieniowe, wywoływanie funkcji/narzędzi oraz opcje wdrożeniowe dostosowane do usług wrażliwych na opóźnienia.
G

Gemini 2.0 Flash

Wejście:$0.08/M
Wyjście:$0.32/M
Gemini 2.0 Flash jest modelem sztucznej inteligencji udostępnianym przez Google-Vertex.
G

Nano Banana Pro

Na żądanie:$0.19
Nano Banana Pro to model AI oferujący wsparcie ogólnego przeznaczenia w przepływach pracy zorientowanych na tekst. Nadaje się do promptowania w stylu instrukcji w celu generowania, przekształcania i analizowania treści o sterowalnej strukturze. Typowe zastosowania obejmują asystentów czatowych, podsumowywanie dokumentów, QA wiedzy oraz automatyzację przepływów pracy. Publicznie dostępne szczegóły techniczne są ograniczone; integracja jest zgodna z powszechnymi wzorcami asystentów AI, takimi jak ustrukturyzowane wyniki, prompty wspomagane odzyskiwaniem informacji oraz wywoływanie narzędzi lub funkcji.
G

Gemini 3 Pro Preview

Kontekst:200.0k
Wejście:$1.60/M
Wyjście:$9.60/M
Gemini 3 Pro Preview to uniwersalny model z rodziny Gemini, dostępny w wersji zapoznawczej do celów ewaluacji i prototypowania. Obsługuje wykonywanie poleceń, wieloturowe rozumowanie oraz zadania dotyczące kodu i danych, zapewnia ustrukturyzowane wyniki oraz wywoływanie narzędzi i funkcji na potrzeby automatyzacji przepływów pracy. Typowe zastosowania obejmują asystentów czatu, streszczanie i przeredagowywanie, QA wspomagane wyszukiwaniem, ekstrakcję danych oraz lekką pomoc w programowaniu w różnych aplikacjach i usługach. Najważniejsze cechy techniczne obejmują wdrażanie oparte na API, odpowiedzi strumieniowe, mechanizmy bezpieczeństwa i gotowość do integracji, a także możliwości multimodalne zależne od konfiguracji wersji zapoznawczej.
X

Grok Code Fast 1

Kontekst:256K
Wejście:$0.16/M
Wyjście:$1.20/M
Grok Code Fast 1 to model AI do programowania, wprowadzony przez xAI, zaprojektowany do szybkiej i wydajnej realizacji podstawowych zadań programistycznych. Model może przetwarzać 92 tokeny na sekundę, ma okno kontekstu 256k i nadaje się do szybkiego prototypowania, debugowania kodu oraz tworzenia prostych elementów wizualnych.
X

Grok 4 Fast

Kontekst:2M
Wejście:$0.16/M
Wyjście:$0.40/M
Grok 4 Fast to nowy model sztucznej inteligencji wprowadzony przez xAI, integrujący możliwości Inference i non-Inference w jednej architekturze. Model ten ma okno kontekstu o długości 2 milionów tokenów i jest przeznaczony do zastosowań o wysokiej przepustowości, takich jak wyszukiwanie i programowanie. Model oferuje dwie wersje: Grok-4-Fast-Reasoning i Grok-4-Fast-Non-Reasoning, zoptymalizowane do różnych zadań.
X

Grok 4.1 Fast

Kontekst:2M
Wejście:$0.16/M
Wyjście:$0.40/M
Grok 4.1 Fast to duży model firmy xAI, ukierunkowany na środowiska produkcyjne, zoptymalizowany pod kątem agentowego wywoływania narzędzi, przepływów pracy z długim kontekstem oraz wnioskowania o niskiej latencji. To multimodalna, dwuwariantowa rodzina, zaprojektowana do uruchamiania autonomicznych agentów, którzy przeszukują, wykonują kod, wywołują usługi i rozumują na podstawie wyjątkowo dużych kontekstów (do 2 milionów tokenów).
X

Grok 4

Kontekst:256K
Wejście:$2.40/M
Wyjście:$12.00/M
Grok 4 to model sztucznej inteligencji dostarczany przez XAI. Obecnie obsługuje modalność tekstową, a wkrótce pojawią się wizja, generowanie obrazów i inne funkcje. Dysponuje niezwykle mocnymi parametrami technicznymi i możliwościami ekosystemowymi: Okno kontekstu: Obsługuje przetwarzanie kontekstu do 256,000 tokenów, wyprzedzając wiodące modele głównego nurtu.
X

Grok 3 Reasoner

Wejście:$2.40/M
Wyjście:$12.00/M
Model rozumowania Grok-3, z łańcuchem rozumowania, konkurent Elona Muska dla R1. Ten model obsługuje maksymalną długość kontekstu wynoszącą 100,000 tokenów.
X

Grok 3 Mini

Wejście:$0.24/M
Wyjście:$0.40/M
Lekki model, który myśli, zanim odpowie. Szybki, inteligentny i idealny do zadań opartych na logice, które nie wymagają głębokiej wiedzy dziedzinowej. Dostępne są surowe zapisy toku rozumowania. Ten model obsługuje maksymalną długość kontekstu wynoszącą 100,000 tokenów.
X

Grok 3 DeepSearch

Wejście:$2.40/M
Wyjście:$12.00/M
Grok-3, głęboki, sieciowy model wyszukiwania. Ten model obsługuje maksymalną długość kontekstu 100,000 tokenów.
X

Grok 3 DeeperSearch

Wejście:$2.40/M
Wyjście:$12.00/M
Grok-3, głęboki, sieciowy model wyszukiwania, przewyższający grok-3-deepsearch. Ten model obsługuje maksymalną długość kontekstu wynoszącą 100 000 tokenów.
X

Grok 3

Wejście:$2.40/M
Wyjście:$12.00/M
Grok-3 to najnowszy model chatbota sztucznej inteligencji wydany przez firmę xAI Elona Muska 17 lutego 2025 r. Jego klaster szkoleniowy osiągnął poziom 200,000 kart; model doskonale radzi sobie w zadaniach z zakresu matematyki, nauki i programowania i został przez Muska okrzyknięty "najinteligentniejszą AI na Ziemi". Model ten obsługuje maksymalną długość kontekstu wynoszącą 100,000 tokenów.
X

Grok 2

Wejście:$0.80/M
Wyjście:$0.80/M
Grok 2 jest modelem sztucznej inteligencji dostarczanym przez XAI.
D

DeepSeek-V3.2

Kontekst:128K
Wejście:$0.22/M
Wyjście:$0.35/M
DeepSeek v3.2 to najnowsze wydanie produkcyjne w rodzinie DeepSeek V3: wielkoskalowa, zorientowana na rozumowanie rodzina modeli językowych z otwartymi wagami, zaprojektowana do rozumienia długiego kontekstu, niezawodnego wykorzystania agentów i narzędzi, zaawansowanego rozumowania, programowania i matematyki.
D

DeepSeek-V3

Wejście:$0.22/M
Wyjście:$0.88/M
Najpopularniejszy i najbardziej opłacalny model DeepSeek-V3. Pełnokrwista wersja 671B. Ten model obsługuje maksymalną długość kontekstu wynoszącą 64,000 tokenów.
D

DeepSeek-V3.1

Wejście:$0.44/M
Wyjście:$1.32/M
DeepSeek V3.1 to aktualizacja w serii V firmy DeepSeek: hybrydowy, „thinking / non-thinking” duży model językowy ukierunkowany na wysokoprzepustową, niskokosztową inteligencję ogólną oraz agentowe korzystanie z narzędzi. Zachowuje zgodność z API w stylu OpenAI, dodaje inteligentniejsze wywoływanie narzędzi i—według firmy—zapewnia szybsze generowanie oraz większą niezawodność agentów.
D

DeepSeek-R1T2-Chimera

Wejście:$0.24/M
Wyjście:$0.24/M
Model generowania tekstu typu Mixture of Experts o 671B parametrach, scalony z R1-0528, R1 i V3-0324 firmy DeepSeek-AI, obsługujący do 60k tokenów kontekstu.
D

DeepSeek-Reasoner

Wejście:$0.44/M
Wyjście:$1.75/M
DeepSeek-Reasoner to rodzina modeli LLM i punktów końcowych API firmy DeepSeek, stawiająca na rozumowanie w pierwszej kolejności, zaprojektowana tak, aby (1) udostępniać klientom wewnętrzny łańcuch rozumowania (CoT) oraz (2) działać w trybach „myślenia” dostrojonych do wieloetapowego planowania, matematyki, programowania i korzystania z agentów/narzędzi.
D

DeepSeek-OCR

Na żądanie:$0.04
DeepSeek-OCR to model optycznego rozpoznawania znaków (OCR) do wyodrębniania tekstu z obrazów i dokumentów. Przetwarza zeskanowane strony, zdjęcia oraz zrzuty ekranu interfejsu użytkownika (UI), aby tworzyć transkrypcje z informacjami o układzie, takimi jak podziały wierszy. Typowe zastosowania obejmują digitalizację dokumentów, przyjmowanie i wprowadzanie faktur oraz paragonów, indeksowanie na potrzeby wyszukiwania oraz wspieranie potoków RPA. Do najważniejszych aspektów technicznych należą przetwarzanie obrazu na tekst, obsługa treści skanowanych i fotografowanych oraz ustrukturyzowany wynik tekstowy do parsowania na dalszym etapie.
D

DeepSeek-Chat

Kontekst:64K
Wejście:$0.22/M
Wyjście:$0.88/M
Najpopularniejszy i najbardziej opłacalny model DeepSeek-V3. Pełna wersja 671B. Ten model obsługuje maksymalną długość kontekstu 64,000 tokenów.
Q

Qwen Image

Na żądanie:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

Wejście:$0.45/M
Wyjście:$1.79/M
- **kimi-k2-250905**: wersja 0905 serii Kimi K2 firmy Moonshot AI, obsługująca ultradługi kontekst (do 256k tokenów, frontend i wywołania narzędzi). - 🧠 Ulepszone wywoływanie narzędzi: 100% dokładność, płynna integracja, odpowiednie do złożonych zadań i optymalizacji integracji. - ⚡️ Wyższa wydajność: TPS do 60-100 (standardowe API), do 600-100 w trybie Turbo, zapewnia szybszą odpowiedź i ulepszone możliwości wnioskowania, data odcięcia wiedzy do połowy 2025 r.
Q

qwen3-max-preview

Wejście:$0.24/M
Wyjście:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

Wejście:$0.24/M
Wyjście:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

Wejście:$0.24/M
Wyjście:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

Wejście:$0.24/M
Wyjście:$0.97/M
Q

qwen3-coder

Wejście:$0.24/M
Wyjście:$0.97/M
Q

qwen3-8b

Wejście:$0.04/M
Wyjście:$0.16/M
Q

qwen3-32b

Wejście:$1.60/M
Wyjście:$6.40/M
Q

qwen3-30b-a3b

Wejście:$0.12/M
Wyjście:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

Wejście:$0.22/M
Wyjście:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

Wejście:$0.80/M
Wyjście:$3.20/M
Q

qwen2.5-vl-72b-instruct

Wejście:$2.40/M
Wyjście:$7.20/M
Q

qwen2.5-vl-72b

Wejście:$2.40/M
Wyjście:$7.20/M
Q

qwen2.5-vl-32b-instruct

Wejście:$2.40/M
Wyjście:$7.20/M
Q

qwen2.5-omni-7b

Wejście:$60.00/M
Wyjście:$60.00/M
Q

qwen2.5-math-72b-instruct

Wejście:$3.20/M
Wyjście:$3.20/M
Q

qwen2.5-coder-7b-instruct

Wejście:$0.80/M
Wyjście:$0.80/M
Q

qwen2.5-coder-32b-instruct

Wejście:$0.80/M
Wyjście:$0.80/M
Q

qwen2.5-7b-instruct

Wejście:$0.80/M
Wyjście:$0.80/M
Q

qwen2.5-72b-instruct

Wejście:$3.20/M
Wyjście:$3.20/M
Q

qwen2.5-32b-instruct

Wejście:$0.96/M
Wyjście:$0.96/M
Q

qwen2.5-14b-instruct

Wejście:$3.20/M
Wyjście:$3.20/M
Q

qwen2-vl-7b-instruct

Wejście:$1.60/M
Wyjście:$1.60/M
Q

qwen2-vl-72b-instruct

Wejście:$1.60/M
Wyjście:$1.60/M
Q

qwen2-7b-instruct

Wejście:$0.16/M
Wyjście:$0.16/M
Q

qwen2-72b-instruct

Wejście:$8.00/M
Wyjście:$8.00/M
Q

qwen2-57b-a14b-instruct

Wejście:$3.20/M
Wyjście:$3.20/M
Q

qwen2-1.5b-instruct

Wejście:$0.16/M
Wyjście:$0.16/M
Q

qwen1.5-7b-chat

Wejście:$0.16/M
Wyjście:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

Wejście:$3.20/M
Wyjście:$3.20/M
M

mj_turbo_zoom

Na żądanie:$0.17
M

mj_turbo_variation

Na żądanie:$0.17
M

mj_turbo_upscale_subtle

Na żądanie:$0.17
M

mj_turbo_upscale_creative

Na żądanie:$0.17
M

mj_turbo_upscale

Na żądanie:$0.02
M

mj_turbo_upload

Na żądanie:$0.01
M

mj_turbo_shorten

Na żądanie:$0.17
M

mj_turbo_reroll

Na żądanie:$0.17
M

mj_turbo_prompt_analyzer_extended

Na żądanie:$0.00
M

mj_turbo_prompt_analyzer

Na żądanie:$0.00
M

mj_turbo_pic_reader

Na żądanie:$0.00
M

mj_turbo_pan

Na żądanie:$0.17
M

mj_turbo_modal

Na żądanie:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

Na żądanie:$0.17
M

mj_turbo_inpaint

Na żądanie:$0.08
M

mj_turbo_imagine

Na żądanie:$0.17
M

mj_turbo_high_variation

Na żądanie:$0.17
M

mj_turbo_describe

Na żądanie:$0.00
M

mj_turbo_custom_zoom

Na żądanie:$0.00
M

mj_turbo_blend

Na żądanie:$0.17
M

mj_fast_zoom

Na żądanie:$0.06
M

mj_fast_video

Na żądanie:$0.60
Midjourney video generation
M

mj_fast_variation

Na żądanie:$0.06
M

mj_fast_upscale_subtle

Na żądanie:$0.06
M

mj_fast_upscale_creative

Na żądanie:$0.06
M

mj_fast_upscale

Na żądanie:$0.01
M

mj_fast_upload

Na żądanie:$0.01
M

mj_fast_shorten

Na żądanie:$0.06
M

mj_fast_reroll

Na żądanie:$0.06
M

mj_fast_prompt_analyzer_extended

Na żądanie:$0.00
M

mj_fast_prompt_analyzer

Na żądanie:$0.00
M

mj_fast_pic_reader

Na żądanie:$0.00
M

mj_fast_pan

Na żądanie:$0.06
M

mj_fast_modal

Na żądanie:$0.06
M

mj_fast_low_variation

Na żądanie:$0.06
M

mj_fast_inpaint

Na żądanie:$0.06
M

mj_fast_imagine

Na żądanie:$0.06
Midjourney drawing
M

mj_fast_high_variation

Na żądanie:$0.06
M

mj_fast_edits

Na żądanie:$0.06
M

mj_fast_describe

Na żądanie:$0.00
M

mj_fast_custom_zoom

Na żądanie:$0.00
M

mj_fast_blend

Na żądanie:$0.06
S

suno_uploads

Na żądanie:$0.02
Prześlij muzykę
S

suno_persona_create

Na żądanie:$0.01
Create a personal style
S

suno_music

Na żądanie:$0.14
Generuj muzykę
S

suno_lyrics

Na żądanie:$0.02
Generate lyrics
S

suno_concat

Na żądanie:$0.04
Song splicing
S

suno_act_wav

Na żądanie:$0.01
Get WAV format files
S

suno_act_timing

Na żądanie:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

Na żądanie:$0.01
S

suno_act_mp4

Na żądanie:$0.01
Generate MP4 MV
K

kling_virtual_try_on

Na żądanie:$0.20
K

kling_video

Na żądanie:$0.40
K

kling_tts

Na żądanie:$0.02
[Synteza mowy] Nowo uruchomione: konwersja tekstu na audio o jakości emisyjnej online, z funkcją podglądu ● Może równocześnie generować audio_id, do użycia z dowolnym API Keling.
K

kling_multi_image2image

Na żądanie:$0.32
K

kling_multi_elements_submit

Na żądanie:$0.40
K

kling_multi_elements_preview

Na żądanie:$0.00
K

kling_multi_elements_init

Na żądanie:$0.00
K

kling_multi_elements_delete

Na żądanie:$0.00
K

kling_multi_elements_clear

Na żądanie:$0.00
K

kling_multi_elements_add

Na żądanie:$0.00
K

kling_lip_sync

Na żądanie:$0.20
K

kling_image_recognize

Na żądanie:$0.04
API rozpoznawania elementów obrazu Keling, użyteczne do generowania wideo na podstawie wielu obrazów referencyjnych, funkcje multimodalnej edycji wideo ● Może rozpoznawać obiekty, twarze, odzież itp., i w każdym żądaniu może uzyskać 4 zestawy wyników (jeśli są dostępne).
K

kling_image_expand

Na żądanie:$0.16
K

kling_image

Na żądanie:$0.02
K

kling_identify_face

Na żądanie:$0.02
K

kling_extend

Na żądanie:$0.40
K

kling_effects

Na żądanie:$0.40
K

kling_avatar_image2video

Na żądanie:$0.16
K

kling_audio_video_to_audio

Na żądanie:$0.20
K

kling_audio_text_to_audio

Na żądanie:$0.20
K

kling_advanced_lip_syn

Na żądanie:$0.20
D

Doubao Seedream 4-5

Na żądanie:$0.04
Seedream 4.5 to multimodalny model obrazowy ByteDance/Seed (tekst→obraz + edycja obrazów), który koncentruje się na wierności obrazu klasy produkcyjnej, większej zgodności z promptem oraz znacznie poprawionej spójności edycji (zachowanie głównego obiektu, renderowanie tekstu/typografii i realizm twarzy).
D

doubao-seedream-4-0-250828

Na żądanie:$0.02
D

doubao-seedream-3-0-t2i-250415

Na żądanie:$0.02
D

doubao-seededit-3-0-i2i-250628

Na żądanie:$0.02
D

doubao-seed-1-6-thinking-250715

Wejście:$0.04/M
Wyjście:$1.07/M
D

doubao-seed-1-6-flash-250615

Wejście:$0.04/M
Wyjście:$1.07/M
D

doubao-seed-1-6-250615

Wejście:$0.04/M
Wyjście:$1.07/M
D

doubao-1.5-vision-pro-250328

Wejście:$0.33/M
Wyjście:$1.00/M
D

doubao-1.5-vision-lite-250315

Wejście:$0.17/M
Wyjście:$0.50/M
D

doubao-1.5-pro-32k-250115

Wejście:$0.18/M
Wyjście:$0.44/M
D

doubao-1.5-pro-256k

Wejście:$1.10/M
Wyjście:$1.99/M
D

doubao-1-5-vision-pro-32k

Wejście:$0.33/M
Wyjście:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

Wejście:$0.33/M
Wyjście:$1.00/M
D

doubao-1-5-thinking-pro-250415

Wejście:$0.45/M
Wyjście:$1.79/M
D

doubao-1-5-pro-32k-250115

Wejście:$0.18/M
Wyjście:$0.44/M
D

doubao-1-5-pro-32k

Wejście:$0.18/M
Wyjście:$0.44/M
D

doubao-1-5-pro-256k-250115

Wejście:$0.56/M
Wyjście:$1.00/M
D

doubao-1-5-pro-256k

Wejście:$1.10/M
Wyjście:$1.99/M
D

doubao-1-5-lite-32k-250115

Wejście:$0.03/M
Wyjście:$0.07/M
D

Doubao-Seed-1.6-thinking

Wejście:$0.04/M
Wyjście:$1.07/M
D

Doubao-Seed-1.6-flash

Wejście:$0.04/M
Wyjście:$1.07/M
D

Doubao-Seed-1.6

Wejście:$0.04/M
Wyjście:$1.07/M
D

Doubao-1.5-vision-pro-32k

Wejście:$0.33/M
Wyjście:$1.00/M
D

Doubao-1.5-vision-pro

Wejście:$0.33/M
Wyjście:$1.00/M
D

Doubao-1.5-vision-lite

Wejście:$0.17/M
Wyjście:$0.50/M
D

Doubao-1.5-thinking-vision-pro

Wejście:$0.33/M
Wyjście:$1.00/M
D

Doubao-1.5-thinking-pro

Wejście:$0.45/M
Wyjście:$1.79/M
D

Doubao-1.5-pro-32k

Wejście:$0.18/M
Wyjście:$0.44/M
D

Doubao-1.5-lite-32k

Wejście:$0.07/M
Wyjście:$0.13/M
R

runwayml_video_to_video

Na żądanie:$0.96
R

runwayml_upscale_video

Na żądanie:$0.16
R

runwayml_text_to_image

Na żądanie:$0.32
R

runwayml_image_to_video

Na żądanie:$0.32
R

runwayml_character_performance

Na żądanie:$0.40
R

runway_video2video

Na żądanie:$0.20
R

runway_video

Na żądanie:$0.20
R

runway_act_one

Na żądanie:$0.40
R

Black Forest Labs/FLUX 2 PRO

Na żądanie:$0.06
FLUX 2 PRO to flagowy komercyjny model z serii FLUX 2, oferujący najnowocześniejsze generowanie obrazów o bezprecedensowej jakości i poziomie szczegółowości. Zaprojektowany do zastosowań profesjonalnych i korporacyjnych, zapewnia znakomitą zgodność z promptami, fotorealistyczne rezultaty oraz wyjątkowe możliwości artystyczne. Ten model reprezentuje ścisłą czołówkę technologii syntezy obrazów opartej na SI.
R

Black Forest Labs/FLUX 2 FLEX

Na żądanie:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

Na żądanie:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

Na żądanie:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

Na żądanie:$0.13
R

stability-ai/stable-diffusion-3.5-large

Na żądanie:$0.21
R

stability-ai/stable-diffusion-3

Na żądanie:$0.11
R

stability-ai/stable-diffusion

Na żądanie:$0.02
R

stability-ai/sdxl

Na żądanie:$0.03
R

recraft-ai/recraft-v3-svg

Na żądanie:$0.26
R

recraft-ai/recraft-v3

Na żądanie:$0.13
R

ideogram-ai/ideogram-v2-turbo

Na żądanie:$0.06
R

ideogram-ai/ideogram-v2

Na żądanie:$0.10
R

bria/remove-background

Wejście:$60.00/M
Wyjście:$60.00/M
R

bria/increase-resolution

Wejście:$60.00/M
Wyjście:$60.00/M
R

bria/image-3.2

Wejście:$60.00/M
Wyjście:$60.00/M
R

bria/genfill

Wejście:$60.00/M
Wyjście:$60.00/M
R

bria/generate-background

Wejście:$60.00/M
Wyjście:$60.00/M
R

bria/expand-image

Wejście:$60.00/M
Wyjście:$60.00/M
R

bria/eraser

Wejście:$60.00/M
Wyjście:$60.00/M
R

black-forest-labs/flux-schnell

Na żądanie:$0.01
black-forest-labs/flux-schnell to generatywny model tekst‑do‑obrazu od Black Forest Labs, zaprojektowany z myślą o szybkim próbkowaniu i iteracyjnej eksploracji promptów. Generuje zróżnicowane style i kompozycje na podstawie krótkich promptów, obsługuje negatywne prompty i kontrolę ziarna losowego oraz może tworzyć obrazy w wysokiej rozdzielczości, odpowiednie do makiet produktowych, concept artu i materiałów marketingowych. Typowe zastosowania obejmują interaktywną ideację, generowanie miniatur i banerów oraz zautomatyzowane warianty kreatywne w potokach tworzenia treści. Najważniejsze cechy techniczne obejmują zgodność z biblioteką Diffusers od Hugging Face, elastyczną kontrolę rozdzielczości oraz wydajny sampler dostrojony pod szybkość na powszechnie spotykanych kartach graficznych.
R

black-forest-labs/flux-pro

Na żądanie:$0.18
black-forest-labs/flux-pro to generatywny model tekst-na-obraz od Black Forest Labs do syntezy obrazów o wysokiej wierności w różnych stylach i tematach. Przekształca szczegółowe polecenia w spójne kompozycje z kontrolowalnymi atrybutami, takimi jak proporcje obrazu i styl, za pomocą standardowych parametrów generowania. Typowe zastosowania obejmują grafikę koncepcyjną, wizualizację produktów, kreacje marketingowe oraz fotorealistyczne sceny w procesach projektowych. Do najważniejszych aspektów technicznych należą modalność tekst-na-obraz, podążanie za poleceniami w stylu instrukcji oraz integracja z popularnymi łańcuchami narzędzi do generowania obrazów.
R

black-forest-labs/flux-kontext-pro

Na żądanie:$0.05
black-forest-labs/flux-kontext-pro to wielomodowy model dyfuzyjny do generowania obrazów z uwzględnieniem kontekstu. Syntetyzuje obrazy na podstawie poleceń tekstowych i opcjonalnych obrazów referencyjnych, zachowując wskazówki dotyczące kompozycji i stylu dla osadzonych w kontekście rezultatów. Typowe zastosowania obejmują tworzenie zasobów marki, wizualizacje produktów oraz opracowywanie koncepcji wizualnych z użyciem moodboardów lub przykładowych ujęć. Najważniejsze cechy techniczne to wejścia tekstowe i obrazowe, próbkowanie warunkowane referencjami oraz powtarzalne wyniki dzięki kontroli ziarna.
R

black-forest-labs/flux-kontext-max

Na żądanie:$0.10
black-forest-labs/flux-kontext-max to kontekstowo warunkowany model generowania obrazów z linii FLUX, zaprojektowany do tworzenia obrazów na podstawie tekstu z opcjonalnymi wejściami referencyjnymi. Umożliwia syntezę osadzoną w kontekście, zachowanie stylu lub obiektu oraz kontrolowane wariacje sterowane dostarczonym kontekstem wizualnym. Typowe zastosowania obejmują kreacje spójne z marką, makiety produktów, ciągłość postaci oraz ideację opartą na moodboardach. Najważniejsze aspekty techniczne obejmują generowanie oparte na dyfuzji oraz multimodalne warunkowanie z użyciem tekstu i wejść referencyjnych, odpowiednie do przepływów pracy sterowanych referencjami.
R

black-forest-labs/flux-dev

Na żądanie:$0.08
black-forest-labs/flux-dev to model tekst-do-obrazu o otwartych wagach od Black Forest Labs, służący do generowania obrazów na podstawie poleceń w języku naturalnym. Generuje fotorealistyczne i stylizowane wyniki ze szczegółowych poleceń i współpracuje z powszechnymi opcjami sterowania w dyfuzyjnych łańcuchach narzędziowych. Typowe zastosowania obejmują grafikę koncepcyjną, wizualizację produktów, materiały marketingowe oraz szybką kreatywną eksplorację w procesach projektowych. Najważniejsze aspekty techniczne obejmują architekturę rectified-flow opartą na transformatorach, integrację z biblioteką Hugging Face Diffusers oraz wdrażanie za pośrednictwem standardowych stosów inferencji GPU.
R

black-forest-labs/flux-1.1-pro-ultra

Na żądanie:$0.19
black-forest-labs/flux-1.1-pro-ultra to dyfuzyjny Transformer text-to-image zaprojektowany do produkcyjnej syntezy obrazów z poleceń w języku naturalnym. Generuje szczegółowe wyniki na podstawie złożonych instrukcji, zapewniając kontrolę nad stylem, kompozycją, proporcjami obrazu, negatywnymi promptami oraz powtarzalnością wyników przy tym samym seedzie. Typowe zastosowania obejmują kreacje marketingowe, wizualizację produktów, grafikę koncepcyjną oraz ideację treści. Najważniejsze aspekty techniczne obejmują dyfuzję opartą na Transformerze, guidance z użyciem enkodera tekstu oraz wdrażanie poprzez popularne interfejsy API inferencji z parametrami scheduler i guidance.
R

black-forest-labs/flux-1.1-pro

Na żądanie:$0.13
black-forest-labs/flux-1.1-pro to model generowania obrazów na podstawie tekstu od Black Forest Labs, zapewniający kontrolowalne wizualizacje o wysokiej wierności. Interpretuje szczegółowe prompty, aby tworzyć kompozycje w różnych stylach i na różne tematy, z obsługą iteracyjnego dopracowywania oraz wariantów obrazów w typowych procesach dyfuzyjnych. Typowe zastosowania obejmują grafikę koncepcyjną, makiety produktów, grafiki marketingowe oraz eksplorację scen. Najważniejsze cechy techniczne obejmują syntezę obrazów warunkowaną tekstem oraz integrację ze standardowymi łańcuchami narzędzi do wnioskowania używanymi dla modeli dyfuzyjnych.
F

FLUX 2 PRO

Na żądanie:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

Na żądanie:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

Wejście:$0.22/M
Wyjście:$1.15/M
Llama-4-Scout to model językowy ogólnego przeznaczenia przeznaczony do interakcji i automatyzacji w stylu asystenta. Realizuje zadania związane z wykonywaniem poleceń, wnioskowaniem, streszczaniem i przekształcaniem, a także może zapewniać podstawowe wsparcie dotyczące kodu. Typowe zastosowania obejmują orkiestrację czatów, QA wzbogacone o wiedzę oraz generowanie ustrukturyzowanych treści. Do najważniejszych cech technicznych należą zgodność ze wzorcami wywoływania narzędzi i funkcji, promptowanie wspomagane wyszukiwaniem oraz wyjścia zgodne z narzuconym schematem, przeznaczone do integracji z przepływami pracy w produktach.
L

Llama-4-Maverick

Wejście:$0.48/M
Wyjście:$1.44/M
Llama-4-Maverick jest uniwersalnym modelem językowym do rozumienia i generowania tekstu. Obsługuje konwersacyjne QA, streszczanie, tworzenie ustrukturyzowanych szkiców oraz podstawową pomoc w programowaniu, z możliwością generowania ustrukturyzowanych wyników. Typowe zastosowania obejmują asystentów produktowych, interfejsy front-end do pozyskiwania wiedzy oraz automatyzację przepływów pracy wymagających spójnego formatowania. Szczegóły techniczne, takie jak liczba parametrów, okno kontekstu, modalność oraz wywoływanie narzędzi lub funkcji, różnią się w zależności od dystrybucji; integruj zgodnie z udokumentowanymi możliwościami danego wdrożenia.
M

minimax_video-01

Na żądanie:$1.44
M

minimax_minimax-hailuo-02

Na żądanie:$2.88
M

minimax_files_retrieve

Na żądanie:$0.00
M

minimax-m2

Wejście:$0.24/M
Wyjście:$0.96/M
minimax-m2 to kompaktowy i wydajny duży model językowy, zoptymalizowany pod kątem programowania end-to-end i przepływów pracy agentów, z 10 miliardami aktywnych parametrów (230 miliardów parametrów łącznie), osiągający wyniki zbliżone do najnowocześniejszych w zakresie ogólnego wnioskowania, korzystania z narzędzi oraz wykonywania zadań wieloetapowych, przy jednoczesnym zachowaniu niskich opóźnień i wysokiej efektywności wdrożeniowej. Model wyróżnia się w generowaniu kodu, edycji wielu plików, pętlach kompiluj-uruchom-napraw oraz naprawie defektów podczas weryfikacji testowej, osiągając doskonałe wyniki w benchmarkach takich jak SWE-Bench Verified, Multi-SWE-Bench i Terminal-Bench, a także wykazując konkurencyjność w planowaniu zadań o długim cyklu, wyszukiwaniu informacji i odzyskiwaniu po błędach wykonania w ewaluacjach agentów, takich jak BrowseComp i GAIA. Według ocen Artificial Analysis, MiniMax-M2 plasuje się w ścisłej czołówce otwartoźródłowych modeli w obszarach inteligencji ogólnej, takich jak matematyka, wnioskowanie naukowe i podążanie za instrukcjami. Niewielka liczba aktywnych parametrów umożliwia szybkie wnioskowanie, wysoką współbieżność i lepszą ekonomikę jednostkową, co czyni go idealnym do wdrożeń agentów na dużą skalę, narzędzi wspierających programistów oraz aplikacji opartych na wnioskowaniu, wymagających szybkości odpowiedzi i efektywności kosztowej.
F

flux-pro-finetuned

Na żądanie:$0.07
F

flux-pro-1.1-ultra-finetuned

Na żądanie:$0.10
F

flux-pro-1.1-ultra

Na żądanie:$0.07
F

flux-pro-1.1

Na żądanie:$0.05
F

flux-pro-1.0-fill-finetuned

Na żądanie:$0.10
F

flux-pro-1.0-fill

Na żądanie:$0.06
F

flux-pro-1.0-depth-finetuned

Na żądanie:$0.10
F

flux-pro-1.0-depth

Na żądanie:$0.06
F

flux-pro-1.0-canny-finetuned

Na żądanie:$0.10
F

flux-pro-1.0-canny

Na żądanie:$0.06
F

flux-pro

Na żądanie:$0.05
F

flux-kontext-pro

Na żądanie:$0.05
F

flux-kontext-max

Na żądanie:$0.10
F

flux-finetune

Na żądanie:$0.05
F

flux-dev

Na żądanie:$0.03
H

hunyuan-vision

Wejście:$2.01/M
Wyjście:$2.01/M
H

hunyuan-turbos-vision-20250619

Wejście:$0.33/M
Wyjście:$1.00/M
H

hunyuan-turbos-vision

Wejście:$0.33/M
Wyjście:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

Wejście:$0.17/M
Wyjście:$0.67/M
H

hunyuan-turbos-latest

Wejście:$0.09/M
Wyjście:$0.22/M
H

hunyuan-turbos-20250604

Wejście:$0.09/M
Wyjście:$0.22/M
H

hunyuan-turbos-20250515

Wejście:$0.09/M
Wyjście:$0.22/M
H

hunyuan-turbos-20250416

Wejście:$0.09/M
Wyjście:$0.22/M
H

hunyuan-turbos-20250313

Wejście:$0.09/M
Wyjście:$0.22/M
H

hunyuan-t1-vision-20250619

Wejście:$0.11/M
Wyjście:$0.45/M
H

hunyuan-t1-vision

Wejście:$0.11/M
Wyjście:$0.45/M
H

hunyuan-t1-latest

Wejście:$0.11/M
Wyjście:$0.45/M
H

hunyuan-t1-20250711

Wejście:$0.11/M
Wyjście:$0.45/M
H

hunyuan-t1-20250529

Wejście:$0.11/M
Wyjście:$0.45/M
H

hunyuan-t1-20250521

Wejście:$0.11/M
Wyjście:$0.45/M
H

hunyuan-t1-20250403

Wejście:$0.11/M
Wyjście:$0.45/M
H

hunyuan-t1-20250321

Wejście:$0.11/M
Wyjście:$0.45/M
H

hunyuan-standard-256K

Wejście:$0.06/M
Wyjście:$0.22/M
H

hunyuan-standard

Wejście:$0.09/M
Wyjście:$0.22/M
H

hunyuan-role

Wejście:$0.45/M
Wyjście:$0.89/M
H

hunyuan-pro

Wejście:$1.60/M
Wyjście:$1.60/M
H

hunyuan-lite

Wejście:$1.60/M
Wyjście:$1.60/M
H

hunyuan-large-vision

Wejście:$0.45/M
Wyjście:$1.34/M
H

hunyuan-large

Wejście:$0.45/M
Wyjście:$1.34/M
H

hunyuan-functioncall

Wejście:$0.45/M
Wyjście:$0.89/M
H

hunyuan-embedding

Wejście:$0.08/M
Wyjście:$0.08/M
H

hunyuan-code

Wejście:$0.39/M
Wyjście:$0.78/M
H

hunyuan-all

Wejście:$0.11/M
Wyjście:$0.22/M
H

hunyuan-a13b

Wejście:$0.06/M
Wyjście:$0.22/M
H

hunyuan

Wejście:$0.11/M
Wyjście:$0.11/M
Z

glm-zero-preview

Wejście:$60.00/M
Wyjście:$60.00/M
Z

glm-4v-plus

Wejście:$4.80/M
Wyjście:$4.80/M
Z

glm-4v

Wejście:$24.00/M
Wyjście:$24.00/M
Z

GLM 4.6

Kontekst:200
Wejście:$0.64/M
Wyjście:$2.56/M
Najnowszy flagowy model Zhipu, GLM-4.6, wydany: łączna liczba parametrów 355B, liczba aktywnych parametrów 32B. Ogólne kluczowe możliwości przewyższają GLM-4.5. Kodowanie: porównywalne z Claude Sonnet 4, najlepsze w Chinach. Kontekst: rozszerzony do 200K (pierwotnie 128K). Wnioskowanie: ulepszone, obsługuje wywołania Tool. Wyszukiwanie: zoptymalizowano Tool i framework agentowy. Pisanie: bardziej dopasowane do preferencji ludzi, stylu pisania i odgrywania ról. Wielojęzyczność: zwiększona skuteczność tłumaczenia.
Z

glm-4.5-x

Wejście:$3.20/M
Wyjście:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

Wejście:$0.16/M
Wyjście:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

Wejście:$1.60/M
Wyjście:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

Wejście:$0.16/M
Wyjście:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

Wejście:$0.48/M
Wyjście:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

Wejście:$24.00/M
Wyjście:$24.00/M
Z

glm-4-long

Wejście:$0.48/M
Wyjście:$0.48/M
Z

glm-4-flash

Wejście:$0.05/M
Wyjście:$0.05/M
Z

glm-4-airx

Wejście:$4.80/M
Wyjście:$4.80/M
Z

glm-4-air

Wejście:$0.48/M
Wyjście:$0.48/M
Z

glm-4-0520

Wejście:$24.00/M
Wyjście:$24.00/M
Z

glm-4

Wejście:$24.00/M
Wyjście:$24.00/M
Z

glm-3-turbo

Wejście:$1.60/M
Wyjście:$1.60/M