O

GPT-5.2 Pro

Contesto:400,000
Ingresso:$12.00/M
Uscita:$96.00/M
gpt-5.2-pro è il membro con la massima capacità, orientato alla produzione, della famiglia GPT-5.2 di OpenAI, accessibile tramite la Responses API per carichi di lavoro che richiedono la massima fedeltà, ragionamento a più fasi, uso esteso di strumenti e i più ampi budget di contesto/throughput offerti da OpenAI.
O

GPT-5.2 Chat

Contesto:128,000
Ingresso:$1.40/M
Uscita:$11.20/M
gpt-5.2-chat-latest è l’istantanea ottimizzata per la chat della famiglia GPT-5.2 di OpenAI (con il marchio GPT-5.2 Instant in ChatGPT). È il modello per i casi d’uso interattivi/di chat che richiedono una combinazione di velocità, gestione di contesti lunghi, input multimodali e comportamento conversazionale affidabile.
O

GPT-5.2

Contesto:400,000
Ingresso:$1.40/M
Uscita:$11.20/M
GPT-5.2 è una suite di modelli con più varianti (Instant, Thinking, Pro) progettata per una migliore comprensione di contesti lunghi, una programmazione e un uso degli strumenti più solidi, e prestazioni sostanzialmente superiori nei benchmark professionali di “knowledge-work”.
O

GPT-5.1 Chat

Contesto:400.0k
Ingresso:$1.00/M
Uscita:$8.00/M
GPT-5.1 Chat è un modello linguistico conversazionale ottimizzato tramite istruzioni per chat, ragionamento e scrittura di uso generale. Supporta conversazioni a più turni, sintesi, redazione di bozze, QA su basi di conoscenza e assistenza al codice leggera per assistenti in-app, automazione del supporto e copiloti per i flussi di lavoro. Le principali caratteristiche tecniche includono allineamento ottimizzato per la chat, output controllabili e strutturati e percorsi di integrazione per l'invocazione di strumenti e i flussi di lavoro di recupero, quando disponibili.
O

GPT-5.1

Ingresso:$1.00/M
Uscita:$8.00/M
GPT-5.1 è un modello linguistico general-purpose messo a punto per seguire istruzioni, focalizzato sulla generazione di testo e sul ragionamento nei flussi di lavoro di prodotto. Supporta conversazioni multi-turno, formattazione di output strutturati e attività orientate al codice come stesura, refactoring e spiegazione. Gli utilizzi tipici includono assistenti conversazionali, QA potenziato dal recupero, trasformazione dei dati e automazione in stile agente con strumenti o API, se supportati. I punti salienti tecnici includono una modalità incentrata sul testo, il rispetto delle istruzioni, output in stile JSON e compatibilità con le chiamate di funzione nei comuni framework di orchestrazione.
O

GPT-5 nano

Contesto:400K
Ingresso:$0.04/M
Uscita:$0.32/M
GPT-5 Nano è un modello di intelligenza artificiale fornito da OpenAI.
O

GPT-5 mini

Contesto:400K
Ingresso:$0.20/M
Uscita:$1.60/M
GPT-5 mini è il membro della famiglia GPT-5 ottimizzato per costi e latenza di OpenAI, progettato per offrire gran parte dei punti di forza multimodali e di aderenza alle istruzioni di GPT-5 a un costo notevolmente inferiore per l’uso in produzione su larga scala. Si rivolge ad ambienti in cui la capacità di elaborazione, la prevedibilità dei prezzi per token e la rapidità delle risposte sono i vincoli principali, pur offrendo solide capacità generali.
O

GPT 5 Chat

Contesto:400K
Ingresso:$1.00/M
Uscita:$8.00/M
GPT-5 Chat (latest) è un modello di intelligenza artificiale fornito da OpenAI.
O

GPT-5

Contesto:400K
Ingresso:$1.00/M
Uscita:$8.00/M
GPT-5 è il modello di programmazione più potente di OpenAI fino ad oggi. Mostra miglioramenti significativi nella generazione di front-end complessi e nel debug di grandi codebase. Può trasformare le idee in realtà con risultati intuitivi ed esteticamente gradevoli, creando siti web, applicazioni e giochi belli e responsive, con uno spiccato senso dell'estetica, tutto a partire da un unico prompt. I primi tester hanno inoltre notato le sue scelte di design, con una comprensione più profonda di elementi come spaziatura, tipografia e spazio bianco.
O

GPT-4.1 nano

Contesto:1.0M
Ingresso:$0.08/M
Uscita:$0.32/M
GPT-4.1 nano è un modello di intelligenza artificiale fornito da OpenAI. gpt-4.1-nano: Presenta una finestra di contesto più ampia—supporta fino a 1 million token di contesto ed è in grado di sfruttare meglio tale contesto grazie a una comprensione migliorata dei contesti lunghi. Dispone di un limite di conoscenza aggiornato a giugno 2024. Questo modello supporta una lunghezza massima del contesto di 1,047,576 token.
O

GPT-4.1

Contesto:1.0M
Ingresso:$1.60/M
Uscita:$6.40/M
GPT-4.1 è un modello di intelligenza artificiale fornito da OpenAI. gpt-4.1-nano: Presenta una finestra di contesto più ampia—supporta fino a 1 milione di token di contesto ed è in grado di sfruttare meglio tale contesto grazie a una comprensione migliorata dei contesti lunghi. Ha un limite di conoscenza aggiornato a giugno 2024. Questo modello supporta una lunghezza massima del contesto di 1,047,576 token.
O

GPT-4o mini

Ingresso:$0.12/M
Uscita:$0.48/M
GPT-4o mini è un modello di intelligenza artificiale fornito da OpenAI.
O

Whisper-1

Ingresso:$24.00/M
Uscita:$24.00/M
Da parlato a testo, creazione di traduzioni
O

TTS

Ingresso:$12.00/M
Uscita:$12.00/M
Sintesi vocale di OpenAI
O

Sora 2 Pro

Al Secondo:$0.24
Sora 2 Pro è il nostro modello di generazione di contenuti multimediali più avanzato e potente, in grado di generare video con audio sincronizzato. Può creare clip video dettagliate e dinamiche a partire da linguaggio naturale o immagini.
O

Sora 2

Al Secondo:$0.08
Modello di generazione di video estremamente potente, con effetti sonori e supporto per il formato chat.
O

GPT Image 1 mini

Ingresso:$2.00/M
Uscita:$6.40/M
Versione a costo ottimizzato di GPT Image 1. È un modello linguistico multimodale nativo che accetta input sia di testo sia di immagini e genera output di immagini.
O

GPT 4.1 mini

Contesto:1.0M
Ingresso:$0.32/M
Uscita:$1.28/M
GPT-4.1 mini è un modello di intelligenza artificiale fornito da OpenAI. gpt-4.1-mini: Un salto significativo nelle prestazioni dei modelli di piccole dimensioni, superando persino GPT-4o in molti benchmark. Eguaglia o supera GPT-4o nei test di intelligenza, riducendo al contempo la latenza di quasi la metà e il costo dell'83%. Questo modello supporta una lunghezza massima del contesto di 1,047,576 token.
O

o4-mini-deep-research

Contesto:200K
Ingresso:$1.60/M
Uscita:$6.40/M
O4-Mini-Deep-Research è il modello di ragionamento agentico più recente di OpenAI, che combina il backbone o4-mini leggero con l'avanzato framework Deep Research. Progettato per offrire una sintesi approfondita delle informazioni rapida ed efficiente in termini di costi, consente a sviluppatori e ricercatori di effettuare ricerche web automatizzate, analisi dei dati e ragionamento a catena con una singola chiamata API.
O

o4-mini

Ingresso:$0.88/M
Uscita:$3.52/M
O4-mini è un modello di intelligenza artificiale fornito da OpenAI.
O

O3 Pro

Contesto:200K
Ingresso:$16.00/M
Uscita:$64.00/M
OpenAI o3‑pro è una variante “pro” del modello di ragionamento o3, progettata per pensare più a lungo e fornire le risposte più affidabili impiegando un apprendimento per rinforzo della catena di ragionamento privata e stabilendo nuovi benchmark allo stato dell’arte in ambiti come la scienza, la programmazione e il business — integrando al contempo in modo autonomo strumenti quali la ricerca sul web, l’analisi dei file, l’esecuzione di Python e il ragionamento visivo all’interno dell’API.
O

o3-mini

Ingresso:$0.88/M
Uscita:$3.52/M
O3-mini è un modello di intelligenza artificiale fornito da OpenAI.
O

o3-deep-research

Ingresso:$8.00/M
Uscita:$32.00/M
Un agente di ricerca approfondita in rete, basato sul modello O3, che supporta l’inferenza a più fasi e report di analisi delle citazioni.
O

o3

Ingresso:$1.60/M
Uscita:$6.40/M
O3 è un modello di intelligenza artificiale fornito da OpenAI.
O

GPT-4o mini Audio

Ingresso:$0.12/M
Uscita:$0.48/M
GPT-4o mini Audio è un modello multimodale per interazioni vocali e testuali. Esegue riconoscimento vocale, traduzione e sintesi vocale, segue le istruzioni e può richiamare strumenti per azioni strutturate con risposte in streaming. Gli usi tipici includono assistenti vocali in tempo reale, sottotitolazione e traduzione in tempo reale, riassunto delle chiamate e applicazioni controllate dalla voce. Le caratteristiche tecniche principali includono input e output audio, risposte in streaming, chiamata di funzioni e output JSON strutturato.
O

codex-mini-latest

Ingresso:$1.20/M
Uscita:$4.80/M
Codex Mini è un modello di intelligenza artificiale fornito da OpenAI. È l’ultima realizzazione di OpenAI nella generazione di codice, un modello leggero specificamente ottimizzato per l’interfaccia a riga di comando (CLI) di Codex. In quanto versione messa a punto di o4-mini, questo modello eredita l’elevata efficienza e la velocità di risposta del modello base, ed è al contempo appositamente ottimizzato per la comprensione e la generazione del codice.
O

GPT-4o mini TTS

Ingresso:$9.60/M
Uscita:$38.40/M
GPT-4o mini TTS è un modello neurale di sintesi vocale progettato per una generazione della voce naturale e a bassa latenza nelle applicazioni rivolte agli utenti. Converte il testo in parlato dal suono naturale con voci selezionabili, output multiformato e sintesi in streaming per esperienze reattive. Gli usi tipici includono assistenti vocali, IVR e flussi di contatto, lettura ad alta voce dei contenuti di prodotto e narrazione di contenuti multimediali. I principali aspetti tecnici includono lo streaming basato su API e l’esportazione nei formati audio più comuni, come MP3 e WAV.
O

GPT-4o Realtime

Ingresso:$60.00/M
Uscita:$240.00/M
La Realtime API consente agli sviluppatori di creare esperienze multimodali a bassa latenza, inclusa la funzionalità da parlato a parlato. Il testo e l'audio elaborati dalla Realtime API sono tariffati separatamente. Questo modello supporta una lunghezza massima del contesto di 128,000 token.
O

GPT-4o Search

Ingresso:$60.00/M
Uscita:$60.00/M
GPT-4o Search è un modello multimodale basato su GPT-4o, configurato per un ragionamento potenziato dalla ricerca e per fornire risposte fondate e aggiornate. Segue le istruzioni e utilizza strumenti di ricerca sul web per recuperare, valutare e sintetizzare informazioni esterne, con il contesto delle fonti quando disponibile. Gli usi tipici includono assistenza alla ricerca, verifica dei fatti, monitoraggio di notizie e tendenze e risposta a domande sensibili al fattore tempo. I punti salienti tecnici includono l'invocazione di strumenti e funzioni per la navigazione e il recupero, la gestione di contesti estesi e output strutturati adatti a citazioni e collegamenti.
O

ChatGPT-4o

Ingresso:$4.00/M
Uscita:$12.00/M
Basato sull’ultima iterazione di GPT-4o, un modello linguistico multimodale di grandi dimensioni (LLM) che supporta input/output di testo, immagini, audio e video.
O

tts-1-hd-1106

Ingresso:$24.00/M
Uscita:$24.00/M
O

tts-1-hd

Ingresso:$24.00/M
Uscita:$24.00/M
O

tts-1-1106

Ingresso:$12.00/M
Uscita:$12.00/M
O

tts-1

Ingresso:$12.00/M
Uscita:$12.00/M
O

text-embedding-ada-002

Ingresso:$0.08/M
Uscita:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

Ingresso:$0.02/M
Uscita:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

Ingresso:$0.10/M
Uscita:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

Per Richiesta:$0.00
O

omni-moderation-2024-09-26

Per Richiesta:$0.00
O

o1-pro-all

Ingresso:$120.00/M
Uscita:$480.00/M
O

o1-pro-2025-03-19

Ingresso:$120.00/M
Uscita:$480.00/M
O

o1-pro

Ingresso:$120.00/M
Uscita:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

Per Richiesta:$0.16
O

o1-preview-2024-09-12

Ingresso:$12.00/M
Uscita:$48.00/M
O

o1-preview

Ingresso:$12.00/M
Uscita:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

Per Richiesta:$0.08
O

o1-mini-2024-09-12

Ingresso:$0.88/M
Uscita:$3.52/M
O

o1-mini

Ingresso:$0.88/M
Uscita:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

Per Richiesta:$0.16
O

o1-2024-12-17

Ingresso:$12.00/M
Uscita:$48.00/M
O

o1

Ingresso:$12.00/M
Uscita:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

Ingresso:$0.48/M
Uscita:$0.96/M
Una versione economica del GPT in tempo reale—capace di rispondere agli input audio e testuali in tempo reale tramite connessioni WebRTC, WebSocket o SIP.
C

gpt-oss-20b

Ingresso:$0.08/M
Uscita:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

Ingresso:$0.16/M
Uscita:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

Ingresso:$8.00/M
Uscita:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

Ingresso:$2.00/M
Uscita:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

Ingresso:$2.00/M
Uscita:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

Ingresso:$8.00/M
Uscita:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

Per Richiesta:$0.04
O

gpt-4-turbo-preview

Ingresso:$8.00/M
Uscita:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

Ingresso:$8.00/M
Uscita:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

Ingresso:$8.00/M
Uscita:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

Per Richiesta:$0.04
O

gpt-4-gizmo-*

Ingresso:$24.00/M
Uscita:$48.00/M
O

gpt-4-gizmo

Ingresso:$24.00/M
Uscita:$48.00/M
O

gpt-4-dalle

Per Richiesta:$0.04
O

gpt-4-all

Ingresso:$24.00/M
Uscita:$48.00/M
A

gpt-4-32k

Ingresso:$48.00/M
Uscita:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

Ingresso:$8.00/M
Uscita:$16.00/M
O

gpt-4-0613

Ingresso:$24.00/M
Uscita:$48.00/M
O

gpt-4-0314

Ingresso:$24.00/M
Uscita:$48.00/M
O

gpt-4-0125-preview

Ingresso:$8.00/M
Uscita:$16.00/M
O

gpt-4

Ingresso:$24.00/M
Uscita:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

Ingresso:$0.40/M
Uscita:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

Ingresso:$0.40/M
Uscita:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

Per Richiesta:$0.02
New version of DALL-E for image generation.
O

dall-e-2

Ingresso:$8.00/M
Uscita:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

Contesto:200K
Ingresso:$2.40/M
Uscita:$12.00/M
Claude Sonnet 4.5 compie un significativo balzo in avanti nelle capacità di eseguire attività su computer. Su OSWorld, una piattaforma di benchmark per testare i modelli di IA su compiti su computer del mondo reale, Sonnet 4.5 è balzato in cima con il 61.4%, mentre appena quattro mesi prima Sonnet 4 era in testa con il 42.2%. La nostra estensione Claude for Chrome mette in pratica queste funzionalità potenziate.
A

Claude Opus 4.5

Contesto:200K
Ingresso:$4.00/M
Uscita:$20.00/M
Claude Opus 4.5 è un modello linguistico di grandi dimensioni di Anthropic, messo a punto per seguire istruzioni e progettato per ragionamento complesso, programmazione e conversazioni a più turni. Supporta la gestione di contesti estesi, l’invocazione di strumenti e funzioni, la produzione di output strutturati e l’integrazione con flussi di lavoro potenziati dal recupero di informazioni. Gli usi tipici includono assistenti analitici, generazione e revisione del codice, QA su basi di conoscenza e redazione di contenuti con risposte allineate alle policy. I punti salienti tecnici includono il rispetto delle istruzioni, un comportamento compatibile con RAG e controlli di sicurezza disponibili nelle implementazioni di Claude.
C

Claude Opus 4.1

Contesto:200K
Ingresso:$12.00/M
Uscita:$60.00/M
Claude Opus 4.1 è una versione aggiornata del modello di punta di Anthropic, offrendo prestazioni migliorate in programmazione, inferenza e attività basate su agenti. Ottiene il 74.5% su SWE-bench Verified, mostrando miglioramenti significativi nel refactoring del codice multi-file, nell’accuratezza del debugging e nell’inferenza orientata ai dettagli. Questo modello supporta il ragionamento esteso fino a 64K token ed è ottimizzato per compiti che coinvolgono ricerca, analisi dei dati e inferenza assistita da strumenti.
C

Claude 4 Sonnet

Contesto:200K
Ingresso:$2.40/M
Uscita:$12.00/M
Il modello più veloce, con il miglior rapporto qualità-prezzo, finestra di contesto da 200K.
C

Claude Opus 4

Contesto:200K
Ingresso:$12.00/M
Uscita:$60.00/M
L'equilibrio ottimale tra intelligenza, costo e velocità. Finestra di contesto da 200K.
C

Claude 3.7 Sonnet

Ingresso:$2.40/M
Uscita:$12.00/M
La grande mossa di Claude contro R1: la potente 3.7 è ufficialmente online. Questo modello supporta una lunghezza massima del contesto di 200,000 token. Con supporto al ragionamento.
C

Claude Haiku 4.5

Contesto:200K
Ingresso:$0.80/M
Uscita:$4.00/M
Il modello più veloce e con il miglior rapporto qualità-prezzo.
C

Claude 3.5 Haiku

Ingresso:$0.80/M
Uscita:$4.00/M
Questi alias puntano automaticamente all’istantanea più recente di un determinato modello. Sebbene siano utili per la sperimentazione, consigliamo di utilizzare versioni specifiche del modello (ad esempio, claude-3-5-sonnet-20241022) nelle applicazioni di produzione per garantire un comportamento coerente. Quando rilasciamo nuove istantanee del modello, aggiorniamo l’alias -latest per indirizzarlo alla nuova versione (in genere entro una settimana dal rilascio della nuova versione). L’alias -latest ha gli stessi limiti di frequenza e la stessa tariffazione della versione del modello sottostante a cui si riferisce. Questo modello supporta una lunghezza massima del contesto di 200,000 token.
C

Claude 3 Haiku

Ingresso:$0.20/M
Uscita:$1.00/M
Claude Haiku 3 è un modello di intelligenza artificiale fornito da Anthropic.
G

Veo 3.1 Pro

Per Richiesta:$2.00
Veo 3.1-Pro si riferisce all’accesso/configurazione con capacità elevate della famiglia Veo 3.1 di Google — una generazione di modelli video in formato breve, con supporto audio, che aggiungono un audio nativo più ricco, controlli narrativi/di montaggio migliorati e strumenti per l’estensione delle scene.
G

Veo 3.1

Per Richiesta:$0.40
Veo 3.1 è l'aggiornamento incrementale ma significativo di Google alla sua famiglia Veo testo-e-immagine→video, che introduce audio nativo più ricco, output video più lunghi e più controllabili e controlli di editing più precisi e a livello di scena.
G

Veo 3 Pro

Per Richiesta:$2.00
Veo 3 pro indica l'esperienza del modello video Veo 3 a livello di produzione (alta fedeltà, audio nativo e strumentazione estesa)
G

Veo 3 Fast

Per Richiesta:$0.40
Veo 3 Fast è la variante ottimizzata per la velocità della famiglia di modelli generativi video di Google (Veo 3 / Veo 3.1 ecc.). È progettato per produrre clip video brevi e di alta qualità con audio generato in modo nativo, dando priorità al throughput e al costo per secondo, scambiando parte della massima fedeltà visiva e/o della durata più lunga di una singola ripresa a favore di una generazione molto più rapida e di un prezzo inferiore. Che cos'è Veo 3 Fast — introduzione concisa
G

Veo 3

Per Richiesta:$0.40
Veo 3 di Google DeepMind rappresenta l’avanguardia della generazione da testo a video, segnando la prima volta in cui un modello di IA generativa su larga scala sincronizza perfettamente video ad alta fedeltà con l’audio corrispondente — inclusi dialoghi, effetti sonori e paesaggi sonori ambientali.
G

Gemini 2.5 Pro

Contesto:1M
Ingresso:$1.00/M
Uscita:$8.00/M
Gemini 2.5 Pro è un modello di intelligenza artificiale fornito da Google. Dispone di capacità di elaborazione multimodale native e di una finestra di contesto ultralunga fino a 1 milione di token, offrendo un supporto potente e senza precedenti per attività complesse con sequenze lunghe. Secondo i dati di Google, Gemini 2.5 Pro offre prestazioni particolarmente elevate nelle attività complesse. Questo modello supporta una lunghezza massima del contesto di 1,048,576 token.
G

Gemini 2.5 Flash

Contesto:1M
Ingresso:$0.24/M
Uscita:$2.00/M
Gemini 2.5 Flash è un modello di intelligenza artificiale sviluppato da Google, progettato per offrire soluzioni rapide ed economicamente vantaggiose per gli sviluppatori, soprattutto per applicazioni che richiedono capacità di inferenza avanzate. Secondo l’annuncio di anteprima di Gemini 2.5 Flash, il modello è stato rilasciato in anteprima il 17 aprile 2025, supporta input multimodale e dispone di una finestra di contesto da 1 milione di token. Questo modello supporta una lunghezza massima del contesto di 65,536 token.
G

Nano Banana

Per Richiesta:$0.03
Gemini 2.5 Flash Image (alias nano-banana), il modello di generazione e modifica di immagini più avanzato di Google. Questo aggiornamento consente di combinare più immagini in una sola, mantenere la coerenza dei personaggi per raccontare narrazioni ricche, eseguire trasformazioni mirate utilizzando il linguaggio naturale e sfruttare la conoscenza del mondo di Gemini per generare e modificare immagini.
G

Gemini 2.5 Flash Lite

Contesto:1M
Ingresso:$0.08/M
Uscita:$0.32/M
Un modello Gemini 2.5 Flash ottimizzato per un elevato rapporto costo-efficacia e ad alto throughput. Il modello più piccolo e più conveniente in termini di costi, progettato per l'uso su larga scala.
G

Gemini 2.5 Pro DeepSearch

Ingresso:$8.00/M
Uscita:$64.00/M
Modello di ricerca approfondita, con capacità potenziate di ricerca approfondita e di recupero dell’informazione, una scelta ideale per l’integrazione e l’analisi di conoscenze complesse.
G

Gemini 2.5 Pro (All)

Ingresso:$2.00/M
Uscita:$16.00/M
Gemini 2.5 Pro (All) è un modello multimodale per la comprensione di testo e media, progettato per assistenti a uso generale e per un ragionamento ancorato ai dati. Gestisce l’esecuzione di istruzioni, la scrittura analitica, la comprensione del codice e di immagini/audio, con invocazione affidabile di strumenti/funzioni e comportamento compatibile con RAG. Gli utilizzi tipici includono agenti di chat aziendali, analisi di documenti e interfacce utente, question answering visivo e automazione dei flussi di lavoro. Le caratteristiche tecniche includono input unificati immagine‑testo‑audio, supporto per contesti lunghi, output JSON strutturato, risposte in streaming e controllo delle istruzioni di sistema.
G

Gemini 2.5 Flash DeepSearch

Ingresso:$4.80/M
Uscita:$38.40/M
Modello di ricerca approfondita, con capacità potenziate di ricerca approfondita e recupero delle informazioni, una scelta ideale per l’integrazione e l’analisi di conoscenze complesse.
G

Gemini 2.5 Flash (All)

Ingresso:$0.24/M
Uscita:$2.00/M
Gemini 2.5 Flash è un modello di intelligenza artificiale sviluppato da Google, progettato per fornire soluzioni rapide ed economicamente vantaggiose per gli sviluppatori, soprattutto per applicazioni che richiedono capacità di inferenza avanzate. Secondo l’annuncio di anteprima di Gemini 2.5 Flash, il modello è stato rilasciato in anteprima il 17 aprile 2025, supporta l’input multimodale e dispone di una finestra di contesto da 1 milione di token. Questo modello supporta una lunghezza massima del contesto di 65,536 token.
G

Gemini 2.0 Flash Lite

Ingresso:$0.08/M
Uscita:$0.32/M
Gemini 2.0 Flash Lite è un modello multimodale compatto, messo a punto su istruzioni e ottimizzato per l’inferenza a bassa latenza e ad alto throughput. Gestisce la comprensione di testo e immagini, il riassunto, la classificazione e il ragionamento leggero, con chiamate a strumenti/funzioni e controllo dell’output strutturato. Gli usi tipici includono agenti conversazionali, stesura rapida di contenuti, estrazione di metadati da documenti o screenshot e flussi di lavoro potenziati dal retrieval. I punti salienti tecnici includono input testo-immagine, generazione in streaming, chiamate a strumenti/funzioni e opzioni di distribuzione adatte a servizi sensibili alla latenza.
G

Gemini 2.0 Flash

Ingresso:$0.08/M
Uscita:$0.32/M
Gemini 2.0 Flash è un modello di intelligenza artificiale fornito da Google-Vertex.
G

Nano Banana Pro

Per Richiesta:$0.19
Nano Banana Pro è un modello di IA per l’assistenza di uso generale in flussi di lavoro incentrati sul testo. È adatto a prompt in stile istruzioni per generare, trasformare e analizzare contenuti con una struttura controllabile. Gli utilizzi tipici includono assistenti di chat, sintesi di documenti, domande e risposte basate sulla conoscenza e automazione dei flussi di lavoro. I dettagli tecnici pubblici sono limitati; l’integrazione è in linea con gli schemi comuni degli assistenti IA, come output strutturati, prompt arricchiti dal recupero e chiamata di strumenti o funzioni.
G

Gemini 3 Pro Preview

Contesto:200.0k
Ingresso:$1.60/M
Uscita:$9.60/M
Gemini 3 Pro Preview è un modello di uso generale della famiglia Gemini, disponibile in anteprima per valutazione e prototipazione. Supporta il rispetto delle istruzioni, il ragionamento multi-turno e attività su codice e dati, con output strutturati e invocazione di strumenti/funzioni per l’automazione dei flussi di lavoro. Gli usi tipici includono assistenti di chat, sintesi e riscrittura, domande e risposte potenziate dal recupero, estrazione di dati e supporto leggero alla programmazione nelle app e nei servizi. Tra le caratteristiche tecniche principali figurano la distribuzione tramite API, risposte in streaming, controlli di sicurezza e predisposizione all’integrazione, con capacità multimodali a seconda della configurazione dell’anteprima.
X

Grok Code Fast 1

Contesto:256K
Ingresso:$0.16/M
Uscita:$1.20/M
Grok Code Fast 1 è un modello di IA per la programmazione lanciato da xAI, progettato per svolgere in modo rapido ed efficiente attività di programmazione di base. Il modello può elaborare 92 token al secondo, ha una finestra di contesto da 256k ed è adatto alla prototipazione rapida, al debug del codice e alla generazione di semplici elementi visivi.
X

Grok 4 Fast

Contesto:2M
Ingresso:$0.16/M
Uscita:$0.40/M
Grok 4 Fast è un nuovo modello di intelligenza artificiale lanciato da xAI, che integra capacità di inferenza e di non-inferenza in un’unica architettura. Questo modello dispone di una finestra di contesto da 2 milioni di token ed è progettato per applicazioni ad alto throughput come la ricerca e la programmazione. Il modello offre due versioni: Grok-4-Fast-Reasoning e Grok-4-Fast-Non-Reasoning, ottimizzate per compiti differenti.
X

Grok 4.1 Fast

Contesto:2M
Ingresso:$0.16/M
Uscita:$0.40/M
Grok 4.1 Fast è il modello di grandi dimensioni di xAI orientato alla produzione, ottimizzato per l'invocazione di strumenti da parte di agenti, flussi di lavoro con contesto esteso e inferenza a bassa latenza. È una famiglia multimodale a due varianti, progettata per eseguire agenti autonomi che effettuano ricerche, eseguono codice, invocano servizi e ragionano su contesti estremamente ampi (fino a 2 milioni di token).
X

Grok 4

Contesto:256K
Ingresso:$2.40/M
Uscita:$12.00/M
Grok 4 è un modello di intelligenza artificiale fornito da XAI. Attualmente supporta la modalità testuale, con visione, generazione di immagini e altre funzionalità in arrivo a breve. Vanta parametri tecnici e capacità dell’ecosistema estremamente potenti: Finestra di contesto: Supporta l’elaborazione del contesto fino a 256,000 token, superando i modelli mainstream.
X

Grok 3 Reasoner

Ingresso:$2.40/M
Uscita:$12.00/M
Modello di ragionamento Grok-3, con catena di pensiero, concorrente di R1 di Elon Musk. Questo modello supporta una lunghezza massima del contesto di 100,000 token.
X

Grok 3 Mini

Ingresso:$0.24/M
Uscita:$0.40/M
Un modello leggero che riflette prima di rispondere. Veloce, intelligente e ideale per compiti basati sulla logica che non richiedono una conoscenza approfondita del dominio. Le tracce di pensiero grezze sono accessibili. Questo modello supporta una lunghezza massima del contesto pari a 100,000 tokens.
X

Grok 3 DeepSearch

Ingresso:$2.40/M
Uscita:$12.00/M
Grok-3, modello di ricerca in rete profondamente connesso. Questo modello supporta una lunghezza massima del contesto di 100,000 token.
X

Grok 3 DeeperSearch

Ingresso:$2.40/M
Uscita:$12.00/M
Grok-3, modello di ricerca interconnesso e profondo, superiore a grok-3-deepsearch. Questo modello supporta una lunghezza massima del contesto di 100,000 token.
X

Grok 3

Ingresso:$2.40/M
Uscita:$12.00/M
Grok-3 è il più recente modello di chatbot di intelligenza artificiale rilasciato dalla società xAI di Elon Musk il 17 febbraio 2025. Il suo cluster di addestramento ha raggiunto il livello di 200,000 schede, con prestazioni eccellenti in compiti come matematica, scienze e programmazione, ed è stato definito da Musk "l'IA più intelligente sulla Terra". Questo modello supporta una lunghezza massima del contesto di 100,000 token.
X

Grok 2

Ingresso:$0.80/M
Uscita:$0.80/M
Grok 2 è un modello di intelligenza artificiale fornito da XAI.
D

DeepSeek-V3.2

Contesto:128K
Ingresso:$0.22/M
Uscita:$0.35/M
DeepSeek v3.2 è l'ultima release di produzione della famiglia DeepSeek V3: una famiglia di grandi modelli linguistici a pesi aperti, incentrata sul ragionamento, progettata per la comprensione di contesti lunghi, l'uso robusto di agenti/strumenti, il ragionamento avanzato, la programmazione e la matematica.
D

DeepSeek-V3

Ingresso:$0.22/M
Uscita:$0.88/M
Il modello DeepSeek-V3 più popolare e conveniente. Versione completa 671B. Questo modello supporta una lunghezza massima del contesto di 64,000 tokens.
D

DeepSeek-V3.1

Ingresso:$0.44/M
Uscita:$1.32/M
DeepSeek V3.1 è l'aggiornamento della V-series di DeepSeek: un modello linguistico di grandi dimensioni ibrido "pensante / non pensante" orientato a un'intelligenza generale ad alto throughput e a basso costo, e all'utilizzo agentico degli strumenti. Mantiene la compatibilità con API in stile OpenAI, aggiunge un'invocazione degli strumenti più intelligente e — secondo l'azienda — offre una generazione più rapida e una maggiore affidabilità degli agenti.
D

DeepSeek-R1T2-Chimera

Ingresso:$0.24/M
Uscita:$0.24/M
Un modello di generazione di testo Mixture of Experts da 671B parametri, derivato dalla fusione dei modelli R1-0528, R1 e V3-0324 di DeepSeek-AI, che supporta fino a 60k token di contesto.
D

DeepSeek-Reasoner

Ingresso:$0.44/M
Uscita:$1.75/M
DeepSeek-Reasoner è la famiglia di LLM ed endpoint API di DeepSeek incentrata sul ragionamento, progettata per (1) esporre ai chiamanti il ragionamento interno a catena di pensiero (CoT) e (2) operare in modalità di 'thinking' ottimizzate per la pianificazione a più fasi, la matematica, la programmazione e l'uso di agenti/strumenti.
D

DeepSeek-OCR

Per Richiesta:$0.04
DeepSeek-OCR è un modello di riconoscimento ottico dei caratteri per l'estrazione di testo da immagini e documenti. Elabora pagine scansionate, foto e screenshot dell'UI per produrre trascrizioni con indicatori di layout come le interruzioni di riga. Gli usi comuni includono la digitalizzazione dei documenti, l'acquisizione di fatture e ricevute, l'indicizzazione per la ricerca e l'abilitazione di pipeline RPA. I punti salienti tecnici includono l'elaborazione da immagine a testo, il supporto per contenuti scansionati e fotografati e un output di testo strutturato per il parsing a valle.
D

DeepSeek-Chat

Contesto:64K
Ingresso:$0.22/M
Uscita:$0.88/M
Il modello DeepSeek-V3 più popolare e con il miglior rapporto qualità-prezzo. Versione completa da 671B. Questo modello supporta una lunghezza massima del contesto di 64,000 token.
Q

Qwen Image

Per Richiesta:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

Ingresso:$0.45/M
Uscita:$1.79/M
- **kimi-k2-250905**: versione 0905 della serie Kimi K2 di Moonshot AI, con supporto per contesti ultralunghi (fino a 256k token, frontend e chiamate Tool). - 🧠 Tool Calling migliorato: accuratezza al 100%, integrazione fluida, adatto ad attività complesse e all'ottimizzazione dell'integrazione. - ⚡️ Prestazioni più efficienti: TPS fino a 60-100 (API standard), fino a 600-100 in modalità Turbo, offrendo risposte più rapide e capacità di Inference migliorate, limite di conoscenza fino a metà 2025.
Q

qwen3-max-preview

Ingresso:$0.24/M
Uscita:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

Ingresso:$0.24/M
Uscita:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

Ingresso:$0.24/M
Uscita:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

Ingresso:$0.24/M
Uscita:$0.97/M
Q

qwen3-coder

Ingresso:$0.24/M
Uscita:$0.97/M
Q

qwen3-8b

Ingresso:$0.04/M
Uscita:$0.16/M
Q

qwen3-32b

Ingresso:$1.60/M
Uscita:$6.40/M
Q

qwen3-30b-a3b

Ingresso:$0.12/M
Uscita:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

Ingresso:$0.22/M
Uscita:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

Ingresso:$0.80/M
Uscita:$3.20/M
Q

qwen2.5-vl-72b-instruct

Ingresso:$2.40/M
Uscita:$7.20/M
Q

qwen2.5-vl-72b

Ingresso:$2.40/M
Uscita:$7.20/M
Q

qwen2.5-vl-32b-instruct

Ingresso:$2.40/M
Uscita:$7.20/M
Q

qwen2.5-omni-7b

Ingresso:$60.00/M
Uscita:$60.00/M
Q

qwen2.5-math-72b-instruct

Ingresso:$3.20/M
Uscita:$3.20/M
Q

qwen2.5-coder-7b-instruct

Ingresso:$0.80/M
Uscita:$0.80/M
Q

qwen2.5-coder-32b-instruct

Ingresso:$0.80/M
Uscita:$0.80/M
Q

qwen2.5-7b-instruct

Ingresso:$0.80/M
Uscita:$0.80/M
Q

qwen2.5-72b-instruct

Ingresso:$3.20/M
Uscita:$3.20/M
Q

qwen2.5-32b-instruct

Ingresso:$0.96/M
Uscita:$0.96/M
Q

qwen2.5-14b-instruct

Ingresso:$3.20/M
Uscita:$3.20/M
Q

qwen2-vl-7b-instruct

Ingresso:$1.60/M
Uscita:$1.60/M
Q

qwen2-vl-72b-instruct

Ingresso:$1.60/M
Uscita:$1.60/M
Q

qwen2-7b-instruct

Ingresso:$0.16/M
Uscita:$0.16/M
Q

qwen2-72b-instruct

Ingresso:$8.00/M
Uscita:$8.00/M
Q

qwen2-57b-a14b-instruct

Ingresso:$3.20/M
Uscita:$3.20/M
Q

qwen2-1.5b-instruct

Ingresso:$0.16/M
Uscita:$0.16/M
Q

qwen1.5-7b-chat

Ingresso:$0.16/M
Uscita:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

Ingresso:$3.20/M
Uscita:$3.20/M
M

mj_turbo_zoom

Per Richiesta:$0.17
M

mj_turbo_variation

Per Richiesta:$0.17
M

mj_turbo_upscale_subtle

Per Richiesta:$0.17
M

mj_turbo_upscale_creative

Per Richiesta:$0.17
M

mj_turbo_upscale

Per Richiesta:$0.02
M

mj_turbo_upload

Per Richiesta:$0.01
M

mj_turbo_shorten

Per Richiesta:$0.17
M

mj_turbo_reroll

Per Richiesta:$0.17
M

mj_turbo_prompt_analyzer_extended

Per Richiesta:$0.00
M

mj_turbo_prompt_analyzer

Per Richiesta:$0.00
M

mj_turbo_pic_reader

Per Richiesta:$0.00
M

mj_turbo_pan

Per Richiesta:$0.17
M

mj_turbo_modal

Per Richiesta:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

Per Richiesta:$0.17
M

mj_turbo_inpaint

Per Richiesta:$0.08
M

mj_turbo_imagine

Per Richiesta:$0.17
M

mj_turbo_high_variation

Per Richiesta:$0.17
M

mj_turbo_describe

Per Richiesta:$0.00
M

mj_turbo_custom_zoom

Per Richiesta:$0.00
M

mj_turbo_blend

Per Richiesta:$0.17
M

mj_fast_zoom

Per Richiesta:$0.06
M

mj_fast_video

Per Richiesta:$0.60
Midjourney video generation
M

mj_fast_variation

Per Richiesta:$0.06
M

mj_fast_upscale_subtle

Per Richiesta:$0.06
M

mj_fast_upscale_creative

Per Richiesta:$0.06
M

mj_fast_upscale

Per Richiesta:$0.01
M

mj_fast_upload

Per Richiesta:$0.01
M

mj_fast_shorten

Per Richiesta:$0.06
M

mj_fast_reroll

Per Richiesta:$0.06
M

mj_fast_prompt_analyzer_extended

Per Richiesta:$0.00
M

mj_fast_prompt_analyzer

Per Richiesta:$0.00
M

mj_fast_pic_reader

Per Richiesta:$0.00
M

mj_fast_pan

Per Richiesta:$0.06
M

mj_fast_modal

Per Richiesta:$0.06
M

mj_fast_low_variation

Per Richiesta:$0.06
M

mj_fast_inpaint

Per Richiesta:$0.06
M

mj_fast_imagine

Per Richiesta:$0.06
Midjourney drawing
M

mj_fast_high_variation

Per Richiesta:$0.06
M

mj_fast_edits

Per Richiesta:$0.06
M

mj_fast_describe

Per Richiesta:$0.00
M

mj_fast_custom_zoom

Per Richiesta:$0.00
M

mj_fast_blend

Per Richiesta:$0.06
S

suno_uploads

Per Richiesta:$0.02
Carica musica
S

suno_persona_create

Per Richiesta:$0.01
Create a personal style
S

suno_music

Per Richiesta:$0.14
请提供需要翻译成意大利语的文本或片段;我不提供音乐生成服务。
S

suno_lyrics

Per Richiesta:$0.02
Generate lyrics
S

suno_concat

Per Richiesta:$0.04
Song splicing
S

suno_act_wav

Per Richiesta:$0.01
Get WAV format files
S

suno_act_timing

Per Richiesta:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

Per Richiesta:$0.01
S

suno_act_mp4

Per Richiesta:$0.01
Generate MP4 MV
K

kling_virtual_try_on

Per Richiesta:$0.20
K

kling_video

Per Richiesta:$0.40
K

kling_tts

Per Richiesta:$0.02
[Sintesi vocale] Appena lanciato: conversione da testo in audio di qualità broadcast online, con funzione di anteprima ● Può generare contemporaneamente un audio_id, utilizzabile con qualsiasi Keling API.
K

kling_multi_image2image

Per Richiesta:$0.32
K

kling_multi_elements_submit

Per Richiesta:$0.40
K

kling_multi_elements_preview

Per Richiesta:$0.00
K

kling_multi_elements_init

Per Richiesta:$0.00
K

kling_multi_elements_delete

Per Richiesta:$0.00
K

kling_multi_elements_clear

Per Richiesta:$0.00
K

kling_multi_elements_add

Per Richiesta:$0.00
K

kling_lip_sync

Per Richiesta:$0.20
K

kling_image_recognize

Per Richiesta:$0.04
API di riconoscimento degli elementi dell'immagine Keling, utilizzabile per la generazione di video con riferimento multi-immagine, funzionalità di editing video multimodale ● Può riconoscere soggetti, volti, abbigliamento, ecc., e può ottenere 4 set di risultati (se disponibili) per richiesta.
K

kling_image_expand

Per Richiesta:$0.16
K

kling_image

Per Richiesta:$0.02
K

kling_identify_face

Per Richiesta:$0.02
K

kling_extend

Per Richiesta:$0.40
K

kling_effects

Per Richiesta:$0.40
K

kling_avatar_image2video

Per Richiesta:$0.16
K

kling_audio_video_to_audio

Per Richiesta:$0.20
K

kling_audio_text_to_audio

Per Richiesta:$0.20
K

kling_advanced_lip_syn

Per Richiesta:$0.20
D

Doubao Seedream 4-5

Per Richiesta:$0.04
Seedream 4.5 è il modello multimodale di immagini di ByteDance/Seed (testo→immagine + editing delle immagini) che si concentra su una fedeltà d'immagine a livello di produzione, una maggiore aderenza al prompt e una coerenza dell'editing notevolmente migliorata (preservazione del soggetto, resa del testo/della tipografia e realismo facciale).
D

doubao-seedream-4-0-250828

Per Richiesta:$0.02
D

doubao-seedream-3-0-t2i-250415

Per Richiesta:$0.02
D

doubao-seededit-3-0-i2i-250628

Per Richiesta:$0.02
D

doubao-seed-1-6-thinking-250715

Ingresso:$0.04/M
Uscita:$1.07/M
D

doubao-seed-1-6-flash-250615

Ingresso:$0.04/M
Uscita:$1.07/M
D

doubao-seed-1-6-250615

Ingresso:$0.04/M
Uscita:$1.07/M
D

doubao-1.5-vision-pro-250328

Ingresso:$0.33/M
Uscita:$1.00/M
D

doubao-1.5-vision-lite-250315

Ingresso:$0.17/M
Uscita:$0.50/M
D

doubao-1.5-pro-32k-250115

Ingresso:$0.18/M
Uscita:$0.44/M
D

doubao-1.5-pro-256k

Ingresso:$1.10/M
Uscita:$1.99/M
D

doubao-1-5-vision-pro-32k

Ingresso:$0.33/M
Uscita:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

Ingresso:$0.33/M
Uscita:$1.00/M
D

doubao-1-5-thinking-pro-250415

Ingresso:$0.45/M
Uscita:$1.79/M
D

doubao-1-5-pro-32k-250115

Ingresso:$0.18/M
Uscita:$0.44/M
D

doubao-1-5-pro-32k

Ingresso:$0.18/M
Uscita:$0.44/M
D

doubao-1-5-pro-256k-250115

Ingresso:$0.56/M
Uscita:$1.00/M
D

doubao-1-5-pro-256k

Ingresso:$1.10/M
Uscita:$1.99/M
D

doubao-1-5-lite-32k-250115

Ingresso:$0.03/M
Uscita:$0.07/M
D

Doubao-Seed-1.6-thinking

Ingresso:$0.04/M
Uscita:$1.07/M
D

Doubao-Seed-1.6-flash

Ingresso:$0.04/M
Uscita:$1.07/M
D

Doubao-Seed-1.6

Ingresso:$0.04/M
Uscita:$1.07/M
D

Doubao-1.5-vision-pro-32k

Ingresso:$0.33/M
Uscita:$1.00/M
D

Doubao-1.5-vision-pro

Ingresso:$0.33/M
Uscita:$1.00/M
D

Doubao-1.5-vision-lite

Ingresso:$0.17/M
Uscita:$0.50/M
D

Doubao-1.5-thinking-vision-pro

Ingresso:$0.33/M
Uscita:$1.00/M
D

Doubao-1.5-thinking-pro

Ingresso:$0.45/M
Uscita:$1.79/M
D

Doubao-1.5-pro-32k

Ingresso:$0.18/M
Uscita:$0.44/M
D

Doubao-1.5-lite-32k

Ingresso:$0.07/M
Uscita:$0.13/M
R

runwayml_video_to_video

Per Richiesta:$0.96
R

runwayml_upscale_video

Per Richiesta:$0.16
R

runwayml_text_to_image

Per Richiesta:$0.32
R

runwayml_image_to_video

Per Richiesta:$0.32
R

runwayml_character_performance

Per Richiesta:$0.40
R

runway_video2video

Per Richiesta:$0.20
R

runway_video

Per Richiesta:$0.20
R

runway_act_one

Per Richiesta:$0.40
R

Black Forest Labs/FLUX 2 PRO

Per Richiesta:$0.06
FLUX 2 PRO è il modello commerciale di punta della serie FLUX 2, che offre una generazione di immagini all’avanguardia con una qualità e un livello di dettaglio senza precedenti. Progettato per applicazioni professionali e aziendali, offre un’aderenza superiore ai prompt, risultati fotorealistici ed eccezionali capacità artistiche. Questo modello rappresenta lo stato dell’arte della tecnologia di sintesi di immagini basata sull’IA.
R

Black Forest Labs/FLUX 2 FLEX

Per Richiesta:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

Per Richiesta:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

Per Richiesta:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

Per Richiesta:$0.13
R

stability-ai/stable-diffusion-3.5-large

Per Richiesta:$0.21
R

stability-ai/stable-diffusion-3

Per Richiesta:$0.11
R

stability-ai/stable-diffusion

Per Richiesta:$0.02
R

stability-ai/sdxl

Per Richiesta:$0.03
R

recraft-ai/recraft-v3-svg

Per Richiesta:$0.26
R

recraft-ai/recraft-v3

Per Richiesta:$0.13
R

ideogram-ai/ideogram-v2-turbo

Per Richiesta:$0.06
R

ideogram-ai/ideogram-v2

Per Richiesta:$0.10
R

bria/remove-background

Ingresso:$60.00/M
Uscita:$60.00/M
R

bria/increase-resolution

Ingresso:$60.00/M
Uscita:$60.00/M
R

bria/image-3.2

Ingresso:$60.00/M
Uscita:$60.00/M
R

bria/genfill

Ingresso:$60.00/M
Uscita:$60.00/M
R

bria/generate-background

Ingresso:$60.00/M
Uscita:$60.00/M
R

bria/expand-image

Ingresso:$60.00/M
Uscita:$60.00/M
R

bria/eraser

Ingresso:$60.00/M
Uscita:$60.00/M
R

black-forest-labs/flux-schnell

Per Richiesta:$0.01
black-forest-labs/flux-schnell è un modello generativo text‑to‑image di Black Forest Labs, progettato per il campionamento rapido e l’esplorazione iterativa dei prompt. Sintetizza stili e composizioni variegati a partire da prompt brevi, supporta prompt negativi e il controllo del seed e può produrre output ad alta risoluzione adatti a mockup di prodotto, concept art e visual per il marketing. Gli utilizzi tipici includono l’ideazione interattiva, la generazione di miniature e banner e varianti creative automatizzate nelle pipeline di contenuti. Tra i punti salienti tecnici figurano la compatibilità con lo stack Hugging Face Diffusers, il controllo flessibile della risoluzione e un campionatore efficiente ottimizzato per la velocità sulle GPU più comuni.
R

black-forest-labs/flux-pro

Per Richiesta:$0.18
black-forest-labs/flux-pro è un modello generativo da testo a immagine di Black Forest Labs per la sintesi di immagini ad alta fedeltà in una vasta gamma di stili e soggetti. Trasforma prompt dettagliati in composizioni coerenti con attributi controllabili, come rapporto d’aspetto e stile, tramite parametri di generazione standard. Gli usi tipici includono concept art, visualizzazione di prodotti, materiali creativi per il marketing e scene fotorealistiche nei flussi di lavoro di progettazione. Tra i punti salienti tecnici figurano la modalità da testo a immagine, la capacità di seguire prompt di tipo istruzionale e l’integrazione nelle pipeline comuni di generazione di immagini.
R

black-forest-labs/flux-kontext-pro

Per Richiesta:$0.05
black-forest-labs/flux-kontext-pro è un modello di diffusione multimodale per la generazione di immagini consapevole del contesto. Sintetizza immagini a partire da prompt testuali e da immagini di riferimento opzionali, preservando la composizione e le indicazioni di stile per risultati ben ancorati. Gli utilizzi tipici includono la creazione di asset di brand, visual di prodotto e l’ideazione visiva tramite mood board o scatti di esempio. I punti salienti tecnici includono input di testo e di immagine, campionamento condizionato alle immagini di riferimento e risultati riproducibili tramite controllo del seed.
R

black-forest-labs/flux-kontext-max

Per Richiesta:$0.10
black-forest-labs/flux-kontext-max è un modello di generazione di immagini condizionato dal contesto della linea FLUX, progettato per creare immagini a partire da testo con input di riferimento opzionali. Consente una sintesi ancorata, la preservazione dello stile o del soggetto e variazioni controllate guidate dal contesto visivo fornito. Le applicazioni tipiche includono creatività coerenti con il brand, mockup di prodotto, continuità dei personaggi e ideazione guidata da moodboard. I punti salienti tecnici includono la generazione basata sulla diffusione e il condizionamento multimodale con testo e input di riferimento, adatti a flussi di lavoro guidati dai riferimenti.
R

black-forest-labs/flux-dev

Per Richiesta:$0.08
black-forest-labs/flux-dev è un modello testo-immagine a pesi aperti di Black Forest Labs per generare immagini da prompt in linguaggio naturale. Produce risultati fotorealistici e stilizzati a partire da prompt dettagliati e funziona con le comuni opzioni di controllo nelle pipeline di diffusione. Gli utilizzi tipici includono concept art, visualizzazione di prodotto, immagini per il marketing ed esplorazione creativa rapida nei flussi di lavoro di design. Tra i principali aspetti tecnici figurano un'architettura rectified flow basata su transformer, l'integrazione con la libreria Hugging Face Diffusers e la distribuzione tramite stack standard di inferenza su GPU.
R

black-forest-labs/flux-1.1-pro-ultra

Per Richiesta:$0.19
black-forest-labs/flux-1.1-pro-ultra è un Transformer di diffusione testo-immagine progettato per la sintesi di immagini in ambienti di produzione a partire da prompt in linguaggio naturale. Genera output dettagliati da istruzioni complesse, con controlli per stile, composizione, rapporto d'aspetto, prompt negativi e riproducibilità del seed. Gli impieghi tipici includono materiali creativi per il marketing, visualizzazione di prodotti, concept art e ideazione di contenuti. I punti salienti tecnici includono diffusione basata su Transformer, guidance tramite text encoder e distribuzione tramite comuni API di inferenza con parametri di scheduler e di guidance.
R

black-forest-labs/flux-1.1-pro

Per Richiesta:$0.13
black-forest-labs/flux-1.1-pro è un modello di generazione testo-immagine di Black Forest Labs per immagini controllabili e ad alta fedeltà. Interpreta prompt dettagliati per produrre composizioni su diversi stili e soggetti, con supporto per il perfezionamento iterativo e per variazioni di immagine nei comuni flussi di lavoro di diffusione. Gli usi tipici includono concept art, mockup di prodotto, immagini per il marketing ed esplorazione di scene. Tra i punti salienti tecnici figurano la sintesi di immagini condizionata dal testo e l'integrazione con le toolchain di inferenza standard utilizzate per i modelli di diffusione.
F

FLUX 2 PRO

Per Richiesta:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

Per Richiesta:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

Ingresso:$0.22/M
Uscita:$1.15/M
Llama-4-Scout è un modello linguistico di uso generale per interazioni in stile assistente e per l'automazione. Gestisce l'esecuzione di istruzioni, il ragionamento, la sintesi e le attività di trasformazione, e può fornire un supporto leggero per il codice. Gli utilizzi tipici includono l'orchestrazione di chat, la QA potenziata dalla conoscenza e la generazione di contenuti strutturati. Tra i principali aspetti tecnici figurano la compatibilità con i pattern di chiamata di strumenti/funzioni, il prompting potenziato dal recupero e output vincolati da uno schema per l'integrazione nei flussi di lavoro di prodotto.
L

Llama-4-Maverick

Ingresso:$0.48/M
Uscita:$1.44/M
Llama-4-Maverick è un modello linguistico di uso generale per la comprensione e la generazione di testo. Supporta QA conversazionale, sintesi, stesura strutturata e assistenza di base alla programmazione, con opzioni per output strutturati. Le applicazioni comuni includono assistenti di prodotto, front-end per il recupero delle conoscenze e automazione dei flussi di lavoro che richiedono una formattazione coerente. I dettagli tecnici, come numero di parametri, finestra di contesto, modalità e invocazione di strumenti o funzioni, variano a seconda della distribuzione; integrare in base alle capacità documentate del deployment.
M

minimax_video-01

Per Richiesta:$1.44
M

minimax_minimax-hailuo-02

Per Richiesta:$2.88
M

minimax_files_retrieve

Per Richiesta:$0.00
M

minimax-m2

Ingresso:$0.24/M
Uscita:$0.96/M
minimax-m2 è un modello linguistico di grandi dimensioni compatto ed efficiente, ottimizzato per la programmazione end-to-end e i flussi di lavoro degli agenti, con 10 miliardi di parametri attivi (230 miliardi di parametri totali), con prestazioni vicine allo stato dell'arte nell'inferenza generale, nell'uso degli strumenti e nell'esecuzione di compiti multifase, mantenendo al contempo bassa latenza e alta efficienza di distribuzione. Il modello eccelle nella generazione di codice, nella modifica multi-file, nei cicli compila-esegui-correggi e nella correzione dei difetti durante la verifica dei test, ottenendo risultati eccellenti in benchmark quali SWE-Bench Verified, Multi-SWE-Bench e Terminal-Bench, e dimostrando competitività nella pianificazione di compiti di lunga durata, nel recupero delle informazioni e nel recupero dagli errori di esecuzione in valutazioni di agenti come BrowseComp e GAIA. Secondo la valutazione di Artificial Analysis, MiniMax-M2 si colloca ai vertici tra i modelli open source in ambiti di intelligenza generale quali matematica, inferenza scientifica e capacità di seguire istruzioni. Il numero ridotto di parametri attivi consente inferenza rapida, elevata concorrenza e migliori unit economics, rendendolo ideale per la distribuzione su larga scala di agenti, strumenti di supporto per sviluppatori e applicazioni guidate dall'inferenza che richiedono velocità di risposta ed efficienza dei costi.
F

flux-pro-finetuned

Per Richiesta:$0.07
F

flux-pro-1.1-ultra-finetuned

Per Richiesta:$0.10
F

flux-pro-1.1-ultra

Per Richiesta:$0.07
F

flux-pro-1.1

Per Richiesta:$0.05
F

flux-pro-1.0-fill-finetuned

Per Richiesta:$0.10
F

flux-pro-1.0-fill

Per Richiesta:$0.06
F

flux-pro-1.0-depth-finetuned

Per Richiesta:$0.10
F

flux-pro-1.0-depth

Per Richiesta:$0.06
F

flux-pro-1.0-canny-finetuned

Per Richiesta:$0.10
F

flux-pro-1.0-canny

Per Richiesta:$0.06
F

flux-pro

Per Richiesta:$0.05
F

flux-kontext-pro

Per Richiesta:$0.05
F

flux-kontext-max

Per Richiesta:$0.10
F

flux-finetune

Per Richiesta:$0.05
F

flux-dev

Per Richiesta:$0.03
H

hunyuan-vision

Ingresso:$2.01/M
Uscita:$2.01/M
H

hunyuan-turbos-vision-20250619

Ingresso:$0.33/M
Uscita:$1.00/M
H

hunyuan-turbos-vision

Ingresso:$0.33/M
Uscita:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

Ingresso:$0.17/M
Uscita:$0.67/M
H

hunyuan-turbos-latest

Ingresso:$0.09/M
Uscita:$0.22/M
H

hunyuan-turbos-20250604

Ingresso:$0.09/M
Uscita:$0.22/M
H

hunyuan-turbos-20250515

Ingresso:$0.09/M
Uscita:$0.22/M
H

hunyuan-turbos-20250416

Ingresso:$0.09/M
Uscita:$0.22/M
H

hunyuan-turbos-20250313

Ingresso:$0.09/M
Uscita:$0.22/M
H

hunyuan-t1-vision-20250619

Ingresso:$0.11/M
Uscita:$0.45/M
H

hunyuan-t1-vision

Ingresso:$0.11/M
Uscita:$0.45/M
H

hunyuan-t1-latest

Ingresso:$0.11/M
Uscita:$0.45/M
H

hunyuan-t1-20250711

Ingresso:$0.11/M
Uscita:$0.45/M
H

hunyuan-t1-20250529

Ingresso:$0.11/M
Uscita:$0.45/M
H

hunyuan-t1-20250521

Ingresso:$0.11/M
Uscita:$0.45/M
H

hunyuan-t1-20250403

Ingresso:$0.11/M
Uscita:$0.45/M
H

hunyuan-t1-20250321

Ingresso:$0.11/M
Uscita:$0.45/M
H

hunyuan-standard-256K

Ingresso:$0.06/M
Uscita:$0.22/M
H

hunyuan-standard

Ingresso:$0.09/M
Uscita:$0.22/M
H

hunyuan-role

Ingresso:$0.45/M
Uscita:$0.89/M
H

hunyuan-pro

Ingresso:$1.60/M
Uscita:$1.60/M
H

hunyuan-lite

Ingresso:$1.60/M
Uscita:$1.60/M
H

hunyuan-large-vision

Ingresso:$0.45/M
Uscita:$1.34/M
H

hunyuan-large

Ingresso:$0.45/M
Uscita:$1.34/M
H

hunyuan-functioncall

Ingresso:$0.45/M
Uscita:$0.89/M
H

hunyuan-embedding

Ingresso:$0.08/M
Uscita:$0.08/M
H

hunyuan-code

Ingresso:$0.39/M
Uscita:$0.78/M
H

hunyuan-all

Ingresso:$0.11/M
Uscita:$0.22/M
H

hunyuan-a13b

Ingresso:$0.06/M
Uscita:$0.22/M
H

hunyuan

Ingresso:$0.11/M
Uscita:$0.11/M
Z

glm-zero-preview

Ingresso:$60.00/M
Uscita:$60.00/M
Z

glm-4v-plus

Ingresso:$4.80/M
Uscita:$4.80/M
Z

glm-4v

Ingresso:$24.00/M
Uscita:$24.00/M
Z

GLM 4.6

Contesto:200
Ingresso:$0.64/M
Uscita:$2.56/M
Rilasciato il nuovo modello di punta di Zhipu, GLM-4.6: parametri totali 355B, parametri attivi 32B. Le capacità fondamentali complessive superano quelle di GLM-4.5. Programmazione: allineato a Claude Sonnet 4, il migliore in Cina. Contesto: esteso a 200K (originariamente 128K). Inferenza: migliorata, supporta le chiamate agli strumenti. Ricerca: ottimizzati gli strumenti e il framework degli agenti. Scrittura: più in linea con le preferenze umane, lo stile di scrittura e l'interpretazione dei ruoli. Multilingue: prestazioni di traduzione migliorate.
Z

glm-4.5-x

Ingresso:$3.20/M
Uscita:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

Ingresso:$0.16/M
Uscita:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

Ingresso:$1.60/M
Uscita:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

Ingresso:$0.16/M
Uscita:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

Ingresso:$0.48/M
Uscita:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

Ingresso:$24.00/M
Uscita:$24.00/M
Z

glm-4-long

Ingresso:$0.48/M
Uscita:$0.48/M
Z

glm-4-flash

Ingresso:$0.05/M
Uscita:$0.05/M
Z

glm-4-airx

Ingresso:$4.80/M
Uscita:$4.80/M
Z

glm-4-air

Ingresso:$0.48/M
Uscita:$0.48/M
Z

glm-4-0520

Ingresso:$24.00/M
Uscita:$24.00/M
Z

glm-4

Ingresso:$24.00/M
Uscita:$24.00/M
Z

glm-3-turbo

Ingresso:$1.60/M
Uscita:$1.60/M