o3-mini-api

Mar 19, 2026
minimax m2.7

MiniMax-M2.7 spiegato: funzionalità, benchmark, accesso e prezzo

MiniMax-M2.7, evoluzione dei modelli linguistici di grandi dimensioni (LLM) della serie M2 di MiniMax, è progettato per il ragionamento ad alta efficienza, la programmazione e i flussi di lavoro basati su agenti. Basandosi sul successo di M2 e M2.5, introduce miglioramenti nella generazione in batch, nell’efficienza in termini di costi e nella distribuzione scalabile via API (ad es., tramite CometAPI). È rivolto a casi d’uso di IA per le aziende, tra cui l’automazione, il ragionamento a più passaggi e la generazione di contenuti su larga scala.
Mar 19, 2026
Midjourney

Che cos'è Midjourney V8? Quando verrà rilasciato?

Midjourney V8 è il prossimo modello di nuova generazione per la generazione di immagini tramite IA, il cui lancio è previsto nel 2026. Introduce un rendering più rapido (fino a 4–5×), una migliore accuratezza dei prompt, una resa del testo superiore, una maggiore coerenza e un controllo avanzato sulla composizione dell’immagine. È progettato per superare V7 in termini di realismo, coerenza ed efficienza del flusso di lavoro, consentendo al contempo funzionalità come la generazione in batch e una personalizzazione avanzata.
5 importanti aggiornamenti alle API di Sora 2: spiegazione dettagliata
Mar 19, 2026

5 importanti aggiornamenti alle API di Sora 2: spiegazione dettagliata

Sviluppato da OpenAI, Sora 2 rappresenta un importante salto in avanti nei media generativi, trasformando il modo in cui sviluppatori, aziende e professionisti creativi realizzano applicazioni incentrate sul video. Dal suo lancio alla fine del 2025, l’ecosistema delle API — incluso l’accesso tramite provider di terze parti come CometAPI — è maturato significativamente, introducendo nuove funzionalità pensate per la scalabilità, il realismo e un’affidabilità adatta all’uso in produzione.
Mar 19, 2026
Sora-2-pro
sora-2

Quanto sono lunghi i video di Sora 2?

I video di Sora 2 possono attualmente avere una durata massima di 20 secondi per ogni clip generata nell'API ufficiale di OpenAI e in Sora Video Editor. OpenAI supporta inoltre estensioni video fino a 20 secondi ciascuna, con un massimo di sei estensioni, per una durata complessiva fino a 120 secondi. Per l'API Sora 2, CometAPI supporta 20s e 2K.
GPT 5.4 Mini e Nano sono disponibili su CometAPI: cosa offrono?
Mar 19, 2026

GPT 5.4 Mini e Nano sono disponibili su CometAPI: cosa offrono?

GPT-5.4 Mini e GPT-5.4 Nano sono le nuove varianti compatte della famiglia di frontiera GPT-5.4 di OpenAI: Mini punta a un compromesso prestazioni/latenza migliore della categoria per il coding, le attività di UI multimodale e i carichi di lavoro dei sottoagenti; Nano punta a costi e latenza ultrabassi per classificazione, estrazione, ranking e sottoagenti massivamente paralleli. Mini offre un’accuratezza quasi di frontiera su molti benchmark per sviluppatori, funzionando a >2× rispetto alle precedenti Mini; Nano è significativamente più economico per token ed è ideale dove throughput e reattività contano di più. Questi modelli sono live nell’API (GPT 5.4 Mini e Nano sono disponibili in CometAPI).
Come utilizzare Sora 2 Pro senza abbonamento (Guida 2026)
Mar 17, 2026
Sora-2-pro

Come utilizzare Sora 2 Pro senza abbonamento (Guida 2026)

Non è legalmente possibile “sbloccare” Sora 2 Pro all’interno dell’interfaccia web di OpenAI senza il percorso ufficiale (ChatGPT Pro o accesso all’API di OpenAI). Tuttavia, esistono alternative legali per ottenere risultati di livello Sora Pro senza acquistare ChatGPT Pro: (1) chiamare direttamente il modello Sora 2 Pro tramite la Video API di OpenAI e pagare a consumo; (2) utilizzare piattaforme commerciali di aggregazione API (ad esempio, CometAPI) o piattaforme SaaS che rivendono o instradano chiamate a Sora 2/2 Pro; oppure (3) usare aggregatori API di terze parti autorizzati (richiedono propri account/costi).
GLM-5-Turbo spiegato: modello base agent-first per i flussi di lavoro “Lobster” (OpenClaw) (Guida 2026)
Mar 17, 2026
GLM-5

GLM-5-Turbo spiegato: modello base agent-first per i flussi di lavoro “Lobster” (OpenClaw) (Guida 2026)

GLM-5-Turbo è un modello linguistico di grandi dimensioni di nuova generazione rilasciato da Zhipu AI nel marzo 2026, ottimizzato specificamente per ambienti di agenti “lobster” (ecosistema OpenClaw). È una variante ad alta velocità, incentrata sugli agenti, di GLM-5, progettata per l'esecuzione di lunghe catene di attività, l'invocazione di strumenti e l'automazione IA di livello enterprise. Dispone di una finestra di contesto di ~200K token, un'architettura Mixture-of-Experts e una stabilità migliorata nei flussi di lavoro degli agenti a più passaggi.
Mar 16, 2026
Copilot

Può Copilot generare immagini? Un'analisi approfondita

Copilot di Microsoft — l’assistente IA integrato in tutto Windows e nelle app di Microsoft 365 — può generare immagini. Nell’ultimo anno Microsoft ha integrato funzionalità di generazione di immagini nelle interfacce di Copilot (Designer, Word, PowerPoint, Copilot chat), sfruttando modelli che Microsoft descrive come Designer Image Creator (in precedenza collegato a DALL·E-3) e facendo evolvere il mix di modelli di backend man mano che Microsoft aggiunge partner e opzioni.