O

GPT-5.2 Pro

Contexto:400,000
Entrada:$12.00/M
Salida:$96.00/M
gpt-5.2-pro es el miembro de mayor capacidad, orientado a producción, de la familia GPT-5.2 de OpenAI, disponible a través de la Responses API para cargas de trabajo que exigen fidelidad máxima, razonamiento multietapa, uso extensivo de herramientas y los mayores límites de contexto y throughput que ofrece OpenAI.
O

GPT-5.2 Chat

Contexto:128,000
Entrada:$1.40/M
Salida:$11.20/M
gpt-5.2-chat-latest es la instantánea optimizada para chat de la familia GPT-5.2 de OpenAI (denominada en ChatGPT como GPT-5.2 Instant). Es el modelo para casos de uso interactivos/de chat que necesitan una combinación de velocidad, gestión de contextos largos, entradas multimodales y un comportamiento conversacional confiable.
O

GPT-5.2

Contexto:400,000
Entrada:$1.40/M
Salida:$11.20/M
GPT-5.2 es una suite de modelos con múltiples variantes (Instant, Thinking, Pro) diseñada para mejorar la comprensión de contextos largos, fortalecer las capacidades de programación y el uso de herramientas, y ofrecer un rendimiento sustancialmente superior en pruebas de referencia profesionales de “trabajo del conocimiento”.
O

GPT-5.1 Chat

Contexto:400.0k
Entrada:$1.00/M
Salida:$8.00/M
GPT-5.1 Chat es un modelo de lenguaje conversacional ajustado mediante instrucciones para chat, razonamiento y redacción de propósito general. Admite diálogos de múltiples turnos, resumen, elaboración de borradores, preguntas y respuestas sobre bases de conocimiento y asistencia ligera en código para asistentes integrados en aplicaciones, automatización de soporte y copilotos de flujos de trabajo. Los aspectos técnicos destacados incluyen alineación optimizada para chat, salidas controlables y estructuradas, y vías de integración para la invocación de herramientas y flujos de recuperación cuando estén disponibles.
O

GPT-5.1

Entrada:$1.00/M
Salida:$8.00/M
GPT-5.1 es un modelo de lenguaje de propósito general ajustado mediante instrucciones, centrado en la generación de texto y el razonamiento en flujos de trabajo de producto. Admite diálogo de múltiples turnos, formateo de salidas estructuradas y tareas orientadas al código, como redacción, refactorización y explicación. Los usos típicos incluyen asistentes de chat, preguntas y respuestas aumentadas mediante recuperación, transformación de datos y automatización al estilo agente con herramientas o APIs cuando están disponibles. Los aspectos técnicos destacados incluyen una modalidad centrada en el texto, seguimiento de instrucciones, salidas de estilo JSON y compatibilidad con llamadas a funciones en marcos de orquestación comunes.
O

GPT-5 nano

Contexto:400K
Entrada:$0.04/M
Salida:$0.32/M
GPT-5 Nano es un modelo de inteligencia artificial proporcionado por OpenAI.
O

GPT-5 mini

Contexto:400K
Entrada:$0.20/M
Salida:$1.60/M
GPT-5 mini es el miembro de la familia GPT-5 de OpenAI optimizado en costos y latencia, diseñado para ofrecer gran parte de las capacidades multimodales y de seguimiento de instrucciones de GPT-5 a un costo sustancialmente menor para su uso en producción a gran escala. Está orientado a entornos donde el rendimiento, los precios por token predecibles y las respuestas rápidas son las principales restricciones, a la vez que sigue proporcionando sólidas capacidades de propósito general.
O

GPT 5 Chat

Contexto:400K
Entrada:$1.00/M
Salida:$8.00/M
GPT-5 Chat (la versión más reciente) es un modelo de inteligencia artificial proporcionado por OpenAI.
O

GPT-5

Contexto:400K
Entrada:$1.00/M
Salida:$8.00/M
GPT-5 es el modelo de programación más potente de OpenAI hasta la fecha. Muestra mejoras significativas en la generación de front-end complejos y en la depuración de grandes bases de código. Puede transformar ideas en realidad con resultados intuitivos y estéticamente atractivos, creando sitios web, aplicaciones y juegos bellos y responsivos con un agudo sentido estético, todo a partir de un único prompt. Los primeros evaluadores también han señalado sus elecciones de diseño, con una comprensión más profunda de elementos como el espaciado, la tipografía y el espacio en blanco.
O

GPT-4.1 nano

Contexto:1.0M
Entrada:$0.08/M
Salida:$0.32/M
GPT-4.1 nano es un modelo de inteligencia artificial proporcionado por OpenAI. gpt-4.1-nano: Ofrece una ventana de contexto más amplia—admite hasta 1 millón de tokens de contexto y es capaz de aprovechar mejor ese contexto gracias a una comprensión de largo contexto mejorada. Tiene una fecha de corte de conocimiento actualizada a junio de 2024. Este modelo admite una longitud máxima de contexto de 1,047,576 tokens.
O

GPT-4.1

Contexto:1.0M
Entrada:$1.60/M
Salida:$6.40/M
GPT-4.1 es un modelo de inteligencia artificial proporcionado por OpenAI. gpt-4.1-nano: Presenta una ventana de contexto más amplia—admite hasta 1 millón de tokens de contexto y es capaz de aprovechar mejor ese contexto gracias a una comprensión mejorada de contextos largos. Tiene una fecha de corte de conocimiento actualizada a junio de 2024. Este modelo admite una longitud máxima de contexto de 1,047,576 tokens.
O

GPT-4o mini

Entrada:$0.12/M
Salida:$0.48/M
GPT-4o mini es un modelo de inteligencia artificial proporcionado por OpenAI.
O

Whisper-1

Entrada:$24.00/M
Salida:$24.00/M
Transcripción de voz a texto, creación de traducciones
O

TTS

Entrada:$12.00/M
Salida:$12.00/M
Texto a voz de OpenAI
O

Sora 2 Pro

Por Segundo:$0.24
Sora 2 Pro es nuestro modelo de generación multimedia más avanzado y potente, capaz de generar videos con audio sincronizado. Puede crear clips de video detallados y dinámicos a partir de lenguaje natural o imágenes.
O

Sora 2

Por Segundo:$0.08
Modelo de generación de video súper potente, con efectos de sonido, admite formato de chat.
O

GPT Image 1 mini

Entrada:$2.00/M
Salida:$6.40/M
Versión optimizada en costos de GPT Image 1. Es un modelo de lenguaje multimodal nativo que admite como entrada tanto texto como imágenes y genera imágenes como salida.
O

GPT 4.1 mini

Contexto:1.0M
Entrada:$0.32/M
Salida:$1.28/M
GPT-4.1 mini es un modelo de inteligencia artificial proporcionado por OpenAI. gpt-4.1-mini: un salto significativo en el rendimiento de modelos pequeños, incluso superando a GPT-4o en muchas pruebas de referencia. Está a la par de GPT-4o o lo supera en evaluación de inteligencia, mientras reduce la latencia casi a la mitad y el costo en un 83%. Este modelo admite una longitud máxima de contexto de 1,047,576 tokens.
O

o4-mini-deep-research

Contexto:200K
Entrada:$1.60/M
Salida:$6.40/M
O4-Mini-Deep-Research es el último modelo de razonamiento agéntico de OpenAI, que combina el backbone o4-mini ligero con el framework avanzado Deep Research. Diseñado para ofrecer una síntesis profunda de información rápida y rentable, permite a desarrolladores e investigadores realizar búsquedas web automatizadas, análisis de datos y razonamiento en cadena con una sola llamada a la API.
O

o4-mini

Entrada:$0.88/M
Salida:$3.52/M
O4-mini es un modelo de inteligencia artificial proporcionado por OpenAI.
O

O3 Pro

Contexto:200K
Entrada:$16.00/M
Salida:$64.00/M
OpenAI o3‑pro es una variante “pro” del modelo de razonamiento o3, diseñada para pensar durante más tiempo, ofrecer las respuestas más fiables mediante el uso de aprendizaje por refuerzo con cadena de pensamiento privada y establecer nuevos estándares de última generación en ámbitos como la ciencia, la programación y los negocios—mientras integra de forma autónoma herramientas como la búsqueda en la web, el análisis de archivos, la ejecución de Python y el razonamiento visual dentro de la API.
O

o3-mini

Entrada:$0.88/M
Salida:$3.52/M
O3-mini es un modelo de inteligencia artificial proporcionado por OpenAI.
O

o3-deep-research

Entrada:$8.00/M
Salida:$32.00/M
Un agente de investigación en profundidad conectado en red basado en el modelo O3, que admite inferencia multietapa e informes de análisis de citas.
O

o3

Entrada:$1.60/M
Salida:$6.40/M
O3 es un modelo de inteligencia artificial proporcionado por OpenAI.
O

GPT-4o mini Audio

Entrada:$0.12/M
Salida:$0.48/M
GPT-4o mini Audio es un modelo multimodal para interacciones de voz y texto. Realiza reconocimiento de voz, traducción y conversión de texto a voz, sigue instrucciones y puede invocar herramientas para acciones estructuradas con respuestas en streaming. Los usos típicos incluyen asistentes de voz en tiempo real, subtitulación y traducción en vivo, resumen de llamadas y aplicaciones controladas por voz. Los aspectos técnicos destacados incluyen entrada y salida de audio, respuestas en streaming, llamadas a funciones y salida JSON estructurada.
O

codex-mini-latest

Entrada:$1.20/M
Salida:$4.80/M
Codex Mini es un modelo de inteligencia artificial proporcionado por OpenAI. Es el logro más reciente de OpenAI en generación de código, un modelo ligero específicamente optimizado para la interfaz de línea de comandos de Codex (CLI). Como una versión afinada de o4-mini, este modelo hereda la alta eficiencia y la velocidad de respuesta del modelo base, a la vez que está especialmente optimizado para la comprensión y la generación de código.
O

GPT-4o mini TTS

Entrada:$9.60/M
Salida:$38.40/M
GPT-4o mini TTS es un modelo neuronal de texto a voz diseñado para la generación de voz natural y de baja latencia en aplicaciones orientadas al usuario. Convierte texto en voz con sonido natural, con voces seleccionables, salida en múltiples formatos y síntesis en streaming para experiencias con gran capacidad de respuesta. Los usos típicos incluyen asistentes de voz, IVR y flujos de contacto, lectura en voz alta de productos y narración de medios. Los aspectos técnicos destacados incluyen transmisión basada en API y exportación a formatos de audio comunes como MP3 y WAV.
O

GPT-4o Realtime

Entrada:$60.00/M
Salida:$240.00/M
La Realtime API permite a los desarrolladores crear experiencias multimodales de baja latencia, incluida la funcionalidad de voz a voz. El texto y el audio procesados por la Realtime API se facturan por separado. Este modelo admite una longitud máxima de contexto de 128,000 tokens.
O

GPT-4o Search

Entrada:$60.00/M
Salida:$60.00/M
GPT-4o Search es un modelo multimodal basado en GPT-4o, configurado para razonamiento aumentado por búsqueda y respuestas fundamentadas y actuales. Sigue instrucciones y utiliza herramientas de búsqueda web para recuperar, evaluar y sintetizar información externa, con contexto de fuentes cuando esté disponible. Los usos típicos incluyen asistencia para la investigación, verificación de hechos, monitoreo de noticias y tendencias, y respuesta a consultas sensibles al tiempo. Entre los aspectos técnicos destacados se incluyen llamadas a herramientas/funciones para la navegación y la recuperación, manejo de contexto extenso y salidas estructuradas adecuadas para citas y enlaces.
O

ChatGPT-4o

Entrada:$4.00/M
Salida:$12.00/M
Basado en la última iteración de GPT-4o, un modelo de lenguaje grande multimodal (LLM) que admite entrada/salida de texto, imagen, audio y video.
O

tts-1-hd-1106

Entrada:$24.00/M
Salida:$24.00/M
O

tts-1-hd

Entrada:$24.00/M
Salida:$24.00/M
O

tts-1-1106

Entrada:$12.00/M
Salida:$12.00/M
O

tts-1

Entrada:$12.00/M
Salida:$12.00/M
O

text-embedding-ada-002

Entrada:$0.08/M
Salida:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

Entrada:$0.02/M
Salida:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

Entrada:$0.10/M
Salida:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

Por Solicitud:$0.00
O

omni-moderation-2024-09-26

Por Solicitud:$0.00
O

o1-pro-all

Entrada:$120.00/M
Salida:$480.00/M
O

o1-pro-2025-03-19

Entrada:$120.00/M
Salida:$480.00/M
O

o1-pro

Entrada:$120.00/M
Salida:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

Por Solicitud:$0.16
O

o1-preview-2024-09-12

Entrada:$12.00/M
Salida:$48.00/M
O

o1-preview

Entrada:$12.00/M
Salida:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

Por Solicitud:$0.08
O

o1-mini-2024-09-12

Entrada:$0.88/M
Salida:$3.52/M
O

o1-mini

Entrada:$0.88/M
Salida:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

Por Solicitud:$0.16
O

o1-2024-12-17

Entrada:$12.00/M
Salida:$48.00/M
O

o1

Entrada:$12.00/M
Salida:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

Entrada:$0.48/M
Salida:$0.96/M
Una versión económica de GPT en tiempo real—capaz de responder en tiempo real a entradas de audio y texto a través de conexiones WebRTC, WebSocket o SIP.
C

gpt-oss-20b

Entrada:$0.08/M
Salida:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

Entrada:$0.16/M
Salida:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

Entrada:$8.00/M
Salida:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

Entrada:$2.00/M
Salida:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

Entrada:$2.00/M
Salida:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

Entrada:$8.00/M
Salida:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

Por Solicitud:$0.04
O

gpt-4-turbo-preview

Entrada:$8.00/M
Salida:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

Entrada:$8.00/M
Salida:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

Entrada:$8.00/M
Salida:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

Por Solicitud:$0.04
O

gpt-4-gizmo-*

Entrada:$24.00/M
Salida:$48.00/M
O

gpt-4-gizmo

Entrada:$24.00/M
Salida:$48.00/M
O

gpt-4-dalle

Por Solicitud:$0.04
O

gpt-4-all

Entrada:$24.00/M
Salida:$48.00/M
A

gpt-4-32k

Entrada:$48.00/M
Salida:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

Entrada:$8.00/M
Salida:$16.00/M
O

gpt-4-0613

Entrada:$24.00/M
Salida:$48.00/M
O

gpt-4-0314

Entrada:$24.00/M
Salida:$48.00/M
O

gpt-4-0125-preview

Entrada:$8.00/M
Salida:$16.00/M
O

gpt-4

Entrada:$24.00/M
Salida:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

Entrada:$0.40/M
Salida:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

Entrada:$0.40/M
Salida:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

Por Solicitud:$0.02
New version of DALL-E for image generation.
O

dall-e-2

Entrada:$8.00/M
Salida:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

Contexto:200K
Entrada:$2.40/M
Salida:$12.00/M
Claude Sonnet 4.5 logra un avance significativo en las capacidades de aplicación informática. En OSWorld, una plataforma de evaluación comparativa para probar modelos de IA en tareas informáticas del mundo real, Sonnet 4.5 saltó a la cima con 61.4%, mientras que apenas cuatro meses antes, Sonnet 4 lideraba con 42.2%. Nuestra extensión Claude for Chrome pone en práctica estas funciones mejoradas.
A

Claude Opus 4.5

Contexto:200K
Entrada:$4.00/M
Salida:$20.00/M
Claude Opus 4.5 es un modelo de lenguaje grande ajustado por instrucciones de Anthropic, diseñado para razonamiento complejo, programación y diálogo de múltiples turnos. Admite el manejo de contexto extendido, llamadas a herramientas y funciones, salidas estructuradas e integración con flujos de trabajo de recuperación aumentada. Los usos típicos incluyen asistentes analíticos, generación y revisión de código, preguntas y respuestas sobre bases de conocimiento y redacción de contenido con respuestas alineadas con las políticas. Entre los aspectos técnicos destacados se incluyen el seguimiento de instrucciones, el comportamiento compatible con RAG y los controles de seguridad disponibles en las implementaciones de Claude.
C

Claude Opus 4.1

Contexto:200K
Entrada:$12.00/M
Salida:$60.00/M
Claude Opus 4.1 es una versión actualizada del modelo insignia de Anthropic, que ofrece un rendimiento mejorado en programación, Inferencia y tareas de agentes. Alcanza un 74.5% en SWE-bench Verified, lo que evidencia mejoras significativas en la refactorización de código en múltiples archivos, la precisión en la depuración y la Inferencia orientada al detalle. Este modelo admite razonamiento extendido de hasta 64K tokens y está optimizado para tareas que implican investigación, análisis de datos e Inferencia asistida por herramientas.
C

Claude 4 Sonnet

Contexto:200K
Entrada:$2.40/M
Salida:$12.00/M
Modelo más rápido y más rentable, ventana de contexto de 200K.
C

Claude Opus 4

Contexto:200K
Entrada:$12.00/M
Salida:$60.00/M
El equilibrio óptimo entre inteligencia, costo y velocidad. Ventana de contexto de 200K.
C

Claude 3.7 Sonnet

Entrada:$2.40/M
Salida:$12.00/M
El gran movimiento de Claude contra R1, el potente 3.7 está oficialmente en línea. Este modelo admite una longitud máxima de contexto de 200,000 tokens. Con soporte de razonamiento.
C

Claude Haiku 4.5

Contexto:200K
Entrada:$0.80/M
Salida:$4.00/M
El modelo más rápido y con mejor relación costo-beneficio.
C

Claude 3.5 Haiku

Entrada:$0.80/M
Salida:$4.00/M
Estos alias apuntan automáticamente a la instantánea más reciente de un modelo dado. Si bien son útiles para la experimentación, recomendamos usar versiones específicas del modelo (p. ej., claude-3-5-sonnet-20241022) en aplicaciones de producción para garantizar un comportamiento coherente. Cuando publiquemos nuevas instantáneas del modelo, migraremos el alias -latest para que apunte a la nueva versión (normalmente en el plazo de una semana desde el lanzamiento de la nueva versión). El alias -latest tiene los mismos límites de tasa y precios que la versión del modelo subyacente a la que hace referencia. Este modelo admite una longitud de contexto máxima de 200,000 tokens.
C

Claude 3 Haiku

Entrada:$0.20/M
Salida:$1.00/M
Claude Haiku 3 es un modelo de inteligencia artificial proporcionado por Anthropic.
G

Veo 3.1 Pro

Por Solicitud:$2.00
Veo 3.1-Pro se refiere al acceso/configuración de altas prestaciones de la familia Veo 3.1 de Google — una generación de modelos de vídeo de formato corto con audio integrado que incorpora un audio nativo más rico, controles de narrativa y edición mejorados y herramientas de extensión de escenas.
G

Veo 3.1

Por Solicitud:$0.40
Veo 3.1 es la actualización incremental pero significativa de Google para su familia Veo de texto e imagen → video, que añade audio nativo más rico, salidas de video más largas y más controlables, y una edición más precisa y controles a nivel de escena más detallados.
G

Veo 3 Pro

Por Solicitud:$2.00
Veo 3 pro denota la experiencia del modelo de video Veo 3 de nivel de producción (alta fidelidad, audio nativo y conjunto de herramientas ampliado)
G

Veo 3 Fast

Por Solicitud:$0.40
Veo 3 Fast es la variante optimizada para la velocidad de Google dentro de la familia de modelos generativos de video Veo (Veo 3 / Veo 3.1, etc.). Está diseñado para producir clips de video cortos y de alta calidad con audio generado de forma nativa, priorizando el rendimiento y el costo por segundo—sacrificando algo de la fidelidad visual de primer nivel y/o una mayor duración de toma única a cambio de una generación mucho más rápida y un precio más bajo. Qué es Veo 3 Fast — introducción concisa
G

Veo 3

Por Solicitud:$0.40
Veo 3 de Google DeepMind representa la vanguardia de la generación de texto a video, y marca la primera vez que un modelo de IA generativa a gran escala sincroniza a la perfección video de alta fidelidad con el audio asociado—incluidos el diálogo, los efectos de sonido y los paisajes sonoros ambientales.
G

Gemini 2.5 Pro

Contexto:1M
Entrada:$1.00/M
Salida:$8.00/M
Gemini 2.5 Pro es un modelo de inteligencia artificial proporcionado por Google. Tiene capacidades nativas de procesamiento multimodal y una ventana de contexto ultralarga de hasta 1 millón de tokens, lo que ofrece un soporte potente sin precedentes para tareas complejas y de secuencias largas. Según los datos de Google, Gemini 2.5 Pro rinde particularmente bien en tareas complejas. Este modelo admite una longitud máxima de contexto de 1,048,576 tokens.
G

Gemini 2.5 Flash

Contexto:1M
Entrada:$0.24/M
Salida:$2.00/M
Gemini 2.5 Flash es un modelo de IA desarrollado por Google, diseñado para ofrecer soluciones rápidas y rentables para desarrolladores, especialmente para aplicaciones que requieren capacidades de inferencia mejoradas. Según el anuncio de vista previa de Gemini 2.5 Flash, el modelo se lanzó en vista previa el 17 de abril de 2025, admite entrada multimodal y tiene una ventana de contexto de 1 millón de tokens. Este modelo admite una longitud máxima de contexto de 65,536 tokens.
G

Nano Banana

Por Solicitud:$0.03
Gemini 2.5 Flash Image (también conocido como nano-banana), el modelo de generación y edición de imágenes más avanzado de Google. Esta actualización te permite fusionar varias imágenes en una sola, mantener la consistencia de los personajes para contar historias más ricas, realizar transformaciones específicas mediante lenguaje natural y aprovechar el conocimiento del mundo de Gemini para generar y editar imágenes.
G

Gemini 2.5 Flash Lite

Contexto:1M
Entrada:$0.08/M
Salida:$0.32/M
Un modelo Gemini 2.5 Flash optimizado para una alta relación costo-beneficio y alto rendimiento. El modelo más pequeño y más rentable, diseñado para uso a gran escala.
G

Gemini 2.5 Pro DeepSearch

Entrada:$8.00/M
Salida:$64.00/M
Modelo de búsqueda profunda, con capacidades mejoradas de búsqueda profunda y recuperación de información, una opción ideal para la integración y el análisis de conocimiento complejo.
G

Gemini 2.5 Pro (All)

Entrada:$2.00/M
Salida:$16.00/M
Gemini 2.5 Pro (All) es un modelo multimodal para la comprensión de texto y medios, diseñado para asistentes de propósito general y razonamiento fundamentado. Gestiona el seguimiento de instrucciones, la redacción analítica, la comprensión de código y la comprensión de imágenes/audio, con llamadas fiables a herramientas/funciones y un comportamiento compatible con RAG. Los usos típicos incluyen agentes de chat empresariales, análisis de documentos e interfaces de usuario, respuesta a preguntas visuales y automatización de flujos de trabajo. Entre los aspectos técnicos destacados se incluyen entradas unificadas de imagen‑texto‑audio, compatibilidad con contextos largos, salida JSON estructurada, respuestas en streaming y control de instrucciones del sistema.
G

Gemini 2.5 Flash DeepSearch

Entrada:$4.80/M
Salida:$38.40/M
Modelo de búsqueda en profundidad, con capacidades mejoradas de búsqueda en profundidad y de recuperación de información, una opción ideal para la integración y el análisis complejos del conocimiento.
G

Gemini 2.5 Flash (All)

Entrada:$0.24/M
Salida:$2.00/M
Gemini 2.5 Flash es un modelo de IA desarrollado por Google, diseñado para ofrecer soluciones rápidas y económicas para desarrolladores, especialmente para aplicaciones que requieren capacidades de inferencia mejoradas. Según el anuncio de la versión preliminar de Gemini 2.5 Flash, el modelo se lanzó en versión preliminar el 17 de abril de 2025, admite entrada multimodal y tiene una ventana de contexto de 1 millón de tokens. Este modelo admite una longitud máxima de contexto de 65,536 tokens.
G

Gemini 2.0 Flash Lite

Entrada:$0.08/M
Salida:$0.32/M
Gemini 2.0 Flash Lite es un modelo multimodal compacto, ajustado mediante instrucciones, optimizado para inferencia de baja latencia y alto rendimiento. Maneja comprensión de texto e imagen, resumen, clasificación y razonamiento ligero, con llamadas a herramientas/funciones y control de salida estructurada. Los usos típicos incluyen agentes conversacionales, redacción rápida de contenido, extracción de metadatos de documentos o capturas de pantalla y flujos de trabajo con recuperación aumentada. Entre los aspectos técnicos destacados se incluyen entradas de texto e imagen, generación en streaming, llamadas a herramientas/funciones y opciones de implementación adecuadas para servicios sensibles a la latencia.
G

Gemini 2.0 Flash

Entrada:$0.08/M
Salida:$0.32/M
Gemini 2.0 Flash es un modelo de inteligencia artificial proporcionado por Google-Vertex.
G

Nano Banana Pro

Por Solicitud:$0.19
Nano Banana Pro es un modelo de IA para asistencia de propósito general en flujos de trabajo centrados en texto. Es adecuado para indicaciones de estilo instruccional para generar, transformar y analizar contenido con estructura controlable. Los usos típicos incluyen asistentes de chat, resumen de documentos, preguntas y respuestas basadas en conocimiento y automatización de flujos de trabajo. Los detalles técnicos públicos son limitados; la integración se alinea con patrones comunes de asistentes de IA, como salidas estructuradas, indicaciones con recuperación aumentada y llamadas a herramientas o funciones.
G

Gemini 3 Pro Preview

Contexto:200.0k
Entrada:$1.60/M
Salida:$9.60/M
Gemini 3 Pro Preview es un modelo de propósito general de la familia Gemini, disponible en versión preliminar para evaluación y creación de prototipos. Admite el seguimiento de instrucciones, el razonamiento en múltiples turnos y tareas de código y datos, con resultados estructurados y llamadas a herramientas/funciones para la automatización de flujos de trabajo. Los usos típicos incluyen asistentes de chat, resumen y reescritura, preguntas y respuestas con recuperación aumentada, extracción de datos y asistencia ligera de programación en aplicaciones y servicios. Entre los aspectos técnicos destacados se incluyen el despliegue basado en API, respuestas en streaming, controles de seguridad y preparación para la integración, con capacidades multimodales según la configuración de la versión preliminar.
X

Grok Code Fast 1

Contexto:256K
Entrada:$0.16/M
Salida:$1.20/M
Grok Code Fast 1 es un modelo de IA para programación lanzado por xAI, diseñado para realizar tareas básicas de codificación de forma rápida y eficiente. El modelo puede procesar 92 tokens por segundo, tiene una ventana de contexto de 256k y es adecuado para la creación rápida de prototipos, la depuración de código y la generación de elementos visuales simples.
X

Grok 4 Fast

Contexto:2M
Entrada:$0.16/M
Salida:$0.40/M
Grok 4 Fast es un nuevo modelo de inteligencia artificial lanzado por xAI, que integra capacidades con inferencia y sin inferencia en una sola arquitectura. Este modelo cuenta con una ventana de contexto de 2 millones de tokens y está diseñado para aplicaciones de alto rendimiento, como búsqueda y programación. El modelo ofrece dos versiones: Grok-4-Fast-Reasoning y Grok-4-Fast-Non-Reasoning, optimizadas para diferentes tareas.
X

Grok 4.1 Fast

Contexto:2M
Entrada:$0.16/M
Salida:$0.40/M
Grok 4.1 Fast es el modelo grande de xAI orientado a producción, optimizado para invocación de herramientas por agentes, flujos de trabajo de contexto largo e inferencia de baja latencia. Es una familia multimodal de dos variantes, diseñada para ejecutar agentes autónomos que buscan, ejecutan código, invocan servicios y razonan sobre contextos extremadamente grandes (hasta 2 millones de tokens).
X

Grok 4

Contexto:256K
Entrada:$2.40/M
Salida:$12.00/M
Grok 4 es un modelo de inteligencia artificial proporcionado por XAI. Actualmente admite la modalidad de texto, con visión, generación de imágenes y otras funciones próximamente. Posee parámetros técnicos y capacidades de ecosistema extremadamente potentes: Ventana de contexto: admite el procesamiento de contexto de hasta 256,000 tokens, superando a los modelos principales.
X

Grok 3 Reasoner

Entrada:$2.40/M
Salida:$12.00/M
Modelo de razonamiento Grok-3, con razonamiento en cadena, el competidor de R1 de Elon Musk. Este modelo admite una longitud máxima de contexto de 100,000 tokens.
X

Grok 3 Mini

Entrada:$0.24/M
Salida:$0.40/M
Un modelo ligero que piensa antes de responder. Rápido, inteligente e ideal para tareas basadas en lógica que no requieren un conocimiento profundo del dominio. Las trazas de pensamiento sin procesar son accesibles. Este modelo admite una longitud máxima de contexto de 100,000 tokens.
X

Grok 3 DeepSearch

Entrada:$2.40/M
Salida:$12.00/M
Grok-3 modelo de búsqueda profundo e interconectado. Este modelo admite una longitud máxima de contexto de 100,000 tokens.
X

Grok 3 DeeperSearch

Entrada:$2.40/M
Salida:$12.00/M
Grok-3, modelo de búsqueda en red profunda, superior a grok-3-deepsearch. Este modelo admite una longitud máxima de contexto de 100,000 tokens.
X

Grok 3

Entrada:$2.40/M
Salida:$12.00/M
Grok-3 es el modelo de chatbot de inteligencia artificial más reciente lanzado por la empresa xAI de Elon Musk el 17 de febrero de 2025. Su clúster de entrenamiento ha alcanzado el nivel de 200,000 tarjetas, mostrando un desempeño excelente en tareas como matemáticas, ciencia y programación, y es aclamado por Musk como "la IA más inteligente de la Tierra". Este modelo admite una longitud máxima de contexto de 100,000 tokens.
X

Grok 2

Entrada:$0.80/M
Salida:$0.80/M
Grok 2 es un modelo de inteligencia artificial proporcionado por XAI.
D

DeepSeek-V3.2

Contexto:128K
Entrada:$0.22/M
Salida:$0.35/M
DeepSeek v3.2 es la versión de producción más reciente de la familia DeepSeek V3: una familia de modelos de lenguaje grandes, de pesos abiertos y centrada en el razonamiento, diseñada para la comprensión de contextos largos, el uso robusto de agentes/herramientas, el razonamiento avanzado, la programación y las matemáticas.
D

DeepSeek-V3

Entrada:$0.22/M
Salida:$0.88/M
El modelo DeepSeek-V3 más popular y con la mejor relación calidad-precio. Versión 671B completa. Este modelo admite una longitud máxima de contexto de 64,000 tokens.
D

DeepSeek-V3.1

Entrada:$0.44/M
Salida:$1.32/M
DeepSeek V3.1 es la actualización de la serie V de DeepSeek: un modelo de lenguaje grande híbrido “con razonamiento/sin razonamiento”, orientado a ofrecer inteligencia general de alto rendimiento y bajo costo, así como uso de herramientas mediante agentes. Mantiene la compatibilidad con la API al estilo OpenAI, añade llamadas a herramientas más inteligentes y —según la empresa— ofrece una generación más rápida y una mayor fiabilidad de los agentes.
D

DeepSeek-R1T2-Chimera

Entrada:$0.24/M
Salida:$0.24/M
Un modelo de generación de texto de tipo Mixture of Experts con 671B parámetros, fusionado a partir de R1-0528, R1 y V3-0324 de DeepSeek-AI, que admite hasta 60k tokens de contexto.
D

DeepSeek-Reasoner

Entrada:$0.44/M
Salida:$1.75/M
DeepSeek-Reasoner es la familia de LLMs y endpoints de API de DeepSeek, centrada en el razonamiento, diseñada para (1) exponer a los usuarios la cadena de pensamiento (CoT) interna y (2) operar en modos de “pensamiento” ajustados para la planificación de múltiples pasos, las matemáticas, la programación y el uso de agentes/herramientas.
D

DeepSeek-OCR

Por Solicitud:$0.04
DeepSeek-OCR es un modelo de reconocimiento óptico de caracteres para extraer texto de imágenes y documentos. Procesa páginas escaneadas, fotos y capturas de pantalla de la interfaz de usuario para producir transcripciones con indicaciones de maquetación, como los saltos de línea. Los usos comunes incluyen la digitalización de documentos, la ingesta de facturas y recibos, la indexación de búsqueda y la habilitación de flujos de RPA. Entre los aspectos técnicos destacados se incluyen el procesamiento de imágenes a texto, la compatibilidad con contenido escaneado y fotografiado, y la salida de texto estructurado para su análisis posterior.
D

DeepSeek-Chat

Contexto:64K
Entrada:$0.22/M
Salida:$0.88/M
El modelo DeepSeek-V3 más popular y con mejor relación costo-beneficio. Versión 671B de potencia completa. Este modelo admite una longitud máxima de contexto de 64,000 tokens.
Q

Qwen Image

Por Solicitud:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

Entrada:$0.45/M
Salida:$1.79/M
- **kimi-k2-250905**: Versión 0905 de la serie Kimi K2 de Moonshot AI, que admite contexto ultralargo (hasta 256k tokens, frontend y llamadas a Tool). - 🧠 Tool Calling mejorado: 100% de precisión, integración fluida, apto para tareas complejas y optimización de integraciones. - ⚡️ Rendimiento más eficiente: TPS de hasta 60-100 (API estándar), hasta 600-100 en modo Turbo, ofreciendo respuestas más rápidas y capacidades de inferencia mejoradas, límite de conocimiento hasta mediados de 2025.
Q

qwen3-max-preview

Entrada:$0.24/M
Salida:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

Entrada:$0.24/M
Salida:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

Entrada:$0.24/M
Salida:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

Entrada:$0.24/M
Salida:$0.97/M
Q

qwen3-coder

Entrada:$0.24/M
Salida:$0.97/M
Q

qwen3-8b

Entrada:$0.04/M
Salida:$0.16/M
Q

qwen3-32b

Entrada:$1.60/M
Salida:$6.40/M
Q

qwen3-30b-a3b

Entrada:$0.12/M
Salida:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

Entrada:$0.22/M
Salida:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

Entrada:$0.80/M
Salida:$3.20/M
Q

qwen2.5-vl-72b-instruct

Entrada:$2.40/M
Salida:$7.20/M
Q

qwen2.5-vl-72b

Entrada:$2.40/M
Salida:$7.20/M
Q

qwen2.5-vl-32b-instruct

Entrada:$2.40/M
Salida:$7.20/M
Q

qwen2.5-omni-7b

Entrada:$60.00/M
Salida:$60.00/M
Q

qwen2.5-math-72b-instruct

Entrada:$3.20/M
Salida:$3.20/M
Q

qwen2.5-coder-7b-instruct

Entrada:$0.80/M
Salida:$0.80/M
Q

qwen2.5-coder-32b-instruct

Entrada:$0.80/M
Salida:$0.80/M
Q

qwen2.5-7b-instruct

Entrada:$0.80/M
Salida:$0.80/M
Q

qwen2.5-72b-instruct

Entrada:$3.20/M
Salida:$3.20/M
Q

qwen2.5-32b-instruct

Entrada:$0.96/M
Salida:$0.96/M
Q

qwen2.5-14b-instruct

Entrada:$3.20/M
Salida:$3.20/M
Q

qwen2-vl-7b-instruct

Entrada:$1.60/M
Salida:$1.60/M
Q

qwen2-vl-72b-instruct

Entrada:$1.60/M
Salida:$1.60/M
Q

qwen2-7b-instruct

Entrada:$0.16/M
Salida:$0.16/M
Q

qwen2-72b-instruct

Entrada:$8.00/M
Salida:$8.00/M
Q

qwen2-57b-a14b-instruct

Entrada:$3.20/M
Salida:$3.20/M
Q

qwen2-1.5b-instruct

Entrada:$0.16/M
Salida:$0.16/M
Q

qwen1.5-7b-chat

Entrada:$0.16/M
Salida:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

Entrada:$3.20/M
Salida:$3.20/M
M

mj_turbo_zoom

Por Solicitud:$0.17
M

mj_turbo_variation

Por Solicitud:$0.17
M

mj_turbo_upscale_subtle

Por Solicitud:$0.17
M

mj_turbo_upscale_creative

Por Solicitud:$0.17
M

mj_turbo_upscale

Por Solicitud:$0.02
M

mj_turbo_upload

Por Solicitud:$0.01
M

mj_turbo_shorten

Por Solicitud:$0.17
M

mj_turbo_reroll

Por Solicitud:$0.17
M

mj_turbo_prompt_analyzer_extended

Por Solicitud:$0.00
M

mj_turbo_prompt_analyzer

Por Solicitud:$0.00
M

mj_turbo_pic_reader

Por Solicitud:$0.00
M

mj_turbo_pan

Por Solicitud:$0.17
M

mj_turbo_modal

Por Solicitud:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

Por Solicitud:$0.17
M

mj_turbo_inpaint

Por Solicitud:$0.08
M

mj_turbo_imagine

Por Solicitud:$0.17
M

mj_turbo_high_variation

Por Solicitud:$0.17
M

mj_turbo_describe

Por Solicitud:$0.00
M

mj_turbo_custom_zoom

Por Solicitud:$0.00
M

mj_turbo_blend

Por Solicitud:$0.17
M

mj_fast_zoom

Por Solicitud:$0.06
M

mj_fast_video

Por Solicitud:$0.60
Midjourney video generation
M

mj_fast_variation

Por Solicitud:$0.06
M

mj_fast_upscale_subtle

Por Solicitud:$0.06
M

mj_fast_upscale_creative

Por Solicitud:$0.06
M

mj_fast_upscale

Por Solicitud:$0.01
M

mj_fast_upload

Por Solicitud:$0.01
M

mj_fast_shorten

Por Solicitud:$0.06
M

mj_fast_reroll

Por Solicitud:$0.06
M

mj_fast_prompt_analyzer_extended

Por Solicitud:$0.00
M

mj_fast_prompt_analyzer

Por Solicitud:$0.00
M

mj_fast_pic_reader

Por Solicitud:$0.00
M

mj_fast_pan

Por Solicitud:$0.06
M

mj_fast_modal

Por Solicitud:$0.06
M

mj_fast_low_variation

Por Solicitud:$0.06
M

mj_fast_inpaint

Por Solicitud:$0.06
M

mj_fast_imagine

Por Solicitud:$0.06
Midjourney drawing
M

mj_fast_high_variation

Por Solicitud:$0.06
M

mj_fast_edits

Por Solicitud:$0.06
M

mj_fast_describe

Por Solicitud:$0.00
M

mj_fast_custom_zoom

Por Solicitud:$0.00
M

mj_fast_blend

Por Solicitud:$0.06
S

suno_uploads

Por Solicitud:$0.02
Subir música
S

suno_persona_create

Por Solicitud:$0.01
Create a personal style
S

suno_music

Por Solicitud:$0.14
请提供具体需求。我是翻译助手,可将文本翻译为西班牙语;若需生成音乐,请说明:风格/情绪、BPM、时长、调式与拍号、是否含歌词及语言、输出格式(歌词/ABC/MIDI)。
S

suno_lyrics

Por Solicitud:$0.02
Generate lyrics
S

suno_concat

Por Solicitud:$0.04
Song splicing
S

suno_act_wav

Por Solicitud:$0.01
Get WAV format files
S

suno_act_timing

Por Solicitud:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

Por Solicitud:$0.01
S

suno_act_mp4

Por Solicitud:$0.01
Generate MP4 MV
K

kling_virtual_try_on

Por Solicitud:$0.20
K

kling_video

Por Solicitud:$0.40
K

kling_tts

Por Solicitud:$0.02
[Síntesis de voz] Recién lanzado: texto a voz de calidad de emisión en línea, con función de vista previa ● Puede generar simultáneamente audio_id, utilizable con cualquier Keling API.
K

kling_multi_image2image

Por Solicitud:$0.32
K

kling_multi_elements_submit

Por Solicitud:$0.40
K

kling_multi_elements_preview

Por Solicitud:$0.00
K

kling_multi_elements_init

Por Solicitud:$0.00
K

kling_multi_elements_delete

Por Solicitud:$0.00
K

kling_multi_elements_clear

Por Solicitud:$0.00
K

kling_multi_elements_add

Por Solicitud:$0.00
K

kling_lip_sync

Por Solicitud:$0.20
K

kling_image_recognize

Por Solicitud:$0.04
API de reconocimiento de elementos de imagen de Keling, utilizable para la generación de video con referencia a múltiples imágenes, funciones de edición de video multimodal ● Puede reconocer sujetos, rostros, ropa, etc., y puede obtener 4 conjuntos de resultados (si están disponibles) por solicitud.
K

kling_image_expand

Por Solicitud:$0.16
K

kling_image

Por Solicitud:$0.02
K

kling_identify_face

Por Solicitud:$0.02
K

kling_extend

Por Solicitud:$0.40
K

kling_effects

Por Solicitud:$0.40
K

kling_avatar_image2video

Por Solicitud:$0.16
K

kling_audio_video_to_audio

Por Solicitud:$0.20
K

kling_audio_text_to_audio

Por Solicitud:$0.20
K

kling_advanced_lip_syn

Por Solicitud:$0.20
D

Doubao Seedream 4-5

Por Solicitud:$0.04
Seedream 4.5 es el modelo de imagen multimodal de ByteDance/Seed (texto→imagen + edición de imágenes) que se centra en una fidelidad de imagen de nivel de producción, una mayor adherencia al prompt y una consistencia de edición considerablemente mejorada (preservación del sujeto, renderizado de texto/tipografía y realismo facial).
D

doubao-seedream-4-0-250828

Por Solicitud:$0.02
D

doubao-seedream-3-0-t2i-250415

Por Solicitud:$0.02
D

doubao-seededit-3-0-i2i-250628

Por Solicitud:$0.02
D

doubao-seed-1-6-thinking-250715

Entrada:$0.04/M
Salida:$1.07/M
D

doubao-seed-1-6-flash-250615

Entrada:$0.04/M
Salida:$1.07/M
D

doubao-seed-1-6-250615

Entrada:$0.04/M
Salida:$1.07/M
D

doubao-1.5-vision-pro-250328

Entrada:$0.33/M
Salida:$1.00/M
D

doubao-1.5-vision-lite-250315

Entrada:$0.17/M
Salida:$0.50/M
D

doubao-1.5-pro-32k-250115

Entrada:$0.18/M
Salida:$0.44/M
D

doubao-1.5-pro-256k

Entrada:$1.10/M
Salida:$1.99/M
D

doubao-1-5-vision-pro-32k

Entrada:$0.33/M
Salida:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

Entrada:$0.33/M
Salida:$1.00/M
D

doubao-1-5-thinking-pro-250415

Entrada:$0.45/M
Salida:$1.79/M
D

doubao-1-5-pro-32k-250115

Entrada:$0.18/M
Salida:$0.44/M
D

doubao-1-5-pro-32k

Entrada:$0.18/M
Salida:$0.44/M
D

doubao-1-5-pro-256k-250115

Entrada:$0.56/M
Salida:$1.00/M
D

doubao-1-5-pro-256k

Entrada:$1.10/M
Salida:$1.99/M
D

doubao-1-5-lite-32k-250115

Entrada:$0.03/M
Salida:$0.07/M
D

Doubao-Seed-1.6-thinking

Entrada:$0.04/M
Salida:$1.07/M
D

Doubao-Seed-1.6-flash

Entrada:$0.04/M
Salida:$1.07/M
D

Doubao-Seed-1.6

Entrada:$0.04/M
Salida:$1.07/M
D

Doubao-1.5-vision-pro-32k

Entrada:$0.33/M
Salida:$1.00/M
D

Doubao-1.5-vision-pro

Entrada:$0.33/M
Salida:$1.00/M
D

Doubao-1.5-vision-lite

Entrada:$0.17/M
Salida:$0.50/M
D

Doubao-1.5-thinking-vision-pro

Entrada:$0.33/M
Salida:$1.00/M
D

Doubao-1.5-thinking-pro

Entrada:$0.45/M
Salida:$1.79/M
D

Doubao-1.5-pro-32k

Entrada:$0.18/M
Salida:$0.44/M
D

Doubao-1.5-lite-32k

Entrada:$0.07/M
Salida:$0.13/M
R

runwayml_video_to_video

Por Solicitud:$0.96
R

runwayml_upscale_video

Por Solicitud:$0.16
R

runwayml_text_to_image

Por Solicitud:$0.32
R

runwayml_image_to_video

Por Solicitud:$0.32
R

runwayml_character_performance

Por Solicitud:$0.40
R

runway_video2video

Por Solicitud:$0.20
R

runway_video

Por Solicitud:$0.20
R

runway_act_one

Por Solicitud:$0.40
R

Black Forest Labs/FLUX 2 PRO

Por Solicitud:$0.06
FLUX 2 PRO es el modelo insignia comercial de la serie FLUX 2, que ofrece generación de imágenes de última generación con una calidad y un nivel de detalle sin precedentes. Diseñado para aplicaciones profesionales y empresariales, ofrece una fidelidad superior a los prompts, resultados fotorrealistas y capacidades artísticas excepcionales. Este modelo representa la vanguardia de la tecnología de síntesis de imágenes con IA.
R

Black Forest Labs/FLUX 2 FLEX

Por Solicitud:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

Por Solicitud:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

Por Solicitud:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

Por Solicitud:$0.13
R

stability-ai/stable-diffusion-3.5-large

Por Solicitud:$0.21
R

stability-ai/stable-diffusion-3

Por Solicitud:$0.11
R

stability-ai/stable-diffusion

Por Solicitud:$0.02
R

stability-ai/sdxl

Por Solicitud:$0.03
R

recraft-ai/recraft-v3-svg

Por Solicitud:$0.26
R

recraft-ai/recraft-v3

Por Solicitud:$0.13
R

ideogram-ai/ideogram-v2-turbo

Por Solicitud:$0.06
R

ideogram-ai/ideogram-v2

Por Solicitud:$0.10
R

bria/remove-background

Entrada:$60.00/M
Salida:$60.00/M
R

bria/increase-resolution

Entrada:$60.00/M
Salida:$60.00/M
R

bria/image-3.2

Entrada:$60.00/M
Salida:$60.00/M
R

bria/genfill

Entrada:$60.00/M
Salida:$60.00/M
R

bria/generate-background

Entrada:$60.00/M
Salida:$60.00/M
R

bria/expand-image

Entrada:$60.00/M
Salida:$60.00/M
R

bria/eraser

Entrada:$60.00/M
Salida:$60.00/M
R

black-forest-labs/flux-schnell

Por Solicitud:$0.01
black-forest-labs/flux-schnell es un modelo generativo de texto a imagen de Black Forest Labs, diseñado para el muestreo rápido y la exploración iterativa de prompts. Sintetiza estilos y composiciones variados a partir de prompts breves, admite prompts negativos y control de semilla, y puede producir resultados de alta resolución adecuados para maquetas de producto, arte conceptual y visuales de marketing. Los usos típicos incluyen ideación interactiva, generación de miniaturas y banners, y variantes creativas automatizadas en pipelines de contenido. Entre los aspectos técnicos destacados se cuentan la compatibilidad con el stack Diffusers de Hugging Face, el control flexible de la resolución y un muestreador eficiente optimizado para la velocidad en GPU comunes.
R

black-forest-labs/flux-pro

Por Solicitud:$0.18
black-forest-labs/flux-pro es un modelo generativo de texto a imagen de Black Forest Labs para la síntesis de imágenes de alta fidelidad en diversos estilos y temas. Convierte indicaciones detalladas en composiciones coherentes con atributos controlables como la relación de aspecto y el estilo mediante parámetros de generación estándar. Los usos típicos incluyen arte conceptual, visualización de productos, piezas creativas de marketing y escenas fotorrealistas en flujos de trabajo de diseño. Entre los aspectos técnicos destacados se encuentran la modalidad de texto a imagen, la capacidad de seguir indicaciones tipo instrucción y la integración en cadenas de herramientas comunes de generación de imágenes.
R

black-forest-labs/flux-kontext-pro

Por Solicitud:$0.05
black-forest-labs/flux-kontext-pro es un modelo de difusión multimodal para la generación de imágenes sensible al contexto. Sintetiza imágenes a partir de prompts de texto y de imágenes de referencia opcionales, preservando las señales de composición y estilo para obtener resultados fieles. Los usos típicos incluyen la creación de recursos de marca, materiales visuales de producto y la ideación visual mediante tableros de inspiración o tomas de ejemplo. Entre los aspectos técnicos destacados se incluyen entradas de texto e imagen, muestreo condicionado por referencias y resultados reproducibles mediante control de semilla.
R

black-forest-labs/flux-kontext-max

Por Solicitud:$0.10
black-forest-labs/flux-kontext-max es un modelo de generación de imágenes condicionado por contexto de la línea FLUX, creado para producir imágenes a partir de texto con entradas de referencia opcionales. Permite síntesis fundamentada, preservación de estilo o sujeto y variaciones controladas guiadas por el contexto visual proporcionado. Las aplicaciones típicas incluyen piezas creativas coherentes con la marca, maquetas de producto, continuidad de personajes e ideación impulsada por moodboards. Los aspectos técnicos destacados incluyen la generación basada en difusión y el condicionamiento multimodal con texto y entradas de referencia, adecuados para flujos de trabajo guiados por referencias.
R

black-forest-labs/flux-dev

Por Solicitud:$0.08
black-forest-labs/flux-dev es un modelo de texto a imagen con pesos abiertos de Black Forest Labs para generar imágenes a partir de prompts en lenguaje natural. Produce resultados fotorrealistas y estilizados a partir de prompts detallados y funciona con opciones de control comunes en las cadenas de herramientas de difusión. Los usos típicos incluyen arte conceptual, visualización de productos, imágenes para marketing y exploración creativa rápida en flujos de trabajo de diseño. Entre los aspectos técnicos destacados se encuentran un diseño de flujo rectificado basado en transformers, la integración con la biblioteca Hugging Face Diffusers y la implementación mediante pilas estándar de inferencia en GPU.
R

black-forest-labs/flux-1.1-pro-ultra

Por Solicitud:$0.19
black-forest-labs/flux-1.1-pro-ultra es un transformer de difusión de texto a imagen diseñado para la síntesis de imágenes en producción a partir de indicaciones en lenguaje natural. Genera resultados detallados a partir de instrucciones complejas, con controles de estilo, composición, relación de aspecto, prompts negativos y reproducibilidad de la semilla. Los usos típicos incluyen creatividades de marketing, visualización de productos, arte conceptual e ideación de contenido. Entre los aspectos técnicos destacados se incluyen la difusión basada en transformer, el guiado del codificador de texto y el despliegue mediante API de inferencia comunes con parámetros de planificador y de guiado.
R

black-forest-labs/flux-1.1-pro

Por Solicitud:$0.13
black-forest-labs/flux-1.1-pro es un modelo de generación de imágenes a partir de texto de Black Forest Labs para obtener resultados visuales controlables y de alta fidelidad. Interpreta prompts detallados para producir composiciones en diversos estilos y temáticas, con soporte para refinamiento iterativo y variaciones de imagen en flujos de trabajo de difusión comunes. Los usos típicos incluyen arte conceptual, maquetas de productos, imágenes de marketing y exploración de escenas. Entre los aspectos técnicos destacados se encuentran la síntesis de imágenes condicionada por texto y la integración con cadenas de herramientas de inferencia estándar utilizadas para modelos de difusión.
F

FLUX 2 PRO

Por Solicitud:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

Por Solicitud:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

Entrada:$0.22/M
Salida:$1.15/M
Llama-4-Scout es un modelo de lenguaje de propósito general para interacciones de estilo asistente y automatización. Maneja el seguimiento de instrucciones, el razonamiento, la elaboración de resúmenes y tareas de transformación, y puede brindar asistencia básica relacionada con código. Sus usos típicos incluyen la orquestación de chat, preguntas y respuestas potenciadas por conocimiento y generación de contenido estructurado. Entre los aspectos técnicos destacados se encuentran la compatibilidad con patrones de llamadas a herramientas/funciones, el prompting con recuperación aumentada y salidas restringidas por esquemas para su integración en flujos de trabajo de producto.
L

Llama-4-Maverick

Entrada:$0.48/M
Salida:$1.44/M
Llama-4-Maverick es un modelo de lenguaje de propósito general para la comprensión y generación de texto. Admite QA conversacional, resumen, elaboración de borradores estructurados y asistencia básica de programación, con opciones para salidas estructuradas. Entre las aplicaciones habituales se incluyen asistentes de producto, interfaces de recuperación de conocimiento y automatización de flujos de trabajo que requieren un formato coherente. Los detalles técnicos, como el número de parámetros, la ventana de contexto, la modalidad y las llamadas a herramientas o funciones, varían según la distribución; integre según las capacidades documentadas del despliegue.
M

minimax_video-01

Por Solicitud:$1.44
M

minimax_minimax-hailuo-02

Por Solicitud:$2.88
M

minimax_files_retrieve

Por Solicitud:$0.00
M

minimax-m2

Entrada:$0.24/M
Salida:$0.96/M
minimax-m2 es un modelo de lenguaje grande compacto y eficiente, optimizado para programación de extremo a extremo y flujos de trabajo de agentes, con 10 mil millones de parámetros activos (230 mil millones de parámetros en total), que ofrece un rendimiento cercano al estado del arte en inferencia general, uso de herramientas y ejecución de tareas de múltiples pasos, al tiempo que mantiene baja latencia y alta eficiencia de despliegue. El modelo sobresale en generación de código, edición de múltiples archivos, bucles de compilar-ejecutar-corregir y corrección de defectos en la verificación de pruebas, logrando resultados excelentes en benchmarks como SWE-Bench Verified, Multi-SWE-Bench y Terminal-Bench, y demostrando competitividad en la planificación de tareas de ciclo largo, la recuperación de información y la recuperación ante errores de ejecución en evaluaciones de agentes como BrowseComp y GAIA. Según la calificación de Artificial Analysis, MiniMax-M2 se sitúa en el nivel superior de los modelos de código abierto en áreas de inteligencia integral como matemáticas, inferencia científica y seguimiento de instrucciones. Su reducido número de parámetros activos permite inferencia rápida, alta concurrencia y mejor economía unitaria, lo que lo hace ideal para el despliegue de agentes a gran escala, herramientas auxiliares para desarrolladores y aplicaciones impulsadas por la inferencia que requieren velocidad de respuesta y eficiencia en costos.
F

flux-pro-finetuned

Por Solicitud:$0.07
F

flux-pro-1.1-ultra-finetuned

Por Solicitud:$0.10
F

flux-pro-1.1-ultra

Por Solicitud:$0.07
F

flux-pro-1.1

Por Solicitud:$0.05
F

flux-pro-1.0-fill-finetuned

Por Solicitud:$0.10
F

flux-pro-1.0-fill

Por Solicitud:$0.06
F

flux-pro-1.0-depth-finetuned

Por Solicitud:$0.10
F

flux-pro-1.0-depth

Por Solicitud:$0.06
F

flux-pro-1.0-canny-finetuned

Por Solicitud:$0.10
F

flux-pro-1.0-canny

Por Solicitud:$0.06
F

flux-pro

Por Solicitud:$0.05
F

flux-kontext-pro

Por Solicitud:$0.05
F

flux-kontext-max

Por Solicitud:$0.10
F

flux-finetune

Por Solicitud:$0.05
F

flux-dev

Por Solicitud:$0.03
H

hunyuan-vision

Entrada:$2.01/M
Salida:$2.01/M
H

hunyuan-turbos-vision-20250619

Entrada:$0.33/M
Salida:$1.00/M
H

hunyuan-turbos-vision

Entrada:$0.33/M
Salida:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

Entrada:$0.17/M
Salida:$0.67/M
H

hunyuan-turbos-latest

Entrada:$0.09/M
Salida:$0.22/M
H

hunyuan-turbos-20250604

Entrada:$0.09/M
Salida:$0.22/M
H

hunyuan-turbos-20250515

Entrada:$0.09/M
Salida:$0.22/M
H

hunyuan-turbos-20250416

Entrada:$0.09/M
Salida:$0.22/M
H

hunyuan-turbos-20250313

Entrada:$0.09/M
Salida:$0.22/M
H

hunyuan-t1-vision-20250619

Entrada:$0.11/M
Salida:$0.45/M
H

hunyuan-t1-vision

Entrada:$0.11/M
Salida:$0.45/M
H

hunyuan-t1-latest

Entrada:$0.11/M
Salida:$0.45/M
H

hunyuan-t1-20250711

Entrada:$0.11/M
Salida:$0.45/M
H

hunyuan-t1-20250529

Entrada:$0.11/M
Salida:$0.45/M
H

hunyuan-t1-20250521

Entrada:$0.11/M
Salida:$0.45/M
H

hunyuan-t1-20250403

Entrada:$0.11/M
Salida:$0.45/M
H

hunyuan-t1-20250321

Entrada:$0.11/M
Salida:$0.45/M
H

hunyuan-standard-256K

Entrada:$0.06/M
Salida:$0.22/M
H

hunyuan-standard

Entrada:$0.09/M
Salida:$0.22/M
H

hunyuan-role

Entrada:$0.45/M
Salida:$0.89/M
H

hunyuan-pro

Entrada:$1.60/M
Salida:$1.60/M
H

hunyuan-lite

Entrada:$1.60/M
Salida:$1.60/M
H

hunyuan-large-vision

Entrada:$0.45/M
Salida:$1.34/M
H

hunyuan-large

Entrada:$0.45/M
Salida:$1.34/M
H

hunyuan-functioncall

Entrada:$0.45/M
Salida:$0.89/M
H

hunyuan-embedding

Entrada:$0.08/M
Salida:$0.08/M
H

hunyuan-code

Entrada:$0.39/M
Salida:$0.78/M
H

hunyuan-all

Entrada:$0.11/M
Salida:$0.22/M
H

hunyuan-a13b

Entrada:$0.06/M
Salida:$0.22/M
H

hunyuan

Entrada:$0.11/M
Salida:$0.11/M
Z

glm-zero-preview

Entrada:$60.00/M
Salida:$60.00/M
Z

glm-4v-plus

Entrada:$4.80/M
Salida:$4.80/M
Z

glm-4v

Entrada:$24.00/M
Salida:$24.00/M
Z

GLM 4.6

Contexto:200
Entrada:$0.64/M
Salida:$2.56/M
Lanzamiento del último modelo insignia de Zhipu, GLM-4.6: parámetros totales 355B, parámetros activos 32B. En conjunto, las capacidades centrales superan a GLM-4.5. Programación: A la par de Claude Sonnet 4, la mejor de China. Contexto: Ampliado a 200K (originalmente 128K). Inferencia: Mejorada, admite llamadas a Tool. Búsqueda: Optimizados Tool y el marco de agentes. Redacción: Más alineada con las preferencias humanas, el estilo de escritura y la asunción de roles. Multilingüe: Traducción mejorada.
Z

glm-4.5-x

Entrada:$3.20/M
Salida:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

Entrada:$0.16/M
Salida:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

Entrada:$1.60/M
Salida:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

Entrada:$0.16/M
Salida:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

Entrada:$0.48/M
Salida:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

Entrada:$24.00/M
Salida:$24.00/M
Z

glm-4-long

Entrada:$0.48/M
Salida:$0.48/M
Z

glm-4-flash

Entrada:$0.05/M
Salida:$0.05/M
Z

glm-4-airx

Entrada:$4.80/M
Salida:$4.80/M
Z

glm-4-air

Entrada:$0.48/M
Salida:$0.48/M
Z

glm-4-0520

Entrada:$24.00/M
Salida:$24.00/M
Z

glm-4

Entrada:$24.00/M
Salida:$24.00/M
Z

glm-3-turbo

Entrada:$1.60/M
Salida:$1.60/M