o3-mini-api
Mar 19, 2026
minimax m2.7
MiniMax-M2.7 explicado: características, benchmarks, acceso y precio
MiniMax-M2.7 es la evolución dentro de los modelos de lenguaje grande (LLMs) de la serie M2 de MiniMax, diseñado para el razonamiento de alta eficiencia, la programación y los flujos de trabajo basados en agentes. Basándose en el éxito de M2 y M2.5, introduce mejoras en la generación por lotes, la eficiencia de costos y el despliegue de API escalable (p. ej., a través de CometAPI). Está orientado a casos de uso de IA empresariales, incluidos la automatización, el razonamiento de múltiples pasos y la generación de contenido a gran escala.
Mar 19, 2026
Midjourney
- Qué es Midjourney V8: Es el nombre que se usaría para una futura iteración principal del modelo de generación de imágenes de Midjourney. Hasta ahora no hay detalles oficiales públicos sobre sus características. - Cuándo se lanzará: No hay una fecha de lanzamiento anunciada ni confirmada públicamente. Para novedades, consulta los anuncios oficiales de Midjourney (por ejemplo, su servidor de Discord y las notas de “announcements”).
Midjourney V8 es el próximo modelo de nueva generación de IA para la generación de imágenes, cuyo lanzamiento se espera en 2026. Introduce un renderizado más rápido (hasta 4–5×), una mayor precisión en los prompts, una mejor representación del texto, una mayor coherencia y un control avanzado sobre la composición de la imagen. Está diseñado para superar a V7 en realismo, consistencia y eficiencia del flujo de trabajo, al tiempo que permite funciones como la generación por lotes y una personalización mejorada.
Mar 19, 2026
5 actualizaciones importantes de la API de Sora 2: explicación detallada
Desarrollado por OpenAI, Sora 2 representa un gran salto en los medios generativos, transformando la forma en que los desarrolladores, las empresas y los profesionales creativos crean aplicaciones centradas en video. Desde su lanzamiento a finales de 2025, el ecosistema de API —incluido el acceso a través de proveedores externos como CometAPI— ha madurado significativamente, incorporando nuevas capacidades orientadas a la escalabilidad, el realismo y la fiabilidad de nivel de producción.
Mar 19, 2026
Sora-2-pro
sora-2
¿Qué duración tienen los videos de Sora 2?
Los videos de Sora 2 actualmente pueden durar hasta 20 segundos por clip generado en la API oficial de OpenAI y en Sora Video Editor. OpenAI también admite extensiones de video de hasta 20 segundos cada una, con un máximo de seis extensiones para una duración total unida de hasta 120 segundos. Para la API de Sora 2, CometAPI admite 20 s y 2K.
Mar 19, 2026
GPT 5.4 Mini y Nano están disponibles en CometAPI: ¿qué aportan?
GPT-5.4 Mini y GPT-5.4 Nano son las nuevas variantes compactas de OpenAI de su familia de frontera GPT-5.4: Mini apunta a ofrecer la mejor relación rendimiento/latencia de su clase para programación, tareas de interfaz de usuario multimodales y cargas de trabajo de subagentes; Nano apunta a un costo y una latencia ultrabajos para clasificación, extracción, ranking y subagentes masivamente paralelos. Mini ofrece una precisión cercana a la de la frontera en muchos benchmarks para desarrolladores, a la vez que funciona >2× más rápido que los minis anteriores; Nano es significativamente más barato por token y resulta ideal cuando el rendimiento y la capacidad de respuesta son lo más importante. Estos modelos ya están disponibles en la API (GPT 5.4 Mini y Nano están disponibles en CometAPI).
Mar 17, 2026
Sora-2-pro
Cómo usar Sora 2 Pro sin suscripción (Guía 2026)
No puedes “desbloquear” legalmente Sora 2 Pro dentro de la interfaz web de OpenAI sin la vía oficial (ChatGPT Pro o acceso a la OpenAI API). Sin embargo, hay alternativas legales para obtener resultados de nivel Pro de Sora sin comprar ChatGPT Pro: (1) invocar el modelo Sora 2 Pro directamente a través de la Video API de OpenAI y pagar por uso; (2) usar plataformas comerciales de agregación de API (por ejemplo, CometAPI) o plataformas SaaS que revenden o enrutan llamadas a Sora 2/2 Pro; o (3) usar agregadores de API de terceros autorizados (requieren sus propias cuentas/tarifas).
Mar 17, 2026
GLM-5
GLM-5-Turbo explicado: modelo base centrado en el agente para flujos de trabajo de “Lobster” (OpenClaw)(Guía 2026)
GLM-5-Turbo es un gran modelo de lenguaje de próxima generación, lanzado por Zhipu AI en marzo de 2026, optimizado específicamente para entornos de agentes “lobster” (ecosistema OpenClaw). Es una variante de alta velocidad, centrada en agentes, de GLM-5 diseñada para la ejecución de tareas en cadenas largas, las llamadas a herramientas y la automatización de IA de nivel empresarial. Cuenta con una ventana de contexto de ~200K tokens, arquitectura Mixture-of-Experts y una estabilidad mejorada en flujos de trabajo de agentes de múltiples pasos.
Mar 16, 2026
Copilot
¿Puede Copilot generar imágenes? Un análisis en profundidad
Copilot de Microsoft —el asistente de IA integrado en Windows y en las aplicaciones de Microsoft 365— puede generar imágenes. Durante el último año, Microsoft ha integrado capacidades de generación de imágenes en las superficies de Copilot (Designer, Word, PowerPoint, Copilot chat), aprovechando modelos que Microsoft describe como Designer Image Creator (anteriormente vinculado a DALL·E-3) y haciendo evolucionar la combinación de modelos del backend a medida que Microsoft incorpora socios y opciones.