Home/Models/Google/Gemini 3 Pro
G

Gemini 3 Pro

Entrada:$1.6/M
Salida:$9.6/M
Contexto:200.0k
Salida Máxima:200.0k
Gemini 3 Pro es un modelo de propósito general de la familia Gemini, disponible en versión preliminar para evaluación y creación de prototipos. Admite seguimiento de instrucciones, razonamiento en múltiples turnos y tareas de código y de datos, con salidas estructuradas y llamadas a herramientas y funciones para la automatización de flujos de trabajo. Los usos típicos incluyen asistentes de chat, resumen y reescritura, preguntas y respuestas aumentadas con recuperación, extracción de datos y ayuda de programación ligera en aplicaciones y servicios. Los aspectos técnicos destacados incluyen implementación basada en API, respuestas en streaming, controles de seguridad y preparación para la integración, con capacidades multimodales según la configuración de la versión preliminar.
Nuevo
Uso comercial
Playground
Resumen
Características
Precios
API
Versiones

Gemini 3 Pro (Preview) es el nuevo modelo insignia de razonamiento multimodal de Google/DeepMind dentro de la familia Gemini 3. Se presenta como su «modelo más inteligente hasta la fecha», diseñado para razonamiento profundo, flujos de trabajo orientados a agentes, programación avanzada y comprensión multimodal de contexto largo (texto, imágenes, audio, video, código e integraciones con herramientas).

Funciones clave

  • Modalidades: Texto, imagen, video, audio, PDF (y salidas estructuradas de herramientas).
  • Capacidades de agente/herramientas: Invocación de funciones integrada, búsqueda como herramienta, ejecución de código, contexto por URL y compatibilidad para orquestar agentes de múltiples pasos. El mecanismo de «thought-signature» preserva el razonamiento de múltiples pasos entre llamadas.
  • Programación y «vibe coding»: Optimizado para generación de front‑end, creación de interfaces interactivas y programación orientada a agentes (encabeza los rankings relevantes reportados por Google). Se promociona como su modelo de «vibe‑coding» más potente hasta ahora.
  • Nuevos controles para desarrolladores: thinking_level (low|high) para equilibrar costo/latencia frente a la profundidad de razonamiento, y media_resolution controla la fidelidad multimodal por imagen o cuadro de video. Estos ayudan a equilibrar rendimiento, latencia y costo.

Rendimiento en benchmarks

  • Gemini3Pro alcanzó el primer lugar en LMARE con una puntuación de 1501, superando los 1484 puntos de Grok-4.1-thinking y también por delante de Claude Sonnet 4.5 y Opus 4.1.
  • También logró el primer lugar en la arena de programación WebDevArena con una puntuación de 1487.
  • En Humanity’s Last Exam (razonamiento académico), obtuvo 37.5% (sin herramientas); en GPQA Diamond (ciencia), 91.9%; y en la competencia matemática MathArena Apex, 23.4%, estableciendo un nuevo récord.
  • En capacidades multimodales, MMMU-Pro logró 81%; y en comprensión de video de Video-MMMU, 87.6%.

Detalles técnicos y arquitectura

  • Parámetro «thinking level»: Gemini 3 expone un control thinking_level que permite a los desarrolladores intercambiar profundidad de razonamiento interno frente a latencia/costo. El modelo trata thinking_level como una concesión relativa para el razonamiento interno de múltiples pasos en lugar de una garantía estricta de tokens. El valor predeterminado suele ser high en Pro. Es un control explícito nuevo para que los desarrolladores ajusten la planificación de múltiples pasos y la profundidad de la cadena de razonamiento.
  • Salidas estructuradas y herramientas: El modelo admite salidas JSON estructuradas y puede combinarse con herramientas integradas (Google Search grounding, contexto por URL, ejecución de código, etc.). Algunas funciones de salidas estructuradas + herramientas están en versión preliminar solo para gemini-3-pro-preview.
  • Integraciones multimodales y orientadas a agentes: Gemini 3 Pro está diseñado explícitamente para flujos de trabajo basados en agentes (herramientas + múltiples agentes sobre código/terminales/navegador).

Limitaciones y advertencias conocidas

  1. Factualidad no perfecta: las alucinaciones siguen siendo posibles. A pesar de las mejoras sustanciales en factualidad que afirma Google, la verificación con fuentes y la revisión humana siguen siendo necesarias en entornos de alto riesgo (legal, médico, financiero).
  2. El rendimiento en contexto largo varía según la tarea. La compatibilidad con una ventana de entrada de 1M es una capacidad firme, pero la efectividad empírica puede disminuir en algunos benchmarks a longitudes extremas (se observan descensos puntuales a 1M en algunas pruebas de contexto largo).
  3. Compensaciones de costo y latencia. Contextos grandes y ajustes más altos de thinking_level incrementan cómputo, latencia y costo; se aplican niveles de precios según volúmenes de tokens. Use thinking_level y estrategias de partición para gestionar costos.
  4. Seguridad y filtros de contenido. Google continúa aplicando políticas de seguridad y capas de moderación; ciertos contenidos y acciones siguen restringidos o activarán modos de rechazo.

Cómo se compara Gemini 3 Pro Preview con otros modelos de primer nivel

Comparación de alto nivel (preview → cualitativa):

Frente a Gemini 2.5 Pro: Mejoras significativas en razonamiento, uso de herramientas por agentes e integración multimodal; manejo de contextos mucho más grandes y mejor comprensión de textos extensos. DeepMind muestra mejoras consistentes en razonamiento académico, programación y tareas multimodales.

Frente a GPT-5.1 y Claude Sonnet 4.5 (según lo reportado): En el conjunto de benchmarks de Google/DeepMind, Gemini 3 Pro se presenta como líder en varias métricas de agentes, multimodalidad y contexto largo (ver Terminal-Bench, MMMU-Pro, AIME). Los resultados comparativos varían según la tarea.


Casos de uso típicos y de alto valor

  • Resumen y preguntas y respuestas de documentos/libros grandes: el soporte de contexto largo lo hace atractivo para equipos legales, de investigación y de cumplimiento.
  • Comprensión y generación de código a escala de repositorio: la integración con toolchains de programación y el razonamiento mejorado ayudan en refactorizaciones de bases de código grandes y flujos de revisión de código automatizados.
  • Asistentes de producto multimodales: flujos de trabajo imagen + texto + audio (soporte al cliente que ingiere capturas de pantalla, fragmentos de llamadas y documentos).
  • Generación y edición de medios (foto → video): funciones anteriores de la familia Gemini ahora incluyen capacidades de foto→video estilo Veo/Flow; la versión preliminar sugiere una generación multimedia más profunda para prototipos y flujos de trabajo de medios.

Cómo acceder a la API de Gemini 3 Pro

Paso 1: Regístrate para obtener una clave de API

Inicia sesión en cometapi.com. Si aún no eres usuario, regístrate primero. Entra en tu consola de CometAPI. Obtén la clave de API de credenciales de acceso de la interfaz. Haz clic en “Add Token” en el token de API del centro personal, obtén la clave del token: sk-xxxxx y envíala.

clave de CometAPI

Paso 2: Envía solicitudes a la API de Gemini 3 Pro

Selecciona el endpoint “gemini-3-pro” para enviar la solicitud a la API y configura el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de la API en nuestro sitio web. Nuestro sitio también proporciona pruebas en Apifox para tu comodidad. Reemplaza <YOUR_API_KEY> con tu clave real de CometAPI de tu cuenta. La URL base es Generación de contenido de Gemini y Chat

Inserta tu pregunta o solicitud en el campo content—es a lo que responderá el modelo. Procesa la respuesta de la API para obtener la respuesta generada.

Paso 3: Recupera y verifica los resultados

Procesa la respuesta de la API para obtener la respuesta generada. Tras el procesamiento, la API responde con el estado de la tarea y los datos de salida.

Preguntas Frecuentes

¿Cuál es la ventana de contexto y el límite de salida de Gemini 3 Pro?

Gemini 3 Pro admite una ventana de contexto de entrada de 1 millón de tokens con hasta 64.000 tokens de salida, lo que lo hace ideal para analizar bases de código completas o documentos extensos.

¿Cómo funciona el parámetro thinking_level en Gemini 3 Pro?

Gemini 3 Pro utiliza razonamiento dinámico de forma predeterminada. Establece thinking_level en 'low' para obtener respuestas más rápidas cuando no se necesita un razonamiento complejo, o en 'high' (predeterminado) para maximizar la profundidad del razonamiento en tareas complejas.

¿Gemini 3 Pro admite el grounding con Google Search?

Sí, Gemini 3 Pro admite grounding con Google Search, File Search, Code Execution y las herramientas URL Context. Ten en cuenta que el grounding con Google Maps y Computer Use aún no son compatibles con Gemini 3.

¿Qué hace que Gemini 3 Pro sea diferente de Gemini 2.5 Pro?

Gemini 3 Pro ofrece mejoras graduales en los flujos de trabajo agénticos y la programación autónoma. Utiliza thought signatures para el contexto de razonamiento entre llamadas a la API y tiene una fecha de corte de conocimiento de enero de 2025.

¿Puede Gemini 3 Pro combinar salidas estructuradas con herramientas integradas?

Sí, los modelos Gemini 3 permiten combinar salidas estructuradas (esquema JSON) con herramientas integradas como Google Search, URL Context y Code Execution en la misma solicitud.

¿Por qué debería mantener temperature en 1.0 para Gemini 3 Pro?

Google recomienda encarecidamente mantener temperature en el valor predeterminado de 1.0. Los valores más bajos pueden causar bucles inesperados o un rendimiento degradado en tareas matemáticas y de razonamiento complejo.

¿Qué son las thought signatures y por qué son importantes?

Las thought signatures son representaciones cifradas del razonamiento interno del modelo. Para la llamada a funciones, su uso se aplica estrictamente: la ausencia de signatures devuelve errores 400. Los SDK oficiales las gestionan automáticamente.

Características para Gemini 3 Pro

ID del modelo (vista previa): `gemini-3-pro-preview`. Tipos de entrada: Texto, Imagen, Video, Audio, PDF. Salida: Texto Límites de contexto/tokens: Entrada ≈ 1,048,576 tokens; Salida ≤ 65,536 tokens. Fecha de corte del conocimiento: enero de 2025 (utiliza Search Grounding para información más reciente). Capacidades (seleccionadas): llamadas a funciones, ejecución de código, búsqueda de archivos, salidas estructuradas, Search Grounding. No compatible: generación de audio, generación de imágenes, API en vivo, segmentación de imágenes, Google Maps grounding (algunas funciones difieren de Gemini 2.5).

Precios para Gemini 3 Pro

Explora precios competitivos para Gemini 3 Pro , diseñado para adaptarse a diversos presupuestos y necesidades de uso. Nuestros planes flexibles garantizan que solo pagues por lo que uses, facilitando el escalado a medida que crecen tus requisitos. Descubre cómo Gemini 3 Pro puede mejorar tus proyectos mientras mantienes los costos manejables.

gemini-3-pro (same price across variants shown)

Model familyVariant (model name)Input price (USD / 1M tokens)Output price (USD / 1M tokens)
gemini-3-progemini-3-pro-preview$1.60$9.60
gemini-3-progemini-3-pro-preview-thinking$1.60$9.60
gemini-3-progemini-3-pro-all$1.60$9.60

Código de ejemplo y API para Gemini 3 Pro

Gemini 3 Pro es el modelo insignia de razonamiento multimodal más reciente de Google/DeepMind en la familia Gemini 3. Está posicionado como su "modelo más inteligente hasta la fecha", diseñado para el razonamiento profundo, flujos de trabajo basados en agentes, programación avanzada y comprensión multimodal de contexto largo (texto, imágenes, audio, video, código e integraciones con herramientas).
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3-pro-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Versiones de Gemini 3 Pro

La razón por la cual Gemini 3 Pro tiene múltiples instantáneas puede incluir factores potenciales como variaciones en la salida tras actualizaciones que requieren instantáneas anteriores para mantener la coherencia, ofrecer a los desarrolladores un período de transición para adaptación y migración, y diferentes instantáneas que corresponden a endpoints globales o regionales para optimizar la experiencia del usuario. Para conocer las diferencias detalladas entre versiones, consulte la documentación oficial.
Model idDescripciónDisponibilidadSolicitud
gemini-3-pro-allLa tecnología utilizada es no oficial y la generación es inestable, etc.✅Chat formato
gemini-3-proRecomendado, apunta al modelo más reciente❌Gemini Generating Content
gemini-3-pro-previewVista previa oficial❌Gemini Generating Content

Más modelos