Home/Models/Google/Gemini 3 Pro
G

Gemini 3 Pro

Entrada:$1.6/M
Salida:$9.6/M
Contexto:200.0k
Salida Máxima:200.0k
Gemini 3 Pro es un modelo de propósito general de la familia Gemini, disponible en versión preliminar para evaluación y creación de prototipos. Admite seguimiento de instrucciones, razonamiento en múltiples turnos y tareas de código y de datos, con salidas estructuradas y llamadas a herramientas y funciones para la automatización de flujos de trabajo. Los usos típicos incluyen asistentes de chat, resumen y reescritura, preguntas y respuestas aumentadas con recuperación, extracción de datos y ayuda de programación ligera en aplicaciones y servicios. Los aspectos técnicos destacados incluyen implementación basada en API, respuestas en streaming, controles de seguridad y preparación para la integración, con capacidades multimodales según la configuración de la versión preliminar.
Nuevo
Uso comercial
Playground
Resumen
Características
Precios
API
Versiones

Gemini 3 Pro (Preview) es el modelo insignia multimodal de razonamiento más reciente de Google/DeepMind en la familia Gemini 3. Se presenta como su “modelo más inteligente hasta ahora”, diseñado para razonamiento profundo, flujos con agentes, programación avanzada y comprensión multimodal de contexto largo (texto, imágenes, audio, video, código e integraciones de herramientas).

Características clave

  • Modalidades: Texto, imagen, video, audio, PDFs (y salidas estructuradas de herramientas).
  • Agéntico/herramientas: Llamadas a funciones integradas, búsqueda como herramienta, ejecución de código, contexto de URL y soporte para orquestar agentes de múltiples pasos. El mecanismo de firma de pensamiento preserva el razonamiento multipaso entre llamadas.
  • Programación y “vibe coding”: Optimizado para generación de front-end, generación de IU interactiva y programación con agentes (encabeza los rankings relevantes reportados por Google). Se promociona como su modelo de “vibe coding” más sólido hasta la fecha.
  • Nuevos controles para desarrolladores: thinking_level (low|high) para equilibrar costo/latencia frente a profundidad de razonamiento, y media_resolution controla la fidelidad multimodal por imagen o fotograma de video. Esto ayuda a equilibrar rendimiento, latencia y costo.

Rendimiento en benchmarks

  • El Gemini3Pro logró el primer lugar en LMARE con una puntuación de 1501, superando los 1484 puntos de Grok-4.1-thinking y también liderando a Claude Sonnet 4.5 y Opus 4.1.
  • También consiguió el primer puesto en el área de programación WebDevArena con una puntuación de 1487.
  • En Humanity’s Last Exam de razonamiento académico, alcanzó 37.5% (sin herramientas); en GPQA Diamond de ciencia, 91.9%; y en la competencia de matemáticas MathArena Apex, 23.4%, estableciendo un nuevo récord.
  • En capacidades multimodales, el MMMU-Pro logró 81%; y en Video-MMMU de comprensión de video, 87.6%.

imagen

Detalles técnicos y arquitectura

  • Parámetro “thinking level”: Gemini 3 expone un control thinking_level que permite a los desarrolladores equilibrar la profundidad del razonamiento interno frente a la latencia/costo. El modelo trata thinking_level como una concesión relativa para el razonamiento multipaso interno en lugar de una garantía estricta de tokens. El valor predeterminado suele ser high para Pro. Este es un nuevo control explícito para que los desarrolladores ajusten la planificación multipaso y la profundidad de la cadena de pensamiento.
  • Salidas estructuradas y herramientas: El modelo admite salidas JSON estructuradas y puede combinarse con herramientas integradas (fundamentación con Google Search, contexto de URL, ejecución de código, etc.). Algunas funciones de salidas estructuradas + herramientas están solo en vista previa para gemini-3-pro-preview.
  • Integraciones multimodales y con agentes: Gemini 3 Pro está construido explícitamente para flujos con agentes (herramientas + múltiples agentes sobre código/terminales/navegador).

Limitaciones y advertencias conocidas

  1. Factualidad no perfecta: siguen siendo posibles alucinaciones. A pesar de las mejoras de factualidad que Google afirma, la verificación fundamentada y la revisión humana siguen siendo necesarias en entornos de alto riesgo (legal, médico, financiero).
  2. Rendimiento en contexto largo variable según la tarea. La compatibilidad con una ventana de entrada de 1M es una capacidad firme, pero la efectividad empírica puede disminuir en algunos benchmarks a longitudes extremas (se observan descensos puntuales a 1M en algunas pruebas de contexto largo).
  3. Compromisos de costo y latencia. Contextos grandes y configuraciones de thinking_level más altas aumentan el cómputo, la latencia y el costo; se aplican niveles de precios según volúmenes de tokens. Use thinking_level y estrategias de fragmentación para gestionar costos.
  4. Seguridad y filtros de contenido. Google continúa aplicando políticas de seguridad y capas de moderación; ciertos contenidos y acciones siguen restringidos o activarán modos de rechazo.

Cómo Gemini 3 Pro Preview se compara con otros modelos líderes

Comparación de alto nivel (preview → cualitativa):

Frente a Gemini 2.5 Pro: Mejoras significativas en razonamiento, uso agéntico de herramientas e integración multimodal; manejo de contextos mucho más grandes y mejor comprensión de textos largos. DeepMind muestra avances consistentes en razonamiento académico, programación y tareas multimodales.

Frente a GPT-5.1 y Claude Sonnet 4.5 (según lo reportado): En el conjunto de referencias de Google/DeepMind, Gemini 3 Pro se presenta como líder en varias métricas agénticas, multimodales y de contexto largo (ver Terminal-Bench, MMMU-Pro, AIME). Los resultados comparativos varían según la tarea.


Casos de uso típicos y de alto valor

  • Resumen y Q&A de documentos/libros extensos: el soporte de contexto largo lo hace atractivo para equipos legales, de investigación y cumplimiento.
  • Comprensión y generación de código a escala de repositorio: la integración con cadenas de herramientas de programación y el razonamiento mejorado ayuda en refactorizaciones de grandes bases de código y flujos de revisión de código automatizados.
  • Asistentes de producto multimodales: flujos de imagen + texto + audio (soporte al cliente que ingiere capturas de pantalla, fragmentos de llamadas y documentos).
  • Generación y edición de medios (foto → video): las funciones anteriores de la familia Gemini ahora incluyen capacidades de foto→video estilo Veo / Flow-style; la vista previa sugiere una generación multimedia más profunda para prototipos y flujos de trabajo de medios.

Preguntas Frecuentes

What is the context window and output limit for Gemini 3 Pro?

Gemini 3 Pro supports a 1 million token input context window with up to 64,000 tokens of output, making it ideal for analyzing entire codebases or lengthy documents.

How does the thinking_level parameter work in Gemini 3 Pro?

Gemini 3 Pro uses dynamic thinking by default. Set thinking_level to 'low' for faster responses when complex reasoning isn't needed, or 'high' (default) to maximize reasoning depth for complex tasks.

Does Gemini 3 Pro support Google Search grounding?

Yes, Gemini 3 Pro supports Google Search grounding, File Search, Code Execution, and URL Context tools. Note that Google Maps grounding and Computer Use are not yet supported in Gemini 3.

What makes Gemini 3 Pro different from Gemini 2.5 Pro?

Gemini 3 Pro offers stepwise improvements in agentic workflows and autonomous coding. It uses thought signatures for reasoning context across API calls, and has a knowledge cutoff of January 2025.

Can Gemini 3 Pro combine structured outputs with built-in tools?

Yes, Gemini 3 models allow combining structured outputs (JSON schema) with built-in tools like Google Search, URL Context, and Code Execution in the same request.

Why should I keep temperature at 1.0 for Gemini 3 Pro?

Google strongly recommends keeping temperature at the default 1.0. Lower values may cause unexpected looping or degraded performance on mathematical and complex reasoning tasks.

What are thought signatures and why are they important?

Thought signatures are encrypted representations of the model's internal reasoning. For function calling, they're strictly enforced—missing signatures return 400 errors. Official SDKs handle them automatically.

Características para Gemini 3 Pro

* **ID del modelo (vista previa):** `gemini-3-pro-preview`. * **Tipos de entrada:** Texto, Imagen, Video, Audio, PDF. Salida: Texto * **Límites de contexto / tokens:** Entrada ≈ **1,048,576 tokens**; Salida ≤ **65,536 tokens**. * **Fecha de corte de conocimiento:** **Enero de 2025** (usa Search Grounding para información más reciente). * **Capacidades (seleccionadas):** llamadas a funciones, ejecución de código, búsqueda de archivos, salidas estructuradas, search grounding. No admite: generación de audio, generación de imágenes, API en tiempo real, segmentación de imágenes, Google Maps grounding (algunas funciones difieren de Gemini 2.5).

Precios para Gemini 3 Pro

Explora precios competitivos para Gemini 3 Pro , diseñado para adaptarse a diversos presupuestos y necesidades de uso. Nuestros planes flexibles garantizan que solo pagues por lo que uses, facilitando el escalado a medida que crecen tus requisitos. Descubre cómo Gemini 3 Pro puede mejorar tus proyectos mientras mantienes los costos manejables.

gemini-3-pro (same price across variants shown)

Model familyVariant (model name)Input price (USD / 1M tokens)Output price (USD / 1M tokens)
gemini-3-progemini-3-pro-preview$1.60$9.60
gemini-3-progemini-3-pro-preview-thinking$1.60$9.60
gemini-3-progemini-3-pro-all$1.60$9.60

Código de ejemplo y API para Gemini 3 Pro

Gemini 3 Pro es el nuevo modelo insignia de razonamiento multimodal de Google/DeepMind en la familia Gemini 3. Está posicionado como su “modelo más inteligente hasta ahora”, diseñado para razonamiento profundo, flujos de trabajo agénticos, programación avanzada y comprensión multimodal de contexto extenso (texto, imágenes, audio, video, código e integraciones de herramientas).
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3-pro-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Versiones de Gemini 3 Pro

La razón por la cual Gemini 3 Pro tiene múltiples instantáneas puede incluir factores potenciales como variaciones en la salida tras actualizaciones que requieren instantáneas anteriores para mantener la coherencia, ofrecer a los desarrolladores un período de transición para adaptación y migración, y diferentes instantáneas que corresponden a endpoints globales o regionales para optimizar la experiencia del usuario. Para conocer las diferencias detalladas entre versiones, consulte la documentación oficial.
ID del modeloDescripciónDisponibilidadSolicitud
gemini-3-pro-allLa tecnología utilizada no es oficial y la generación es inestable, etc✅Chat formato
gemini-3-proRecomendado, apunta al modelo más reciente✅Gemini Generating Content
gemini-3-pro-previewVista previa oficial✅Gemini Generating Content

Más modelos