Cómo usar la API de Gemini 3.1 Pro

CometAPI
AnnaFeb 21, 2026
Cómo usar la API de Gemini 3.1 Pro

Una guía práctica y orientada al código sobre Gemini 3.1 Pro: qué es, cómo invocarlo (incluido vía CometAPI), sus controles multimodales y de “thinking level”, llamadas a funciones/uso de herramientas, consejos de vibe-coding e integraciones con GitHub Copilot, VS Code, Gemini CLI y Google Antigravity. Gemini 3.1 Pro está empujando la frontera de los grandes modelos multimodales con una historia enfocada en desarrolladores: ventanas de contexto más grandes, modos de “pensamiento” configurables, mejoras en llamadas a herramientas y funciones, y soporte explícito para flujos agentivos.

¿Qué es Gemini 3.1 Pro?

Gemini 3.1 Pro es el nuevo nivel “Pro” de la familia Gemini 3: un modelo nativamente multimodal y orientado al razonamiento, ajustado para tareas complejas y de múltiples pasos y para el uso agentivo de herramientas. Se presenta como un perfeccionamiento sobre Gemini 3 Pro con tres focos prácticos: razonamiento/validación factual más sólidos, mejor eficiencia de tokens y modos de ejecución controlables orientados a flujos de trabajo de desarrolladores (código, planificación, tareas con recuperación aumentada). La model card y las páginas para desarrolladores lo describen como optimizado para comportamiento de ingeniería de software, canalizaciones agentivas e inputs multimodales (texto, imágenes, audio, video y repositorios).

Por qué te importa: la combinación de una ventana de contexto de un millón de tokens (en muchas variantes de proveedores), primitivas explícitas de llamadas a funciones y controles de “nivel de pensamiento” ofrece a los equipos costos y salidas más predecibles para todo, desde prototipado rápido hasta orquestación de agentes en producción. CometAPI ya está exponiendo 3.1 Pro a través de mercados de API y puentes compatibles con OpenAI, ofreciendo patrones de acceso de pago por uso.

¿Cómo puedes usar la API de Gemini 3.1 Pro (CometAPI)?

¿Qué necesito antes de empezar?

Checklist (prerrequisitos)

  • Una cuenta de CometAPI y una clave de API de CometAPI (guárdala en variables de entorno).
  • Opcionalmente un proyecto de Google Cloud / Google AI Studio y una clave de API de Gemini si alguna vez llamas a Google directamente (no requerido al usar Comet).
  • python 3.9+ o node 18+, curl disponible para pruebas rápidas.
  • Un mecanismo seguro para secretos: variables de entorno, vault o almacén de secretos de CI.
  • Confirmar el id de modelo de Comet para Gemini 3.1 Pro en tu consola de Comet (p. ej., "google/gemini-3.1-pro" o un alias específico de Comet).

CometAPI admite llamadas en formato nativo de Gemini, así como llamadas en formato de chat de OpenAI. CometAPI simplifica el cambio de modelos, ofrece una única URL base y SDKs, y puede reducir la fricción de integración en stacks multi-vendedor.

A continuación hay dos ejemplos concretos y listos para copiar y pegar: primero llamando a Gemini vía CometAPI (cliente compatible con OpenAI) y segundo llamando a Gemini vía el endpoint HTTP oficial de Google. Reemplaza YOUR_API_KEY con tu clave del proveedor y ajusta los nombres de modelo a la variante disponible (p. ej., gemini-3.1-pro-preview donde esté expuesto).

Ejemplo: llamar a Gemini 3.1 Pro usando CometAPI (curl + Python)

Curl (wrapper compatible con OpenAI usando la URL base de CometAPI)

# curl example: CometAPI (OpenAI-compatible)curl https://api.cometapi.com/v1/chat/completions \  -H "Authorization: Bearer YOUR_API_KEY" \  -H "Content-Type: application/json" \  -d '{    "model": "gemini-3.1-pro-preview",    "messages": [      {"role":"system","content":"You are a concise programming assistant."},      {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    "max_tokens": 800  }'

Python (cliente compatible con OpenAI configurado con base_url de CometAPI)

from openai import OpenAI  # or openai-python-compatible SDK offered by your platformclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.cometapi.com/v1")resp = client.chat.completions.create(    model="gemini-3.1-pro-preview",    messages=[        {"role": "system", "content": "You are a concise programming assistant."},        {"role": "user", "content": "Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    max_tokens=800,)print(resp.choices[0].message.content)

Fundamentación: CometAPI expone un puente compatible con OpenAI en gran parte de su documentación, lo que te permite reutilizar código del cliente de OpenAI simplemente cambiando el base_url y el nombre del modelo. Esto es conveniente para experimentos multi-proveedor y prototipado rápido.

Ejemplo: llamar a Gemini mediante la API oficial de Gemini (Node.js / HTTP)

Los endpoints oficiales de Gemini de Google son los mejores para acceder al conjunto completo de funciones (controles de nivel de pensamiento, llamadas a funciones, cargas multimodales). A continuación hay un ejemplo HTTP mínimo usando la superficie de la API de Gemini descrita en la documentación de desarrolladores de Google AI.

Simplemente reemplaza la URL base y la clave de API en el SDK oficial o en tus solicitudes para usarlo:

  • Base URL: https://api.cometapi.com (reemplaza generativelanguage.googleapis.com)
  • API Key: Reemplaza $GEMINI_API_KEY con tu $COMETAPI_KEY

Curl (API oficial de Gemini — ilustrativo)

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "How does AI work?"
          }
        ]
      }
    ]
  }'

Parámetros comunes que configurarás

  • temperature (0.0–1.0): aleatoriedad. Usa 0.0 para salidas de código deterministas.
  • max_output_tokens / max_tokens: presupuesto de longitud de salida.
  • top_p: muestreo de núcleo.
  • presence_penalty / frequency_penalty: desalentar la repetición.
  • thinking_level o variante de modelo: determina la profundidad de razonamiento (p. ej., -low, -medium, -high o thinking_level explícito). Usa el nivel de pensamiento más bajo que cumpla con tus necesidades de exactitud para controlar costo/latencia.

¿Cuáles son las capacidades multimodales de Gemini 3.1 Pro?

¿Qué modalidades admite Gemini 3.1 Pro?

Gemini 3.1 Pro acepta texto, imágenes, video, audio y PDFs en muchas versiones preview, y puede sintetizar salidas de texto que referencien o resuman contenido multimodal. Comet admite reenviar entradas multimodales a Gemini, ya sea por URL de imagen, carga de archivos (API de archivos de Comet) o permitiendo que Gemini lea archivos almacenados en el cloud.

¿Cómo deberían pensar los desarrolladores acerca de los prompts multimodales?

  • Estructura los prompts multimodales con bloques de contexto claros: por ejemplo, incluye primero la instrucción corta en texto y luego adjunta metadatos o punteros a imágenes/videos/PDFs.
  • Usa los campos de adjuntos multimedia y de carga de archivos del SDK en lugar de incrustar datos binarios en campos de texto; los clientes oficiales y los ejemplos de Vertex AI / Gemini API muestran cómo pasar adjuntos de forma limpia.

Ejemplo práctico (pseudocódigo): mostrar una imagen más una pregunta

# Pseudocode — attach an image with a caption and ask a questionfrom google.gemini import GemSDK  # conceptual import; use official client per docsresponse = client.generate(    model="gemini-3.1-pro-preview",    inputs = [        {"type": "text", "content": "Summarize the visual diagram and list actionable next steps."},        {"type": "image", "uri": "gs://my-bucket/diagram.png", "alt": "system architecture diagram"}    ])print(response.text)

Consejos prácticos:

  • Usa adjuntos de imágenes para triage de bugs de UI: adjunta una captura y pide diferencias o causas probables.
  • Combina transcripciones de audio con ejemplos de código para resúmenes de grabaciones de entrevistas.
  • Al enviar artefactos grandes (videos, bases de código grandes), prefiere un enfoque por etapas: sube los activos (almacenamiento en la nube), pasa URLs + un manifiesto corto y usa el modelo para impulsar una canalización con recuperación aumentada en lugar de meter todo en un solo prompt.

¿Cuáles son los niveles de pensamiento (Bajo, Medio, Alto) y cuándo debería usarlos?

¿Qué son los “niveles de pensamiento”?

La serie Gemini 3 introduce un parámetro thinking_level que guía el presupuesto interno de cómputo/cadena de razonamiento del modelo. Piénsalo como una perilla que intercambia latencia y costo por mayor profundidad de razonamiento:

  • Bajo: razonamiento mínimo, optimizado para rendimiento y tareas cortas y deterministas.
  • Medio: razonamiento equilibrado — nuevo en 3.1 e ideal para muchos flujos de ingeniería y analítica.
  • Alto: razonamiento más profundo, estilo cadena de pensamiento dinámica; lo mejor para problemas complejos de múltiples pasos.
    (También existe una nomenclatura minimal/max en otras variantes; consulta la documentación del modelo para ver las opciones exactas disponibles por variante).

¿Cómo debería elegir un nivel de pensamiento?

  • Usa Bajo para chat de alto rendimiento, instrucciones cortas o cuando el costo/latencia sea crítico.
  • Usa Medio como valor por defecto para la mayoría de tareas de desarrollador que necesitan un razonamiento moderado (este es el nuevo “punto óptimo” en 3.1).
  • Usa Alto al resolver acertijos, realizar cadenas lógicas largas, planificar o cuando explícitamente quieras alta fidelidad y aceptes mayor latencia y consumo de tokens.

Cómo establecer el nivel de pensamiento en una solicitud

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{ "parts": [{ "text": "Explain quantum physics simply." }] }],
    "generationConfig": {
      "thinkingConfig": {
        "thinkingLevel": "LOW"
      }
    }
  }'

¿Cómo implemento llamadas a funciones y uso de herramientas con Gemini 3.1 Pro?

¿Qué es la llamada a funciones / uso de herramientas?

La llamada a funciones (también llamada uso de herramientas) permite que el modelo emita objetos “call” estructurados que indican a tu aplicación qué herramienta o función externa ejecutar (por ejemplo, get_current_weather(location)) y con qué argumentos. El modelo puede encadenar múltiples llamadas, recibir salidas de herramientas y continuar razonando, habilitando comportamientos agentivos. Los SDKs de Gemini ofrecen soporte integrado para el bucle modelo→herramienta (MCP/registro de herramientas) para que puedas automatizar la ejecución de forma segura.

Puedes declarar herramientas en la configuración para habilitar el comportamiento de proxy. Las herramientas integradas admitidas incluyen las funciones personalizadas google_search, code_execution y url_context.

Patrón seguro para uso de herramientas

  1. Declarar interfaces de herramientas: registra funciones/herramientas con esquemas claros y tipos de argumentos validados.
  2. Dejar que el modelo proponga llamadas: el modelo emite JSON estructurado describiendo qué herramienta llamar.
  3. El host ejecuta solo herramientas en la lista de permitidas: aplica una allowlist y validación estricta.
  4. Devolver las salidas de herramientas al modelo: el bucle del SDK alimenta la respuesta de la herramienta de vuelta al modelo para que pueda seguir planificando/ejecutando más llamadas.

Guía de integración de Gemini 3.1 Pro

GitHub Copilot

GitHub Copilot (Copilot) ha añadido soporte para los modelos de la familia Gemini en niveles premium, permitiendo a los equipos elegir Gemini como modelo subyacente para el chat y las sugerencias de Copilot. Eso significa que los usuarios en planes elegibles pueden seleccionar variantes de Gemini en el selector de modelo de Copilot, disfrutando de mejoras a nivel de modelo sin cambiar su extensión del IDE. Para equipos, Copilot sigue siendo una vía gestionada conveniente para el razonamiento de Gemini dentro de VS Code y otros editores compatibles.

Gemini CLI y Code Assist

El Gemini CLI de código abierto expone los modelos Gemini en la terminal; es liviano e integra con flujos existentes (diffs, commits, CI y ejecuciones en servidores sin cabeza). Usa el CLI para iteración rápida, scripts de ejecuciones de agentes o para incrustar el modelo en flujos de DevOps. Gemini Code Assist es la extensión de VS Code e integración de IDE más amplia que trae sugerencias de código con contexto, revisiones de PR y correcciones automatizadas directamente en el editor. Estas herramientas te permiten controlar la selección de modelo, ventanas de contexto y preferencias de nivel de pensamiento.

Visual Studio Code

Visual Studio Code y su marketplace alojan tanto GitHub Copilot como Gemini Code Assist. Puedes instalar Code Assist para Gemini o seguir usando Copilot; cada uno ofrece distintos compromisos (velocidad, profundidad, privacidad). VS Code sigue siendo la superficie más madura para generación interactiva de código, chat en el editor e integración directa con ejecuciones locales o arneses de pruebas.

Google Antigravity

Google Antigravity es una plataforma e IDE orientado a agentes que trata a los agentes como ciudadanos de primera clase, ofreciendo un “Mission Control” para orquestación de agentes, automatización de navegador integrada y una UI para proyectos multiagente. Antigravity y Gemini CLI atienden necesidades diferentes: Antigravity es una superficie agentiva completa y con opinión; Gemini CLI es nativo de terminal pero se integra en Antigravity y VS Code mediante extensiones y servidores MCP (Model Context Protocol). El ecosistema de Antigravity está orientado a equipos que quieren una orquestación de agentes intensiva y una superficie visual más opinada.

¿Quién debería usar qué?

  • Prototipado rápido y ediciones de un solo archivo: Gemini CLI + pruebas locales o Copilot por velocidad.
  • Razonamiento profundo, investigación de larga duración: API de Gemini (Vertex) con nivel de pensamiento alto y llamadas a funciones.
  • Orquestación agentiva y automatización de múltiples pasos: Antigravity para gestión visual o una canalización de agente personalizada usando llamadas a funciones + MCP.
  • Experimentos multi-proveedor / control de costos: usa CometAPI u otros agregadores para cambiar de modelo o probar Flash vs Pro de forma económica.

Consideraciones de diseño para la integración:

  • Seguridad: evita enviar secretos o PII en los prompts. Usa cuentas de servicio con tokens con alcance para llamadas del lado del servidor.
  • Local vs nube: ejecuta funciones ligeras del asistente localmente (completados rápidos) pero enruta análisis multimodal pesado a la nube.
  • Control del usuario: expón “explica esta sugerencia” y controles de reversión fáciles para ediciones de código producidas por el modelo.

Patrones de integración y arquitectura recomendada

Aplicación ligera (chat o asistente)

  • Cliente (navegador/móvil) → microservicio backend → API de Gemini (thinking_level=low)
  • Usa streaming/salidas parciales para el UX de chat. Valida entradas de usuario y nunca permitas llamadas a herramientas crudas desde clientes no confiables.

Backend agentivo (flujos automatizados)

  • Servicio orquestador: registra un conjunto pequeño de herramientas permitidas (lectura de BD, ejecutor de jobs de CI, APIs internas).
  • Deja que Gemini planifique y emita llamadas a herramientas; el orquestador ejecuta llamadas validadas y devuelve resultados. Usa un nivel de pensamiento alto para fases de planificación y medio para pasos de ejecución.

Canal de ingesta multimodal

Preprocesa e indexa documentos, imágenes o videos grandes.

¿Cuándo deberías elegir Gemini 3.1 Pro?

Elige Gemini 3.1 Pro cuando necesites:

  • razonamiento de alta fidelidad y múltiples pasos sobre entradas multimodales;
  • orquestación confiable de herramientas y flujos agentivos;
  • mejores bucles de síntesis/edición de código en IDEs (vía Copilot/CLI/Antigravity); o
  • prototipar comparaciones entre proveedores con una pasarela como CometAPI.

Si te importan el rendimiento y el costo, adopta una estrategia mixta: por defecto usa nivel de pensamiento medio para la mayoría de flujos, bajo para chat de alto rendimiento y alto solo para tareas que demuestren necesitar razonamiento más profundo (planificación, pruebas, síntesis de múltiples pasos).

Reflexiones finales: dónde encaja Gemini 3.1 Pro en el stack

Gemini 3.1 Pro redobla lo que los LLMs modernos orientados a desarrolladores deben ofrecer: comprensión multimodal, orquestación explícita de herramientas y controles pragmáticos para el presupuesto de razonamiento. Ya sea que accedas directamente mediante las APIs de Google y Vertex, mediante Copilot en planes premium o a través de plataformas multi-modelo como CometAPI, las habilidades críticas para los equipos son las mismas: orquestación cuidadosa del nivel de pensamiento, patrones seguros de llamadas a funciones e integración en flujos de trabajo sólidos de desarrollo (CLI, IDE, pruebas automatizadas).

Los desarrolladores pueden acceder a Gemini 3.1 Pro vía CometAPI ahora. Para comenzar, explora las capacidades del modelo en el Playground y consulta la guía de la API para instrucciones detalladas. Antes de acceder, asegúrate de haber iniciado sesión en CometAPI y obtenido la clave de API. CometAPI ofrece un precio muy inferior al oficial para ayudarte a integrar.

¿Listo para comenzar? → Regístrate en Gemini 3.1 Pro hoy !

Si quieres más consejos, guías y noticias sobre IA, síguenos en VK, X y Discord!

Accede a Modelos de Primera Calidad a Bajo Costo

Leer Más