Как использовать Gemini 3.1 pro API

CometAPI
AnnaFeb 21, 2026
Как использовать Gemini 3.1 pro API

Практическое, ориентированное на код руководство по Gemini 3.1 Pro — что это, как его вызывать (включая через CometAPI), его мультимодальные возможности и настройки «уровня мышления», вызов функций/использование инструментов, советы по vibe‑coding, а также интеграции с GitHub Copilot, VS Code, Gemini CLI и Google Antigravity. Gemini 3.1 Pro продвигает границы крупных мультимодальных моделей с фокусом на разработчиках: более длинные окна контекста, конфигурируемые режимы «мышления», улучшенный вызов инструментов и функций, а также явная поддержка агентных рабочих процессов.

Что такое Gemini 3.1 Pro?

Gemini 3.1 Pro — новейший уровень «Pro» в семействе Gemini 3: изначально мультимодальная, ориентированная на рассуждение модель, настроенная для сложных многошаговых задач и агентного использования инструментов. Представлена как доработка Gemini 3 Pro с тремя практическими акцентами: более сильное рассуждение/фактическая опора, лучшая эффективность по токенам и управляемые режимы выполнения, ориентированные на рабочие процессы разработчиков (код, планирование, задачи с расширением извлечения). В карточке модели и на страницах для разработчиков она описана как оптимизированная для поведения в сфере разработки ПО, агентных конвейеров и мультимодальных входов (текст, изображения, аудио, видео и репозитории).

Почему это важно для вас: сочетание контекстного окна на миллион токенов (во многих вариантах провайдеров), явных примитивов вызова функций и настроек «уровня мышления» дает командам более предсказуемые затраты и выводы для всего — от быстрого прототипирования до оркестрации производственных агентов. CometAPI уже предоставляет 3.1 Pro через маркетплейсы API и мосты, совместимые с OpenAI, предлагая схемы оплаты по мере использования.

Как использовать API Gemini 3.1 Pro (CometAPI)?

Что нужно перед началом?

Чеклист (предпосылки)

  • Аккаунт CometAPI и ключ API CometAPI (храните его в переменных окружения).
  • Опционально проект в Google Cloud / Google AI Studio и ключ Gemini API, если когда‑нибудь будете обращаться напрямую к Google (не требуется при вызове через Comet).
  • python 3.9+ или node 18+, curl доступен для быстрых тестов.
  • Защищенный механизм хранения секретов: переменные окружения, хранилище секретов или секреты в CI.
  • Подтвердите идентификатор модели Comet для Gemini 3.1 Pro в вашей консоли Comet (например, "google/gemini-3.1-pro" или специфический для Comet псевдоним).

CometAPI поддерживает вызовы в родном формате Gemini, а также вызовы в формате чат‑API OpenAI. CometAPI упрощает переключение моделей, предлагает единый базовый URL и SDK, и может снизить трение интеграции в многопоставщицких стэках.

Ниже два конкретных, готовых к копированию примера: сначала вызов Gemini через CometAPI (клиент, совместимый с OpenAI), затем вызов Gemini через официальный HTTP‑эндпоинт Google. Замените YOUR_API_KEY на ключ вашего провайдера и установите названия моделей на доступный вариант провайдера (например, gemini-3.1-pro-preview, где он доступен).

Пример: вызов Gemini 3.1 Pro с использованием CometAPI (curl + Python)

Curl (обертка, совместимая с OpenAI, с использованием базового URL CometAPI)

# curl example: CometAPI (OpenAI-compatible)curl https://api.cometapi.com/v1/chat/completions \  -H "Authorization: Bearer YOUR_API_KEY" \  -H "Content-Type: application/json" \  -d '{    "model": "gemini-3.1-pro-preview",    "messages": [      {"role":"system","content":"You are a concise programming assistant."},      {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    "max_tokens": 800  }'

Python (клиент, совместимый с OpenAI, настроенный на CometAPI base_url)

from openai import OpenAI  # or openai-python-compatible SDK offered by your platformclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.cometapi.com/v1")resp = client.chat.completions.create(    model="gemini-3.1-pro-preview",    messages=[        {"role": "system", "content": "You are a concise programming assistant."},        {"role": "user", "content": "Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    max_tokens=800,)print(resp.choices[0].message.content)

Обоснование: CometAPI предоставляет мост, совместимый с OpenAI, во многих своих документах, что позволяет переиспользовать существующий клиент OpenAI, просто изменив base_url и имя модели. Это удобно для экспериментов с несколькими провайдерами и быстрого прототипирования.

Пример: вызов Gemini через официальный API Gemini (Node.js / HTTP)

Официальные эндпоинты Gemini от Google лучше подходят для полного набора функций (настройки уровня мышления, вызов функций, мультимодальные загрузки). Ниже минимальный пример HTTP с использованием API Gemini, описанного в документации Google AI для разработчиков.

Просто замените базовый URL и ключ API в официальном SDK или запросах, чтобы использовать его:

  • Base URLhttps://api.cometapi.com (замените generativelanguage.googleapis.com)
  • API Key: Замените $GEMINI_API_KEY на ваш $COMETAPI_KEY

Curl (официальный API Gemini — иллюстративный)

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "How does AI work?"
          }
        ]
      }
    ]
  }'

Общие параметры, которые вы будете настраивать

  • temperature (0.0–1.0) — степень случайности. Используйте 0.0 для детерминированных кодовых выводов.
  • max_output_tokens / max_tokens — бюджет длины вывода.
  • top_p — семплирование по ядру.
  • presence_penalty / frequency_penalty — снижает повторения.
  • thinking_level или вариант модели — определяет глубину рассуждения (например, -low, -medium, -high или явный thinking_level). Используйте минимально необходимый уровень мышления, который обеспечивает точность, чтобы контролировать стоимость/задержку.

Каковы мультимодальные возможности Gemini 3.1 Pro?

Какие модальности поддерживает Gemini 3.1 Pro?

Gemini 3.1 Pro принимает текст, изображения, видео, аудио и PDF во многих предварительных сборках — и может синтезировать текстовые ответы, ссылающиеся на мультимодальный контент или его суммирующие. Comet поддерживает пересылку мультимодальных входов в Gemini — либо через URL изображения, загрузку файла (Comet File API), либо предоставляя Gemini доступ к файлам, размещенным в облачном хранилище.

Как разработчикам структурировать мультимодальные подсказки?

  • Структурируйте мультимодальные подсказки с четкими блоками контекста: например, сначала включите краткую текстовую инструкцию, затем прикрепите метаданные или указатели на изображения/видео/PDF.
  • Используйте поля вложения медиа и загрузки файлов SDK вместо встраивания двоичных данных в текстовые поля — официальные клиенты и примеры Vertex AI / Gemini API показывают, как чисто передавать медиа.

Практический пример (псевдокод): показать изображение и вопрос

# Pseudocode — attach an image with a caption and ask a questionfrom google.gemini import GemSDK  # conceptual import; use official client per docsresponse = client.generate(    model="gemini-3.1-pro-preview",    inputs = [        {"type": "text", "content": "Summarize the visual diagram and list actionable next steps."},        {"type": "image", "uri": "gs://my-bucket/diagram.png", "alt": "system architecture diagram"}    ])print(response.text)

Практические советы:

  • Используйте вложения изображений для триажа UI‑ошибок: прикрепите скриншот и попросите различия или вероятные причины.
  • Комбинируйте аудиотранскрипции с примерами кода для суммирования записей собеседований.
  • При отправке крупных артефактов (видео, большие кодовые базы) предпочитайте поэтапный подход: загрузите материалы (облачное хранилище), передайте URL и короткий манифест, а модель используйте для управления конвейером, расширенным извлечением, вместо того чтобы пытаться поместить все в один промпт.

Какие существуют уровни мышления (Low, Medium, High) и когда их использовать?

Что такое «уровни мышления»?

Серия Gemini 3 вводит параметр thinking_level, который управляет внутренним бюджетом вычислений/цепочек рассуждений модели. Думайте о нем как о регуляторе, который меняет задержку и стоимость в обмен на более глубокие рассуждения:

  • Low: минимальное рассуждение, оптимизировано для пропускной способности и коротких, детерминированных задач.
  • Medium: сбалансированное рассуждение — новинка в 3.1 и подходит для многих рабочих процессов инженерии и аналитики.
  • High: более глубокие рассуждения, динамичный стиль цепочек; лучше для сложных многошаговых задач.
    (В других вариантах есть также номенклатура minimal/max — обратитесь к документации модели для точных доступных опций по каждому варианту.)

Как выбирать уровень мышления?

  • Используйте Low для высоконагруженного пользовательского чата, кратких инструкций или когда критичны стоимость/задержка.
  • Используйте Medium по умолчанию для большинства задач разработчиков, которым нужна умеренная глубина рассуждений (новая «золотая середина» в 3.1).
  • Используйте High при решении головоломок, длинных логических цепочек, планировании или когда вам явно нужна высокая достоверность и вы готовы к повышенной задержке и расходу токенов.

Как задать уровень мышления в запросе

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{ "parts": [{ "text": "Explain quantum physics simply." }] }],
    "generationConfig": {
      "thinkingConfig": {
        "thinkingLevel": "LOW"
      }
    }
  }'

Как реализовать вызов функций и использование инструментов с Gemini 3.1 Pro?

Что такое вызов функций / использование инструментов?

Вызов функций (также называемый использованием инструментов) позволяет модели выдавать структурированные объекты «call», которые говорят вашему приложению, какой внешний инструмент или функцию запустить (например, get_current_weather(location)) и с какими аргументами. Модель может цепочкой вызывать несколько функций, получать вывод инструментов и продолжать рассуждения — включая агентное поведение. SDK Gemini предлагают встроенную поддержку цикла «модель → инструмент» (MCP/реестр инструментов), чтобы вы могли безопасно автоматизировать выполнение.

Вы можете объявить инструменты в конфигурации, чтобы включить прокси‑поведение. Поддерживаемые встроенные инструменты включают google_search, code_execution и url_context с пользовательскими функциями.

Безопасная схема использования инструментов

  1. Объявите интерфейсы инструментов: зарегистрируйте функции/инструменты с четкими схемами и валидируемыми типами аргументов.
  2. Позвольте модели предлагать вызовы: модель выдает структурированный JSON, описывающий, какой инструмент вызвать.
  3. Хост выполняет только разрешенные инструменты: применяйте список разрешений и строгую валидацию.
  4. Возвращайте вывод инструментов модели: цикл SDK передает ответ инструмента обратно модели, чтобы она могла продолжить планирование/выполнить дополнительные вызовы.

Руководство по интеграциям Gemini 3.1 Pro

GitHub Copilot

GitHub Copilot (Copilot) добавил поддержку моделей семейства Gemini на премиум‑уровнях, позволяя командам выбирать Gemini как базовую модель для чата и предложений Copilot. Это означает, что пользователи на соответствующих планах могут выбирать варианты Gemini в селекторе моделей Copilot, получая улучшения на уровне модели без изменения расширения IDE. Для команд Copilot остается удобным управляемым способом использовать рассуждения Gemini внутри VS Code и других поддерживаемых редакторов.

Gemini CLI и Code Assist

Открытый Gemini CLI предоставляет доступ к моделям Gemini из терминала; он легковесен и интегрируется с существующими рабочими процессами (diff, коммиты, CI и безголовые серверные запуски). Используйте CLI для быстрых итераций, сценарных запусков агентов или встраивания модели в потоки DevOps. Gemini Code Assist — это расширение для VS Code и более широкая интеграция в IDE, которая приносит контекстные предложения кода, обзоры PR и автоматические исправления прямо в редактор. Эти инструменты позволяют управлять выбором модели, окнами контекста и предпочтениями уровня мышления.

Visual Studio Code

Visual Studio Code и его маркетплейс размещают как GitHub Copilot, так и Gemini Code Assist. Вы можете установить Code Assist для Gemini или продолжить использовать Copilot; у каждого свои компромиссы (скорость, глубина, приватность). VS Code остается самым зрелым интерфейсом для интерактивной генерации кода, чата в редакторе и прямой интеграции с локальными запусками или тестовыми стендами.

Google Antigravity

Google Antigravity — это IDE и платформа, ориентированные на агентов, где агенты являются первоклассными объектами; она предлагает «Mission Control» для оркестрации агентов, встроенную автоматизацию браузера и UI для мультиагентных проектов. Antigravity и Gemini CLI служат разным потребностям: Antigravity — полноценная визуальная поверхность для агентных рабочих процессов; Gemini CLI — терминал‑нативный, но интегрируется в Antigravity и VS Code через расширения и серверы MCP (Model Context Protocol). Экосистема Antigravity ориентирована на команды, которым нужна мощная оркестрация агентов и более определенная, визуальная поверхность.

Кому что использовать?

  • Быстрое прототипирование и правки одиночных файлов: Gemini CLI + локальные тесты или Copilot для скорости.
  • Глубокие рассуждения, длительные исследования: Gemini API (Vertex) с высоким уровнем мышления и вызовом функций.
  • Агентная оркестрация и многошаговая автоматизация: Antigravity для визуального управления или кастомный агентный конвейер с вызовом функций + MCP.
  • Эксперименты с несколькими провайдерами / контроль затрат: Используйте CometAPI или аналогичные агрегаторы для переключения моделей или экономичного сравнения Flash vs Pro.

Соображения по проектированию интеграции:

  • Безопасность: избегайте отправки секретов или ПДн в промптах. Используйте сервисные аккаунты с ограниченными токенами для серверных вызовов.
  • Локально vs облако: локально запускайте легковесные функции ассистента (быстрые завершения), а тяжелый мультимодальный анализ направляйте в облако.
  • Контроль пользователя: предоставляйте «объяснить это предложение» и простые механизмы отката для правок кода, созданных моделью.

Паттерны интеграции и рекомендуемая архитектура

Легковесное приложение (чат или ассистент)

  • Клиент (браузер/мобильный) → бэкенд‑микросервис → Gemini API (thinking_level=low)
  • Используйте потоковую передачу / частичные ответы для чат‑UX. Валидируйте пользовательские входы и никогда не разрешайте сырой вызов инструментов из ненадежных клиентов.

Агентный бэкенд (автоматизированные рабочие процессы)

  • Сервис‑оркестратор: зарегистрируйте небольшой набор инструментов по списку разрешений (чтение БД, запуск задач CI, внутренние API).
  • Позвольте Gemini планировать и выдавать вызовы инструментов; оркестратор выполняет валидированные вызовы и возвращает результаты. Используйте высокий thinking_level для фаз планирования и средний — для шагов выполнения.

Конвейер мультимодального ввода

Предобрабатывайте и индексируйте крупные документы, изображения или видео.

Когда стоит выбирать Gemini 3.1 Pro?

Выбирайте Gemini 3.1 Pro, когда вам нужны:

  • высокоточные, многошаговые рассуждения по мультимодальным входам;
  • надежная оркестрация инструментов и агентные рабочие процессы;
  • улучшенные циклы синтеза/редактирования кода в IDE (через Copilot/CLI/Antigravity); или
  • прототипирование сравнений между провайдерами с использованием шлюза типа CometAPI.

Если для вас важны пропускная способность и стоимость, применяйте смешанную стратегию: используйте средний уровень мышления по умолчанию для большинства рабочих процессов, низкий — для высоконагруженного пользовательского чата, и высокий — только для задач, которым явно нужны более глубокие рассуждения (планирование, доказательства, многошаговый синтез).

Заключение: место Gemini 3.1 Pro в стеке

Gemini 3.1 Pro усиливает то, что современные LLM, ориентированные на разработчиков, должны предоставлять: мультимодальное понимание, явную оркестрацию инструментов и прагматичные регуляторы бюджета рассуждения. Будь то прямой доступ через API Google и Vertex, через Copilot на премиум‑планах или через мульти‑модельные платформы, такие как CometAPI, ключевые навыки для команд остаются прежними: внимательная оркестрация уровней мышления, безопасные паттерны вызова функций и интеграция в надежные рабочие процессы разработчиков (CLI, IDE, автоматизированные тесты).

Разработчики могут получить доступ к Gemini 3.1 Pro через CometAPI уже сейчас. Для начала изучите возможности модели в Playground и обратитесь к руководству по API за подробными инструкциями. Перед доступом убедитесь, что вы вошли в CometAPI и получили ключ API. CometAPI предлагает цену значительно ниже официальной, чтобы помочь вам с интеграцией.

Готовы начать? → Зарегистрируйтесь для Gemini 3.1 Pro сегодня!

Если хотите больше советов, руководств и новостей об ИИ, подписывайтесь на нас в VK, X и Discord!

Доступ к топовым моделям по низкой цене

Читать далее