Gemini 3.1 pro APIの使い方

CometAPI
AnnaFeb 21, 2026
Gemini 3.1 pro APIの使い方

Gemini 3.1 Pro の実践的でコード中心のガイド — それが何か、(CometAPI 経由を含む)呼び出し方、マルチモーダル機能と「思考レベル」コントロール、関数呼び出し/ツール使用、vibe-coding のヒント、GitHub Copilot・VS Code・Gemini CLI・Google Antigravity との統合。Gemini 3.1 Pro は、より大きなコンテキストウィンドウ、構成可能な「思考」モード、改良されたツール/関数呼び出し、エージェント指向ワークフローの明示的サポートという、開発者に焦点を当てたストーリーで大規模マルチモーダルモデルのフロンティアを前進させています。

Gemini 3.1 Pro とは?

Gemini 3.1 Pro は Gemini 3 ファミリーの最新の「Pro」ティアで、ネイティブにマルチモーダル、推論ファーストのモデルとして、複雑な多段タスクとエージェント的なツール使用に最適化されています。Gemini 3 Pro の洗練版として提示され、実践的な 3 つの焦点(より強い推論/事実基盤、より良いトークン効率、開発者ワークフロー(コード、計画、検索拡張タスク)に向けた制御可能な実行モード)を持ちます。モデルカードと開発者ページでは、ソフトウェアエンジニアリング行動、エージェント的パイプライン、マルチモーダル入力(テキスト、画像、音声、動画、リポジトリ)に最適化されていると説明されています。

なぜ重要か:多くのプロバイダ変種での 100万トークンのコンテキストウィンドウ、明示的な関数呼び出しプリミティブ、そして「思考レベル」コントロールの組み合わせは、迅速なプロトタイピングから本番のエージェントオーケストレーションに至るまで、チームにより予測可能なコストと出力をもたらします。CometAPI はすでに API マーケットプレイスと OpenAI 互換ブリッジを通じて 3.1 Pro を提供しており、従量課金型のアクセスパターンを提供しています。

Gemini 3.1 Pro API(CometAPI)をどう使う?

始める前に必要なものは?

チェックリスト(前提条件)

  • CometAPI のアカウントと CometAPI の API キー(環境変数に保存)。
  • オプションで Google Cloud / Google AI Studio プロジェクトと Gemini API キー(Google を直接呼ぶ場合のみ必要。Comet 経由では不要)。
  • python 3.9+ または node 18+、クイックテスト用に curl
  • 安全なシークレット管理メカニズム:環境変数、ボルト、CI シークレットストア。
  • Comet コンソールで Gemini 3.1 Pro の Comet モデル ID を確認(例:"google/gemini-3.1-pro" または Comet 固有のエイリアス)。

CometAPI は Gemini ネイティブ形式の呼び出しに加え、OpenAI のチャット形式の呼び出しをサポートします。CometAPI はモデル切り替えを簡素化し、単一のベース URL と SDK を提供し、マルチベンダースタックの統合摩擦を軽減します。

以下に、すぐに使える 2 つの具体例を示します。1 つ目は CometAPI(OpenAI 互換クライアント)経由で Gemini を呼び出す方法、2 つ目は Google 公式の Gemini HTTP エンドポイント経由の呼び出しです。YOUR_API_KEY をプロバイダのキーに置き換え、モデル名はプロバイダで利用可能なバリアントに設定(例:公開されている場合は gemini-3.1-pro-preview)。

例:CometAPI を用いて Gemini 3.1 Pro を呼び出す(curl + Python)

Curl(CometAPI のベース URL を使った OpenAI 互換ラッパー)

# curl example: CometAPI (OpenAI-compatible)curl https://api.cometapi.com/v1/chat/completions \  -H "Authorization: Bearer YOUR_API_KEY" \  -H "Content-Type: application/json" \  -d '{    "model": "gemini-3.1-pro-preview",    "messages": [      {"role":"system","content":"You are a concise programming assistant."},      {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    "max_tokens": 800  }'

Python(CometAPI の base_url に設定した OpenAI 互換クライアント)

from openai import OpenAI  # or openai-python-compatible SDK offered by your platformclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.cometapi.com/v1")resp = client.chat.completions.create(    model="gemini-3.1-pro-preview",    messages=[        {"role": "system", "content": "You are a concise programming assistant."},        {"role": "user", "content": "Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    max_tokens=800,)print(resp.choices[0].message.content)

理由: CometAPI は多くのドキュメントで OpenAI 互換ブリッジを公開しており、base_url とモデル名を変更するだけで既存の OpenAI クライアントコードを再利用できます。これはマルチプロバイダの実験や迅速なプロトタイピングに便利です。

例:公式 Gemini API を使った呼び出し(Node.js / HTTP)

Google 公式の Gemini エンドポイントは、フル機能(思考レベルのコントロール、関数呼び出し、マルチモーダルアップロード)に最適です。以下は Google AI 開発者ドキュメントに記載された Gemini API サーフェスを用いた最小の HTTP 例です。

公式 SDK またはリクエストの Base URL と API Key を置き換えるだけです:

  • Base URLhttps://api.cometapi.com (generativelanguage.googleapis.com を置換)
  • API Key: \$GEMINI_API_KEY\$COMETAPI_KEY に置換

Curl(公式 Gemini API — 参考)

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [
      {
        "parts": [
          {
            "text": "How does AI work?"
          }
        ]
      }
    ]
  }'

よく設定するパラメータ

  • temperature (0.0–1.0) — ランダム性。コード出力を決定的にしたい場合は 0.0
  • max_output_tokens / max_tokens — 出力長の予算。
  • top_p — ヌクレウスサンプリング。
  • presence_penalty / frequency_penalty — 反復の抑制。
  • thinking_level またはモデルバリアント — 推論の深さを制御(例:-low-medium-high または明示的な thinking_level)。正確性要件を満たす中で最も低い思考レベルを使うことで、コスト/レイテンシを制御。

Gemini 3.1 Pro のマルチモーダル機能は?

Gemini 3.1 Pro はどのモダリティをサポート?

Gemini 3.1 Pro は多くのプレビュービルドでテキスト、画像、動画、音声、PDF を受け付け、マルチモーダルコンテンツを参照・要約するテキスト出力を生成できます。Comet は、画像 URLファイルアップロード(Comet ファイル API)や、クラウドストレージに保存されたファイルを Gemini に読ませる方法で、マルチモーダル入力の転送をサポートします。

開発者はマルチモーダルプロンプトをどう考えるべき?

  • 明確なコンテキストブロックでプロンプトを構成:短いテキスト指示を最初に含め、その後に画像/動画/PDF のメタデータやポインタを添付。
  • SDK のメディア添付やファイルアップロードフィールドを使用し、バイナリデータをテキストフィールドに埋め込まない — 公式クライアントおよび Vertex AI / Gemini API の例は、媒体をクリーンに渡す方法を示しています。

実践例(疑似コード):画像+質問を提示

# Pseudocode — attach an image with a caption and ask a questionfrom google.gemini import GemSDK  # conceptual import; use official client per docsresponse = client.generate(    model="gemini-3.1-pro-preview",    inputs = [        {"type": "text", "content": "Summarize the visual diagram and list actionable next steps."},        {"type": "image", "uri": "gs://my-bucket/diagram.png", "alt": "system architecture diagram"}    ])print(response.text)

実践的なヒント:

  • UI のバグトリアージに画像添付を使用:スクリーンショットを添付し、差分や起因の可能性を尋ねる。
  • 音声の転写とコードサンプルを組み合わせ、面接録音の要約を行う。
  • 大きなアセット(動画や巨大なコードベース)を送る場合は段階的アプローチを推奨:アセットをアップロード(クラウドストレージ)、URL+短いマニフェストを渡し、モデルにより検索拡張パイプラインを駆動させる(単一プロンプトにすべて詰め込まない)。

思考レベル(Low, Medium, High)とは?いつ使うべき?

「思考レベル」とは?

Gemini 3 系は、モデルの内部計算/思考チェーンの予算を制御する thinking_level パラメータを導入しています。レイテンシやコストと推論の深さをトレードオフするノブと考えてください:

  • :最小限の推論。スループットと短い決定的なタスクに最適化。
  • :バランスの取れた推論 — 3.1 の新規オプションで、多くのエンジニアリングや分析ワークフローに理想的。
  • :より深い推論。動的な思考チェーンスタイル。複雑な多段問題に最適。
    (他バリアントでは minimal / max の命名もあり — バリアントごとの正確なオプションはモデルドキュメントを参照。)

思考レベルの選び方

  • :高スループットのユーザーチャット、短い指示、コスト/レイテンシが重要なとき。
  • :多くの開発タスクでのデフォルト。適度な推論が必要なケースの新たなスイートスポット(3.1)。
  • :パズル解決、長い論理チェーン、計画、忠実度を重視しレイテンシ/トークン消費の増加を許容できるとき。

リクエストで思考レベルを設定する方法

curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
  -H "x-goog-api-key: $COMETAPI_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{ "parts": [{ "text": "Explain quantum physics simply." }] }],
    "generationConfig": {
      "thinkingConfig": {
        "thinkingLevel": "LOW"
      }
    }
  }'

Gemini 3.1 Pro で関数呼び出しとツール使用を実装するには?

関数呼び出し/ツール使用とは?

関数呼び出し(ツール使用とも)は、モデルが外部ツールや関数(例:get_current_weather(location))と、その引数をアプリケーションに伝えるための構造化された「call」オブジェクトを出力できる機能です。モデルは複数の呼び出しを連鎖し、ツールの出力を受け取り、推論を継続できます — これによりエージェント的な挙動が可能になります。Gemini の SDK はモデルからツールへのループ(MCP/ツールレジストリ)を内蔵サポートしており、安全な自動実行が可能です。

構成でツールを宣言することで、プロキシ動作を有効化できます。サポートされるビルトインツールには、google_search、code_execution、url_context のカスタム関数があります。

安全なツール使用パターン

  1. ツールインターフェースの宣言:明確なスキーマと検証済み引数型で関数/ツールを登録。
  2. モデルに呼び出し提案をさせる:モデルは呼び出すべきツールを記述する構造化 JSON を出力。
  3. ホストはホワイトリスト化されたツールのみ実行:許可リストと厳格な検証を徹底。
  4. ツール出力をモデルに返す:SDK のループがツール応答をモデルにフィードバックし、計画/更なる実行を継続。

Gemini 3.1 Pro 統合ガイド

GitHub Copilot

GitHub Copilot(Copilot)はプレミアムティアで Gemini ファミリーのモデルをサポートするようになり、チームは Copilot のチャットや提案の基盤モデルとして Gemini を選択できます。つまり、対象プランのユーザーは Copilot のモデルピッカーで Gemini バリアントを選べ、IDE 拡張を変更せずにモデルレベルの改善を享受できます。チームにとって、Copilot は VS Code やその他対応エディタ内での Gemini の推論を利用する便利なマネージドパスのままです。

Gemini CLI と Code Assist

オープンソースの Gemini CLI はターミナルから Gemini モデルを扱えるようにし、軽量で既存ワークフロー(diff、コミット、CI、ヘッドレスサーバー実行)に統合できます。CLI は迅速な反復、スクリプト化されたエージェント実行、DevOps フローへのモデル埋め込みに使用します。Gemini Code Assist は VS Code 拡張と広範な IDE 統合で、コンテキスト対応のコード提案、PR レビュー、自動修正をエディタに直接提供します。これらのツールにより、モデル選択、コンテキストウィンドウ、思考レベルの好みを制御できます。

Visual Studio Code

Visual Studio Code とそのマーケットプレイスは GitHub Copilot と Gemini Code Assist の両方をホストしています。Gemini の Code Assist をインストールすることも、Copilot を使い続けることも可能で、それぞれ速度、深さ、プライバシーのトレードオフがあります。VS Code は、インタラクティブなコード生成、エディタ内チャット、ローカル実行やテストハーネスとの直接統合に最も成熟したサーフェスのままです。

Google Antigravity

Google Antigravity はエージェントを第一級市民として扱うエージェントファーストの IDE/プラットフォームで、「Mission Control」によるエージェントオーケストレーション、組み込みのブラウザ自動化、マルチエージェントプロジェクト向け UI を提供します。Antigravity と Gemini CLI は異なるニーズに対応します:Antigravity はフルなエージェント的 IDE サーフェス、Gemini CLI はターミナルネイティブですが、拡張機能や MCP(Model Context Protocol)サーバーを通じて Antigravity や VS Code に統合されます。Antigravity のエコシステムは、重厚なエージェントオーケストレーションと、より意見のあるビジュアルサーフェスを望むチームに適しています。

誰が何を使うべき?

  • 迅速なプロトタイピング&単一ファイル編集: 速度重視なら Gemini CLI+ローカルテストまたは Copilot。
  • 深い推論、長時間のリサーチ: 高い思考レベルと関数呼び出しを用いた Gemini API(Vertex)。
  • エージェント的オーケストレーション&多段自動化: ビジュアル管理なら Antigravity、または関数呼び出し+MCP を使ったカスタムエージェントパイプライン。
  • マルチプロバイダ実験/コスト管理: CometAPI などのアグリゲータを使い、Flash と Pro を経済的に切り替え。

統合における設計上の考慮事項:

  • セキュリティ: プロンプトにシークレットや PII を送らない。サーバーサイド呼び出しにはトークンスコープのサービスアカウントを使用。
  • ローカル vs クラウド: 軽量なアシスタント機能(高速補完)はローカルで実行し、重いマルチモーダル解析はクラウドにルーティング。
  • ユーザー制御: モデルが生成したコード編集に対して「この提案を説明」や容易なロールバックを提供。

統合パターン&推奨アーキテクチャ

軽量アプリ(チャット/アシスタント)

  • クライアント(ブラウザ/モバイル) → バックエンドマイクロサービス → Gemini API(thinking_level=low
  • チャット UX のためにストリーミング/部分出力を使用。ユーザー入力を検証し、信頼できないクライアントからの生のツール呼び出しを決して許可しない。

エージェント的バックエンド(自動化ワークフロー)

  • オーケストレータサービス:ホワイトリスト化した少数のツール(DB 読み取り、CI ジョブ実行、内部 API)を登録。
  • Gemini に計画とツール呼び出しの出力を任せ、オーケストレータが検証済み呼び出しを実行して結果を返す。計画フェーズでは高い思考レベル、実行ステップでは中程度を使用。

マルチモーダル取り込みパイプライン

大規模なドキュメント、画像、動画を前処理・インデックス化。

いつ Gemini 3.1 Pro を選ぶべき?

次のニーズがある場合に Gemini 3.1 Pro を選択:

  • マルチモーダル入力に跨る高忠実度の多段推論
  • 信頼できるツールオーケストレーションとエージェント的ワークフロー
  • IDE(Copilot/CLI/Antigravity)における優れたコード生成/編集ループ
  • CometAPI のようなゲートウェイでのプロバイダ横断のプロトタイピング

スループットとコストを重視するなら混在戦略を採用:ほとんどのワークフローではデフォルトでの思考、スループット重視のユーザーチャットでは、より深い推論が明確に必要なタスク(計画、証明、多段合成)にのみを使用。

最後に:スタックにおける Gemini 3.1 Pro の位置付け

Gemini 3.1 Pro は、現代の開発者向け LLM に不可欠なもの — マルチモーダル理解、明示的なツールオーケストレーション、そして推論予算の実践的な制御 — をさらに強化しています。Google の API や Vertex から直接アクセスする場合でも、プレミアムプランの Copilot 経由でも、CometAPI のようなマルチモデルプラットフォーム経由でも、チームに重要なスキルは同じです:慎重な思考レベルのオーケストレーション、安全な関数呼び出しパターン、そして堅牢な開発者ワークフロー(CLI、IDE、自動テスト)への統合。

開発者は今すぐ Gemini 3.1 ProCometAPI 経由で利用できます。始めるには、Playground でモデルの機能を試し、詳細な手順は API guide を参照してください。アクセス前に、CometAPI にログインして API キーを取得していることを確認してください。CometAPI は公式価格よりもはるかに低い価格を提供し、統合を支援します。

Ready to Go?→ 今すぐ Gemini 3.1 Pro にサインアップ !

AI に関するヒント、ガイド、ニュースをもっと知りたい方は、VKXDiscord をフォローしてください!

トップモデルを 低コストで利用

もっと読む