Home/Models/Google/Gemini 3 Pro
G

Gemini 3 Pro

入力:$1.6/M
出力:$9.6/M
文脈:200.0k
最大出力:200.0k
Gemini 3 Pro は Gemini ファミリーに属する汎用モデルで、評価およびプロトタイピングのためにプレビュー提供中です。指示追従、マルチターン推論、コードおよびデータ関連タスクに対応し、構造化出力とツール/関数呼び出しによりワークフローの自動化を実現します。代表的な用途には、チャットアシスタント、要約とリライト、リトリーバル拡張型QA、データ抽出、アプリやサービス横断の軽量なコーディング支援が含まれます。技術的ハイライトとして、APIベースのデプロイ、ストリーミング応答、安全性コントロール、統合準備性を備え、プレビュー構成に応じたマルチモーダル機能に対応します。
新着
商用利用
Playground
概要
機能
料金プラン
API
バージョン

**Gemini 3 Pro(プレビュー)**は、Google/DeepMind の Gemini 3 ファミリーにおける最新のフラッグシップ・マルチモーダル推論モデルです。同社の「これまでで最も知的なモデル」と位置づけられており、高度な推論、エージェント型ワークフロー、高度なコーディング、そして長文脈のマルチモーダル理解(テキスト、画像、音声、動画、コード、ツール連携)向けに設計されています。

主な特徴

  • モダリティ: テキスト、画像、動画、音声、PDF(および構造化されたツール出力)。
  • エージェント/ツール: 組み込みの関数呼び出し、search-as-tool、コード実行、URL コンテキスト、および複数ステップのエージェントをオーケストレーションするサポート。Thought-signature メカニズムにより、呼び出しをまたいで複数ステップの推論が保持されます。
  • コーディング & 「vibe coding」: フロントエンド生成、インタラクティブ UI 生成、エージェント型コーディング向けに最適化されており(Google が公表した関連リーダーボードで首位)、同社史上最強の「vibe-coding」モデルとして訴求されています。
  • 新しい開発者向け制御: thinking_level(low|high)によりコスト/レイテンシと推論の深さをトレードオフでき、media_resolution により画像または動画フレームごとのマルチモーダル忠実度を制御できます。これにより、性能、レイテンシ、コストのバランスを取ることができます。

ベンチマーク性能

  • Gemini3Pro は LMARE において 1501 点で第 1 位を獲得し、Grok-4.1-thinking の 1484 点を上回り、Claude Sonnet 4.5 および Opus 4.1 もリードしました。
  • また、WebDevArena プログラミングアリーナでも 1487 点で第 1 位を獲得しました。
  • Humanity’s Last Exam の学術推論では 37.5%(ツールなし)、GPQA Diamond の科学分野では 91.9%、MathArena Apex 数学競技では 23.4% を達成し、新記録を樹立しました。
  • マルチモーダル性能では、MMMU-Pro で 81%、Video-MMMU の動画理解で 87.6% を達成しました。

技術的詳細とアーキテクチャ

  • 「thinking level」パラメータ: Gemini 3 は thinking_level 制御を公開しており、開発者は内部推論の深さとレイテンシ/コストをトレードオフできます。モデルは thinking_level を、厳密なトークン保証ではなく、内部の複数ステップ推論に対する相対的な許容量として扱います。通常、Pro のデフォルトは high です。これは、複数ステップの計画と chain-of-thought の深さを調整するための、開発者向けの明示的な新しい制御です。
  • 構造化出力とツール: このモデルは 構造化 JSON 出力 をサポートし、組み込みツール(Google Search grounding、URL コンテキスト、コード実行など)と組み合わせて利用できます。一部の structured-output+tools 機能は gemini-3-pro-preview 専用のプレビュー機能です。
  • マルチモーダルおよびエージェント型統合: Gemini 3 Pro は、エージェント型ワークフロー(ツール + コード/ターミナル/ブラウザ上の複数エージェント)のために明示的に構築されています。

制限事項と既知の注意点

  1. 事実性は完璧ではない — ハルシネーションは依然として発生する可能性があります。 Google は事実性の大幅な改善を主張していますが、重要度の高い用途(法務、医療、金融)では、根拠に基づく検証と人によるレビューが依然として必要です。
  2. 長文脈性能はタスクによって変動します。 100 万トークンの入力ウィンドウ対応は明確な能力ですが、極端に長い文脈では一部ベンチマークで実効性能が低下する場合があります(いくつかの長文脈テストでは、100 万時点でポイント単位の低下が観測されています)。
  3. コストとレイテンシのトレードオフ。 大きなコンテキストや高い thinking_level 設定は、計算量、レイテンシ、コストを増加させます。トークン量に応じた価格帯が適用されます。コスト管理には thinking_level とチャンク分割戦略を活用してください。
  4. 安全性とコンテンツフィルタ。 Google は引き続き安全ポリシーとモデレーション層を適用しており、一部のコンテンツや操作は制限されるか、拒否モードが発動します。

Gemini 3 Pro Preview と他のトップモデルとの比較

高レベル比較(プレビュー → 定性的評価):

Gemini 2.5 Pro との比較: 推論、エージェント型ツール利用、マルチモーダル統合において大幅な進化があり、文脈処理能力が大きく拡張され、長文理解も向上しています。DeepMind は、学術推論、コーディング、マルチモーダルタスク全般で一貫した改善を示しています。

GPT-5.1 および Claude Sonnet 4.5 との比較(報告ベース): Google/DeepMind のベンチマーク群では、Gemini 3 Pro はいくつかのエージェント型、マルチモーダル、長文脈指標(Terminal-Bench、MMMU-Pro、AIME など)で優位にあると提示されています。比較結果はタスクによって異なります。


一般的かつ高価値なユースケース

  • 大規模文書 / 書籍の要約と Q&A: 長文脈対応により、法務、研究、コンプライアンスの各チームにとって魅力的です。
  • リポジトリ規模でのコード理解と生成: コーディングツールチェーンとの統合と推論能力の向上により、大規模コードベースのリファクタリングや自動コードレビューのワークフローに役立ちます。
  • マルチモーダル製品アシスタント: 画像 + テキスト + 音声のワークフロー(スクリーンショット、通話音声の一部、文書を取り込むカスタマーサポート)。
  • メディア生成と編集(写真 → 動画): 以前の Gemini ファミリー機能にはすでに Veo / Flow スタイルの写真→動画機能が含まれており、プレビューではプロトタイプやメディアワークフロー向けに、より高度なマルチメディア生成が示唆されています。

Gemini 3 Pro API へのアクセス方法

ステップ 1: API キーを取得する

cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI コンソールにサインインします。インターフェースのアクセス認証情報である API キーを取得します。個人センターの API token で「Add Token」をクリックし、トークンキー sk-xxxxx を取得して送信してください。

cometapi key

ステップ 2: Gemini 3 Pro API にリクエストを送信する

API リクエストを送信するには、gemini-3-pro エンドポイントを選択し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、当社の Web サイトの API ドキュメントで確認できます。利便性のため、当社の Web サイトでは Apifox テストも提供しています。<YOUR_API_KEY> を、アカウントで取得した実際の CometAPI キーに置き換えてください。base url は Gemini Generating Content および Chat です。

質問またはリクエストを content フィールドに入力してください。ここに入力した内容に対してモデルが応答します。API レスポンスを処理して、生成された回答を取得します。

ステップ 3: 結果を取得して検証する

API レスポンスを処理して、生成された回答を取得します。処理後、API はタスクのステータスと出力データを返します。

よくある質問

What is the context window and output limit for Gemini 3 Pro?

Gemini 3 Pro は、100万トークンの入力コンテキストウィンドウと最大64,000トークンの出力に対応しており、コードベース全体や長文ドキュメントの解析に最適です。

How does the thinking_level parameter work in Gemini 3 Pro?

Gemini 3 Pro はデフォルトで動的な思考を使用します。複雑な推論が不要な場合は応答を高速化するために thinking_level を 'low' に、複雑なタスクで推論の深さを最大化するには(デフォルトの)'high' に設定してください。

Does Gemini 3 Pro support Google Search grounding?

はい、Gemini 3 Pro は Google Search grounding、File Search、Code Execution、URL Context ツールをサポートしています。なお、Google Maps grounding と Computer Use は Gemini 3 ではまだサポートされていません。

What makes Gemini 3 Pro different from Gemini 2.5 Pro?

Gemini 3 Pro は、エージェント型ワークフローと自律的なコーディングに段階的な改良を提供します。API 呼び出し間での推論コンテキストに thought signatures を使用し、知識のカットオフは2025年1月です。

Can Gemini 3 Pro combine structured outputs with built-in tools?

はい、Gemini 3 モデルでは、同一のリクエスト内で構造化出力(JSON schema)を Google Search、URL Context、Code Execution といった組み込みツールと組み合わせることができます。

Why should I keep temperature at 1.0 for Gemini 3 Pro?

Google は temperature をデフォルトの 1.0 に維持することを強く推奨しています。値を低くすると、予期しないループや、数学的および複雑な推論タスクで性能が低下する可能性があります。

What are thought signatures and why are they important?

Thought signatures は、モデルの内部推論を暗号化した表現です。関数呼び出しでは厳格に適用され、署名が欠落している場合は 400 エラーが返されます。公式 SDK はこれらを自動的に処理します。

Gemini 3 Pro の機能

モデル ID(プレビュー): `gemini-3-pro-preview`。 入力タイプ: テキスト、画像、動画、音声、PDF。出力: テキスト コンテキスト / トークン上限: 入力 ≈ 1,048,576 トークン; 出力 ≤ 65,536 トークン。 知識のカットオフ:2025年1月(新しい情報には Search Grounding を使用)。 対応機能(選択): function calling, code execution, file search, structured outputs, search grounding。非対応: audio generation, image generation, live API, image segmentation, Google Maps grounding(一部の機能は Gemini 2.5 と異なります)。

Gemini 3 Pro の料金

Gemini 3 Pro の競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。Gemini 3 Pro がコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。

gemini-3-pro (same price across variants shown)

Model familyVariant (model name)Input price (USD / 1M tokens)Output price (USD / 1M tokens)
gemini-3-progemini-3-pro-preview$1.60$9.60
gemini-3-progemini-3-pro-preview-thinking$1.60$9.60
gemini-3-progemini-3-pro-all$1.60$9.60

Gemini 3 Pro のサンプルコードとAPI

Gemini 3 Pro は、Gemini 3 ファミリーにおける Google/DeepMind の最新フラッグシップのマルチモーダル推論モデルです。これは彼らの「これまでで最もインテリジェントなモデル」と位置付けられ、深い推論、エージェント型のワークフロー、高度なコーディング、そして長文脈におけるマルチモーダル理解(テキスト、画像、音声、動画、コードおよびツール統合)のために設計されています。
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3-pro-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Gemini 3 Pro のバージョン

Gemini 3 Pro に複数のスナップショットが存在する理由としては、アップデート後の出力変動により旧版スナップショットの一貫性維持が必要な場合、開発者に適応・移行期間を提供するため、グローバル/リージョナルエンドポイントに対応する異なるスナップショットによるユーザー体験最適化などが考えられます。各バージョンの詳細な差異については、公式ドキュメントをご参照ください。
モデルID説明提供状況リクエスト
gemini-3-pro-all使用されている技術は非公式で、生成は不安定など✅Chat 形式
gemini-3-pro推奨、最新モデルを指す❌Gemini Generating Content
gemini-3-pro-preview公式プレビュー❌Gemini Generating Content

その他のモデル