GPT-5.5の幻覚率86%は、2026年4月のローンチとともに、誰も拾いたくない手榴弾のように落ちてきた。モデルは Artificial Analysis の AA-Omniscience ベンチマークで正答率57%を達成し、史上最高のファクトリコールを記録した——しかし「知らない」場合でも、主要競合のどれよりも「知らないまま」答えようとする傾向が強い。
Claude Opus 4.7 の幻覚率は36%。Gemini 3.1 Pro は50%。GPT-5.5 は86%。
どちらも真実だ:トークン単位で借りられる中で最も賢いモデルであり、同時に最も進んで作り話をするモデルでもある。このギャップを理解することが、GPT-5.5を戦略的に使うことと、自信満々の誤情報でクライアントレポートを出荷することの分かれ目だ。
これは「GPT-5.5は悪、Claude Opus 4.7は善」という話ではない。タスク要件と失敗許容度に基づき、どのモデルをいつ使うかを決める意思決定フレームワークだ。
86%が実際に測っているもの(そして、それがあなたの想像と違う理由)
Artificial Analysis は40以上のドメインにまたがる事実知識をストレステストするために AA-Omniscience を構築した。このベンチマークは2つの指標を追跡する。
- Accuracy(正答率): モデルが答えたとき、どのくらい正しいか?
- Hallucination rate(幻覚率): モデルが何かを「知らない」とき、「わからない」と言う代わりに自信をもって答えをでっち上げる頻度はどのくらいか?
GPT-5.5は、自信満々の誤答を測るために特別に設計されたこのベンチマークで、フラッグシップモデルの中で最悪の犯人だ。
86%の裏にある算数
この数字が実際に意味するところはこうだ。GPT-5.5に、学習データが不十分で正確に答えられない事実質問を100件投げたとしよう。
- GPT-5.5 (幻覚率86%): そのうち86件にとにかく答えようとする。大半は間違っているが、正しいときと同じ自信のトーンで返ってくる。
- Claude Opus 4.7 (幻覚率36%): 36件に回答。残り64件では「十分な情報がない」と述べるか、推測を拒否する。
- Gemini 3.1 Pro (幻覚率50%): 50件に答え、50件で不確実性を認める中間的な挙動。
重要な洞察: 作話は小さなミスではない。モデルが文脈上もっともらしく聞こえる詳細——人名、数値、引用、日付、規制——を「発明」し、正しいときと同じ口調で提示するという、特定の失敗モードだ。
具体例
たとえばこう尋ねるとする:「2024年モンタナ州上院第37選挙区の最終得票数は?」
-
GPT-5.5(想定): 「最終得票数は、Sarah Mitchell (R) が12,847対11,203で勝利しました。」(もっともらしいが作り話)
-
Claude Opus 4.7(想定): 「2024年のモンタナ州議会選挙の個別選挙区における具体的な得票数にはアクセスできません。」
-
結果: GPT-5.5の回答はそのままレポートにコピペされる。Claudeの非回答は、ユーザーに30秒のググりを強いる。
政治コンサルのブリーフィングでは、この差は壊滅的だ。一方、関数名を生成するコーディングエージェントなら問題ない——リンターが架空のライブラリの import を弾いてくれる。
三モデルのパフォーマンス比較
以下が GPT-5.5、GPT-5.4、Claude Opus 4.7 の実際の位置づけだ。
| Metric | GPT-5.5 | GPT-5.4 | Claude Opus 4.7 | Winner |
|---|---|---|---|---|
| SWE-Bench Verified | 58.60% | 57.70% | 64.30% | Claude +5.7pp |
| Terminal-Bench 2.0 | 82.70% | 75.10% | 69.40% | GPT-5.5 +7.6pp vs 5.4 |
| OSWorld-Verified | 78.70% | 75% | 78.00% | Statistical tie |
| AA-Omniscience Accuracy | 57% | 43% | ~52% | GPT-5.5 +5pp |
| Hallucination Rate | 86% | Not disclosed | 36% | Claude 2.4x better |
この表が実際に示していること
- エンドツーエンドのコーディングワークフロー(SWE-Bench Pro):Claude 4.7 が依然 5.7 ポイントリード。タスクが「GitHubのIssueを自律的に解決」なら、Claude 4.7 が計測上優位。
- ターミナルコマンドの実行(Terminal-Bench 2.0):GPT-5.5が82.7%で圧勝、GPT-5.4に7.6ポイント差。シェルコマンドをオーケストレーションするエージェントには GPT-5.5 が明確な選択。
- デスクトップ操作(OSWorld):約78%で統計的に同等。どちらでも可。
- 誤答が高コストとなるファクトタスク: Claudeの幻覚率36%に対しGPT-5.5は86%。自信満々の作話をする確率は Claude のほうが 2.4 倍低い。
- コスト制約の強い本番運用: GPT-5.4 は 2.00/2.00/2.00/12(CometAPI)で GPT-5.5 より60%安く、Claude より50%安い。
意思決定フレームワーク:いつ何を使うか
フレームワークは「GPT-5.5が勝つ」「Claudeが勝つ」ではない。タスクに失敗モードを合わせることだ。
GPT-5.5 を使う場面
出力に検証レイヤーが組み込まれている
- コード生成(テスト/リンターが幻覚を検知)
- ターミナルコマンド(シェルエラーが即時に文法ミスを顕在化)
- スキーマ検証付きのデータ変換
- 検算する数学問題
最大の推論性能が必要で、一定のエラーを許容できる
- ピアレビュー前提の複雑なソフトウェアアーキテクチャ設計
- 引用を手動でファクトチェックする前提のリサーチ要約
- ブレスト/アイデーション(幻覚した概念が発想の種になる)
- 競技プログラミングの練習(既知の出力でテスト)
コスト対インテリジェンス効率が最優先
- GPT-5.4からのトークン単価は倍増し 5/5/5/30/1M 入出力トークンだが、約40%のトークン使用削減で多くは吸収され、Intelligence Index の実行は実質約+20%のコスト増にとどまる
- エラー訂正を自動化した大規模APIデプロイ
- モデルの限界を理解した社内向けツール
GPT-5.5 を避ける場面
事実の正確性が構造的要件である
- 法務文書の分析(でっち上げた判例引用は制裁対象)
- 医学文献レビュー(誤った薬物相互作用は危険)
- 財務報告(架空の数字はコンプラ違反)
- 学術研究の引用(撤回は信用に傷)
下流の検証レイヤーがない
- ポリシーを案内する顧客向けチャットボット
- 具体的な規制を引用する自動メール応答
- ユーザーが鵜呑みにするオンボーディング文書
- 「AIがそう言った」を権威とみなすあらゆるシナリオ
幻覚の修正コストが Claude の利用コストを上回る
- 人手検証を回すなら、Claude の低エラー率は工数を節約
- (幻覚率 × 修正担当者の時給)を乗算し、それが 4input/4 input / 4input/20 output 差額を超えるなら Claude を使う。
コスト最適化:ハイブリッド戦略
大半の本番システムにとって、最高ROIは単一モデルの選択ではない——タスク特性に基づいて GPT-5.5、GPT-5.4、Claude を賢くルーティングすることだ。
月間コスト比較
| Monthly Token Usage | GPT-5.5 Cost | GPT-5.4 Cost | Claude Opus 4.7 Cost | GPT-5.4 Savings vs 5.5 | Claude Cost vs 5.5 |
|---|---|---|---|---|---|
| 50M input / 10M output | $550 | $275 | $400 | -$275 (50%) | -$150 (27%) |
| 500M input / 100M output | $5,500 | $2,750 | $4,000 | -$2,750 (50%) | -$1,500 (27%) |
| 2B input / 400M output | $22,000 | $11,000 | $16,000 | -$11,000 (50%) | -$6,000 (27%) |
エージェント的ワークフローで一般的な入力:出力=5:1を想定。公式API価格(GPT-5.5 は 5/5/5/30、GPT-5.4 は 2.50/2.50/2.50/15、Claude Opus 4.7 は 5/5/5/25)に基づく。
重要な洞察: 月間 500M 入力トークンなら、適切なタスクを GPT-5.4 に振り替えるだけで年間 $33,000 節約。クエリの 30% を GPT-5.4 にルーティングするだけで約 $10,000/年の削減。
三層ルーティングアーキテクチャ
Incoming Request
│
▼
Task Classifier
│
├──► High-stakes factual (citations, compliance, medical)
│ └──► Claude Opus 4.7 ($4 input / $20 output)
│
├──► Code generation, debugging, terminal commands
│ └──► GPT-5.5 ($5 input / $30 output)
│
└──► Simple queries, content drafting, data extraction
└──► GPT-5.4 ($2.50 input / $15 output)
ルーティングルール例:
- 引用要件を含む → Claude
- タスクタイプ = コード生成またはターミナル実行 → GPT-5.5
- 入力トークン \< 2K かつ 外部検証不要 → GPT-5.4
- 公開前に人手レビューあり → GPT-5.5
- 出力が事実主張を含み、直接エンドユーザーに届く → Claude
既存フレームワークとの統合
LangChain や LlamaIndex を使っているなら、ビルトインのセレクターでモデルルーティングを実装する。
- LangChain:
ChatModelSelectorを用い、メタデータタグ(例:task_complexity: "low" | "medium" | "high"とfactual_risk: boolean)に基づいてクエリをルーティング - LlamaIndex:
RouterQueryEngineを設定し、クエリ特性を評価したうえで GPT-5.5、GPT-5.4、Claude を選択するカスタムロジックを適用
要は、上流でクエリにリスク属性をタグ付け(ユーザー入力の分類またはLLMの意図検出)し、その属性をモデル選択ルールにマッピングすることだ。
GPT-5.5で火傷しないための使い方
幻覚抑制:本番で事実主張を含むタスクに GPT-5.5 を使うなら、以下3つのワークフローは必須だ。
二段階のファクト抽出
引用、統計、日付、氏名を含む出力全般に:
First pass (GPT-5.5): Generate the analysis/report
Second pass (Same model): "Here's your previous response. For every
specific claim with a date, number, name, or citation, list:
(1) The claim
(2) A source you can verify
(3) Your confidence (0-100%) that the source says exactly this
If you fabricated anything or aren't sure, flag it explicitly."
多くの架空ライブラリは、このプロンプトで列挙を強制すると自信が揺らぐため、フラグが立つ。
確信度スコア付き出力
モデルに自分の確信度をスコアさせる:
"After each factual claim, add [confidence: X%]. Use:
95-100%: You have direct training data
70-94%: Strong inference from related facts
50-69%: Educated guess
<50%: Mark as [VERIFY REQUIRED]"
閾値未満はエンドユーザーに届く前にフィルタリングする。
Claude とのハイブリッド・ファクトチェック
高リスク出力の場合:
GPT-5.5 generates → Extract factual claims → Pass to Claude:
"Verify these claims. For each, respond SUPPORTED / CONTRADICTED / UNKNOWN
based on your training data. Do not guess."
Claude の幻覚率36%は、ファクトチェッカーとして 2.4 倍信頼できる。モデル呼び出しは2回になるが、$50K のコンプラ違反を防げば、GPT-5.5+Claude 価格で約 250 万入力トークン分をペイできる。
本当のトレードオフ
OpenAI はこの指標を隠してはいない——Artificial Analysis が GPT-5.5 ローンチ当日に公開した。ただし先頭に掲げはしなかった。その判断は理解できる。
擁護できないのは、GPT-5.5 を Claude Opus 4.7 と同じ前提でデプロイすることだ。両者は失敗モードが異なる別のツールである。
- GPT-5.5: 天井は最も高く、エラー自覚は最も低い。検証がワークフローに組み込まれている場面に最適。
- Claude Opus 4.7: 幻覚率が低く、不確実性の認知が上手い。誤答のコストが「無回答」より高い場面に最適。
- GPT-5.4: 50% 安く、ほとんどのタスクで能力は 95% 程度。最先端性能よりコスト重視の場面に最適。
フレームワークは「GPT-5.5が勝つ/Claudeが勝つ」ではない。失敗モードをタスクに合わせることだ。コーディングや推論は、自信満々の誤答でもテストやリンター、動作の不整合で捕捉できる。しかし事実想起はそうはいかない——法的文書の架空引用は本物と同じ自信で着地する。
GPT-5.5 は実証的に得意な領域で使う。コスト敏感なクエリは GPT-5.4 に回す。作話のダメージがAPI節約分を上回るタスクは Claude を使う。そして、重要なものはすべて検証する。
AIコストを削減する準備はいいですか?
👉 CometAPI を無料で試す — 同じモデルが20%安く、請求は一元化。
現在のコストを比較: 先月の OpenAI/Anthropic の請求額に 0.8 を掛けてください。コード変更ゼロで新しい月額になります。
移行に関する質問は? CometAPI のドキュメント に、OpenAI Python SDK、LangChain、LlamaIndex のドロップイン置き換え例を掲載。ほとんどのチームが2時間以内に切り替え完了。
このフレームワークが役に立ちましたか? チームで共有してください。2026年に最速で予算を燃やす方法は、AI APIを定価で払いながら、競合がCometAPIで賢くルーティングするのを横目で見ることです。
.webp&w=3840&q=75)