Qwen-3.5、旧正月に — 2026年にクローズドソースの最上位を凌駕するのか

CometAPI
AnnaFeb 16, 2026
Qwen-3.5、旧正月に — 2026年にクローズドソースの最上位を凌駕するのか

2026年2月16日 — 中国の春節(大晦日)で注目が集まるタイミングに合わせて — Alibaba は、同社の旗艦たる大規模言語・マルチモーダルモデルファミリーの次期メジャーイテレーションである Qwen 3.5 の提供開始を発表した。

Qwen 系のバリアントはトップのクローズドソースモデルとのギャップを縮めており、GLM-5 や MiniMax M2.5 といった他の中国勢もフロンティアを押し広げている。純粋なベンチマーク上限では、特化構成のプロプライエタリ(GPT/Gemini/Claude の各バリアント)が依然として狭いニッチで優位にあるものの、Qwen-3.5 はオープンウェイト、マルチモーダルなエージェント機能、そして大幅に低い運用コストの組み合わせにより、2026 年初頭でもっとも破壊的な登場となっている。

Qwen3.5 とは何か?

Qwen3.5 は、Alibaba が提供するオープンウェイトのマルチモーダル基盤モデルファミリー(いくつかのバリアントはオープンウェイト、さらに高性能オファリングとしてクローズド/“Plus” ティアを用意)の最新世代で、いわゆる「エージェント的」ワークフロー向けに設計されている。すなわち、(ビジョン+テキストの)知覚、複数ステップにわたる推論、そしてツールやアクションの起動ができるモデルである。Alibaba の発表は、Qwen3 およびそれ以前のバリアントに対して、Qwen3.5 がパフォーマンスとコストの両面で飛躍し、ネイティブな視覚と言語の統合/エージェント機能と大きなコンテキストウィンドウ対応を備えると位置付けている。

リリースされたバージョン

Alibaba は少なくとも 2 つのバリアントを公開した:

Model VersionTotal ParametersActive ParamsKey Characteristics
Qwen3.5-397B-A17B~397 billion17 billionオープンウェイトのフラッグシップ; 高効率な推論; マルチモーダル
Qwen3.5-Plus~3970 billion equivalent~170 billionAPI 利用向けのクラウドホステッドなフルキャパシティ版

Qwen3.5 の主な特徴は?

以下は、Qwen3.5 の主要なイノベーションと、トップのクローズドソースモデルとの比較の詳細だ。

1. ハイブリッドアーキテクチャと推論効率

Qwen3.5 は次を組み合わせている:

  • スパース MoE レイヤー — 効率的なスケーリングのために
  • 線形アテンションを備えた Gated Delta Networks — より高速なトークン処理
  • 巨大なコンテキストウィンドウ — 最大 1M トークン(拡張可能)。長尺動画や大規模コードベースでもプレースホルダーのトレードオフなしに長いタスクシーケンスを可能にする
FeatureQwen3.5GPT-5.2Claude Opus 4.5Gemini 3 Pro
ArchitectureMoE + Gated DeltaDense transformerDense transformerDense transformer
Context LengthUp to 1M tokens~100–200K tokens~100–200K tokens~100–200K tokens
Multimodal (native)YesYesYesYes
Languages Supported201+~100+~100+~100+
Inference EfficiencyVery highModerateModerateModerate

評価: Qwen3.5 のハイブリッドアーキテクチャは、特に大規模トークンの効率的な推論に適しており、スループットとコストが重要となる実運用で競争力となる。


2. エージェント機能

「Agentic AI」とは、モデルが自律的にタスクをオペレーション化し、人手によるプロンプトなしに意思決定を行い、GUI ターゲットに作用したり、多段の論理を実行したりすることを指す。

Alibaba の公式アナウンスによれば、Qwen3.5 は以下を実現している:

  • モバイルおよびデスクトップアプリケーションにまたがるマルチステップタスクを自律的に実行
  • GUI 操作や動画理解などの視覚エージェント作業をサポート
  • 拡張された推論とタスク計画

これにより、Qwen3.5 は単なる会話型 LLMにとどまらず、自律的な AI ワークフローの基盤として位置付けられる。これは現在、AI 研究と導入の新たなフロンティアである。

3. マルチモーダリティと言語カバレッジ

Qwen3.5 の際立った特徴のひとつはネイティブなマルチモーダル能力であり、テキスト、画像、そして動画入力をシームレスに処理できる点だ。さらに言語サポートも大幅に拡大し、現在は201 言語と方言(Qwen3 の 119 から増加)をカバーしており、グローバルな適用範囲が大きく広がった。

4. マルチモーダルインテリジェンス

従来のテキスト特化型言語モデルの多くと異なり、Qwen 3.5 のビジョンと言語の統合は次のような機能を可能にする:

  • 長尺動画の理解連続 2 時間までの動画入力に対応するとされる。
  • 視覚的推論と解釈 — 画像認識、キャプション生成、視覚コマンドの解釈などのタスクに対応。
  • GUI とコード合成 — 例:視覚的な UI モックアップを動作するコードへ変換。

これらの機能により、Qwen3.5 は LLM であるだけでなく、自律エージェントのためのマルチモーダル基盤としての地位を確立する。

ベンチマークでの Qwen-3.5 のパフォーマンスは?

Qwen-3.5、旧正月に — 2026年にクローズドソースの最上位を凌駕するのか

中核的推論と知識評価

以下の表は、Qwen3.5 と主要なプロプライエタリモデルのベンチマーク値を比較してまとめたものだ:

BenchmarkQwen3.5GPT-5.2Claude 4.5Gemini 3 Pro
MMLU-Pro (knowledge)87.8~85+n/a~86+
GPQA (PhD-level reasoning)88.4~87~87~88
IFBench (instruction following)76.5~74–75~75~74
BFCL-V4 (general agent)>Gemini 3 ProBaselineBelow Qwen3.5See notes
  • TAU2-Bench (tool execution + reasoning): Qwen3.5(オープン 397B バリアント)— ~87.1。GPT-5.2 の構成はベンダー表でしばしば高 80 台〜90 台の範囲。
  • BFCL-V4 (function/tool calling): Qwen3.5 — ~72.9。ベンダーのリーダーボード上でトップのクローズドモデルはより高い値を示す(GPT-5.2 / Claude Opus バリアントの一部構成は ~77–78)。BFCL は正確な関数選択、引数組み立て、ツールオーケストレーションを測定。
  • VITA-Bench (multimodal agentic interactions): Qwen3.5 — ~49.7。競合するクローズドモデルはばらつきがあり、単一モダリティの視覚推論でより高いものもあるが、Qwen の統合マルチモーダルエージェントの数値は競争力がある。
  • DeepPlanning (long-horizon planning): Qwen3.5 — ~34.3。DeepPlanning は複数日にまたがる計画と長期ホライゾンのステップに焦点を当てた新しく難度の高いテスト(論文:arXiv)。フロンティアモデル全体でスコアには改善余地があるが、Qwen は以前のイテレーションに比べ、長期ホライゾンのエージェント能力を向上させている。
  • MMLU / MMMLU / knowledge tasks: Qwen3.5 — MMLU/各種バリアントは ~88–89(ベンダー値)と報告されており、以前の Qwen バージョンと比べて一般知識/推論でハイティアに位置する。

これらの数値が示すもの: Qwen3.5 はマルチツールおよびマルチモーダルのエージェント系リーダーボード(BFCL、TAU2 系、VITA)でとくに高得点で、Alibaba が掲げるプロダクト目標(アプリ内で行動するエージェント)と一致する。標準的な推論やコーディングのスライスでは競争力はあるが、最強のクローズドシステムを全面的に凌駕するとは限らない。むしろトップティアに位置し、実用的な領域の多くで差を詰めている。Qwen3.5 は少なくとも、特定のタスクではトップのクローズドソースモデルに匹敵するか、僅差で上回る— とくに知識推論、マルチモーダル理解、そしてエージェントワークフローで顕著だ。

2026 年時点で Qwen3.5 はトップティアのクローズドソースモデルを上回るか?

これは核心的な問いであり、慎重な言い回しが必要だ。多くの中立的な AI アナリストは、Qwen3.5 を2026 年のクローズドソース最上位と競合しうるモデルとみなし、実世界のコスト対価値という観点では、マルチモーダリティとコンテキスト長が肝心な用途で多くの場合に優位と評するだろう。

はい — 特定のベンチマークとコスト指標において

効率と価格: トークンコスト、推論速度、導入の手頃さで、Qwen3.5 は大きく先行している。

ベンチマーク性能: 報告値では、Qwen3.5 は知識推論(MMLU-Pro)や高度推論系ベンチマークで GPT-5.2 や Gemini 3 Pro に匹敵または上回るエージェント系タスクでは、Gemini 3 Pro や GPT-5.2 を上回ると主張している。

エージェント能力: Qwen3.5 のアーキテクチャは、マルチモーダリティと拡張コンテキストが効くエージェント系タスクスイートでとくに強みを発揮する。エージェント系タスクでは、Gemini 3 Pro や GPT-5.2 を上回ると主張している。

Qwen-3.5 が優位になりやすいシナリオ

  1. 大規模かつレイテンシに敏感な推論スタック(例:大規模カスタマー対応チャット、大量コード生成)。Qwen-3.5 のスループットはコスト削減に直結しやすい。
  2. オンプレミスでプライバシーに敏感な導入(医療、規制産業)。オープンウェイトによりベンダーロックインが軽減される。
  3. プロプライエタリアプリに統合されたエージェント的マルチモーダルパイプライン。ネイティブなビジョンからアクションまでの経路により、統合の複雑性が下がり、エンドツーエンドの成功率が向上する。

価格とディスカウント: 競争優位となるコスト効率

Qwen3.5 のもっとも劇的な差別化要因のひとつは価格であり、絶対額と米国系プロプライエタリとの比較の両面で優位だ。

API とトークンの価格

ModelAPI Price per 1M TokensRelative Cost Index*
Qwen3.5-Plus (Alibaba)~0.8 CNY (~$0.11)
Gemini 3 Pro~14.4 CNY (~$2.00)~18×
GPT-5.2~12–20 CNY (~$1.70–$2.80)~15–25×
Claude Opus 4.5~12–15 CNY (~$1.70–$2.10)~15–18×

*報告された現地価格からの換算。比較の文脈を示す概算値。

示唆: Qwen3.5 のネイティブ価格は、いくつかのプロプライエタリモデルの約 1/18 に相当し、エンタープライズや開発者エコシステムにおけるコスト対パフォーマンスを根本的に変える。トークンコストの低さは、とりわけ大規模な推論タスクでの導入オーバーヘッドを大幅に削減する。

戦略的・市場へのインパクト

Qwen3.5 は、オープンライセンス(Apache 2.0)マルチモーダル対応エージェント準備性低価格を兼ね備え、グローバルな AI 導入の様相を変えうる — 特にコストと柔軟性を重視する国際的な開発者にとって。

さらに、このリリースは競争のダイナミクスを加速させる可能性がある:

  • クローズドソースベンダーに対する、より良い価格やオープンウェイト提供への圧力の増大
  • これまでコスト制約が導入の障壁だったローカル企業システムでの AI 採用増
  • Hugging Face や Alibaba 独自の開発者エコシステムなどのプラットフォームで、オープンアクセスとコミュニティ貢献による研究イノベーションの拡大

結論

Qwen3.5 の春節前夜のリリースは、2026 年の AI ランドスケープに新たなベンチマークを打ち立てたと言ってよいだろう。 GPT-5.2、Claude Opus 4.5、Gemini 3 Pro といったプロプライエタリシステムは依然として強力だが、Qwen3.5 は多くのタスクでそれらに匹敵または上回る性能を示し、かつ劇的に低いコストと幅広いマルチモーダル能力を備える。

ベンチマーク評価では、多くの主要指標でQwen3.5 をトップのクローズドソースモデルと同等以上の性能層に位置付ける結果が見られる一方、コストと推論効率では決定的に優位である。

開発者は、Qwen 3.5 APICometAPI 経由で今すぐアクセスできる。Playground でモデルの機能を試し、詳細は API guide を参照してほしい。アクセス前に、CometAPI にログインし API キーを取得していることを確認すること。CometAPI は公式価格より大幅に低い価格を提供し、統合を支援する。

準備はいいですか?→ Sign up fo Qwen-3.5 today

さらに多くのティップス、ガイド、AI ニュースを知りたい場合は、VKXDiscord をフォローしてください。

トップモデルを 低コストで利用

もっと読む