Qwen 3 API

CometAPI
AnnaApr 28, 2025
Qwen 3 API

Qwen 3 API は、Alibaba Cloud が開発した OpenAI 互換のインターフェースであり、開発者は高度な Qwen 3 大規模言語モデル (高密度アーキテクチャと専門家混合 (MoE) アーキテクチャの両方で利用可能) をアプリケーションに統合して、テキスト生成、推論、多言語サポートなどのタスクを実行できます。


Qwen 3の概要

他社とのちがい

  • ハイブリッド推論機能Qwen 3 は従来の AI 機能と高度な動的推論を統合し、開発者の適応性と効率性を高めます。
  • 拡張性モデル ファミリには、密なモデル (0.6B ~ 32B のパラメータ) と疎なモデル (30B のアクティブ化パラメータを持つ 3B、235B のアクティブ化パラメータを持つ 22B) が含まれており、幅広いアプリケーションに対応します。
  • 拡張コンテキストウィンドウほとんどの Qwen 3 モデルは 128K トークン コンテキスト ウィンドウをサポートしており、長いドキュメントや複雑なタスクの処理が容易になります。
  • マルチモーダルサポートQwen 3 モデルは、テキスト、画像、オーディオ、ビデオ入力を処理できるため、リアルタイムの音声対話や視覚データ分析など、さまざまなアプリケーションに適しています。
  • オープンソースのアクセシビリティ: すべての Qwen 3 モデルは Apache 2.0 ライセンスに基づいてライセンスされており、Hugging Face や ModelScope などのプラットフォームを通じて利用できます。

テクニカルアーキテクチャ

モデルバリアント

Qwen 3 には、さまざまな計算ニーズに対応するさまざまなモデルが含まれています。

  • 高密度モデル: 0.6B、1.7B、4B、8B、14B、32B パラメータのサイズで使用できます。
  • スパースモデル: 30B のアクティブ化パラメータを備えた 3B モデルと 235B のアクティブ化パラメータを備えた 22B モデルを含めます。

このアーキテクチャにより、モバイル デバイスから高性能サーバーに至るまで、さまざまなハードウェア構成にわたって効率的な展開が可能になります。

文脈理解

128K トークンのコンテキスト ウィンドウを備えた Qwen 3 モデルは、拡張されたインタラクションにわたって一貫性を維持できるため、長い形式のコンテンツ生成や複雑な問題解決など、深いコンテキスト理解を必要とするタスクに適しています。

Qwenシリーズの進化

クウェンからクウェン3へ

Qwen シリーズは大きく進化しました:​

  • クウェン: 基本的な事前学習済み言語モデルとして導入され、さまざまなタスクで優れたパフォーマンスを発揮します。​
  • クウェンチャット: 人間の調整技術で微調整されたチャット モデル。高度なツールの使用と計画機能を紹介します。​
  • クウェン2: 0.5億から72億までのパラメータ範囲に対応する命令調整済み言語モデルを追加し、モデルスイートを拡張しました。フラッグシップモデルであるQwen2-72Bは、様々なベンチマークにおいて優れたパフォーマンスを示しました。
  • クウェン2.5: テキスト、画像、ビデオ、オーディオを処理し、テキストとオーディオの両方の出力を生成できる Qwen2.5-Omni などのモデルを導入しました。
  • クウェン 3: ハイブリッド推論機能と強化された効率性を組み込んだ最新版は、シリーズに大きな進歩をもたらしました。

ベンチマークパフォーマンス

Qwen2.5は、QwQやQwen3といった従来のモデルを大幅に上回る性能を備え、優れた数学、コーディング、常識推論、クリエイティブライティング、そしてインタラクティブな対話機能を提供します。Qwen3-30B-A3Bバリアントは、30.5億個のパラメータ(うち3.3億個がアクティブ)、48層、128個のエキスパート(タスクごとに8個がアクティブ)を備え、YaRNによる最大131万XNUMX千個のトークンコンテキストをサポートし、オープンソースモデルの新たな基準を確立しました。

  • エイム25Qwen3 は 81.5 ポイントを獲得し、オープンソースの新記録を樹立しました。
  • ライブコードベンチ: Qwen3 は 70 ポイント以上を獲得し、Grok3 よりも優れたスコアを獲得しました。
  • アリーナハード: Qwen3はOpenAl-o1とDeepSeek-FR1を95.6ポイントで上回りました。

コードの例

開発者は、次の Python コード スニペットを使用して Qwen 3 モデルと対話できます。

from transformers import AutoTokenizer, AutoModelForCausalLM

# Load tokenizer and model

tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")

# Encode input prompt

input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")

# Generate response

output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)

print(response)

この例では、Hugging Face Transformers ライブラリを使用して、Qwen 3 モデルを読み込み、指定されたプロンプトに対する応答を生成する方法を示します。

結論

Qwen 3は、アリババのAI開発における重要なマイルストーンであり、強化された推論能力、スケーラビリティ、そしてマルチモーダルサポートを提供します。Apache 2.0ライセンスに基づくオープンソースとして提供されることで、AIコミュニティにおける広範な採用とさらなるイノベーションを促進します。AI環境が進化を続ける中、Qwen 3はアリババを国内外で強力なプレーヤーへと位置付けています。


電話方法 Qwen 3 CometAPI からの API

Qwen 3 CometAPI の API 価格:

モデルバージョンクウェン3 235B A22Bクウェン: クウェン3 30B A3Bクウェン3 8B
CometAPIの価格入力トークン: $1.6 / XNUMX万トークン入力トークン: $0.4/Mトークン入力トークン: $0.32 / XNUMX万トークン
出力トークン: 4.8ドル / XNUMX万トークン出力トークン: 1.2ドル / XNUMX万トークン出力トークン: 0.96ドル / XNUMX万トークン
モデル名qwen3-235b-a22bqwen3-30b-a3bqwen3-8b
説明しますこれは、Mixture of Experts (MoE) アーキテクチャを採用した、3 億のパラメータを備えた Qwen235 シリーズのフラッグシップ モデルです。qwen3-30b-a3b: 30億のパラメータを備え、パフォーマンスとリソース要件のバランスが取れており、エンタープライズレベルのアプリケーションに適しています。800 億個のパラメータを持つ軽量モデルで、リソースが制限された環境 (モバイル デバイスや低構成サーバーなど) 向けに特別に設計されています。

必要な手順

  • ログインする コムタピまだユーザーでない場合は、まず登録してください
  • インターフェースのアクセス認証情報APIキーを取得します。パーソナルセンターのAPIトークンで「トークンを追加」をクリックし、トークンキー(sk-xxxxx)を取得して送信します。
  • このサイトの URL を取得します: https://api.cometapi.com/

使用方法

  1. "を選択します。qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b” エンドポイントを使用してAPIリクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、弊社ウェブサイトのAPIドキュメントから取得できます。また、お客様の便宜を図るため、弊社ウェブサイトではApifoxテストも提供しています。
  2. 交換するアカウントの実際の CometAPI キーを使用します。
  3. コンテンツ フィールドに質問またはリクエストを入力します。モデルはこれに応答します。
  4. API 応答を処理して、生成された回答を取得します。

Comet APIのモデル起動情報については、以下を参照してください。 https://api.cometapi.com/new-model.

Comet APIのモデル価格情報については、以下を参照してください。 https://api.cometapi.com/pricing.

も参照してください Qwen 2.5 Max API

もっと読む

1つのAPIで500以上のモデル

最大20%オフ