Qwen 3 API は、Alibaba Cloud が開発した OpenAI 互換のインターフェースであり、開発者は高度な Qwen 3 大規模言語モデル (高密度アーキテクチャと専門家混合 (MoE) アーキテクチャの両方で利用可能) をアプリケーションに統合して、テキスト生成、推論、多言語サポートなどのタスクを実行できます。
Qwen 3の概要
他社とのちがい
- ハイブリッド推論機能Qwen 3 は従来の AI 機能と高度な動的推論を統合し、開発者の適応性と効率性を高めます。
- 拡張性モデル ファミリには、密なモデル (0.6B ~ 32B のパラメータ) と疎なモデル (30B のアクティブ化パラメータを持つ 3B、235B のアクティブ化パラメータを持つ 22B) が含まれており、幅広いアプリケーションに対応します。
- 拡張コンテキストウィンドウほとんどの Qwen 3 モデルは 128K トークン コンテキスト ウィンドウをサポートしており、長いドキュメントや複雑なタスクの処理が容易になります。
- マルチモーダルサポートQwen 3 モデルは、テキスト、画像、オーディオ、ビデオ入力を処理できるため、リアルタイムの音声対話や視覚データ分析など、さまざまなアプリケーションに適しています。
- オープンソースのアクセシビリティ: すべての Qwen 3 モデルは Apache 2.0 ライセンスに基づいてライセンスされており、Hugging Face や ModelScope などのプラットフォームを通じて利用できます。
テクニカルアーキテクチャ
モデルバリアント
Qwen 3 には、さまざまな計算ニーズに対応するさまざまなモデルが含まれています。
- 高密度モデル: 0.6B、1.7B、4B、8B、14B、32B パラメータのサイズで使用できます。
- スパースモデル: 30B のアクティブ化パラメータを備えた 3B モデルと 235B のアクティブ化パラメータを備えた 22B モデルを含めます。
このアーキテクチャにより、モバイル デバイスから高性能サーバーに至るまで、さまざまなハードウェア構成にわたって効率的な展開が可能になります。
文脈理解
128K トークンのコンテキスト ウィンドウを備えた Qwen 3 モデルは、拡張されたインタラクションにわたって一貫性を維持できるため、長い形式のコンテンツ生成や複雑な問題解決など、深いコンテキスト理解を必要とするタスクに適しています。
Qwenシリーズの進化
クウェンからクウェン3へ
Qwen シリーズは大きく進化しました:
- クウェン: 基本的な事前学習済み言語モデルとして導入され、さまざまなタスクで優れたパフォーマンスを発揮します。
- クウェンチャット: 人間の調整技術で微調整されたチャット モデル。高度なツールの使用と計画機能を紹介します。
- クウェン2: 0.5億から72億までのパラメータ範囲に対応する命令調整済み言語モデルを追加し、モデルスイートを拡張しました。フラッグシップモデルであるQwen2-72Bは、様々なベンチマークにおいて優れたパフォーマンスを示しました。
- クウェン2.5: テキスト、画像、ビデオ、オーディオを処理し、テキストとオーディオの両方の出力を生成できる Qwen2.5-Omni などのモデルを導入しました。
- クウェン 3: ハイブリッド推論機能と強化された効率性を組み込んだ最新版は、シリーズに大きな進歩をもたらしました。
ベンチマークパフォーマンス
Qwen2.5は、QwQやQwen3といった従来のモデルを大幅に上回る性能を備え、優れた数学、コーディング、常識推論、クリエイティブライティング、そしてインタラクティブな対話機能を提供します。Qwen3-30B-A3Bバリアントは、30.5億個のパラメータ(うち3.3億個がアクティブ)、48層、128個のエキスパート(タスクごとに8個がアクティブ)を備え、YaRNによる最大131万XNUMX千個のトークンコンテキストをサポートし、オープンソースモデルの新たな基準を確立しました。
- エイム25Qwen3 は 81.5 ポイントを獲得し、オープンソースの新記録を樹立しました。
- ライブコードベンチ: Qwen3 は 70 ポイント以上を獲得し、Grok3 よりも優れたスコアを獲得しました。
- アリーナハード: Qwen3はOpenAl-o1とDeepSeek-FR1を95.6ポイントで上回りました。
コードの例
開発者は、次の Python コード スニペットを使用して Qwen 3 モデルと対話できます。
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")
# Encode input prompt
input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response
output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)
print(response)
この例では、Hugging Face Transformers ライブラリを使用して、Qwen 3 モデルを読み込み、指定されたプロンプトに対する応答を生成する方法を示します。
結論
Qwen 3は、アリババのAI開発における重要なマイルストーンであり、強化された推論能力、スケーラビリティ、そしてマルチモーダルサポートを提供します。Apache 2.0ライセンスに基づくオープンソースとして提供されることで、AIコミュニティにおける広範な採用とさらなるイノベーションを促進します。AI環境が進化を続ける中、Qwen 3はアリババを国内外で強力なプレーヤーへと位置付けています。
電話方法 Qwen 3 CometAPI からの API
Qwen 3 CometAPI の API 価格:
| モデルバージョン | クウェン3 235B A22B | クウェン: クウェン3 30B A3B | クウェン3 8B |
| CometAPIの価格 | 入力トークン: $1.6 / XNUMX万トークン | 入力トークン: $0.4/Mトークン | 入力トークン: $0.32 / XNUMX万トークン |
| 出力トークン: 4.8ドル / XNUMX万トークン | 出力トークン: 1.2ドル / XNUMX万トークン | 出力トークン: 0.96ドル / XNUMX万トークン | |
| モデル名 | qwen3-235b-a22b | qwen3-30b-a3b | qwen3-8b |
| 説明します | これは、Mixture of Experts (MoE) アーキテクチャを採用した、3 億のパラメータを備えた Qwen235 シリーズのフラッグシップ モデルです。 | qwen3-30b-a3b: 30億のパラメータを備え、パフォーマンスとリソース要件のバランスが取れており、エンタープライズレベルのアプリケーションに適しています。 | 800 億個のパラメータを持つ軽量モデルで、リソースが制限された環境 (モバイル デバイスや低構成サーバーなど) 向けに特別に設計されています。 |
必要な手順
- ログインする コムタピまだユーザーでない場合は、まず登録してください
- インターフェースのアクセス認証情報APIキーを取得します。パーソナルセンターのAPIトークンで「トークンを追加」をクリックし、トークンキー(sk-xxxxx)を取得して送信します。
- このサイトの URL を取得します: https://api.cometapi.com/
使用方法
- "を選択します。
qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b” エンドポイントを使用してAPIリクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、弊社ウェブサイトのAPIドキュメントから取得できます。また、お客様の便宜を図るため、弊社ウェブサイトではApifoxテストも提供しています。 - 交換するアカウントの実際の CometAPI キーを使用します。
- コンテンツ フィールドに質問またはリクエストを入力します。モデルはこれに応答します。
- API 応答を処理して、生成された回答を取得します。
Comet APIのモデル起動情報については、以下を参照してください。 https://api.cometapi.com/new-model.
Comet APIのモデル価格情報については、以下を参照してください。 https://api.cometapi.com/pricing.
も参照してください Qwen 2.5 Max API
