API ของ Qwen 3 เป็นอินเทอร์เฟซที่เข้ากันได้กับ OpenAI ที่พัฒนาโดย Alibaba Cloud ช่วยให้นักพัฒนาสามารถรวมโมเดลภาษาขนาดใหญ่ของ Qwen 3 ขั้นสูงได้ ซึ่งมีให้ใช้งานในสถาปัตยกรรมทั้งแบบหนาแน่นและแบบผสมผสานของผู้เชี่ยวชาญ (MoE) เข้ากับแอปพลิเคชันสำหรับงานต่างๆ เช่น การสร้างข้อความ การใช้เหตุผล และการสนับสนุนหลายภาษา
ภาพรวม Qwen 3
Key Features
- ความสามารถในการใช้เหตุผลแบบไฮบริด:Qwen 3 บูรณาการทั้งฟังก์ชั่น AI ทั่วไปและการใช้เหตุผลแบบไดนามิกขั้นสูง เพิ่มความสามารถในการปรับตัวและประสิทธิภาพสำหรับนักพัฒนา
- scalability:กลุ่มโมเดลประกอบด้วยทั้งโมเดลหนาแน่น (พารามิเตอร์ 0.6B ถึง 32B) และโมเดลเบาบาง (30B พร้อมพารามิเตอร์ที่เปิดใช้งาน 3B, 235B พร้อมพารามิเตอร์ที่เปิดใช้งาน 22B) เพื่อรองรับการใช้งานที่หลากหลาย
- หน้าต่างบริบทขยาย:โมเดล Qwen 3 ส่วนใหญ่รองรับหน้าต่างบริบทโทเค็น 128K ช่วยให้การประมวลผลเอกสารยาวๆ และงานที่ซับซ้อนเป็นไปได้สะดวกยิ่งขึ้น
- การสนับสนุนหลายรูปแบบ:โมเดล Qwen 3 สามารถประมวลผลข้อความ รูปภาพ เสียง และอินพุตวิดีโอ ทำให้เหมาะกับการใช้งานที่หลากหลาย รวมถึงการโต้ตอบด้วยเสียงแบบเรียลไทม์และการวิเคราะห์ข้อมูลภาพ
- การเข้าถึงแบบโอเพ่นซอร์ส:โมเดล Qwen 3 ทั้งหมดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 และมีจำหน่ายผ่านแพลตฟอร์มเช่น Hugging Face และ ModelScope
สถาปัตยกรรมทางเทคนิค
รุ่น Variants
Qwen 3 ครอบคลุมโมเดลต่างๆ เพื่อตอบสนองความต้องการในการคำนวณที่แตกต่างกัน:
- โมเดลที่หนาแน่น:มีให้เลือกขนาดพารามิเตอร์ 0.6B, 1.7B, 4B, 8B, 14B และ 32B
- โมเดลแบบเบาบาง:รวมโมเดล 30B ที่มีพารามิเตอร์ที่เปิดใช้งาน 3B และโมเดล 235B พร้อมพารามิเตอร์ที่เปิดใช้งาน 22B
สถาปัตยกรรมนี้ช่วยให้สามารถปรับใช้อย่างมีประสิทธิภาพผ่านการกำหนดค่าฮาร์ดแวร์ต่างๆ ตั้งแต่อุปกรณ์เคลื่อนที่ไปจนถึงเซิร์ฟเวอร์ประสิทธิภาพสูง
ความเข้าใจในบริบท
ด้วยหน้าต่างบริบทโทเค็นขนาด 128 ชิ้น โมเดล Qwen 3 สามารถรักษาความสอดคล้องกันได้ระหว่างการโต้ตอบที่ขยายออกไป ทำให้เหมาะสำหรับงานที่ต้องใช้ความเข้าใจบริบทอย่างลึกซึ้ง เช่น การสร้างเนื้อหาในรูปแบบยาวและการแก้ปัญหาที่ซับซ้อน
วิวัฒนาการของซีรีย์ Qwen
จากคเว่นถึงคเว่น 3
ซีรีส์ Qwen ได้ผ่านการพัฒนาครั้งสำคัญ:
- คิวเวน:แนะนำให้เป็นโมเดลภาษาพื้นฐานที่ผ่านการฝึกอบรมไว้ล่วงหน้า แสดงให้เห็นถึงประสิทธิภาพที่เหนือกว่าในงานต่างๆ
- Qwen-แชท:โมเดลการแชทที่ปรับแต่งด้วยเทคนิคการจัดตำแหน่งของมนุษย์ แสดงให้เห็นความสามารถในการใช้เครื่องมือขั้นสูงและการวางแผน
- คิวเว่น2:ขยายชุดโมเดลด้วยโมเดลภาษาที่ปรับแต่งตามคำสั่ง ซึ่งมีช่วงพารามิเตอร์ตั้งแต่ 0.5 ถึง 72 พันล้าน โมเดลเรือธง Qwen2-72B แสดงให้เห็นถึงประสิทธิภาพที่โดดเด่นในเกณฑ์มาตรฐานที่หลากหลาย
- คิวเว่น2.5:เปิดตัวโมเดลเช่น Qwen2.5-Omni ที่สามารถประมวลผลข้อความ รูปภาพ วิดีโอ และเสียง และสร้างทั้งข้อความและเสียง
- คเวน 3:รุ่นล่าสุดที่ผสานความสามารถในการใช้เหตุผลแบบไฮบริดและประสิทธิภาพที่ได้รับการปรับปรุง ถือเป็นความก้าวหน้าครั้งสำคัญในซีรีย์นี้
ประสิทธิภาพมาตรฐาน
Qwen2.5 มีประสิทธิภาพเหนือกว่าโมเดลก่อนหน้าอย่าง QwQ และ Qwen3 อย่างเห็นได้ชัด โดยมอบความสามารถด้านคณิตศาสตร์ การเข้ารหัส การใช้เหตุผลตามสามัญสำนึก การเขียนเชิงสร้างสรรค์ และการสนทนาแบบโต้ตอบที่เหนือชั้น รุ่น Qwen3-30B-A3B ประกอบด้วยพารามิเตอร์ 30.5 พันล้านตัว (เปิดใช้งานแล้ว 3.3 พันล้านตัว) 48 เลเยอร์ ผู้เชี่ยวชาญ 128 คน (เปิดใช้งานแล้ว 8 คนต่องาน) และรองรับบริบทโทเค็นสูงสุด 131 รายการด้วย YaRN ซึ่งสร้างมาตรฐานใหม่ในบรรดาโมเดลโอเพนซอร์ส
- เอไอเอ็มอี25:Qwen3 ทำคะแนนได้ 81.5 คะแนน สร้างสถิติใหม่ของโครงการโอเพ่นซอร์ส
- ไลฟ์โค้ดเบ็นช์: Qwen3 ทำคะแนนได้มากกว่า 70 แต้ม ดีกว่า Grok3 เสียด้วยซ้ำ
- อารีน่าฮาร์ด: Qwen3 แซงหน้า OpenAl-o1 และ DeepSeek-FR1 ด้วยคะแนน 95.6 คะแนน
ตัวอย่างรหัส
นักพัฒนาสามารถโต้ตอบกับโมเดล Qwen 3 โดยใช้โค้ด Python ดังต่อไปนี้:
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")
# Encode input prompt
input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response
output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)
print(response)
ตัวอย่างนี้สาธิตวิธีโหลดโมเดล Qwen 3 และสร้างการตอบสนองต่อข้อความแจ้งเตือนที่กำหนดโดยใช้ไลบรารี Hugging Face Transformers
สรุป
Qwen 3 ถือเป็นก้าวสำคัญในการพัฒนา AI ของ Alibaba โดยนำเสนอความสามารถในการใช้เหตุผล ความสามารถในการปรับขนาด และการสนับสนุนหลายโหมดที่ดีขึ้น ความพร้อมในการใช้งานโอเพ่นซอร์สภายใต้ใบอนุญาต Apache 2.0 ช่วยส่งเสริมการนำไปใช้ในวงกว้างและนวัตกรรมใหม่ๆ ต่อไปในชุมชน AI ในขณะที่ภูมิทัศน์ของ AI ยังคงพัฒนาต่อไป Qwen 3 ได้วางตำแหน่งให้ Alibaba เป็นผู้เล่นที่น่าเกรงขามทั้งในระดับประเทศและระดับโลก
วิธีการโทร Qwen 3 API จาก CometAPI
Qwen 3 การกำหนดราคา API ใน CometAPI:
| รุ่น รุ่น | คิวเวน3 235B A22B | คิวเวน: คิวเวน3 30B A3B | คิวเวน3 8บี |
| ราคาใน CometAPI | อินพุตโทเค็น: $1.6 / M โทเค็น | อินพุตโทเค็น: $0.4/M โทเค็น | อินพุตโทเค็น: $0.32 / M โทเค็น |
| โทเค็นเอาต์พุต: $4.8 / M โทเค็น | โทเค็นเอาต์พุต: $1.2 / M โทเค็น | โทเค็นเอาต์พุต: $0.96 / M โทเค็น | |
| ชื่อรุ่น | qwen3-235b-a22b | qwen3-30b-a3b | qwen3-8b |
| แสดง | นี่คือรุ่นเรือธงของซีรีส์ Qwen3 ที่มีพารามิเตอร์ 235 พันล้านรายการ โดยใช้สถาปัตยกรรมแบบผสมผสานของผู้เชี่ยวชาญ (MoE) | qwen3-30b-a3b: ด้วยพารามิเตอร์ 30 พันล้านตัว ช่วยปรับสมดุลความต้องการประสิทธิภาพและทรัพยากร เหมาะสำหรับแอปพลิเคชันระดับองค์กร | โมเดลน้ำหนักเบาที่มีพารามิเตอร์ 800 ล้านรายการ ออกแบบมาโดยเฉพาะสำหรับสภาพแวดล้อมที่มีทรัพยากรจำกัด (เช่น อุปกรณ์เคลื่อนที่หรือเซิร์ฟเวอร์ที่มีการกำหนดค่าต่ำ) |
ขั้นตอนที่ต้องดำเนินการ
- เข้าสู่ระบบเพื่อ โคเมตาปิดอทคอม. หากคุณยังไม่ได้เป็นผู้ใช้ของเรา กรุณาลงทะเบียนก่อน
- รับรหัส API ของข้อมูลรับรองการเข้าถึงของอินเทอร์เฟซ คลิก "เพิ่มโทเค็น" ที่โทเค็น API ในศูนย์ส่วนบุคคล รับรหัสโทเค็น: sk-xxxxx และส่ง
- รับ url ของเว็บไซต์นี้: https://api.cometapi.com/
วิธีการใช้งาน
- เลือก“
qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b” จุดสิ้นสุดในการส่งคำขอ API และกำหนดเนื้อหาคำขอ วิธีการคำขอและเนื้อหาคำขอได้รับจากเอกสาร API ของเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณอีกด้วย - แทนที่ ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
- แทรกคำถามหรือคำขอของคุณลงในช่องเนื้อหา—นี่คือสิ่งที่โมเดลจะตอบสนอง
- ประมวลผลการตอบสนองของ API เพื่อรับคำตอบที่สร้างขึ้น
สำหรับข้อมูลการเปิดตัวโมเดลใน Comet API โปรดดู https://api.cometapi.com/new-model.
สำหรับข้อมูลราคาโมเดลใน Comet API โปรดดู https://api.cometapi.com/pricing.
ดูเพิ่มเติม Qwen 2.5 แม็กซ์ API
