ข้อมูลทาง技术的 Kimi k2.5
| 项目 | 数值 / 备注 |
|---|---|
| 模型名称 / 供应商 | Kimi-K2.5 (v1.0) — Moonshot AI (น้ำหนักโมเดลแบบเปิด). |
| 架构家族 | Mixture-of-Experts (MoE) โมเดลให้เหตุผลแบบไฮบริด (DeepSeek-style MoE). |
| 参数(总数 / 活跃) | ≈ 1 万亿พารามิเตอร์ทั้งหมด; ~32B ที่ใช้งานต่อโทเคน (ผู้เชี่ยวชาญ 384 ราย เลือก 8 ต่อโทเคน ตามรายงาน). |
| 模态(输入 / 输出) | อินพุต: ข้อความ, รูปภาพ, วิดีโอ (มัลติโหมด). เอาต์พุต: ส่วนใหญ่เป็นข้อความ (ร่องรอยการให้เหตุผลที่ละเอียด), มีตัวเลือกการเรียกใช้เครื่องมือแบบมีโครงสร้าง / ผลลัพธ์หลายขั้นตอน. |
| 上下文窗口 | 256k โทเคน |
| 训练数据 | พรีเทรนอย่างต่อเนื่องบน ≈ 15 ล้านล้านโทเคนแบบผสมภาพ + ข้อความ (ตามรายงานจากผู้ให้บริการ). ป้ายกำกับ/องค์ประกอบชุดข้อมูลการฝึก: ไม่เปิดเผย. |
| 模式 | โหมด Thinking (ส่งกลับร่องรอยการให้เหตุผลภายใน; แนะนำ temp=1.0) และโหมด Instant (ไม่มีร่องรอยการให้เหตุผล; แนะนำ temp=0.6). |
| 代理功能 | Agent Swarm / ซับเอเจนต์แบบขนาน: โอเคสเตรเตอร์สามารถสร้างซับเอเจนต์ได้สูงสุด ~100 ตัวและดำเนินการเรียกใช้เครื่องมือจำนวนมาก (ผู้ให้บริการอ้างถึงได้ถึง ~1,500 ครั้ง; การรันแบบขนานช่วยลดเวลา). |
Kimi K2.5 คืออะไร?
Kimi K2.5 เป็นโมเดลภาษาขนาดใหญ่แบบเปิดน้ำหนักจาก Moonshot AI ที่ออกแบบมาเป็นระบบ มัลติโหมดและเน้นเอเจนต์โดยกำเนิด ไม่ใช่ LLM ที่เน้นข้อความพร้อมส่วนประกอบเสริม รุ่นนี้ผสานการให้เหตุผลทางภาษา ความเข้าใจภาพ และการประมวลผลบริบทยาวไว้ในสถาปัตยกรรมเดียว ทำให้สามารถจัดการงานหลายขั้นตอนที่ซับซ้อนซึ่งเกี่ยวข้องกับเอกสาร รูปภาพ วิดีโอ เครื่องมือ และเอเจนต์ได้
ออกแบบมาสำหรับเวิร์กโฟลว์ระยะยาวที่เพิ่มพูนด้วยเครื่องมือ (การเขียนโค้ด การค้นหาหลายขั้นตอน ความเข้าใจเอกสาร/วิดีโอ) และมาพร้อมสองโหมดโต้ตอบ (Thinking และ Instant) รวมถึงการควอนไทซ์แบบ INT4 โดยกำเนิดเพื่อการอนุมานที่มีประสิทธิภาพ
คุณสมบัติหลักของ Kimi K2.5
- การให้เหตุผลแบบมัลติโหมดโดยกำเนิด
การมองเห็นและภาษาได้รับการฝึกร่วมกันตั้งแต่พรีเทรน Kimi K2.5 สามารถให้เหตุผลข้ามภาพ สกรีนช็อต ไดอะแกรม และเฟรมวิดีโอได้โดยไม่ต้องพึ่งพาอะแดปเตอร์การมองเห็นภายนอก - หน้าต่างบริบทแบบยาวพิเศษ (256K โทเคน)
ช่วยให้ให้เหตุผลต่อเนื่องกับโค้ดเบสทั้งหมด งานวิจัยยาว เอกสารกฎหมาย หรือบทสนทนาหลายชั่วโมงโดยไม่ถูกตัดบริบท - โมเดลการทำงานแบบ Agent Swarm
รองรับการสร้างและประสานงานซับเอเจนต์เฉพาะทางได้ประมาณ 100 ตัว ช่วยการวางแผนแบบขนาน การใช้เครื่องมือ และการแยกงานสำหรับเวิร์กโฟลว์ที่ซับซ้อน - หลายโหมดการอนุมาน
- Instant mode สำหรับการตอบสนองที่หน่วงต่ำ
- Thinking mode สำหรับการให้เหตุผลแบบหลายขั้นตอนอย่างลึก
- Agent / Swarm mode สำหรับการดำเนินงานอัตโนมัติและการจัดออร์เคสตราชัน
- ความสามารถ Vision-to-Code ที่แข็งแกร่ง
สามารถแปลง UI mockup สกรีนช็อต หรือเดโมวิดีโอให้เป็นโค้ด front-end ที่ใช้งานได้ และดีบักซอฟต์แวร์โดยใช้บริบทจากภาพ - การปรับสเกล MoE อย่างมีประสิทธิภาพ
สถาปัตยกรรม MoE เปิดใช้งานเฉพาะเอ็กซ์เพิร์ตบางส่วนต่อโทเคน ทำให้มีขีดความสามารถระดับล้านล้านพารามิเตอร์ โดยต้นทุนการอนุมานจัดการได้เมื่อเทียบกับโมเดลแบบหนาแน่น
ผลการทดสอบมาตรฐานของ Kimi K2.5
ผลคะแนนที่รายงานต่อสาธารณะ (ส่วนใหญ่ในบริบทที่เน้นการให้เหตุผล):
มาตรฐานด้านการให้เหตุผลและความรู้
| Benchmark | Kimi K2.5 | GPT-5.2 (xhigh) | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| HLE-Full (with tools) | 50.2 | 45.5 | 43.2 | 45.8 |
| AIME 2025 | 96.1 | 100 | 92.8 | 95.0 |
| GPQA-Diamond | 87.6 | 92.4 | 87.0 | 91.9 |
| IMO-AnswerBench | 81.8 | 86.3 | 78.5 | 83.1 |
มาตรฐานด้านภาพและวิดีโอ
| Benchmark | Kimi K2.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMMU-Pro | 78.5 | 79.5* | 74.0 | 81.0 |
| MathVista (Mini) | 90.1 | 82.8* | 80.2* | 89.8* |
| VideoMMMU | 87.4 | 86.0 | — | 88.4 |
Scores marked with reflect differences in evaluation setups reported by original sources.
โดยรวมแล้ว Kimi K2.5 แสดงให้เห็นถึงความสามารถในการแข่งขันที่แข็งแกร่งในด้าน การให้เหตุผลแบบมัลติโหมด งานบริบทยาว และเวิร์กโฟลว์สไตล์เอเจนต์ โดยเฉพาะเมื่อประเมินเกินกว่าการถามตอบแบบสั้น
Kimi K2.5 เทียบกับโมเดลแนวหน้าตัวอื่น
| มิติ | Kimi K2.5 | GPT-5.2 | Gemini 3 Pro |
|---|---|---|---|
| มัลติโหมด | โดยกำเนิด (vision + text) | โมดูลแบบบูรณาการ | โมดูลแบบบูรณาการ |
| ความยาวบริบท | 256K tokens | ยาว (ขีดจำกัดที่แน่นอนไม่เปิดเผย) | ยาว (<256K ทั่วไป) |
| การออร์เคสตราเอเจนต์ | Swarm หลายเอเจนต์ | โฟกัสเอเจนต์เดี่ยว | โฟกัสเอเจนต์เดี่ยว |
| การเข้าถึงโมเดล | น้ำหนักแบบเปิด | เป็นกรรมสิทธิ์ | เป็นกรรมสิทธิ์ |
| การปรับใช้ | ภายในเครื่อง / คลาวด์ / กำหนดเอง | เฉพาะ API | เฉพาะ API |
คำแนะนำการเลือกโมเดล:
- เลือก Kimi K2.5 สำหรับการปรับใช้แบบน้ำหนักเปิด งานวิจัย การให้เหตุผลบริบทยาว หรือเวิร์กโฟลว์เอเจนต์ที่ซับซ้อน
- เลือก GPT-5.2 สำหรับระบบโปรดักชันที่ต้องการความฉลาดทั่วไปและระบบนิเวศเครื่องมือที่แข็งแกร่ง
- เลือก Gemini 3 Pro สำหรับการผสานลึกกับชุดผลิตภาพและสแตกการค้นหาของ Google
กรณีการใช้งานตัวอย่าง
- การวิเคราะห์เอกสารและโค้ดขนาดใหญ่
ประมวลผลทั้งรีโพซิทอรี คลังข้อมูลกฎหมาย หรือคลังงานวิจัยในหน้าต่างบริบทเดียว - เวิร์กโฟลว์วิศวกรรมซอฟต์แวร์เชิงภาพ
สร้าง รีแฟคเตอร์ หรือดีบักโค้ดโดยใช้สกรีนช็อต การออกแบบ UI หรือการโต้ตอบที่บันทึกไว้ - ไปป์ไลน์เอเจนต์อัตโนมัติ
ดำเนินเวิร์กโฟลว์แบบ end-to-end ที่รวมการวางแผน การเรียกคืน การเรียกใช้เครื่องมือ และการสังเคราะห์ด้วย swarm ของเอเจนต์ - ระบบอัตโนมัติความรู้ระดับองค์กร
วิเคราะห์เอกสารภายใน สเปรดชีต PDF และงานนำเสนอเพื่อสร้างรายงานและอินไซต์เชิงโครงสร้าง - การวิจัยและปรับแต่งโมเดล
การปรับจูน การวิจัยการปรับแนว และการทดลอง โดยอาศัยน้ำหนักโมเดลแบบเปิด
ข้อจำกัดและข้อควรพิจารณา
- ความต้องการฮาร์ดแวร์สูง: การปรับใช้แบบความแม่นยำเต็มต้องใช้หน่วยความจำ GPU จำนวนมาก; การใช้งานโปรดักชันมักพึ่งการควอนไทซ์ (เช่น INT4)
- ความสมบูรณ์ของ Agent Swarm: พฤติกรรมหลายเอเจนต์ขั้นสูงยังคงพัฒนาและอาจต้องการการออกแบบออร์เคสตราชันอย่างระมัดระวัง
- ความซับซ้อนของการอนุมาน: ประสิทธิภาพที่เหมาะสมขึ้นอยู่กับเอนจินการอนุมาน กลยุทธ์การควอนไทซ์ และการตั้งค่าการกำหนดเส้นทาง
วิธีเข้าถึง Kimi k2.5 API ผ่าน CometAPI
ขั้นตอนที่ 1: ลงทะเบียนเพื่อรับ API Key
เข้าสู่ระบบ cometapi.com. หากคุณยังไม่เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน เข้าสู่ CometAPI console. รับ API key สำหรับการเข้าถึงอินเทอร์เฟซ คลิก “Add Token” ที่ API token ในศูนย์ส่วนบุคคล รับคีย์โทเคน: sk-xxxxx และส่ง

ขั้นตอนที่ 2: ส่งคำขอไปยัง Kimi k2.5 API
เลือกเอ็นด์พอยต์ “kimi-k2.5” เพื่อส่งคำขอ API และตั้งค่า request body วิธีการและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ยังมีการทดสอบด้วย Apifox เพื่อความสะดวกของคุณ แทนที่ด้วย CometAPI key จริงจากบัญชีของคุณ base url is Chat Completions.
แทรกคำถามหรือคำขอของคุณลงในฟิลด์ content—ซึ่งเป็นสิ่งที่โมเดลจะตอบกลับ . ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น
ขั้นตอนที่ 3: ดึงและตรวจสอบผลลัพธ์
ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับด้วยสถานะงานและข้อมูลผลลัพธ์