MiniMax ซึ่งเป็นบริษัทสตาร์ทอัพด้าน AI ของจีน ได้เปิดตัวน้ำหนักและเครื่องมือสำหรับ มินิแม็กซ์ เอ็มทูโมเดลภาษาขนาดใหญ่รุ่นใหม่ล่าสุดที่ออกแบบมาโดยเฉพาะสำหรับเวิร์กโฟลว์การเขียนโค้ดและการใช้เครื่องมือแบบเอเจนต์ บริษัทกล่าวว่า M2 ถูกสร้างขึ้นเป็นดีไซน์แบบผสมผสานผู้เชี่ยวชาญ (MoE) ที่มีประสิทธิภาพ ซึ่งมอบประสิทธิภาพการเขียนโค้ดและเอเจนต์ระดับสูงสุดในราคาที่ถูกกว่าโมเดลที่เป็นกรรมสิทธิ์อื่นๆ เพียงเล็กน้อย ผมจะอธิบายว่าทำไม MiniMax M2 จึงเป็นราชาแห่งความคุ้มค่า ทั้งในด้านฟีเจอร์ ประสิทธิภาพการทำงานตามเกณฑ์มาตรฐาน สถาปัตยกรรม และราคา
MiniMax M2 คืออะไร?
MiniMax M2 คือโมเดลภาษาโอเพ่นซอร์สขนาดใหญ่ล่าสุดของ MiniMax ซึ่งออกแบบมาเพื่อ การเข้ารหัส เวิร์กโฟลว์ตัวแทนหลายขั้นตอน และการเรียกใช้เครื่องมือแบบจำลองนี้ใช้สถาปัตยกรรมแบบผสมผสานของผู้เชี่ยวชาญ: มีขนาดใหญ่มาก ทั้งหมด รอยเท้าพารามิเตอร์ แต่มีเพียงจำนวนพารามิเตอร์ที่ไม่มากนัก เปิดใช้งาน ต่อโทเค็นระหว่างการอนุมาน — การออกแบบที่ลดต้นทุนการอนุมานและความหน่วงขณะเดียวกันก็รักษาความสามารถในการใช้เหตุผลและการเขียนโค้ดที่แข็งแกร่ง
ตัวเลขพาดหัวข่าวหลัก (ตามที่เผยแพร่)
- งบประมาณพารามิเตอร์รวม: ~230 พันล้าน (รวม)
- พารามิเตอร์ที่เปิดใช้งาน / มีผลต่อโทเค็น: ~10 พันล้าน (เปิดใช้งานแล้ว)
- หน้าต่างบริบท (รายงาน): รูปภาพ ~204,800 โทเค็น
- ใบอนุญาต: MIT (น้ำหนักโอเพนซอร์ส)
- การเรียกร้องค่าใช้จ่ายและความเร็ว: ต้นทุนต่อโทเค็นนั้นมีเพียง 8% ของ Anthropic Claude Sonnet และความเร็วก็เร็วกว่าประมาณสองเท่า
จุดเด่นของ MiniMax M2 มีอะไรบ้าง?
พฤติกรรมที่เน้นตัวแทน/เครื่องมือ
มินิแม็กซ์ เอ็มทู มาพร้อมกับการสนับสนุนที่ชัดเจนสำหรับการเรียกใช้เครื่องมือ คำสั่งแบบมีโครงสร้าง และรูปแบบการสลับเหตุผล → การดำเนินการ → การตรวจสอบ ทำให้การสร้างเอเจนต์อัตโนมัติที่เรียกใช้ API ภายนอก รันโค้ด หรือควบคุมเทอร์มินัลเป็นเรื่องง่าย สูตรการผสานรวมหลายสูตรมีเป้าหมายที่รันไทม์ของเอเจนต์และสแต็ก vLLM/accelerate
ปรับให้เหมาะสมสำหรับการเข้ารหัสและงานหลายไฟล์
เกณฑ์มาตรฐานที่รายงานจาก Hugging Face และการวิเคราะห์โดยบุคคลที่สามแสดงให้เห็นถึงประสิทธิภาพที่แข็งแกร่งในชุดทดสอบที่มุ่งเน้นนักพัฒนา (การทดสอบยูนิต การจำลองเทอร์มินัล การสังเคราะห์หลายไฟล์) ซึ่ง M2 มีคะแนนสูงเมื่อเทียบกับโมเดลแบบเปิดและแบบปิดอื่นๆ ซึ่งสอดคล้องกับการที่ MiniMax เน้นย้ำถึงเครื่องมือสำหรับนักพัฒนาและผู้ช่วยเขียนโค้ด
ประสิทธิภาพการผสมผสานผู้เชี่ยวชาญแบบเบาบาง (MoE)
แทนที่จะเป็นชุดพารามิเตอร์หนาแน่นเพียงชุดเดียว มินิแม็กซ์ เอ็มทู ใช้ a ผู้เชี่ยวชาญที่ผสมผสานกันอย่างเบาบาง กลยุทธ์การกำหนดเส้นทางเพื่อให้เปิดใช้งานเฉพาะชุดย่อยของธนาคารพารามิเตอร์ทั้งหมดต่อโทเค็น วิธีนี้ทำให้ได้จำนวนพารามิเตอร์รวมจำนวนมาก แต่น้อยกว่ามาก เปิดใช้งาน การวัดขนาดพารามิเตอร์ระหว่างการอนุมาน — ปรับปรุงประสิทธิภาพด้านต้นทุนและความล่าช้าสำหรับเวิร์กโหลดต่างๆ มากมาย
MiniMax M2 ทำงานภายในอย่างไร?
สถาปัตยกรรมระดับสูง
ตามการเปิดเผยข้อมูลทางเทคนิคและการรายงานอิสระของ MiniMax มินิแม็กซ์ เอ็มทู ได้ถูกนำไปปฏิบัติเป็น หม้อแปลง MoE แบบเบาบาง โดยมีการตัดสินใจออกแบบที่ได้รับการรายงานอย่างกว้างขวางดังต่อไปนี้:
- มีขนาดใหญ่มาก ทั้งหมด จำนวนพารามิเตอร์ (รายงานในข่าวประชาสัมพันธ์ว่ามีจำนวนหลายร้อยพันล้าน) ด้วย มีเพียงกลุ่มย่อยของผู้เชี่ยวชาญที่เปิดใช้งานต่อโทเค็น (สื่อมวลชนกล่าวถึงตัวอย่างเช่น ยอดรวม 230 พันล้าน โดยมีการใช้งานจริงประมาณ 10 พันล้านต่อการอนุมานในรายงานเบื้องต้น) นี่คือการแลกเปลี่ยนแบบคลาสสิกของ MoE: ความสามารถในการขยายขนาดโดยไม่ต้องมีต้นทุนการอนุมานเชิงเส้น
- การกำหนดเส้นทาง: การกำหนดเส้นทางผู้เชี่ยวชาญระดับ Top-k (Top-2 หรือ Top-K) ที่ส่งโทเค็นแต่ละอันไปยังผู้เชี่ยวชาญจำนวนเล็กน้อย เพื่อให้โหลดการประมวลผลเบาบางและคาดเดาได้
- การเข้ารหัสความสนใจและตำแหน่ง: รูปแบบความสนใจแบบผสมผสาน (เช่น การผสมผสานระหว่างเคอร์เนลความสนใจที่หนาแน่นและมีประสิทธิภาพ) และการเข้ารหัสตำแหน่งแบบหมุนหรือแบบ RoPE สมัยใหม่ ได้รับการกล่าวถึงในเอกสารประกอบแบบจำลองชุมชนและบัตรแบบจำลอง Hugging Face ตัวเลือกเหล่านี้ช่วยปรับปรุงพฤติกรรมบริบทยาว ซึ่งสำคัญต่อการเข้ารหัสหลายไฟล์และหน่วยความจำของเอเจนต์
เหตุใด MoE แบบเบาบางจึงช่วยเวิร์กโฟลว์ของตัวแทน
โดยทั่วไปเวิร์กโฟลว์แบบเอเจนต์ต้องอาศัยการผสมผสานระหว่างการใช้เหตุผล การสร้างโค้ด การประสานเครื่องมือ และการวางแผนสถานะ ด้วย MoE มินิแม็กซ์ เอ็มทู สามารถรองรับซับโมดูลเฉพาะทางสำหรับผู้เชี่ยวชาญได้หลายแบบ (เช่น ผู้เชี่ยวชาญที่เชี่ยวชาญด้านโค้ด ผู้เชี่ยวชาญที่ปรับแต่งมาเพื่อการจัดรูปแบบเครื่องมือ ผู้เชี่ยวชาญสำหรับการดึงข้อมูลข้อเท็จจริง) ในขณะที่เปิดใช้งานเฉพาะผู้เชี่ยวชาญที่จำเป็นสำหรับแต่ละโทเค็น ความเชี่ยวชาญนี้ช่วยเพิ่มทั้งปริมาณงานและความถูกต้องสำหรับงานที่ซับซ้อน ในขณะเดียวกันก็ลดต้นทุนการอนุมานเมื่อเทียบกับแบบจำลองความหนาแน่นขนาดใหญ่สม่ำเสมอ
บันทึกการฝึกอบรมและการปรับแต่ง (ที่ MiniMax เผยแพร่)
MiniMax อ้างถึงการผสมผสานของรหัส การปรับแต่งคำสั่ง ข้อความเว็บ และชุดข้อมูลวงจรตัวแทนสำหรับคำแนะนำและความคล่องแคล่วของเครื่องมือของ M2
เหตุใดจึงต้องใช้ MoE สำหรับตัวแทนและโค้ด?
MoE ช่วยให้คุณเพิ่มขีดความสามารถของโมเดล (เพื่อการใช้เหตุผลที่ดีขึ้นและความสามารถแบบมัลติโมดัล) โดยไม่ต้องเพิ่ม FLOP อนุมานเชิงเส้นสำหรับแต่ละโทเค็น สำหรับเอเจนต์และผู้ช่วยเขียนโค้ด ซึ่งมักจะสร้างแบบสอบถามแบบอินเทอร์แอคทีฟสั้นๆ จำนวนมากและเรียกใช้เครื่องมือภายนอก การเปิดใช้งานแบบเลือกสรรของ MoE ช่วยให้ค่าความหน่วงและค่าใช้จ่ายคลาวด์อยู่ในระดับที่เหมาะสม ในขณะที่ยังคงรักษาประโยชน์ด้านขีดความสามารถของโมเดลขนาดใหญ่ไว้ได้
ประสิทธิภาพมาตรฐาน
จากการประเมินอิสระโดย Artificial Analysis ซึ่งเป็นองค์กรวิจัยและเกณฑ์มาตรฐานโมเดล AI เชิงสร้างสรรค์จากบุคคลที่สาม ปัจจุบัน M2 อยู่ในอันดับหนึ่งของระบบที่มีน้ำหนักโอเพนซอร์สทั้งหมดทั่วโลกใน “ดัชนีข่าวกรอง” ซึ่งเป็นการวัดประสิทธิภาพการใช้เหตุผล การเข้ารหัส และการดำเนินการงานอย่างครอบคลุม

การ์ดรุ่นของ MiniMax แสดงผลการเปรียบเทียบระหว่าง การเข้ารหัส / ตัวแทน ชุดเกณฑ์มาตรฐาน (SWE-bench, Terminal-Bench, BrowseComp, GAIA, τ²-Bench เป็นต้น) ในตารางที่เผยแพร่เหล่านี้ M2 แสดงคะแนนที่แข็งแกร่งในการเขียนโค้ดและงานเครื่องมือหลายขั้นตอน และ MiniMax เน้นคะแนนรวมของปัญญาประดิษฐ์เชิงแข่งขัน/เอเจนต์เมื่อเทียบกับโมเดลเปิดอื่นๆ
คะแนนเหล่านี้ทำให้โมเดลนี้อยู่ในระดับเดียวกับระบบที่เป็นกรรมสิทธิ์ชั้นนำ เช่น GPT-5 (การคิด) และ Claude Sonnet 4.5 ซึ่งทำให้ MiniMax-M2 กลายเป็นโมเดลโอเพ่นซอร์สที่มีประสิทธิภาพสูงสุดจนถึงปัจจุบันสำหรับงานการเรียกใช้ตัวแทนและเครื่องมือในโลกแห่งความเป็นจริง

MiniMax-M2 บรรลุประสิทธิภาพสูงสุดหรือใกล้เคียงสูงสุดในหลายประเภท:
- SWE-bench ได้รับการยืนยัน: 69.4 — ใกล้เคียงกับ 74.9 ของ GPT-5
- ArtifactsBench: 66.8 — สูงกว่า Claude Sonnet 4.5 และ DeepSeek-V3.2
- τ²-Bench: 77.2 — ใกล้เคียงกับ 80.1 ของ GPT-5
- GAIA (ข้อความเท่านั้น): 75.7 — แซงหน้า DeepSeek-V3.2
- BrowseComp: 44.0 — แข็งแกร่งกว่ารุ่นเปิดอื่นๆ อย่างเห็นได้ชัด
- FinSearchComp-global: 65.5 — ดีที่สุดในบรรดาระบบน้ำหนักเปิดที่ผ่านการทดสอบ
ต้นทุนและราคา
MiniMax เปิดเผยราคา API ที่มีการแข่งขันสูงมากต่อสาธารณะ 0.30 ดอลลาร์ต่อโทเค็นอินพุต 1,000,000 รายการ และ 1.20 ดอลลาร์ต่อโทเค็นเอาต์พุต 1,000,000 รายการบริษัทรายงานตัวเลขปริมาณงานอนุมาน (TPS) บนจุดปลายทางที่โฮสต์ด้วย ~100 โทเค็น/วินาที (และระบุว่าพวกเขากำลังปรับปรุงอยู่) CometAPI มอบส่วนลด 20% จากราคาอย่างเป็นทางการสำหรับการเข้าถึง MiniMax M2 API
การตีความอย่างรวดเร็ว
- โทเค็นอินพุตมีราคาถูกมากต่อโทเค็นเมื่อเทียบกับโมเดลเชิงพาณิชย์อื่นๆ ส่วนโทเค็นเอาท์พุตมีราคาแพงกว่าแต่ยังคงต่ำเมื่อเทียบกับทางเลือกแบบปิดอื่นๆ
- ปริมาณงาน (โทเค็น/วินาที) และเวลาแฝงจะขึ้นอยู่กับตัวเลือกการใช้งานเป็นหลัก (โฮสต์หรือโฮสต์เอง, ประเภทของ GPU, การแบ่งแบตช์, การวัดปริมาณ) ใช้ TPS ที่เผยแพร่เป็นพื้นฐานสำหรับการวางแผน API แบบโฮสต์เท่านั้น
กรณีการใช้งานที่ดีที่สุดสำหรับ MiniMax M2 คืออะไร?
1) ผู้ช่วยนักพัฒนาแบบครบวงจร (การเขียนโค้ด → รัน → แก้ไข → ตรวจสอบ)
MiniMax M2 ออกแบบมาเพื่อการแก้ไขไฟล์หลายไฟล์ ลูปคอมไพล์/รัน/แก้ไข และการทำงานอัตโนมัติของ CI/IDE ซึ่งโมเดลจะต้องจดจำฐานโค้ดขนาดใหญ่หรือทรานสคริปต์เทอร์มินัลยาว และประสานการเรียกใช้เครื่องมือ (บิลด์ ทดสอบ ลินท์ และ Git) เกณฑ์มาตรฐานและการทดสอบชุมชนในช่วงแรกทำให้โมเดลนี้อยู่ในอันดับต้นๆ ของชุดโค้ด/เอเจนต์
การไหลโดยทั่วไป: ดึงข้อมูล repo → รันการทดสอบภายในแซนด์บ็อกซ์ → แยกวิเคราะห์ความล้มเหลว → สร้างแพตช์ → รันการทดสอบอีกครั้ง → เปิด PR หากเป็นสีเขียว
2) ตัวแทนหลายขั้นตอนและ RPA (เครื่องมือ + หน่วยความจำ)
แอปพลิเคชันแบบเอเจนต์ที่ต้องมีการวางแผน การเรียกใช้เครื่องมือ และการกู้คืน (การท่องเว็บ เทอร์มินัล ฐานข้อมูล และ API แบบกำหนดเอง) จะได้รับประโยชน์จากบริบทระยะยาวและการเรียกใช้ฟังก์ชัน/เครื่องมือที่มีโครงสร้าง ความสามารถแบบบริบทระยะยาวของ M2 ช่วยให้คุณเก็บแผน บันทึก และสถานะไว้ในหน่วยความจำได้โดยไม่ต้องดึงข้อมูลจากภายนอกอย่างเร่งด่วน
3) การใช้เหตุผลแบบเอกสารยาวและการสนับสนุนลูกค้า (คู่มือการเล่น)
เนื่องจาก M2 รองรับบริบทขนาดใหญ่ คุณจึงสามารถป้อนคู่มือผลิตภัณฑ์ แผนงาน หรือประวัติการสนทนาของผู้ใช้ที่ยาวทั้งหมดได้โดยไม่ต้องแบ่งส่วนข้อมูลจำนวนมาก เหมาะอย่างยิ่งสำหรับการทำงานอัตโนมัติของการสนับสนุนที่มีบริบทมากมาย การใช้เหตุผลเชิงนโยบาย และการตรวจสอบการปฏิบัติตามข้อกำหนด
4) การวิจัยและการทดลอง (น้ำหนักเปิด การใช้แบบอนุญาต)
ด้วยน้ำหนักแบบเปิดบน Hugging Face คุณสามารถทำการทดลองต่างๆ (การปรับแต่งค่าแบบกำหนดเอง การวิจัย MoE กลยุทธ์การกำหนดเส้นทางใหม่ หรือกลไกความปลอดภัย) ได้ทั้งแบบโลคัลและบนคลัสเตอร์ส่วนตัว ซึ่งทำให้ M2 น่าสนใจสำหรับแล็บและทีมที่ต้องการควบคุมทุกอย่าง
คำแนะนำเชิงปฏิบัติสำหรับวิศวกรและทีมผลิตภัณฑ์
หากคุณต้องการการทดลองที่รวดเร็ว: ใช้ MiniMax cloud API (รองรับ Anthropic/OpenAI) ช่วยลดความยุ่งยากของโครงสร้างพื้นฐานภายใน และให้คุณเข้าถึงการเรียกใช้เครื่องมือและฟีเจอร์บริบทยาวได้ทันที
หากคุณต้องการการควบคุมและเพิ่มประสิทธิภาพต้นทุน: ดาวน์โหลดน้ำหนักจาก Hugging Face และใช้งานกับ vLLM หรือ SGLang คาดว่าจะต้องลงทุนด้านวิศวกรรมสำหรับการแบ่งส่วนข้อมูลของ MoE และการปรับแต่งอนุมานอย่างรอบคอบ ทดสอบหน่วยความจำ ต้นทุน และความหน่วงเทียบกับปริมาณงานจริงของคุณ (เอเจนต์แบบหลายเทิร์นและงานโค้ดแบบหลายไฟล์)
การทดสอบและความปลอดภัย: ดำเนินการทดสอบทีมแดง ตัวกรองความปลอดภัย และการตรวจสอบความถูกต้องของเครื่องมือของคุณเอง การเปิดน้ำหนักช่วยเร่งการวิจัย แต่ก็หมายความว่าผู้ไม่หวังดีสามารถทำซ้ำได้อย่างรวดเร็ว สร้างตัวตรวจจับและการตรวจสอบแบบมนุษย์ร่วมวงจรเมื่อจำเป็น
สรุป
MiniMax M2 ถือเป็นช่วงเวลาสำคัญในระบบนิเวศ LLM แบบโอเพนซอร์ส: เป็นโมเดลขนาดใหญ่ที่เน้นเอเจนต์และได้รับอนุญาตให้ใช้สิทธิ์แบบอนุญาต ซึ่งให้ความสำคัญกับการเขียนโค้ดและการใช้เครื่องมือ ขณะเดียวกันก็มุ่งมั่นที่จะรักษาต้นทุนการอนุมานให้สามารถปฏิบัติได้จริงผ่านการกำหนดเส้นทาง MoE แบบเบาบาง สำหรับองค์กรที่สร้างเครื่องมือสำหรับนักพัฒนา เอเจนต์อัตโนมัติ หรือทีมวิจัยที่ต้องการเข้าถึงน้ำหนักสำหรับการปรับแต่ง M2 นำเสนอตัวเลือกที่น่าสนใจและใช้งานได้ทันที หากทีมงานมีความพร้อมที่จะจัดการกับความซับซ้อนในการปรับใช้ MoE
วิธีการเข้าถึง MiniMax M2 API
CometAPI เป็นแพลตฟอร์ม API แบบรวมที่รวบรวมโมเดล AI มากกว่า 500 โมเดลจากผู้ให้บริการชั้นนำ เช่น ซีรีส์ GPT ของ OpenAI, Gemini ของ Google, Claude ของ Anthropic, Midjourney, Suno และอื่นๆ ไว้ในอินเทอร์เฟซเดียวที่เป็นมิตรกับนักพัฒนา ด้วยการนำเสนอการตรวจสอบสิทธิ์ การจัดรูปแบบคำขอ และการจัดการการตอบสนองที่สอดคล้องกัน CometAPI จึงทำให้การรวมความสามารถของ AI เข้ากับแอปพลิเคชันของคุณง่ายขึ้นอย่างมาก ไม่ว่าคุณจะกำลังสร้างแชทบ็อต เครื่องกำเนิดภาพ นักแต่งเพลง หรือไพพ์ไลน์การวิเคราะห์ที่ขับเคลื่อนด้วยข้อมูล CometAPI ช่วยให้คุณทำซ้ำได้เร็วขึ้น ควบคุมต้นทุน และไม่ขึ้นอยู่กับผู้จำหน่าย ทั้งหมดนี้ในขณะที่ใช้ประโยชน์จากความก้าวหน้าล่าสุดในระบบนิเวศ AI
นักพัฒนาสามารถเข้าถึงได้ มินิแม็กซ์ M2 API ผ่านทาง CometAPI รุ่นใหม่ล่าสุด ได้รับการอัปเดตอยู่เสมอจากเว็บไซต์อย่างเป็นทางการ เริ่มต้นด้วยการสำรวจความสามารถของโมเดลใน สนามเด็กเล่น และปรึกษา คู่มือ API สำหรับคำแนะนำโดยละเอียด ก่อนเข้าใช้งาน โปรดตรวจสอบให้แน่ใจว่าคุณได้เข้าสู่ระบบ CometAPI และได้รับรหัส API แล้ว โคเมทเอพีไอ เสนอราคาที่ต่ำกว่าราคาอย่างเป็นทางการมากเพื่อช่วยคุณบูรณาการ
พร้อมไปหรือยัง?→ ลงทะเบียน CometAPI วันนี้ !
หากคุณต้องการทราบเคล็ดลับ คำแนะนำ และข่าวสารเกี่ยวกับ AI เพิ่มเติม โปรดติดตามเราที่ VK, X และ ไม่ลงรอยกัน!
