การฝึกโมเดลภาษาขนาดใหญ่ (LLM) ที่ทันสมัยอย่าง GPT-5 ถือเป็นภารกิจทางวิศวกรรม โลจิสติกส์ และการเงินขนาดใหญ่ พาดหัวข่าวและข่าวลือเกี่ยวกับจำนวน GPU ที่ใช้นั้นมีความหลากหลายอย่างมาก ตั้งแต่ไม่กี่หมื่นไปจนถึงหลายแสนตัว และส่วนหนึ่งของความแตกต่างนั้นมาจากการเปลี่ยนแปลงของฮาร์ดแวร์ การเพิ่มประสิทธิภาพของซอฟต์แวร์ และข้อเท็จจริงที่ว่าบริษัทต่างๆ มักไม่ค่อยเผยแพร่ข้อมูลการวัดและส่งข้อมูลระยะไกลสำหรับการฝึกแบบเต็มรูปแบบ ในบทความนี้ ผมจะอธิบายวิธีการประมาณค่า และเน้นย้ำถึงข้อจำกัดที่กำหนดตัวเลขสุดท้าย
ต้องใช้ GPU กี่ตัวในการฝึก GPT-5?
คำตอบสั้นๆ ล่วงหน้า: ไม่มีตัวเลขเดียว สัญญาณสาธารณะและสูตรการปรับขนาดทางเทคนิคให้คำตอบที่น่าเชื่อถือตั้งแต่หลักพันต้นๆ (สำหรับการเทรนแบบกระชับและยืดหยุ่นตามเวลา) ไปจนถึงหลักแสนต้นๆ หากคุณยืนยันที่จะเทรนโมเดลขนาดใหญ่และหนาแน่นมากในช่วงเวลาสั้นๆ ด้วย GPU ทั่วไป ปลายด้านใดของช่วงนั้นขึ้นอยู่กับ ขนาดโมเดล, งบประมาณการคำนวณการฝึกอบรม (FLOP), โทเค็นที่ใช้, ปริมาณงานต่อเนื่องต่อ GPU, งบประมาณเวลาและไม่ว่าคุณจะใช้ฮาร์ดแวร์ Blackwell แบบแร็คสเกลใหม่กว่าหรือเครื่อง A100/H100 รุ่นเก่ากว่าก็ตาม OpenAI ระบุว่า GPT-5 ได้รับการฝึกอบรมบนซูเปอร์คอมพิวเตอร์ Microsoft Azure (ไม่ใช่จำนวน GPU ที่แม่นยำ) และภาพรวมที่เหลือก็มาจากข้อมูลภายนอกและการประมาณการคร่าวๆ ทางวิศวกรรม
OpenAI (เช่นเดียวกับองค์กรส่วนใหญ่) ไม่ได้เผยแพร่จำนวน FLOP ของการฝึกอบรมที่แน่นอนหรือบัญชีแยกประเภทชั่วโมง GPU แบบดิบสำหรับโมเดลที่ใหญ่ที่สุด ดังนั้น เราจึงรวมข้อมูลจำเพาะของผู้จำหน่าย รูปแบบการใช้งาน GPU ในอดีตที่สังเกตได้สำหรับโมเดลก่อนหน้า และกฎการปรับขนาดเพื่อสร้างช่วงที่สามารถป้องกันได้
กฎพื้นฐานอะไรที่เชื่อมโยงขนาดของโมเดลกับจำนวน GPU
สูตรหลักที่คุณสามารถใช้ได้
ทีม Megatron ของ NVIDIA นำเสนอการประมาณเวลาการฝึกอบรมแบบ end-to-end ที่ใช้งานได้จริงและใช้กันอย่างแพร่หลาย: training_time (s)≈8⋅T⋅PN⋅X\text{training\_time (s)} \approx 8 \cdot \frac{T \cdot P}{N \cdot X}training_time (s)≈8⋅N⋅XT⋅P
ที่:
- PPP = จำนวนพารามิเตอร์โมเดล (น้ำหนัก)
- TTT = จำนวนโทเค็นการฝึกอบรม
- NNN = จำนวน GPU
- XXX = ปริมาณงานต่อ GPU ที่คงที่ (เป็น FLOPs/วินาที มักแสดงเป็น teraFLOPs)
- ปัจจัย 8 มาจากการนับไปข้างหน้า + ถอยหลัง + ตัวปรับแต่ง และค่าคงที่อื่นๆ ในการประมาณ FLOP ของหม้อแปลง
จัดเรียงใหม่เพื่อประมาณ GPU สำหรับกำหนดการเป้าหมาย: N≈8⋅T⋅PX⋅training_time (s)N \approx 8 \cdot \frac{T \cdot P}{X \cdot \text{training\_time (s)}}N≈8⋅X⋅training_time (s)T⋅P
นี่เป็นสูตรทางวิศวกรรมที่สำคัญที่สุดสำหรับการแปลงงบการประมวลผล (FLOP) ให้เป็นขนาดกลุ่ม GPU และเป็นจุดเริ่มต้นในการประมาณจำนวน GPU
ข้อควรระวังที่สำคัญ
- “X” (ค่า TFLOP ต่อ GPU ที่ยั่งยืน) เป็นตัวเลขที่ระบุได้ยากที่สุด ค่าสูงสุดเชิงทฤษฎี (FLOP) มักจะสูงกว่าค่าที่งานฝึกอบรมทำได้จริงมาก เนื่องจากปริมาณการรับส่งข้อมูลหน่วยความจำ การสื่อสาร และฟองสบู่ในไปป์ไลน์ NVIDIA รายงานว่า ประสบความสำเร็จ ปริมาณงานประมาณ 163 TFLOP ต่อ GPU A100 ในการทดลองฝึกอบรมแบบจำลองขนาดใหญ่แบบ end-to-end; อุปกรณ์ H100 และ Blackwell มีจุดสูงสุดทางทฤษฎีที่สูงกว่ามาก แต่ปริมาณงานคงที่ที่ทำได้นั้นขึ้นอยู่กับซอฟต์แวร์สแต็ก การกำหนดค่าแบบขนานของแบบจำลอง และโครงสร้างการสื่อสาร ควรใช้ปริมาณงานที่เป็นไปได้อย่างระมัดระวังเมื่อจัดทำงบประมาณ
- งบประมาณโทเค็น TTT ไม่ได้มาตรฐาน NVIDIA ใช้โทเค็น ~450 ล้านโทเค็นสำหรับตัวอย่างพารามิเตอร์ 1 ล้านล้านตัว ทีมอื่นๆ ใช้อัตราส่วนโทเค็น/พารามิเตอร์ที่แตกต่างกัน (และมีการใช้โทเค็นสังเคราะห์เพิ่มมากขึ้น) ควรระบุสมมติฐานเกี่ยวกับโทเค็นอย่างชัดเจนเสมอ
- ข้อจำกัดด้านหน่วยความจำและโทโพโลยี (หน่วยความจำต่อ GPU, NVLink Fabric, ข้อจำกัดความขนานของไปป์ไลน์/เทนเซอร์) อาจทำให้ GPU บางประเภทเหมาะสมกับโมเดลขนาดใหญ่ที่แบ่งส่วนข้อมูลอย่างแน่นหนา แม้ว่าจะมีหมายเลข FLOP ที่ใกล้เคียงกันก็ตาม ระบบแบบแร็คสเกลอย่าง GB300/GB300 NVL72 ของ NVIDIA จะเปลี่ยนสมดุลระหว่าง FLOP และหน่วยความจำในทางปฏิบัติ
รุ่นก่อนๆ ใช้ GPU กี่ตัว
จุดยึดทางประวัติศาสตร์: การรายงาน GPT-3 และ GPT-4
รายงานและบทวิจารณ์ทางเทคนิคของอุตสาหกรรมได้ใช้จำนวน GPU ที่รายงานสำหรับรุ่นก่อนหน้าซ้ำแล้วซ้ำเล่าเพื่ออ้างอิงการประมาณการสำหรับรุ่นต่อๆ ไป สำนักข่าวที่เชื่อถือได้และผู้สังเกตการณ์ในอุตสาหกรรมหลายรายประเมินว่าการเตรียมการล่วงหน้าของ GPT-4 เกี่ยวข้องกับ GPU A100 หลายหมื่นตัวในช่วงเวลาหลายสัปดาห์ถึงหลายเดือน ตัวอย่างเช่น การรายงานข้อมูล ณ เวลานั้นระบุว่าพื้นที่การเตรียมการล่วงหน้าของ GPT-4 อยู่ในช่วงประมาณ 10–25 A100 ขึ้นอยู่กับว่ามีการนับจำนวน GPU สูงสุดในคลัง หรือจำนวน GPU ที่ทำงานพร้อมกันในระหว่างการเตรียมการล่วงหน้า ข้อมูลอ้างอิงในอดีตเหล่านี้มีประโยชน์เพราะแสดงลำดับขนาดและวิธีที่ฮาร์ดแวร์รุ่นต่างๆ (A100 → H100 / Blackwell) เปลี่ยนแปลงทรูพุตต่ออุปกรณ์
ความหมาย: หาก GPT-4 ใช้ A100 ประมาณ 10–25 ตัว GPT-5 ซึ่งหากมีขนาดใหญ่กว่าหนึ่งออร์เดอร์หรือมากกว่า หรือฝึกอบรมด้วยโทเค็นที่มากกว่า จะต้องประมวลผลรวมเพิ่มขึ้นอย่างมาก แต่การพัฒนาฮาร์ดแวร์ (H100/Blackwell/TPU) และซอฟต์แวร์ (optimizer/precision/mixture-of-experts, data-efficiency) สามารถลดจำนวนอุปกรณ์ทางกายภาพที่จำเป็นในการประมวลผลเท่าเดิมหรือมากกว่าได้
คุณจะต้องใช้ GPU กี่ตัวสำหรับสถานการณ์ GPT-5 ที่แตกต่างกัน?
ด้านล่างนี้ ผมได้คำนวณสถานการณ์จำลองที่เป็นรูปธรรมสามแบบ โดยใช้วิธีการเดียวกัน แต่ใช้สมมติฐานต่างกัน เพื่อให้คุณเห็นได้ว่าจำนวน GPU เปลี่ยนแปลงไปตามขนาดของโมเดล ฮาร์ดแวร์ และงบประมาณเวลาอย่างไร ผมระบุสมมติฐานไว้อย่างชัดเจน เพื่อให้คุณสามารถทำซ้ำหรือปรับเปลี่ยนได้
ข้อสันนิษฐานที่ใช้ (ชัดเจน)
- สูตรหลักของ FLOPs: N≈8⋅T⋅PX⋅เวลาN \approx 8 \cdot \frac{T \cdot P}{X \cdot \text{เวลา}}N≈8⋅X⋅เวลาT⋅P. (ดู NVIDIA Megatron)
- การปรับขนาดจำนวนโทเค็น: ผมใช้ตัวอย่างของ NVIDIA ที่ใช้โทเค็น ~450 พันล้านโทเค็นต่อพารามิเตอร์ 1T (ดังนั้น T≈0.45⋅PT \approx 0.45 \cdot PT≈0.45⋅P) เป็นค่าพื้นฐาน และปรับขนาดโทเค็นเป็นเส้นตรงตามพารามิเตอร์สำหรับสถานการณ์เหล่านี้ นี่เป็นทางเลือกที่สมเหตุสมผลแต่ไม่ใช่ทางเลือกสากล เพราะบางทีมอาจใช้โทเค็นมากกว่าหรือน้อยกว่าต่อพารามิเตอร์
- หน้าต่างการฝึกอบรม: 90 วัน (≈ 7,776,000 วินาที) กำหนดการที่สั้นกว่าต้องใช้ GPU มากขึ้นตามสัดส่วน ในขณะที่กำหนดการที่ยาวกว่าต้องใช้ GPU น้อยลง
- ปริมาณงานต่อเนื่องต่อ GPU (X, TFLOPs): สามระดับความจริงจังในการแสดงความอ่อนไหว:
- ประสบความสำเร็จในระดับอนุรักษ์นิยม / A100-class เก่า: 163 TFLOPs ต่อ GPU (ปริมาณงานที่วัดได้ของ NVIDIA ในตัวอย่าง 1T)
- ปริมาณงานที่มีประสิทธิภาพระดับ H100 ระดับไฮเอนด์ที่ทันสมัย: ~600 TFLOPs (เศษส่วนที่อนุรักษ์นิยมและสามารถทำได้ของค่าสูงสุดของ Tensor-core ตามทฤษฎี H100 หลังจากคำนึงถึงประสิทธิภาพที่ไม่มีประสิทธิภาพในระดับระบบแล้ว)
- แร็คสเกล Blackwell/GB300 มีประสิทธิภาพ: ~2,000 TFLOPs ต่อ GPU (แสดงถึงประสิทธิภาพของแร็ค Blackwell/GB300 รุ่นถัดไปที่ก้าวร้าว และประโยชน์ของ FP4/การเพิ่มประสิทธิภาพ ตัวเลขที่ยั่งยืนจริงจะแตกต่างกันไปตามเวิร์กโหลดและโทโพโลยี)
หมายเหตุ ค่า X เหล่านี้คือ สมมติฐาน สำหรับภาพประกอบทางวิศวกรรม—ใช้พวกมันเป็นปุ่มที่คุณสามารถเปลี่ยนได้ ประเด็นคือเพื่อแสดงให้เห็นถึงลำดับความสำคัญ
ผลลัพธ์ (ปัดเศษ)
โดยใช้สูตรและสมมติฐานข้างต้น สำหรับการฝึกซ้อม 90 วันด้วยโทเค็นที่ปรับขนาดเป็น T=0.45⋅PT=0.45\cdot PT=0.45⋅P:
1 ล้านล้านพารามิเตอร์ (1T):
- สีสดสวย 163 TFLOPs/GPU → ≈ 2,800 GPU.
- สีสดสวย 600 TFLOPs/GPU → ≈ 770 GPU.
- สีสดสวย 2,000 TFLOPs/GPU → ≈ 230 GPU.
3 ล้านล้านพารามิเตอร์ (3T):
- สีสดสวย 163 TFLOPs/GPU → ≈ 25,600 GPU.
- สีสดสวย 600 TFLOPs/GPU → ≈ 6,900 GPU.
- สีสดสวย 2,000 TFLOPs/GPU → ≈ 2,100 GPU.
10 ล้านล้านพารามิเตอร์ (10T):
- สีสดสวย 163 TFLOPs/GPU → ≈ 284,000 GPU.
- สีสดสวย 600 TFLOPs/GPU → ≈ 77,000 GPU.
- สีสดสวย 2,000 TFLOPs/GPU → ≈ 23,000 GPU.
สิ่งเหล่านี้แสดงให้เห็นว่าเหตุใดการประมาณการของผู้คนจึงแตกต่างกันอย่างมาก: การเปลี่ยนแปลงของทรูพุตที่ยั่งยืนต่อ GPU (ทั้งฮาร์ดแวร์และซอฟต์แวร์) หรือเวลาในการเทรนที่ต้องการ จะทำให้จำนวน GPU เปลี่ยนแปลงไปอย่างมาก โมเดลที่มีขนาดใหญ่กว่าสิบเท่าต้องการพารามิเตอร์ PPP มากกว่าสิบเท่า และเนื่องจากโทเค็นมักจะถูกปรับขนาดตามขนาดของโมเดลด้วย FLOP ทั้งหมด (และด้วยเหตุนี้จึงต้องใช้ GPU) จึงเติบโตแบบซูเปอร์เชิงเส้นหากคุณกำหนดงบประมาณเวลาคงที่
ช่วงความพยายามที่ดีที่สุดสำหรับ GPT-5 (การสังเคราะห์):
- ขอบเขตล่าง (สูตรการคำนวณที่มีประสิทธิภาพ + ปริมาณงานระดับ Blackwell/H100): GPU ที่เทียบเท่า H100 ประมาณ 10,000–25,000 ตัวที่ถูกใช้งานในช่วงหลายเดือน (หากโมเดลใช้การเพิ่มประสิทธิภาพอัลกอริทึมที่สำคัญและจำนวนพารามิเตอร์ที่เล็กลงพร้อมการเพิ่ม/ปรับแต่งข้อมูลอย่างเข้มงวด)
- ส่วนกลาง (สถานการณ์กระแสหลักที่เป็นไปได้): GPU ที่เทียบเท่า H100 ประมาณ 25,000–80,000 ตัว (เพิ่มขึ้นจาก GPT-4 ที่รายงานว่ามีเป็นหมื่นๆ ตัวเพื่อรองรับงบประมาณการประมวลผลและจำนวนโทเค็นที่ใหญ่ขึ้น)
- ขอบเขตบน (โมเดลพารามิเตอร์ขนาดใหญ่หลายล้านล้านที่ฝึกด้วยทางลัดอัลกอริทึมเพียงไม่กี่อัน): GPU ที่เทียบเท่า H100 มากกว่า 80,000–150,000 ตัวในช่วงพีค (หากทีมงานต้องการเวลาตอบสนองที่สั้นมากและใช้หลายอุปกรณ์พร้อมกัน)
ช่วงเหล่านี้สอดคล้องกับปริมาณงานของผู้จำหน่ายปัจจุบัน การใช้งาน GPU ในอดีตสำหรับรุ่นก่อนหน้า และขนาดคลัสเตอร์อุตสาหกรรมที่รายงานไว้ ประมาณการไม่ใช่การรับเข้าโดยตรงจาก OpenAI จำนวนที่แน่นอนสำหรับ GPT-5 ยังคงเป็นกรรมสิทธิ์
มีอะไรอีกที่เพิ่มเข้ามาในบิล GPU นอกเหนือจากการรันการฝึกอบรมเบื้องต้น?
ปัจจัยที่เพิ่มจำนวนอุปกรณ์
- ความทะเยอทะยานในการนับพารามิเตอร์และโทเค็น: การเพิ่มพารามิเตอร์เป็นสองเท่าโดยปกติจะหมายถึงการเพิ่มโทเค็นที่เปรียบเทียบได้เพื่อให้ยังคงประสิทธิภาพในการคำนวณที่ดีที่สุด
- ความต้องการเวลานาฬิกาติดผนังที่สั้น: การจะเสร็จสิ้นการฝึกอบรมภายในเวลาไม่กี่สัปดาห์แทนที่จะเป็นหลายเดือน จำเป็นต้องเพิ่มจำนวน GPU พร้อมกันตามสัดส่วน
- การตรวจสอบขนาดใหญ่หรือระบบ RLHF: วงจร RLHF หลังการฝึกที่สำคัญหรือวงจรการตอบรับจากมนุษย์เพิ่มการใช้งาน GPU ที่มีความหมายเกินกว่า FLOP ก่อนการฝึกพื้นฐาน
- ความไม่มีประสิทธิภาพของเครือข่ายและโครงสร้างพื้นฐาน: การปรับขนาดการเชื่อมต่อที่ไม่ดีหรือการใช้งานที่ต่ำทำให้จำนวน GPU ทางกายภาพที่จำเป็นในการรับรู้ปริมาณงานที่โฆษณาไว้เพิ่มสูงขึ้น
RLHF การปรับแต่ง และการประเมิน
การเรียนรู้แบบเสริมแรงจากขั้นตอนป้อนกลับของมนุษย์ (RLHF) การปรับแต่งแบบหลายขั้นตอน การทำงานแบบ Red-Teaming และการประเมินแบบกวาดขนาดใหญ่ ล้วนเพิ่มการประมวลผลเพิ่มเติมอย่างมาก นอกเหนือจาก FLOP "ก่อนการฝึกอบรม" ขั้นตอนต่อเนื่องเหล่านี้มักต้องการวงจรการฝึกอบรมนโยบายที่มีประสิทธิภาพและการอนุมานซ้ำในระดับขนาดใหญ่ (ซึ่งให้บริการบนคลัสเตอร์ GPU อื่นๆ) ดังนั้น โครงการ ขนาด GPU มีขนาดใหญ่กว่าค่าประมาณก่อนการฝึกอบรมครั้งเดียว การพัฒนา GPT-5 ของ OpenAI อ้างอิงถึงกระบวนการประเมินความปลอดภัยและการประเมินที่ซับซ้อนซึ่งเพิ่มการประมวลผลนอกเหนือจากการฝึกอบรมล่วงหน้า
การสร้างข้อมูลและโทเค็นสังเคราะห์
การขาดแคลนโทเค็นคุณภาพสูงในระดับขนาดใหญ่ทำให้ทีมต่างๆ ต้องสร้างโทเค็นสังเคราะห์ (เช่น โทเค็นที่เล่นเองหรือโทเค็นที่สร้างขึ้นจากแบบจำลอง) ซึ่งต้องใช้การประมวลผลเพื่อผลิตและตรวจสอบ การคำนวณขั้นตอนการทำงานนี้จะเพิ่ม GPU โดยรวมและการคำนวณแบบ Wall-clock ที่ใช้ในระหว่างโครงการจำลอง
ให้บริการกองเรือสำหรับการเปิดตัวและการวนซ้ำ
การเปิดตัวโมเดลให้กับผู้ใช้หลายล้านคนจำเป็นต้องมีกลุ่มอนุมานขนาดใหญ่ที่แยกออกจากคลัสเตอร์ฝึกอบรม มีรายงานว่า OpenAI มี GPU ออนไลน์ตั้งแต่หลายแสนถึงหนึ่งล้านตัวขึ้นไป รวมถึงความจุในการให้บริการด้วย นี่เป็นงบประมาณที่แตกต่างจากคลัสเตอร์ฝึกอบรม แต่มักถูกนำมารวมกันในการอภิปรายสาธารณะ
สรุป
ไม่มีตัวเลขสาธารณะที่แน่ชัดสำหรับ "จำนวน GPU ที่ต้องฝึก GPT-5" เนื่องจากคำตอบขึ้นอยู่กับการกำหนดค่าพารามิเตอร์ของโมเดล สูตรการฝึก และลำดับความสำคัญคือเวลาจริงหรือต้นทุนรวม การใช้ข้อมูลจำเพาะของผู้จำหน่ายสาธารณะ การวิจัยกฎการปรับขนาด และการรายงานของอุตสาหกรรมเป็นแนวทาง จึงเป็นแนวทางที่ป้องกันได้ดีที่สุด สาธารณะ คาดว่าการฝึกอบรมระดับ GPT-5 น่าจะจำเป็น GPU ที่เทียบเท่า H100 จำนวนนับหมื่นตัว ที่จุดสูงสุด (ช่วงกลางที่เป็นไปได้: ~25k–80k เทียบเท่า H100) โดยมี GPU รวมเป็นชั่วโมงใน หลายล้าน พิสัย.
เข้าถึง GPT-5 ได้ที่ไหน
หากคุณต้องการเข้าถึงโปรแกรมหรือฝัง GPT-5 Pro ลงในผลิตภัณฑ์ ให้ใช้ API OpenAI, CometAPI ฯลฯ มีชื่อรุ่นสำหรับตระกูล GPT-5 (gpt-5-pro / gpt-5-pro-2025-10-06) และการเรียกเก็บเงินจะคิดตามโทเค็นที่ใช้ API ช่วยให้สามารถใช้ฟีเจอร์ขั้นสูงต่างๆ เช่น การดำเนินการที่เปิดใช้งานด้วยเครื่องมือ หน้าต่างบริบทที่ยาวขึ้น การตอบสนองแบบสตรีม และพารามิเตอร์ของโมเดล เพื่อควบคุมความพยายาม/ความละเอียดของการใช้เหตุผล
CometAPI เป็นแพลตฟอร์ม API แบบรวมที่รวบรวมโมเดล AI มากกว่า 500 โมเดลจากผู้ให้บริการชั้นนำ เช่น ซีรีส์ GPT ของ OpenAI, Gemini ของ Google, Claude ของ Anthropic, Midjourney, Suno และอื่นๆ ไว้ในอินเทอร์เฟซเดียวที่เป็นมิตรกับนักพัฒนา ด้วยการนำเสนอการตรวจสอบสิทธิ์ การจัดรูปแบบคำขอ และการจัดการการตอบสนองที่สอดคล้องกัน CometAPI จึงทำให้การรวมความสามารถของ AI เข้ากับแอปพลิเคชันของคุณง่ายขึ้นอย่างมาก ไม่ว่าคุณจะกำลังสร้างแชทบ็อต เครื่องกำเนิดภาพ นักแต่งเพลง หรือไพพ์ไลน์การวิเคราะห์ที่ขับเคลื่อนด้วยข้อมูล CometAPI ช่วยให้คุณทำซ้ำได้เร็วขึ้น ควบคุมต้นทุน และไม่ขึ้นอยู่กับผู้จำหน่าย ทั้งหมดนี้ในขณะที่ใช้ประโยชน์จากความก้าวหน้าล่าสุดในระบบนิเวศ AI
นักพัฒนาสามารถเข้าถึงได้ จีพีที-5 โปร ผ่านทาง CometAPI รุ่นใหม่ล่าสุด ได้รับการอัปเดตอยู่เสมอจากเว็บไซต์อย่างเป็นทางการ เริ่มต้นด้วยการสำรวจความสามารถของโมเดลใน สนามเด็กเล่น และปรึกษา คู่มือ API สำหรับคำแนะนำโดยละเอียด ก่อนเข้าใช้งาน โปรดตรวจสอบให้แน่ใจว่าคุณได้เข้าสู่ระบบ CometAPI และได้รับรหัส API แล้ว โคเมทเอพีไอ เสนอราคาที่ต่ำกว่าราคาอย่างเป็นทางการมากเพื่อช่วยคุณบูรณาการ
พร้อมไปหรือยัง?→ ลงทะเบียน CometAPI วันนี้ !
