OpenAI ยังไม่ได้เผยแพร่การนับพารามิเตอร์อย่างเป็นทางการสำหรับ GPT-5 — จาก ประมาณ 1.7–1.8 ล้านล้านพารามิเตอร์ (การประมาณค่าแบบแบบจำลองหนาแน่น) หลายสิบล้านล้าน หากนับความจุรวมของสถาปัตยกรรมแบบผสมผสานผู้เชี่ยวชาญ (MoE) ตัวเลขเหล่านี้ยังไม่ได้รับการยืนยันอย่างเป็นทางการ และความแตกต่างในสถาปัตยกรรม (แบบหนาแน่นเทียบกับ MoE) การแบ่งปันพารามิเตอร์ ความเบาบาง และการวัดปริมาณ ทำให้ตัวเลขพาดหัวข่าวเพียงตัวเดียวทำให้เข้าใจผิดได้
OpenAI พูดอย่างไรเกี่ยวกับขนาดและสถาปัตยกรรมของ GPT-5?
เอกสารสาธารณะของ OpenAI เกี่ยวกับ GPT-5 เน้นย้ำถึงความสามารถ API และการควบคุมใหม่ๆ มากกว่าการนับพารามิเตอร์แบบดิบๆ หน้าผลิตภัณฑ์และหน้านักพัฒนาของบริษัทจะแนะนำฟีเจอร์ต่างๆ ของ GPT-5 ซึ่งได้แก่ การเขียนโค้ดที่ได้รับการปรับปรุง ฟังก์ชันใหม่ verbosity พารามิเตอร์และการควบคุมเหตุผลใหม่ — แต่ทำ ไม่ เปิดเผยตัวเลข “พารามิเตอร์ = X” ตัวอย่างเช่น หน้า GPT-5 อย่างเป็นทางการของ OpenAI และเอกสารสำหรับนักพัฒนาอธิบายความสามารถและปุ่มกำหนดค่า แต่ละเว้นข้อกำหนดจำนวนพารามิเตอร์
เหตุใดความเงียบนั้นจึงสำคัญ
เดิมทีการนับพารามิเตอร์เป็นเพียงคำย่อง่ายๆ สำหรับมาตราส่วนแบบจำลอง แต่ปัจจุบันการนับพารามิเตอร์เพียงอย่างเดียวนั้นให้ข้อมูลน้อยลง: การเลือกออกแบบแบบจำลอง (การผสมผสานของผู้เชี่ยวชาญ การแบ่งปันพารามิเตอร์ การวัดปริมาณ) การประมวลผลการฝึก คุณภาพข้อมูล และการเปลี่ยนแปลงอัลกอริทึม สามารถสร้างความแตกต่างด้านความสามารถได้อย่างมาก โดยไม่ต้องเปลี่ยนแปลงสัดส่วนของผลรวมพารามิเตอร์ที่เผยแพร่ การที่ OpenAI ให้ความสำคัญกับฟีเจอร์และการปรับปรุงด้านความปลอดภัยสะท้อนให้เห็นถึงการเปลี่ยนแปลงดังกล่าว โดยเน้นที่ประสิทธิภาพ การทดสอบความปลอดภัย และการควบคุม API มากกว่าขนาดจริง
มีการประมาณการอิสระอะไรบ้าง และแตกต่างกันมากเพียงใด?
เนื่องจาก OpenAI ไม่ได้เผยแพร่ตัวเลขดังกล่าว ทีมงานของเราจึงประมาณการโดยอ้างอิงจากสถานการณ์จำลองต่างๆ ที่ได้นำมาคำนวณและตั้งสมมติฐานไว้ ซึ่งแบ่งออกเป็นหมวดหมู่ต่างๆ ดังนี้
- ~1.7–1.8 ล้านล้านพารามิเตอร์ (การประมาณแบบหนาแน่น) การวิเคราะห์หลายชิ้นเปรียบเทียบประสิทธิภาพของเกณฑ์มาตรฐาน ราคา และการปรับมาตราส่วนในอดีต เพื่อประเมินว่า GPT-5 อยู่ในช่วงพารามิเตอร์ล้านล้านระดับต่ำ ซึ่งใกล้เคียงกับค่าประมาณของ GPT-4 บางส่วน ค่าประมาณเหล่านี้มีความระมัดระวังและถือว่า GPT-5 เป็นแบบจำลองความหนาแน่นสูงในขนาดขยาย มากกว่าที่จะเป็นระบบ MoE ขนาดมหึมา
- หลายสิบล้านล้าน (รวมแบบกระทรวงศึกษาธิการ) รายงานอื่นๆ แสดงให้เห็นว่า GPT-5 (หรือ GPT-5 บางตัว) ใช้แนวทางการผสมผสานของผู้เชี่ยวชาญ โดยที่ ทั้งหมด จำนวนพารามิเตอร์ของผู้เชี่ยวชาญทั้งหมดอาจสูงถึงหลายสิบล้านล้านพารามิเตอร์ ตัวอย่างเช่น การกำหนดค่า MoE ที่มีพารามิเตอร์ 52.5 ล้านล้านพารามิเตอร์ที่อ้างว่าเป็นข้อมูลที่เผยแพร่ในบทวิจารณ์อุตสาหกรรม ระบบ MoE จะเปิดใช้งานผู้เชี่ยวชาญเพียงบางส่วนต่อโทเค็น ดังนั้น "พารามิเตอร์ทั้งหมด" และ "พารามิเตอร์ที่ใช้งานอยู่ต่อการส่งไปข้างหน้า" จึงเป็นตัวชี้วัดที่แตกต่างกันมาก
- อนุรักษ์นิยมใช้วิธีหลีกเลี่ยงตัวเลขตัวเดียว บทความทางเทคนิคและตัวรวบรวมข้อมูลบางส่วนเน้นย้ำว่าการนับพารามิเตอร์เพียงอย่างเดียวไม่ใช่ตัวแทนที่ดีนัก ดังนั้นจึงปฏิเสธที่จะให้ตัวเลขที่ชัดเจน แต่เลือกที่จะวิเคราะห์ประสิทธิภาพ ความหน่วง ราคา และการแลกเปลี่ยนทางสถาปัตยกรรมแทน
ความแตกต่างเหล่านี้มีความสำคัญ: การอ้างว่า "หนาแน่น 1.8T" และ "รวม 50T MoE" ไม่สามารถเปรียบเทียบกันได้โดยตรง โดยที่ข้อแรกแสดงถึงเมทริกซ์หนาแน่นที่ใช้กับโทเค็นทุกตัว ส่วนข้อหลังแสดงถึงรูปแบบการเปิดใช้งานแบบเบาบางที่ทำให้การประมวลผลที่มีประสิทธิภาพและการใช้หน่วยความจำแตกต่างกันมาก
แหล่งข้อมูลที่แตกต่างกันสามารถผลิตตัวเลขที่แตกต่างกันได้อย่างไร?
มีสาเหตุทางเทคนิคและบริบทหลายประการที่ทำให้การประมาณการแตกต่างกัน
(ก) สถาปัตยกรรมแบบหนาแน่นเทียบกับแบบเบาบาง (การผสมผสานของผู้เชี่ยวชาญ)
หม้อแปลงหนาแน่นใช้เมทริกซ์น้ำหนักเดียวกันกับทุกโทเค็น จำนวนพารามิเตอร์ของแบบจำลองหนาแน่นคือจำนวนน้ำหนักที่เก็บไว้ แบบจำลอง MoE จัดเก็บแบบจำลองย่อยของผู้เชี่ยวชาญจำนวนมาก แต่เปิดใช้งานเพียงชุดย่อยเล็กๆ ต่อโทเค็น บางครั้งผู้คนรายงานว่า ทั้งหมด จำนวนพารามิเตอร์ของผู้เชี่ยวชาญ (ซึ่งอาจมีจำนวนมาก) ในขณะที่คนอื่นรายงาน มีประสิทธิภาพ จำนวนพารามิเตอร์ที่เปิดใช้งานต่อโทเค็น (น้อยกว่ามาก) ความไม่ตรงกันนี้ทำให้ตัวเลขพาดหัวข่าวแตกต่างกันอย่างมาก
(b) การแบ่งปันพารามิเตอร์และการแสดงผลที่มีประสิทธิภาพ
โมเดลการผลิตสมัยใหม่มักใช้เทคนิคการแบ่งปันพารามิเตอร์ อะแดปเตอร์ระดับต่ำ หรือการวัดปริมาณเชิงรุก สิ่งเหล่านี้ช่วยลดพื้นที่หน่วยความจำและเปลี่ยนวิธีการนับ "พารามิเตอร์" เพื่อให้ได้ประสิทธิภาพการใช้งานจริง โมเดลสองโมเดลที่มีจำนวนพารามิเตอร์ดิบเท่ากันอาจทำงานแตกต่างกันมากหากโมเดลหนึ่งใช้น้ำหนักหรือการบีบอัดข้อมูลร่วมกัน
(c) เศรษฐศาสตร์ที่เผยแพร่สู่สาธารณะและบรรจุภัณฑ์ผลิตภัณฑ์
บริษัทอาจเปิดเผยโมเดลที่แตกต่างกัน สายพันธุ์ (เช่น GPT-5, GPT-5-mini, GPT-5-instant) ที่มีขนาดภายในและโปรไฟล์ต้นทุนที่แตกต่างกัน ราคา ความหน่วง และปริมาณงานสำหรับตัวแปรเหล่านี้ทำให้นักวิเคราะห์ได้เบาะแสทางอ้อม แต่เบาะแสเหล่านั้นจำเป็นต้องมีสมมติฐานเกี่ยวกับการแบ่งกลุ่ม ฮาร์ดแวร์ และซอฟต์แวร์สแต็กที่ทำให้เกิดข้อผิดพลาด
(d) การไม่เปิดเผยข้อมูลโดยเจตนาและเหตุผลด้านการแข่งขัน
OpenAI และบริษัทอื่นๆ ให้ความสำคัญกับรายละเอียดสถาปัตยกรรมบางอย่างมากขึ้นเรื่อยๆ ซึ่งทำให้การเรียนรู้จากการนับแบบหลักการพื้นฐานลดน้อยลง และบังคับให้ชุมชนต้องพึ่งพาการอนุมานทางอ้อม (เช่น เกณฑ์มาตรฐาน เวลาแฝง และพันธมิตรด้านโครงสร้างพื้นฐานที่รายงาน) ซึ่งมีสัญญาณรบกวน
การประมาณการที่เผยแพร่ครั้งใดมีความน่าเชื่อถือที่สุด?
การประเมินระยะสั้น
ไม่มีแหล่งข้อมูลสาธารณะใดที่เชื่อถือได้ ความน่าเชื่อถือขึ้นอยู่กับวิธีการ:
- การวิเคราะห์แบบสามเหลี่ยมจากเกณฑ์มาตรฐาน การกำหนดราคา และความหน่วงในการอนุมาน (เช่น บล็อกทางเทคนิคของอุตสาหกรรมที่รอบคอบ) มีประโยชน์แต่เป็นเพียงการประมาณค่าโดยประมาณเท่านั้น
- การอ้างสิทธิ์จำนวนพารามิเตอร์รวมมหาศาล มีความเป็นไปได้ if สถาปัตยกรรมเป็นแบบ MoE — แต่ผลรวมเหล่านี้ไม่สามารถเปรียบเทียบโดยตรงกับแบบจำลองหนาแน่นได้ และมักมาจากการประมาณค่ามากกว่าหลักฐานเบื้องต้น ให้ถือว่าผลรวมเหล่านี้เป็นตัวชี้วัดอื่น
- ความเงียบของ OpenAI ตัวเลขนั้นถือเป็นจุดข้อมูลที่สำคัญ เนื่องจากบริษัทกำลังให้ความสำคัญกับพฤติกรรม ความปลอดภัย และการควบคุม API มากกว่าการนับแบบดิบ
วิธีการชั่งน้ำหนักตัวเลข
หากคุณต้องการสมมติฐานการทำงานสำหรับวิศวกรรมหรือการจัดซื้อ: แบบจำลอง พฤติกรรม (ความหน่วง, ปริมาณงาน, ต้นทุนต่อโทเค็น, ความถูกต้องของงาน) มีความสำคัญมากกว่าผลรวมพารามิเตอร์ที่ไม่ได้รับการตรวจสอบ หากคุณต้องใช้การประมาณค่าเชิงตัวเลขสำหรับการสร้างแบบจำลองต้นทุน ให้สันนิษฐานอย่างระมัดระวัง ล้านล้านต่ำ ลำดับความสำคัญเว้นแต่คุณจะมีหลักฐานโดยตรงของ MoE และรูปแบบการเปิดใช้งาน หากมี MoE ให้ถามว่าเมตริกนั้นหรือไม่ ทั้งหมด vs คล่องแคล่ว พารามิเตอร์ก่อนนำตัวเลขไปใช้ในการวางแผนกำลังการผลิต
การนับพารามิเตอร์ยังสามารถทำนายประสิทธิภาพได้หรือไม่
คำตอบสั้น ๆ : เป็นบางส่วนแต่ความน่าเชื่อถือลดลงกว่าเดิม
มุมมองทางประวัติศาสตร์
กฎการปรับขนาดแสดงให้เห็นถึงความสัมพันธ์ที่แข็งแกร่งระหว่างขนาดของแบบจำลอง การประมวลผล และประสิทธิภาพสำหรับเกณฑ์มาตรฐานบางประเภท การเพิ่มพารามิเตอร์ (และการประมวลผล/ข้อมูลที่ตรงกัน) ในอดีตช่วยปรับปรุงความสามารถในลักษณะที่คาดการณ์ได้ อย่างไรก็ตาม กฎเหล่านี้ใช้สถาปัตยกรรมและรูปแบบการฝึกอบรมที่คล้ายคลึงกัน
ข้อควรระวังสมัยใหม่
ปัจจุบัน นวัตกรรมทางสถาปัตยกรรม (การผสมผสานผู้เชี่ยวชาญ การปรับปรุงประสิทธิภาพ การฝึกอบรมแบบลำดับความคิด การปรับแต่งคำสั่ง) การรวบรวมข้อมูลการฝึกอบรม และการปรับแต่งแบบเจาะจง (RLHF การผสานรวมการใช้งานเครื่องมือ) สามารถเพิ่มขีดความสามารถต่อพารามิเตอร์ได้มากกว่าการปรับขนาดแบบง่าย ๆ การประกาศ GPT-5 ของ OpenAI เน้นย้ำถึงการควบคุมการให้เหตุผลและพารามิเตอร์ของนักพัฒนา เช่น verbosity และ reasoning_effort — ตัวเลือกการออกแบบที่เปลี่ยนประสบการณ์ผู้ใช้โดยที่ไม่จำเป็นต้องรู้จำนวนพารามิเตอร์แม้แต่ตัวเดียว
ดังนั้น: จำนวนพารามิเตอร์คือ หนึ่ง ตัวทำนายในหลายๆ ตัว ไม่จำเป็นและไม่เพียงพอที่จะอธิบายความมีประโยชน์ของแบบจำลอง
ข่าวสารล่าสุดเกี่ยวกับ GPT-5 เกินขนาดมีอะไรบ้าง?
รายงานล่าสุดมุ่งเน้นไปที่ความสามารถ ความปลอดภัย และตัวเลือกผลิตภัณฑ์ มากกว่าขนาดที่แท้จริง สำนักข่าวต่างๆ ได้รายงานถึงข้อกล่าวอ้างของ OpenAI ที่ว่า GPT-5 ช่วยลดอคติทางการเมืองในผลลัพธ์ การเปลี่ยนแปลงนโยบายด้านการกำหนดอายุและเนื้อหาใหม่ๆ กำลังจะเกิดขึ้น และ OpenAI กำลังพัฒนาอย่างต่อเนื่องเพื่อให้โมเดลนี้มีประโยชน์และควบคุมได้ง่ายขึ้นสำหรับนักพัฒนา สิ่งเหล่านี้คือสัญญาณของผลิตภัณฑ์และนโยบายที่มีความสำคัญในทางปฏิบัติมากกว่าการนับพารามิเตอร์ที่ไม่เปิดเผย
การเปลี่ยนแปลงเชิงปฏิบัติในผลิตภัณฑ์
เอกสารสำหรับนักพัฒนาของ OpenAI ได้ประกาศพารามิเตอร์ API ใหม่ (ความละเอียด, ความพยายามในการหาเหตุผล, เครื่องมือที่ปรับแต่งได้) ซึ่งออกแบบมาเพื่อให้นักพัฒนาสามารถแลกเปลี่ยนความเร็ว, รายละเอียด และความลึกซึ้งในการคิดได้ พารามิเตอร์เหล่านี้มีความชัดเจนและสามารถนำไปปฏิบัติได้ทันทีสำหรับนักพัฒนาที่ต้องตัดสินใจว่า GPT-5 รุ่นใดหรือการตั้งค่าใดที่เหมาะกับผลิตภัณฑ์ของตน
นักวิจัยและวิศวกรควรทำอย่างไรหากต้องการวางแผนกำลังการผลิตหรือต้นทุน?
อย่าพึ่งพาตัวเลข “พารามิเตอร์” เพียงตัวเดียว
ใช้ การเปรียบเทียบประสิทธิภาพเชิงประจักษ์ ในปริมาณงานของคุณ วัดค่าความหน่วง ทรูพุต ต้นทุนโทเค็น และความแม่นยำของพรอมต์ตัวแทน เมตริกเหล่านี้คือสิ่งที่คุณจะต้องจ่ายและสิ่งที่ผู้ใช้ของคุณจะได้รับ โมเดลที่มีจำนวนพารามิเตอร์ใกล้เคียงกันอาจมีต้นทุนในโลกแห่งความเป็นจริงที่แตกต่างกันมาก
หากคุณต้องเลือกสมมติฐานตามพารามิเตอร์
บันทึกว่าคุณกำลังสร้างแบบจำลอง ทั้งหมด พารามิเตอร์ (มีประโยชน์สำหรับการจัดเก็บข้อมูลและการอภิปรายเกี่ยวกับการอนุญาตสิทธิ์บางส่วน) เทียบกับ คล่องแคล่ว พารามิเตอร์ต่อโทเค็น (มีประโยชน์สำหรับหน่วยความจำรันไทม์/การประมวลผล) หากใช้การประมาณค่าสาธารณะ ให้อ้างอิงแหล่งที่มาและสมมติฐาน (เช่น MoE เทียบกับ Dense, การหาปริมาณ, การแบ่งปันน้ำหนัก)
ติดตามเอกสารอย่างเป็นทางการและการเปลี่ยนแปลงที่ระบุของ OpenAI
OpenAI เผยแพร่ฟีเจอร์และราคาของ API ที่ส่งผลโดยตรงต่อต้นทุน ซึ่งใช้งานได้จริงมากกว่าการนับพารามิเตอร์ที่คาดเดาไว้ ดูหน้านักพัฒนาและบันทึกประจำรุ่นสำหรับชื่อตัวแปร ราคา และระดับความหน่วงได้ที่หน้าเพจสำหรับนักพัฒนาซอฟต์แวร์
แล้ว GPT-5 มีพารามิเตอร์กี่ตัวในที่สุด?
มี ไม่มีคำตอบสาธารณะที่น่าเชื่อถือเพียงคำตอบเดียว เพราะ OpenAI ไม่ได้เผยแพร่จำนวนพารามิเตอร์ และการประเมินโดยบุคคลที่สามก็แตกต่างกัน สรุปที่ดีที่สุดและตรงไปตรงมา:
- โอเพ่นเอไอ: ไม่มีการนับพารามิเตอร์สาธารณะ เน้นที่ความสามารถ ความปลอดภัย และการควบคุมของนักพัฒนา
- การประมาณการอย่างระมัดระวังอย่างอิสระ: การวิเคราะห์จำนวนมากแนะนำว่า ล้านล้านต่ำ ลำดับขนาด (≈1.7–1.8T) หากคุณจำลอง GPT-5 เป็นหม้อแปลงความหนาแน่นสูงที่มีขนาดตามสเกล ให้ถือว่านี่เป็นการประมาณ ไม่ใช่ข้อเท็จจริง
- การเรียกร้อง MoE/พารามิเตอร์ทั้งหมด: มีคำกล่าวอ้างที่แพร่หลาย (เช่น ~52.5T) ที่อ้างถึงขีดความสามารถของผู้เชี่ยวชาญทั้งหมดในการกำหนดค่า MoE สมมุติฐาน คำกล่าวอ้างเหล่านี้ไม่สามารถเปรียบเทียบโดยตรงกับจำนวนนับหนาแน่น และขึ้นอยู่กับพฤติกรรมการกระตุ้น
Takeaways สุดท้าย
- การนับพารามิเตอร์มีข้อมูลแต่ไม่ครบถ้วน พวกเขาช่วยสร้างสัญชาตญาณเกี่ยวกับมาตราส่วน แต่ความสามารถ LLM สมัยใหม่ขึ้นอยู่กับสถาปัตยกรรม ข้อมูลการฝึกอบรม การคำนวณ และการปรับแต่ง
- OpenAI ไม่ได้เผยแพร่ค่าพารามิเตอร์รวมของ GPT-5 นักวิเคราะห์จึงต้องพึ่งสัญญาณและสมมติฐานทางอ้อม คาดว่าจะมีการประมาณการที่หลากหลาย
- ยอดรวมของ MoE เทียบกับจำนวนหนาแน่น: หากคุณเห็นหัวข้อข่าวว่า “หลายสิบล้านล้าน” ให้ตรวจสอบว่าหมายถึง ผู้เชี่ยวชาญกระทรวงศึกษาธิการทั้งหมด or พารามิเตอร์ที่ใช้งานต่อโทเค็น — มันไม่เหมือนกัน
- เกณฑ์มาตรฐานเอาชนะการคาดเดาในการตัดสินใจเลือกผลิตภัณฑ์ วัดโมเดลในงานที่คุณสนใจ (ความแม่นยำ ความหน่วง ต้นทุน) การตั้งค่า API ที่ OpenAI มอบให้ (ความละเอียด ความพยายามในการหาเหตุผล) น่าจะสำคัญกว่าตัวเลขพารามิเตอร์รวมที่ไม่ได้รับการตรวจสอบ
จะเรียก GPT-5 API ได้อย่างไรให้ประหยัดมากขึ้น?
CometAPI เป็นแพลตฟอร์ม API แบบรวมที่รวบรวมโมเดล AI มากกว่า 500 โมเดลจากผู้ให้บริการชั้นนำ เช่น ซีรีส์ GPT ของ OpenAI, Gemini ของ Google, Claude ของ Anthropic, Midjourney, Suno และอื่นๆ ไว้ในอินเทอร์เฟซเดียวที่เป็นมิตรกับนักพัฒนา ด้วยการนำเสนอการตรวจสอบสิทธิ์ การจัดรูปแบบคำขอ และการจัดการการตอบสนองที่สอดคล้องกัน CometAPI จึงทำให้การรวมความสามารถของ AI เข้ากับแอปพลิเคชันของคุณง่ายขึ้นอย่างมาก ไม่ว่าคุณจะกำลังสร้างแชทบ็อต เครื่องกำเนิดภาพ นักแต่งเพลง หรือไพพ์ไลน์การวิเคราะห์ที่ขับเคลื่อนด้วยข้อมูล CometAPI ช่วยให้คุณทำซ้ำได้เร็วขึ้น ควบคุมต้นทุน และไม่ขึ้นอยู่กับผู้จำหน่าย ทั้งหมดนี้ในขณะที่ใช้ประโยชน์จากความก้าวหน้าล่าสุดในระบบนิเวศ AI
นักพัฒนาสามารถเข้าถึงได้ จีพีที-5 และ GPT-5 โปร API ผ่านทาง CometAPI รุ่นใหม่ล่าสุด ได้รับการอัปเดตอยู่เสมอจากเว็บไซต์อย่างเป็นทางการ เริ่มต้นด้วยการสำรวจความสามารถของโมเดลใน สนามเด็กเล่น และปรึกษา คู่มือ API สำหรับคำแนะนำโดยละเอียด ก่อนเข้าใช้งาน โปรดตรวจสอบให้แน่ใจว่าคุณได้เข้าสู่ระบบ CometAPI และได้รับรหัส API แล้ว โคเมทเอพีไอ เสนอราคาที่ต่ำกว่าราคาอย่างเป็นทางการมากเพื่อช่วยคุณบูรณาการ
พร้อมไปหรือยัง?→ ลงทะเบียน CometAPI วันนี้ !
หากคุณต้องการทราบเคล็ดลับ คำแนะนำ และข่าวสารเกี่ยวกับ AI เพิ่มเติม โปรดติดตามเราที่ VK, X และ ไม่ลงรอยกัน!



