GPT-5 có bao nhiêu tham số

CometAPI
AnnaDec 2, 2025
GPT-5 có bao nhiêu tham số

OpenAI chưa công bố số lượng tham số chính thức cho GPT-5 — từ khoảng 1.7–1.8 nghìn tỷ tham số (ước tính kiểu mô hình dày đặc) để hàng chục nghìn tỷ nếu bạn tính tổng dung lượng của các kiến ​​trúc kiểu Hỗn hợp Chuyên gia (MoE). Không có con số nào trong số này được xác nhận chính thức, và sự khác biệt về kiến ​​trúc (dense so với MoE), chia sẻ tham số, độ thưa thớt và lượng tử hóa khiến một con số tiêu đề duy nhất có thể gây hiểu lầm.


OpenAI nói gì về kích thước và kiến ​​trúc của GPT-5?

Tài liệu công khai của OpenAI về GPT-5 nhấn mạnh vào các khả năng, API và các điều khiển mới thay vì số lượng tham số thô. Các trang sản phẩm và trang dành cho nhà phát triển của công ty giới thiệu các tính năng của GPT-5 — mã hóa được cải thiện, một verbosity tham số và các điều khiển lý luận mới — nhưng làm không tiết lộ con số "tham số = X". Ví dụ, các trang GPT-5 chính thức và tài liệu dành cho nhà phát triển của OpenAI mô tả các khả năng và nút cấu hình nhưng lại bỏ qua thông số kỹ thuật về số lượng tham số.

Tại sao sự im lặng đó lại quan trọng

Số lượng tham số từng là một cách viết tắt đơn giản cho quy mô mô hình. Ngày nay, chúng ít mang lại nhiều thông tin hơn: các lựa chọn thiết kế mô hình (Hỗn hợp chuyên gia, chia sẻ tham số, lượng tử hóa), tính toán đào tạo, chất lượng dữ liệu và các thay đổi thuật toán có thể tạo ra sự khác biệt lớn về năng lực mà không cần thay đổi tương ứng về tổng số tham số đã công bố. Việc OpenAI tập trung vào các tính năng và cải tiến an toàn phản ánh sự thay đổi đó: họ nhấn mạnh hiệu suất, các bài kiểm tra an toàn và kiểm soát API hơn là kích thước thô.


Có những ước tính độc lập nào tồn tại và chúng khác nhau đến mức nào?

Vì OpenAI không công bố số liệu, nhóm chúng tôi đưa ra ước tính dựa trên một số kịch bản đã đưa ra ước tính và giả thuyết. Các ước tính và giả thuyết này được chia thành một số nhóm sau:

  • ~1.7–1.8 nghìn tỷ tham số (ước tính theo kiểu dày đặc). Một số phân tích so sánh hiệu suất chuẩn, giá cả và quy mô lịch sử để ước tính GPT-5 nằm trong phạm vi tham số nghìn tỷ thấp — có cấp độ tương tự như một số ước tính cho GPT-4. Các ước tính này thận trọng và coi GPT-5 là một mô hình dày đặc với quy mô mở rộng hơn là một hệ thống MoE khổng lồ.
  • Hàng chục nghìn tỷ (tổng số theo kiểu Bộ Giáo dục). Các báo cáo khác cho thấy GPT-5 (hoặc một số biến thể GPT-5) sử dụng phương pháp Hỗn hợp chuyên gia trong đó Tổng số Số lượng tham số trên tất cả các chuyên gia có thể lên tới hàng chục nghìn tỷ — ví dụ, một cấu hình MoE được cho là có 52.5 nghìn tỷ tham số đã được lan truyền trong các bình luận trong ngành. Các hệ thống MoE chỉ kích hoạt một tập hợp con các chuyên gia trên mỗi token, do đó, "tổng tham số" và "tham số hoạt động trên mỗi lần chuyển tiếp" là các số liệu rất khác nhau.
  • Bảo thủ là tránh một con số duy nhất. Một số bài viết kỹ thuật và tổng hợp nhấn mạnh rằng số lượng tham số không phải là thước đo chính xác và do đó không đưa ra con số chính xác, thay vào đó họ muốn phân tích hiệu suất, độ trễ, giá cả và sự đánh đổi về kiến ​​trúc.

Những điểm khác biệt này rất quan trọng: tuyên bố "1.8T dày đặc" và "tổng MoE 50T" không thể so sánh trực tiếp — tuyên bố trước đây ngụ ý một ma trận dày đặc được áp dụng trên mọi mã thông báo, tuyên bố sau ngụ ý một mẫu kích hoạt thưa thớt khiến hiệu quả tính toán và sử dụng bộ nhớ rất khác nhau.


Làm sao các nguồn khác nhau có thể tạo ra những con số khác nhau như vậy?

Có một số lý do về mặt kỹ thuật và bối cảnh khiến ước tính khác nhau.

(a) Kiến trúc dày đặc so với thưa thớt (Hỗn hợp chuyên gia)

Một bộ biến đổi dày đặc áp dụng cùng một ma trận trọng số cho mọi token; số lượng tham số của một mô hình dày đặc là số lượng trọng số được lưu trữ. Một mô hình MoE lưu trữ nhiều mô hình con chuyên gia nhưng chỉ kích hoạt một tập hợp con nhỏ cho mỗi token. Đôi khi, người ta báo cáo rằng Tổng số số lượng các tham số chuyên gia (có thể rất lớn) trong khi những người khác báo cáo một hiệu quả Số lượng tham số được kích hoạt trên mỗi mã thông báo (nhỏ hơn nhiều). Sự không khớp đó tạo ra các con số tiêu đề rất khác nhau.

(b) Chia sẻ tham số và biểu diễn hiệu quả

Các mô hình sản xuất hiện đại thường sử dụng các thủ thuật chia sẻ tham số, bộ điều hợp hạng thấp hoặc lượng tử hóa mạnh mẽ. Những thủ thuật này giúp giảm thiểu dung lượng bộ nhớ và thay đổi cách bạn nên đếm "tham số" để đạt được dung lượng thực tế. Hai mô hình có cùng số lượng tham số thô có thể hoạt động rất khác nhau nếu một mô hình sử dụng trọng số chia sẻ hoặc nén.

(c) Kinh tế hướng tới công chúng và bao bì sản phẩm

Các công ty có thể tiết lộ các mô hình khác nhau biến thể (ví dụ: GPT-5, GPT-5-mini, GPT-5-instant) với các kích thước nội bộ và cấu hình chi phí khác nhau. Giá cả, độ trễ và thông lượng của các biến thể này cung cấp cho các nhà phân tích những manh mối gián tiếp — nhưng những manh mối này đòi hỏi các giả định về việc xử lý hàng loạt, phần cứng và ngăn xếp phần mềm có thể dẫn đến lỗi.

(d) Lý do cạnh tranh và không tiết lộ thông tin có chủ ý

OpenAI và các công ty khác ngày càng coi một số chi tiết kiến ​​trúc là độc quyền. Điều này làm giảm những gì có thể học được từ việc đếm nguyên lý cơ bản và buộc cộng đồng phải dựa vào các suy luận gián tiếp (điểm chuẩn, độ trễ, các đối tác cơ sở hạ tầng được báo cáo), vốn rất nhiễu.


Trong số những ước tính đã công bố, ước tính nào đáng tin cậy nhất?

Đánh giá ngắn

Không có nguồn công khai nào có thẩm quyền; độ tin cậy phụ thuộc vào phương pháp:

  • Phân tích tam giác từ điểm chuẩn, giá cả và độ trễ suy luận (ví dụ, các blog kỹ thuật chuyên ngành cẩn thận) có ích nhưng không nhất thiết phải mang tính gần đúng.
  • Yêu cầu về số lượng tham số tổng thể khổng lồ là hợp lý if Kiến trúc là MoE — nhưng những tổng số đó không thể so sánh trực tiếp với các mô hình dày đặc và thường đến từ phép ngoại suy hơn là bằng chứng chính. Hãy coi chúng như một thước đo khác.
  • Sự im lặng của OpenAI Bản thân con số này là một điểm dữ liệu quan trọng: công ty đang nhấn mạnh vào hành vi, sự an toàn và kiểm soát API hơn là số lượng thô.

Cách cân các con số

Nếu bạn cần một giả định làm việc cho kỹ thuật hoặc mua sắm: mô hình hành vi (độ trễ, thông lượng, chi phí cho mỗi mã thông báo, tính chính xác của các tác vụ) quan trọng hơn tổng số tham số chưa được xác minh. Nếu bạn phải sử dụng ước tính số cho chi phí mô hình hóa, hãy thận trọng giả định thấp nghìn tỷ bậc độ lớn trừ khi bạn có bằng chứng trực tiếp về MoE và các mô hình kích hoạt của nó; nếu MoE có mặt, hãy hỏi xem số liệu có Tổng số vs hoạt động các thông số trước khi sử dụng số liệu để lập kế hoạch năng lực.


Số lượng tham số có còn dự đoán được hiệu suất không?

Câu trả lời ngắn: từng phầnnhưng kém tin cậy hơn trước.

Quan điểm lịch sử

Các quy luật mở rộng cho thấy mối tương quan mạnh mẽ giữa kích thước mô hình, khả năng tính toán và hiệu suất đối với một số chuẩn mực nhất định. Việc tăng các tham số (và khả năng tính toán/dữ liệu phù hợp) trong lịch sử đã cải thiện khả năng theo một cách có thể dự đoán được. Tuy nhiên, các quy luật đó giả định các kiến ​​trúc và chế độ đào tạo tương tự nhau.

Những cảnh báo hiện đại

Ngày nay, những đổi mới về kiến ​​trúc (Hỗn hợp Chuyên gia, tối ưu hóa tốt hơn, đào tạo chuỗi suy nghĩ, điều chỉnh hướng dẫn), quản lý dữ liệu đào tạo và tinh chỉnh có mục tiêu (RLHF, tích hợp sử dụng công cụ) có thể tăng khả năng trên mỗi tham số nhiều hơn so với việc mở rộng quy mô một cách đơn giản. Thông báo GPT-5 của OpenAI nhấn mạnh vào các điều khiển suy luận và các tham số dành cho nhà phát triển như verbosityreasoning_effort — các lựa chọn thiết kế làm thay đổi trải nghiệm của người dùng mà không cần bất kỳ ai phải biết đến một tham số nào.

Vì vậy: số lượng tham số là một là một trong nhiều yếu tố dự báo; nó không cần thiết cũng không đủ để mô tả tính hữu ích của mô hình.


Những tin tức mới nhất nói gì về GPT-5 ngoài kích thước?

Các báo cáo gần đây tập trung vào năng lực, độ an toàn và lựa chọn sản phẩm hơn là quy mô thô. Các hãng tin đã đưa tin về tuyên bố của OpenAI rằng GPT-5 giảm thiểu định kiến ​​chính trị trong kết quả đầu ra, rằng các thay đổi mới về chính sách nội dung và giới hạn độ tuổi sắp được áp dụng, và OpenAI đang cải tiến để làm cho mô hình vừa hữu ích vừa dễ kiểm soát hơn cho các nhà phát triển. Đây là những tín hiệu về sản phẩm và chính sách quan trọng hơn trong thực tế so với một số lượng tham số không được tiết lộ.

Những thay đổi thực tế trong sản phẩm

Tài liệu dành cho nhà phát triển của OpenAI công bố các tham số API mới (độ chi tiết, nỗ lực lập luận, công cụ tùy chỉnh) được thiết kế để cho phép các nhà phát triển cân nhắc giữa tốc độ, độ chi tiết và chiều sâu tư duy. Các nút này rất cụ thể và dễ dàng thao tác ngay lập tức cho các nhà phát triển, những người phải quyết định biến thể hoặc cài đặt GPT-5 nào phù hợp với sản phẩm của họ.


Các nhà nghiên cứu và kỹ sư nên làm gì nếu họ cần lập kế hoạch về năng lực hoặc chi phí?

Đừng dựa vào một con số "tham số" duy nhất

Sử dụng chuẩn mực thực nghiệm trên khối lượng công việc của bạn. Đo độ trễ, thông lượng, chi phí mã thông báo và độ chính xác trên các lời nhắc đại diện. Những số liệu này là những gì bạn sẽ trả tiền và những gì người dùng của bạn sẽ trải nghiệm. Các mô hình có số lượng tham số tương tự có thể có chi phí thực tế rất khác nhau.

Nếu bạn phải chọn một giả định dựa trên tham số

Tài liệu cho biết bạn có đang làm người mẫu không Tổng số các tham số (hữu ích cho việc lưu trữ và một số thảo luận về cấp phép) so với hoạt động tham số cho mỗi mã thông báo (hữu ích cho bộ nhớ thời gian chạy/tính toán). Nếu sử dụng ước tính công khai, hãy trích dẫn nguồn và các giả định của ước tính đó (MoE so với mật độ, lượng tử hóa, liệu các trọng số có được chia sẻ hay không).

Theo dõi các tài liệu chính thức và những thay đổi đã nêu của OpenAI

OpenAI phát hành các tính năng và giá API ảnh hưởng trực tiếp đến chi phí; những tính năng này dễ thực hiện hơn so với việc ước lượng số lượng tham số. Hãy xem trang dành cho nhà phát triển và ghi chú phát hành để biết tên biến thể, giá cả và mức độ trễ.


Vậy thì cuối cùng GPT-5 có bao nhiêu tham số?

không có câu trả lời công khai có thẩm quyền duy nhất vì OpenAI chưa công bố số lượng tham số và các ước tính của bên thứ ba lại khác nhau. Tóm tắt trung thực và tốt nhất:

  • MởAI: Không có số lượng tham số công khai; tập trung vào khả năng, sự an toàn và các biện pháp kiểm soát của nhà phát triển.
  • Ước tính thận trọng độc lập: Nhiều phân tích cho thấy một thấp nghìn tỷ bậc (≈1.7–1.8T) nếu bạn mô hình hóa GPT-5 như một máy biến áp dày đặc có kích thước tỷ lệ. Hãy coi đây là một ước tính, không phải là một sự thật.
  • Yêu cầu về MoE/tổng ​​tham số: Có những tuyên bố đang lưu hành (ví dụ: ~52.5T) đề cập đến tổng năng lực chuyên gia trong cấu hình MoE giả định. Những tuyên bố này không thể so sánh trực tiếp với số lượng dày đặc và phụ thuộc vào hành vi kích hoạt.

Bài học cuối cùng

  1. Số lượng tham số có tính thông tin nhưng chưa đầy đủ. Chúng giúp xây dựng trực giác về quy mô, nhưng khả năng của LLM hiện đại phụ thuộc vào kiến ​​trúc, dữ liệu đào tạo, tính toán và tinh chỉnh.
  2. OpenAI không công bố tổng số tham số của GPT-5. Do đó, các nhà phân tích dựa vào các tín hiệu và giả định gián tiếp; dự kiến ​​sẽ có nhiều ước tính khác nhau.
  3. Tổng số MoE so với số lượng dày đặc: Nếu bạn thấy tiêu đề "hàng chục nghìn tỷ", hãy kiểm tra xem nó có đề cập đến tổng số chuyên gia MoE or tham số hoạt động cho mỗi mã thông báo — chúng không giống nhau.
  4. Tiêu chuẩn đánh bại suy đoán để đưa ra quyết định về sản phẩm. Hãy đo lường mô hình dựa trên các tác vụ bạn quan tâm (độ chính xác, độ trễ, chi phí). Các thiết lập API mà OpenAI cung cấp (độ chi tiết, nỗ lực suy luận) có thể quan trọng hơn một con số tổng tham số chưa được xác minh.

Làm thế nào để gọi API GPT-5 rẻ hơn?

CometAPI là một nền tảng API hợp nhất tổng hợp hơn 500 mô hình AI từ các nhà cung cấp hàng đầu—chẳng hạn như dòng GPT của OpenAI, Gemini của Google, Claude của Anthropic, Midjourney, Suno, v.v.—thành một giao diện duy nhất thân thiện với nhà phát triển. Bằng cách cung cấp xác thực nhất quán, định dạng yêu cầu và xử lý phản hồi, CometAPI đơn giản hóa đáng kể việc tích hợp các khả năng AI vào ứng dụng của bạn. Cho dù bạn đang xây dựng chatbot, trình tạo hình ảnh, nhà soạn nhạc hay đường ống phân tích dựa trên dữ liệu, CometAPI cho phép bạn lặp lại nhanh hơn, kiểm soát chi phí và không phụ thuộc vào nhà cung cấp—tất cả trong khi khai thác những đột phá mới nhất trên toàn bộ hệ sinh thái AI.

Các nhà phát triển có thể truy cập GPT-5API GPT-5 Pro thông qua CometAPI, phiên bản mẫu mới nhất luôn được cập nhật trên trang web chính thức. Để bắt đầu, hãy khám phá các khả năng của mô hình trong Sân chơi và tham khảo ý kiến Hướng dẫn API để biết hướng dẫn chi tiết. Trước khi truy cập, vui lòng đảm bảo bạn đã đăng nhập vào CometAPI và lấy được khóa API. Sao chổiAPI cung cấp mức giá thấp hơn nhiều so với giá chính thức để giúp bạn tích hợp.

Sẵn sàng chưa?→ Đăng ký CometAPI ngay hôm nay !

Nếu bạn muốn biết thêm mẹo, hướng dẫn và tin tức về AI, hãy theo dõi chúng tôi trên VKX và Discord!

SHARE THIS BLOG

500+ Mô hình trong Một API

Giảm giá lên đến 20%