Home/Models/OpenAI/GPT 5.1 Codex Max
O

GPT 5.1 Codex Max

Đầu vào:$1/M
Đầu ra:$8/M
Bối cảnh:400K
Đầu ra tối đa:128K
GPT-5.1-Codex-Max là mô hình lập trình tác tử được thiết kế chuyên dụng của OpenAI, thuộc họ GPT-5.1, được tối ưu để thực thi các quy trình kỹ thuật phần mềm kéo dài (tái cấu trúc mã, các vòng lặp tác tử nhiều giờ, tự động hóa terminal, chạy kiểm thử và duyệt mã) với độ tin cậy cao hơn và hiệu quả sử dụng token tốt hơn so với các phiên bản tiền nhiệm.
Mới
Sử dụng thương mại
Playground
Tổng quan
Tính năng
Giá cả
API

GPT-5.1-Codex-Max là gì?

GPT-5.1-Codex-Max là một model thuộc dòng Codex được tinh chỉnh và xây dựng chuyên cho quy trình mã hóa dạng tác nhân — tức là các tác vụ kỹ thuật tự động nhiều bước như tái cấu trúc ở quy mô kho mã, các phiên gỡ lỗi kéo dài, vòng lặp tác nhân nhiều giờ, code review và sử dụng công cụ theo lập trình. Model này hướng tới quy trình của nhà phát triển nơi model phải:

  • Duy trì trạng thái qua nhiều lần chỉnh sửa và tương tác;
  • Vận hành công cụ và terminal (chạy kiểm thử, biên dịch, cài đặt, phát lệnh git) như một phần của chuỗi tự động;
  • Tạo bản vá, chạy kiểm thử, và cung cấp nhật ký truy vết và trích dẫn cho đầu ra

Tính năng chính

  • Compaction & Multi-window Context: Được huấn luyện bản địa để nén lịch sử và vận hành mạch lạc qua nhiều cửa sổ ngữ cảnh, cho phép liên tục ở quy mô dự án.
  • Agentic tool use (terminal + tooling): Khả năng cải thiện để chạy các chuỗi terminal, cài đặt/xây dựng/kiểm thử, và phản ứng theo đầu ra chương trình.
  • Higher token efficiency: Được thiết kế để phân bổ token hiệu quả hơn cho tác vụ nhỏ trong khi dùng các lượt suy luận dài cho tác vụ phức tạp.
  • Refactoring & large edits: Tốt hơn ở tái cấu trúc xuyên tệp, di trú và bản vá ở cấp độ kho mã (đánh giá nội bộ OpenAI).
  • Reasoning effort modes: Các mức nỗ lực suy luận mới cho suy luận dài nặng tính toán (ví dụ, Extra High / xhigh cho công việc không nhạy độ trễ).

Năng lực kỹ thuật (điểm mạnh)

  • Long-horizon refactoring & iterative loops: có thể duy trì các tái cấu trúc và gỡ lỗi ở quy mô dự án kéo dài nhiều giờ (OpenAI báo cáo >24h trong demo nội bộ) bằng cách lặp, chạy kiểm thử, tóm tắt lỗi và cập nhật mã.
  • Real-world bug fixing: hiệu năng mạnh trên các benchmark vá lỗi kho mã thực (SWE-Bench Verified: OpenAI báo cáo 77.9% đối với Codex-Max ở chế độ xhigh/nỗ lực bổ sung).
  • Terminal/Tool proficiency: đọc nhật ký, gọi trình biên dịch/kiểm thử, chỉnh sửa tệp, tạo PR — tức là hoạt động như một tác nhân gốc terminal với các lời gọi công cụ rõ ràng, có thể kiểm tra.
  • Inputs accepted: chấp nhận prompt văn bản tiêu chuẩn cùng đoạn mã, ảnh chụp kho mã (qua tích hợp công cụ/IDE), ảnh chụp màn hình/cửa sổ trong giao diện Codex nơi thị giác được bật, và yêu cầu gọi công cụ (ví dụ, chạy npm test, mở tệp, tạo PR).
  • Outputs produced: tạo bản vá mã (diff hoặc PR), báo cáo kiểm thử, nhật ký chạy từng bước, giải thích ngôn ngữ tự nhiên và nhận xét code review có chú thích. Khi dùng như tác nhân, có thể phát ra lời gọi công cụ có cấu trúc và hành động tiếp theo.

Hiệu năng benchmark (kết quả chọn lọc & ngữ cảnh)

  • SWE-bench Verified (n=500) — GPT-5.1-Codex (high): 73.7%; GPT-5.1-Codex-Max (xhigh): 77.9%. Chỉ số này đánh giá các tác vụ kỹ thuật thực tế lấy từ GitHub/vấn đề mã nguồn mở.
  • SWE-Lancer IC SWE: GPT-5.1-Codex: 66.3% → GPT-5.1-Codex-Max: 79.9% (OpenAI báo cáo cải thiện trên một số bảng xếp hạng).
  • Terminal-Bench 2.0: GPT-5.1-Codex: 52.8% → GPT-5.1-Codex-Max: 58.1% (cải thiện trên đánh giá tương tác terminal/sử dụng công cụ).

Hạn chế và kiểu lỗi

  1. Song dụng / rủi ro an ninh mạng: Khả năng nâng cao trong vận hành terminal và chạy công cụ làm tăng lo ngại song dụng (model có thể hỗ trợ cả công việc an ninh phòng thủ và tấn công); OpenAI nhấn mạnh kiểm soát truy cập theo giai đoạn và giám sát.
  2. Không hoàn toàn xác định hoặc chính xác: Dù hiệu năng kỹ thuật mạnh hơn, model vẫn có thể đề xuất bản vá sai hoặc bỏ sót ngữ nghĩa mã tinh vi (dương tính giả/âm tính giả trong phát hiện lỗi), vì vậy review của con người và kiểm thử CI vẫn thiết yếu.
  3. Đánh đổi chi phí và độ trễ: Các chế độ nỗ lực cao (xhigh) tiêu tốn nhiều tính toán/thời gian; các vòng lặp tác nhân kéo dài nhiều giờ tiêu thụ tín dụng hoặc ngân sách. Cần lên kế hoạch cho chi phí và giới hạn tốc độ. ([Nhà phát triển OpenAI][2])
  4. Đảm bảo ngữ cảnh vs tính liên tục hiệu quả: Nén cho phép tính liên tục của dự án, nhưng các đảm bảo chính xác về token nào được giữ lại và cách nén ảnh hưởng tới các trường hợp góc hiếm không thể thay thế ảnh chụp kho mã có phiên bản và pipeline có thể tái lập. Hãy dùng nén như một trợ lý, không phải nguồn tham chiếu duy nhất.

So sánh với Claude Opus 4.5 và Gemini 3 Pro (mức cao)

  • Anthropic — Claude Opus 4.5: Các benchmark từ cộng đồng và báo chí thường đặt Opus 4.5 nhỉnh hơn Codex-Max về độ đúng khi sửa lỗi (SWE-Bench), với thế mạnh trong điều phối khoa học và đầu ra rất súc tích, tiết kiệm token. Opus thường có giá mỗi token cao hơn nhưng trên thực tế có thể tiết kiệm token hơn. Lợi thế của Codex-Max là nén tầm dài, tích hợp công cụ terminal, và hiệu quả chi phí cho các vòng chạy tác nhân dài.
  • Google Gemini family (3 Pro etc.): Các biến thể Gemini vẫn mạnh trên benchmark đa phương thức và suy luận tổng quát; trong lĩnh vực mã hóa, kết quả thay đổi theo bộ đo. Codex-Max được xây dựng chuyên cho mã hóa dạng tác nhân và tích hợp với quy trình DevTool theo cách mà các model tổng quát mặc định không có.

Cách truy cập và sử dụng API GPT-5.1 Codex Max

Bước 1: Đăng ký khóa API

Đăng nhập vào cometapi.com. Nếu bạn chưa là người dùng của chúng tôi, vui lòng đăng ký trước. Đăng nhập vào CometAPI console. Lấy khóa API thông tin xác thực truy cập của giao diện. Nhấp “Add Token” tại mục token API trong trung tâm cá nhân, lấy khóa token: sk-xxxxx và gửi.

Bước 2: Gửi yêu cầu tới API GPT-5.1-Codex-Max

Chọn endpoint “ gpt-5.1-codex-max” để gửi yêu cầu API và thiết lập phần thân yêu cầu. Phương thức và phần thân yêu cầu được lấy từ tài liệu API trên website của chúng tôi. Website cũng cung cấp kiểm thử Apifox để thuận tiện cho bạn. Thay thế <YOUR_API_KEY> bằng khóa CometAPI thực từ tài khoản của bạn. Developers gọi các mục này qua API [Responses] / endpoint [Chat].

Chèn câu hỏi hoặc yêu cầu của bạn vào trường nội dung — đây là thứ model sẽ phản hồi. Xử lý phản hồi API để nhận câu trả lời được tạo ra.

Bước 3: Truy xuất và xác minh kết quả

Xử lý phản hồi API để nhận câu trả lời được tạo. Sau khi xử lý, API sẽ phản hồi trạng thái tác vụ và dữ liệu đầu ra.

Tính năng cho GPT 5.1 Codex Max

Khám phá các tính năng chính của GPT 5.1 Codex Max, được thiết kế để nâng cao hiệu suất và khả năng sử dụng. Tìm hiểu cách các khả năng này có thể mang lại lợi ích cho dự án của bạn và cải thiện trải nghiệm người dùng.

Giá cả cho GPT 5.1 Codex Max

Khám phá mức giá cạnh tranh cho GPT 5.1 Codex Max, được thiết kế để phù hợp với nhiều ngân sách và nhu cầu sử dụng khác nhau. Các gói linh hoạt của chúng tôi đảm bảo bạn chỉ trả tiền cho những gì bạn sử dụng, giúp dễ dàng mở rộng quy mô khi yêu cầu của bạn tăng lên. Khám phá cách GPT 5.1 Codex Max có thể nâng cao các dự án của bạn trong khi vẫn kiểm soát được chi phí.
Giá Comet (USD / M Tokens)Giá Chính Thức (USD / M Tokens)Giảm giá
Đầu vào:$1/M
Đầu ra:$8/M
Đầu vào:$1.25/M
Đầu ra:$10/M
-20%

Mã mẫu và API cho GPT 5.1 Codex Max

GPT-5.1-Codex-Max là mô hình lập trình dạng tác nhân được OpenAI thiết kế chuyên biệt thuộc họ GPT-5.1, được tối ưu để thực thi các quy trình kỹ thuật phần mềm kéo dài (tái cấu trúc mã, vòng lặp tác nhân kéo dài nhiều giờ, tự động hóa terminal, chạy kiểm thử và duyệt mã) với độ tin cậy cao hơn và hiệu quả sử dụng token tốt hơn so với các phiên bản tiền nhiệm.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1-codex-max", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Thêm mô hình