GPT-5 của OpenAI so với Claude Opus 4.1: So sánh mã hóa

CometAPI
AnnaAug 12, 2025
GPT-5 của OpenAI so với Claude Opus 4.1: So sánh mã hóa

Dòng Claude Opus của Anthropic (Opus 4 / Claude Opus 4.1) và GPT-5 của OpenAI cho thấy hiệu năng vượt trội trên các chuẩn mã hóa hiện đại, nhưng chúng có điểm mạnh khác nhau: Opus nhấn mạnh vào quy trình làm việc đa bước, ngữ cảnh dài, trong khi GPT-5 tập trung vào việc trau chuốt giao diện người dùng, công thái học của nhà phát triển và tích hợp sản phẩm rộng rãi. Lựa chọn tốt nhất phụ thuộc vào các tác vụ bạn cần tự động hóa (tạo tệp đơn so với tái cấu trúc nhiều tệp), các ràng buộc về chi phí/thông lượng và cách bạn đo lường "thành công" (vượt qua các bài kiểm tra đơn vị, tính chính xác của thời gian chạy hoặc chi phí đánh giá của con người).

Tại sao câu hỏi này lại quan trọng bây giờ

Cả hai nhà cung cấp đều phát hành các bản phát hành chính vào đầu tháng 2025 năm 4.1: Anthropic đã công bố Claude Opus 5 (ngày 2025 tháng 5 năm XNUMX) là một cải tiến lặp đi lặp lại tập trung vào các tác vụ của tác nhân và "mã hóa thế giới thực", và OpenAI đã phát hành GPT-XNUMX (thẻ hệ thống và tài liệu dành cho nhà phát triển được phát hành trong cùng thời điểm đầu tháng XNUMX) với tuyên bố rõ ràng rằng đây là "mô hình mã hóa mạnh nhất của họ cho đến nay". Những lần ra mắt gần như đồng thời đó có nghĩa là các nhà phát triển và nhóm nền tảng đang tích cực so sánh hiệu suất, chi phí và đường dẫn tích hợp - vì vậy đây không phải là học thuật: các nhóm đang chọn mô hình nào để định tuyến các đề xuất theo kiểu Copilot, mô hình nào để triển khai đằng sau các tác nhân mã nội bộ và mô hình nào để tin cậy cho tự động hóa nhạy cảm với bảo mật.

Claude Opus 4.1 là gì?

Anthropic định vị Opus 4.1 là bản nâng cấp mục tiêu của Opus 4, tập trung vào hiệu suất tốt hơn cho các tác vụ mã hóa tác nhân và thực tế. Họ cho biết Opus 4.1 có sẵn cho người dùng Claude trả phí và trong Claude Code, và đã được triển khai trên các nền tảng đối tác (API, Bedrock, Vertex). Thông điệp của Anthropic nhấn mạnh độ tin cậy vào logic nhiều bước, độ chính xác trong đầu ra mã và hành vi tác nhân an toàn hơn.

Claude Opus 4.1 – Các tính năng về kiến trúc và mã hóa

  1. Bối cảnh mở rộng & Lý luận tầm nhìn xa: Được trang bị một c. Mã thông báo 200K cửa sổ ngữ cảnh, cải thiện đáng kể khả năng duy trì tính nhất quán trong các quy trình làm việc dài và cơ sở mã nhiều tệp.
  2. Hiệu suất được xác minh SWE-bench cao hơn: Đã đạt được 74.5% độ chính xác trên SWE-bench Verified (tăng từ 72.5% trong Opus 4), cùng với những cải tiến đáng chú ý trong các nhiệm vụ của tác nhân (từ 39.2% lên 43.3%) và lý luận (từ 79.6% lên 80.9%).
  3. Tinh chỉnh thông qua Chuỗi suy nghĩ & RLHF: Giữ nguyên nền tảng kiến trúc của Opus 4 đồng thời tăng cường khả năng suy luận theo chuỗi suy nghĩ, tính nhất quán nhiều bước và chú ý đến từng chi tiết thông qua RLHF và điều chỉnh dựa trên dữ liệu.
  4. Tích hợp quy trình làm việc của Agentic: Được thiết kế để sắp xếp các quy trình làm việc nhiều bước, bao gồm việc tái cấu trúc mã phức tạp và sử dụng công cụ tác nhân, đồng thời duy trì trạng thái nội bộ trong các phiên mở rộng.
  5. Công cụ nâng cao và kiểm soát sáng tạo: Cung cấp “bản tóm tắt tư duy” cô đọng suy luận nội bộ của mô hình, cải thiện tính minh bạch. Opus 4.1 cũng tích hợp tốt hơn với các công cụ phát triển thông qua Claude Code, chuỗi API và khả năng truy cập tệp.

GPT-5 là gì?

Tài liệu công khai của OpenAI mô tả GPT-5 là mô hình mã hóa mạnh nhất mà họ từng tạo ra, và họ đã công bố kết quả benchmark (SWE-bench Verified và các kết quả khác) cho thấy những cải tiến đáng kể so với các mô hình trước đó. Thông điệp của OpenAI nhấn mạnh khả năng xử lý việc tạo frontend phức tạp, gỡ lỗi các kho lưu trữ lớn hơn và cải thiện hiệu quả sử dụng công cụ của GPT-5. Thẻ hệ thống đi kèm phác thảo cấu trúc mô hình (mô hình nhanh + mô hình suy luận sâu hơn).

GPT-5 – Các tính năng về kiến trúc và mã hóa

  1. Bộ định tuyến động và chế độ xử lý kép: Được xây dựng như một hệ thống thống nhất kết hợp các đường dẫn phản hồi nhanh và suy luận sâu. Bộ định tuyến sẽ định tuyến động các truy vấn đến chế độ tạo nhanh hoặc chế độ "suy nghĩ" mở rộng, nâng cao hiệu quả cho cả các tác vụ đơn giản và phức tạp.
  2. Cửa sổ ngữ cảnh lớn: Hỗ trợ lên đến 256 nghìn mã thông báo của ngữ cảnh, cho phép xử lý các dữ liệu đầu vào mở rộng như cơ sở mã lớn, tài liệu dài và các dự án nhiều phiên mà không làm mất tính mạch lạc.
  3. Hiểu biết và trí nhớ đa phương thức: Xử lý văn bản, hình ảnh, âm thanh và video một cách tự nhiên trong một phiên duy nhất. Bao gồm các tính năng ghi nhớ liên tục và cá nhân hóa giúp tăng cường tính liên tục trong các tương tác dài hạn.
  4. An toàn nâng cao & Lý luận trung thực: Giới thiệu “các phương pháp hoàn thành an toàn” cân bằng giữa tính hữu ích với sự thừa nhận rõ ràng về các hạn chế. Ở chế độ lý luận, GPT-5 giảm đáng kể ảo giác và lừa dối—giảm tỷ lệ lừa dối từ ~86% xuống ~9% trong một số bài kiểm tra.
  5. Kiểm soát lý luận và độ chi tiết: Các nhà phát triển có thể điều chỉnh reasoning_effort (tối thiểu/thấp/cao) và verbosity (thấp/trung bình/cao), kiểm soát độ sâu và chi tiết đầu ra. Cũng hỗ trợ định dạng đầu ra có cấu trúc thông qua regex hoặc các ràng buộc ngữ pháp.

Những con số cụ thể nói lên điều gì - điểm chuẩn, cửa sổ ngữ cảnh và giá token?

Điểm chuẩn và tỷ lệ phần trăm

  • SWE-bench (Đã xác minh): Báo cáo nhân chủng học Claude Opus 4.1: 74.5% trên SWE-bench Đã xác minh. Báo cáo OpenAI GPT-5: 74.9% trên cùng một chuẩn mực (và 88% trên một số chuẩn mực đa ngôn ngữ). Những con số này đặt cả hai mô hình vào một phạm vi hẹp về các bộ tác vụ mã hóa thực tế. Các chuẩn mực cho thấy sự ngang bằng ở mức cao nhất, với những khác biệt nhỏ về số liệu hiếm khi phản ánh chính xác năng suất thực tế.

Cửa sổ ngữ cảnh (tại sao nó quan trọng)

Ngữ cảnh kết hợp tối đa chính thức của GPT-5 (đầu vào + đầu ra) là 400,000 mã thông báo, với API cho phép lên đến ~272,000 mã thông báo đầu vào và lên đến 128,000 mã thông báo đầu ra (Cộng cả hai tạo nên tổng cộng 400 token). Trong ChatGPT, phiên bản miễn phí cho phép bạn truy cập vào mô hình GPT-5 chính cũng như GPT-5 Thinking, nhưng với cửa sổ ngữ cảnh nhỏ nhất và giới hạn sử dụng chặt chẽ hơn. Người đăng ký sẽ nhận được các mô hình tương tự, nhưng với phạm vi mở rộng hơn và cửa sổ ngữ cảnh lớn hơn với 32 token. Phiên bản Pro là nơi tất cả bắt đầu. Bạn sẽ nhận được GPT-5, GPT-5 Thinking và GPT-5 Pro—phiên bản sau là phiên bản cao cấp được thiết kế để tối đa hóa độ sâu và độ chính xác của suy luận. Cửa sổ ngữ cảnh nhảy lên đến 128 token. Người dùng doanh nghiệp cũng nhận được cửa sổ ngữ cảnh 128, trong khi Teams bị giới hạn ở 32.

Claude Opus 4.1 (cửa sổ ngữ cảnh). Claude Opus 4.1 của Anthropic được vận chuyển như một mô hình lý luận lai với ~200,000 token Cửa sổ ngữ cảnh trong tài liệu sản phẩm của nó, và nó được tối ưu hóa rõ ràng cho các quy trình lập trình đa bước, suy luận dài hạn và mã hóa tác nhân. Cửa sổ 200K này cho phép Opus 4.1 lưu trữ phần lớn kho lưu trữ, các bài kiểm tra và ghi chú thiết kế trong một ngữ cảnh duy nhất—hữu ích cho việc tái cấu trúc nhiều tệp, tác vụ di chuyển và tương tác công cụ theo chuỗi, trong đó việc duy trì trạng thái nội bộ và chuỗi suy nghĩ qua nhiều bước quan trọng hơn độ trễ thấp nhất có thể.

Giá cả (ví dụ về chi phí đầu vào/đầu ra)

  • OpenAI (GPT-5) các dòng giá ví dụ đã công bố như Đầu vào $1.25 / 1 triệu mã thông báo, Đầu ra $10 / 1 triệu mã thông báo dành cho các biến thể GPT-5 tiêu chuẩn và các cấp thấp hơn (mini/nano) với chi phí đơn vị thấp hơn. Những con số này hữu ích để ước tính quy trình công việc CI lớn.
  • Nhân học (Opus 4.1) hiển thị chi phí đơn vị cao hơn ở một số trang đã xuất bản (ví dụ: $15 / 1M mã thông báo đầu vào và $75 / 1M mã thông báo đầu ra trên trang được trích dẫn — nhưng Anthropic cũng quảng cáo tính năng lưu trữ đệm nhanh, xử lý hàng loạt và các đòn bẩy tiết kiệm chi phí khác). Luôn kiểm tra trang giá của nhà cung cấp để biết gói bạn sẽ sử dụng.

Hàm ý: Ở quy mô lớn, giá token + độ chi tiết đầu ra (số lượng token mà mô hình tạo ra) rất quan trọng. Một mô hình viết nhiều token hơn hoặc cần nhiều lần lặp lại hơn sẽ tốn kém hơn, ngay cả khi giá mỗi token thấp hơn.

Điểm mạnh của họ liên quan thế nào đến nhiệm vụ thực tế của nhà phát triển?

Tạo tệp đơn, tạo nguyên mẫu và mã UI

GPT-5 liên tục được đánh giá cao nhờ khả năng tạo ra mã UI/UX (HTML/CSS/JS) được trau chuốt và triển khai nhanh chóng trên một tệp duy nhất. Điều này phù hợp với quy trình làm việc "tạo khung front-end", tạo nguyên mẫu và "tạo ra rồi chỉnh sửa thủ công". Các bài kiểm tra tiếp thị và thử nghiệm cộng đồng ban đầu của GPT-5 nhấn mạnh vào các lựa chọn thiết kế, khoảng cách và chất lượng thẩm mỹ front-end.

Các trình tái cấu trúc nhiều tệp, lập luận dài và quy trình làm việc của tác nhân

Anthropic đề xuất Claude (Opus) cho các tác vụ tác tử và suy luận đa bước bền vững — những thứ như tái cấu trúc quy mô lớn, di chuyển API đa tệp và điều phối mã tự động, trong đó trợ lý cần suy luận trên nhiều tệp và bảo toàn các bất biến. Opus 4.1 tuyên bố rõ ràng những cải tiến cho các tác vụ mã nhiều bước và tích hợp tác tử. Những điểm mạnh này giúp giảm thiểu tổn thất ngữ cảnh nghiêm trọng khi suy luận trên hàng chục nghìn mã thông báo.

Lựa chọn mã hóa của họ ảnh hưởng như thế nào đến độ chính xác, ảo giác và quá trình gỡ lỗi?

Sự đánh đổi giữa lòng trung thực và ảo giác: Anthropic đã công khai định vị các mô hình Claude theo hướng thận trọng và phù hợp với hướng dẫn (giảm thiểu một số loại ảo giác nhất định), đây là một phần lý do tại sao Opus 4.1 nhấn mạnh vào "theo dõi chi tiết" và tuân thủ quy tắc. GPT-5 của OpenAI hướng đến mục tiêu vừa nhanh vừa đáng tin cậy hơn trên nhiều tác vụ, dựa trên định tuyến cấp hệ thống và tính năng an toàn/giảm thiểu chuyên dụng được mô tả trong thẻ hệ thống. Cả hai nhà cung cấp vẫn thừa nhận rủi ro ảo giác còn sót lại và cung cấp hướng dẫn giảm thiểu.

Gỡ lỗi và sửa chữa lặp đi lặp lại: Việc mã hóa nhiều đầu ra của kho lưu trữ + kiểm tra trong một dấu nhắc giúp giảm thiểu việc chuyển đổi ngữ cảnh và cho phép mô hình đề xuất các bản sửa lỗi có tính đến trạng thái dự án rộng hơn. Opus 4.1 nổi bật với điểm mạnh trong việc tuân theo các hướng dẫn gỡ lỗi nhiều bước; GPT-5 nổi bật với khả năng tạo front-end nhanh chóng, nhận biết thiết kế và tích hợp công cụ phong phú hơn. Cả hai đều cải thiện việc gỡ lỗi lặp lại, nhưng không loại bỏ nhu cầu xác minh kiểm tra của con người và đánh giá mã.

Bảng so sánh tính năng

Tính năngGPT-5 (OpenAI)Claude Opus 4.1 (Nhân loại)
Phát hànhTháng Tám 2025Tháng Tám 5, 2025
Cửa sổ ngữ cảnhLên đến 400 nghìn mã thông báo (tài liệu dài, cơ sở mã)~200K token, được tối ưu hóa cho các quy trình làm việc dài, nhiều bước
Chế độ xử lýChế độ kép (suy luận nhanh so với sâu), với định tuyếnChuỗi suy nghĩ dài và lý luận bền vững
Hỗ trợ đa phương thứcVăn bản, hình ảnh, âm thanh, video; bộ nhớ bền bỉChủ yếu là văn bản (cải thiện khả năng lập luận và dòng chảy sáng tạo)
Mã hóa & Điểm chuẩn74.9% SWE-bench đã được xác minh, 88% trên Aider Polyglot74.5% SWE-bench đã được xác minh; khả năng tái cấu trúc đa tệp mạnh mẽ
An toàn & Độ tin cậyGiảm ảo giác, hoàn thành an toàn, đầu ra trung thựcHành vi bảo thủ; cải thiện tính chính xác và an toàn
Kiểm soát & Dụng cụreasoning_effort, tính dài dòng, đầu ra có cấu trúcTóm tắt suy nghĩ, tích hợp công cụ thông qua Claude Code SDK

Làm thế nào để đo lường cái nào tốt hơn cho qua một vài thao tác đơn giản về codebase — kế hoạch đánh giá thực tế (có mã)

Dưới đây là một bộ công cụ thực tế, có thể tái tạo mà bạn có thể chạy để so sánh Claude Opus 4.1 và GPT-5 trên kho lưu trữ của mình. Bộ công cụ này tự động hóa: (1) nhắc nhở các mô hình triển khai hoặc sửa một hàm, (2) chèn đầu ra vào tệp được bảo vệ, (3) chạy thử nghiệm đơn vị và (4) ghi lại kết quả đạt/không đạt, mức sử dụng mã thông báo và số lần lặp.

Cảnh báo: thực thi mã được tạo ra rất mạnh nhưng lại rủi ro — luôn chạy các vùng chứa được bảo vệ, sử dụng giới hạn tài nguyên/thời gian và không bao giờ cho phép mã được tạo ra truy cập vào các bí mật hoặc mạng nhạy cảm trừ khi được phép và kiểm tra một cách có chủ ý.

1) Đo lường của dây nịt

  • Tỷ lệ đỗ bài kiểm tra đơn vị (chính).
  • Số chu kỳ chỉnh sửa (số lần bạn cần yêu cầu sửa lỗi).
  • Mã thông báo được sử dụng (đầu vào + đầu ra).
  • Độ trễ đồng hồ treo tường.

2) Ví dụ về bộ khung Python (skeleton)

Bạn có thể sử dụng CometAPI để thử nghiệm. Bằng cách cung cấp khả năng xác thực, định dạng yêu cầu và xử lý phản hồi nhất quán, CometAPI đơn giản hóa đáng kể việc tích hợp các chức năng AI vào ứng dụng của bạn.

Sao chổiAPI cung cấp quyền truy cập "một API" vào hơn 500 mô hình và tài liệu về giao diện tương thích với OpenAI mà bạn có thể gọi bằng khóa API CometAPI và ghi đè URL cơ sở; điều này giúp việc chuyển đổi từ máy khách OpenAI trực tiếp trở nên dễ dàng Thay vì tích hợp Anthropic và chuyển đổi giữa openAI. Đối với Claude Opus 4.1, CometAPI hiển thị các mã định danh mô hình cụ thể (ví dụ: claude-opus-4-1-20250805 và một biến thể suy nghĩ) và một điểm cuối hoàn thành trò chuyện chuyên dụng. Đối với GPT-5, CometAPI phơi bày mô hình cụ thể gpt-5Giáo dụcgpt-5-2025-08-07"/"gpt-5-chat-latest. Để bắt đầu, hãy khám phá khả năng của mô hình trong Sân chơi và tham khảo ý kiến Hướng dẫn API để có hướng dẫn chi tiết.

python"""
side_by_side_eval.py

High-level harness:
- tasks: list of dicts {name, prompt, test_file_contents}
- apis: simple wrappers for OpenAI (GPT-5) and Anthropic (Claude Opus 4.1)
- run: for each task, call each model, write code, run pytest, collect metrics

NOTE: replace API_KEY_* with your keys and confirm official endpoints/params per vendor docs.
"""

import os
import json
import subprocess
import time
from typing import Dict, Any
import requests

# === CONFIG - fill these from your environment ===

# === Simple API wrappers (check vendor docs for exact endpoints/params) ===

def call_gpt5(prompt: str, max_tokens=1024) -> Dict:
    url = "https://api.cometapi.com/v1/responses"  # example; confirm actual endpoint    headers = {"Authorization": f"Bearer {CometAPI_API_KEY}"}

    body = {
        "model": "gpt-5",
        "input": prompt,
        "max_output_tokens": max_tokens
    }
    t0 = time.time()
    r = requests.post(url, headers=headers, json=body, timeout=60)
    latency = time.time() - t0
    r.raise_for_status()
    resp = r.json()
    # token info might be in resp depending on API; adapt as needed

    return {"text": resp if "output_text" in resp else resp, "raw": resp, "latency": latency}

def call_claude(prompt: str, max_tokens=1024) -> Dict:
    url = "https://api.cometapi.com/v1/chat/completions"  # example; confirm actual endpoint    headers = {"x-api-key": CometAPI_API_KEY}

    body = {
        "model": "claude-opus-4-1-20250805",        "prompt": prompt,
        "max_tokens_to_sample": max_tokens
    }
    t0 = time.time()
    r = requests.post(url, headers=headers, json=body, timeout=60)
    latency = time.time() - t0
    r.raise_for_status()
    resp = r.json()
    return {"text": resp.get("completion", ""), "raw": resp, "latency": latency}

# === Test runner ===

def run_task(task: Dict, model_fn, model_name: str):
    """Run a single task: call model, write file, run pytest, collect result."""
    prompt = task
    result = model_fn(prompt, max_tokens=task.get("max_tokens", 2048))
    code_text = result

    # write task files into temporary folder

    tmpdir = f"runs/{task}/{model_name}"
    os.makedirs(tmpdir, exist_ok=True)
    code_file = os.path.join(tmpdir, "submission.py")
    with open(code_file, "w") as f:
        f.write(code_text)

    # write tests

    test_file = os.path.join(tmpdir, "test_submission.py")
    with open(test_file, "w") as f:
        f.write(task)

    # run pytest in subprocess with timeout

    try:
        proc = subprocess.run(
            ,
            stdout=subprocess.PIPE, stderr=subprocess.STDOUT,
            timeout=30
        )
        passed = proc.returncode == 0
        output = proc.stdout.decode()
    except subprocess.TimeoutExpired:
        passed = False
        output = "pytest timeout"

    return {
        "model": model_name,
        "task": task,
        "passed": passed,
        "latency": result,
        "tokens_estimate": result.get("usage", {}),
        "stdout": output,
        "code": code_text
    }

# === Example tasks: simple function to implement ===

TASKS = [
    {
        "name": "is_prime",
        "prompt": "Implement a Python function `is_prime(n: int) -> bool` with proper docstring and edge case handling.",
        "test_code": """
import submission
def test_prime():
    assert submission.is_prime(2)
    assert submission.is_prime(13)
    assert not submission.is_prime(1)
    assert not submission.is_prime(0)
    assert not submission.is_prime(-7)
    assert not submission.is_prime(15)
""",
    "max_tokens": 256
    }
]

# === Runner ===

if __name__ == "__main__":
    results = []
    for task in TASKS:
        for model_fn, name in :
            res = run_task(task, model_fn, name)
            print(json.dumps(res, indent=2))
            results.append(res)
    # save to file

    with open("results.json", "w") as f:
        json.dump(results, f, indent=2)

Để mô phỏng việc tái cấu trúc nhiều tệp, hãy bao gồm các tác vụ trong đó dấu nhắc chứa nhiều tệp (hoặc cung cấp các lát cắt kho lưu trữ thông qua truy xuất). Đối với ngữ cảnh dài, hãy đo lường xem mô hình có cần truy xuất hay ngữ cảnh trong dấu nhắc hay không.

Bạn nên báo cáo những số liệu nào và tại sao?

  • Tỷ lệ vượt qua bài kiểm tra đơn vị (nhị phân theo nhiệm vụ) — chính, mục tiêu.
  • Thời gian hiệu chỉnh của con người — nhà phát triển phải chỉnh sửa bao lâu trước khi các bài kiểm tra được thông qua.
  • Lặp lại để vượt qua — cần bao nhiêu vòng nhắc nhở/phản hồi.
  • Mã thông báo đã tiêu thụ — đại diện chi phí (đầu vào + đầu ra).
  • Độ trễ đồng hồ treo tường — những vấn đề cần sử dụng tương tác.
  • Các mẫu lạm dụng bảo mật và API — ví dụ, liệu mã được tạo có sử dụng lệnh gọi eval/network không an toàn hay không.

Thu thập những thông tin này theo từng nhiệm vụ và tổng hợp (tỷ lệ đậu trung bình, mã thông báo trung vị, độ trễ P95). Điều này sẽ cung cấp bức tranh thực tế về chi phí so với giá trị.

.

  • GPT-5 nổi bật với nó tính linh hoạt đa phương thức, xử lý ngữ cảnh lớn, động lực suy luận thích ứng, kiểm soát nhà phát triển chi tiết và cải thiện tính an toàn. Nó lý tưởng cho các ngữ cảnh liên quan đến nhiều loại dữ liệu, tính liên tục của dự án dài hạn, tạo mẫu nhanh và các tác vụ tương tác.
  • Claude Opus 4.1 nghiêng vào lý luận sâu sắc, nhiều bước, tính nhất quán đáng chú ý trên các chuỗi dài và hiệu suất được cải thiện trên các chuẩn mã hóa. Những cải tiến về chuỗi suy nghĩ và công cụ khiến nó trở thành lựa chọn tuyệt vời cho các chuyển đổi cơ sở mã phức tạp và quy trình làm việc của nhà phát triển.

Con đường tốt nhất của bạn có thể là kết hợp cả hai: sử dụng GPT-5 cho các tác vụ đa phương thức tương tác phong phú và tạo mẫu nhanhdựa vào Claude Opus 4.1 để suy luận có cấu trúc sâu, tái cấu trúc nhiều tệp và các hoạt động mã có độ trung thực cao.

Đọc thêm

500+ Mô hình trong Một API

Giảm giá lên đến 20%