Cần bao nhiêu sức mạnh tính toán để triển khai GPT-OSS?

CometAPI
AnnaOct 11, 2025
Cần bao nhiêu sức mạnh tính toán để triển khai GPT-OSS?

Các mô hình trọng số mở từ các phòng thí nghiệm lớn đã thay đổi phép tính cho các tổ chức muốn triển khai các mô hình ngôn ngữ lớn tại chỗ hoặc tại biên. Gần đây, OpenAI gpt-oss gia đình (đáng chú ý là gpt-oss-20Bgpt-oss-120B Bản phát hành (releases) nhắm rõ đến hai lớp triển khai khác nhau: suy luận cục bộ nhẹ (consumer/edge) và suy luận trung tâm dữ liệu quy mô lớn. Bản phát hành đó — cùng với sự bùng nổ của các công cụ cộng đồng xoay quanh lượng tử hóa, bộ điều hợp cấp thấp và các mẫu thiết kế thưa thớt/Hỗn hợp Chuyên gia (MoE) — khiến câu hỏi này trở nên đáng để đặt ra: Bạn thực sự cần bao nhiêu tính toán để chạy, tinh chỉnh và phục vụ các mô hình này trong quá trình sản xuất?

Lưu ý: bài viết này đề cập đến suy luận/triển khai tính toán (những gì bạn cần để phục vụ mô hình cho người dùng), không phải là tính toán lớn hơn nhiều được sử dụng để đào tạo các mô hình. Để hiểu rõ hơn, các nhà cung cấp lớn đào tạo thế hệ mới trên các cụm GPU khổng lồ; đó là một quy mô hoàn toàn khác.


Hồ sơ tính toán cơ sở cho các mô hình gpt-oss là gì?

OpenAI nói gì về họ gpt-oss?

Vị trí thông số kỹ thuật đã công bố của OpenAI gpt-oss-20B như một mô hình có thể chạy trên "các thiết bị biên chỉ có 16 GB bộ nhớ" và gpt-oss-120B là một mô hình có thể được sử dụng trên "một GPU 80 GB duy nhất" cho nhiều mục đích suy luận. Mô hình 20B hướng đến việc sử dụng ngoại tuyến cục bộ và lặp lại nhanh chóng; mô hình 120B được thiết kế để mang lại sự tương đương gần như với các mô hình "mini" cao cấp hơn nhưng với yêu cầu phần cứng thấp hơn so với các trọng số 100B+ trước đây được yêu cầu trong FP16 đầy đủ. Đây là những tuyên bố về thiết kế (và sẽ thay đổi tùy theo triển khai/lượng tử hóa/độ chính xác), nhưng chúng đặt ra một mục đích rõ ràng: một mô hình cho người tiêu dùng/biên, một mô hình cho suy luận GPU đơn tại trung tâm dữ liệu.

Bạn nên hiểu những con số đó như thế nào?

Những con số tiêu đề đó (16 GB, 80 GB) là trí nhớ mục tiêu, không phải số lượng FLOP thuần túy. Chúng phản ánh sự kết hợp của:

  • Lưu trữ trọng lượng mô hình (lượng tử hóa hoặc độ chính xác đầy đủ),
  • Kích hoạt và bộ đệm KV bộ nhớ trong quá trình suy luận (tỷ lệ thuận với độ dài ngữ cảnh và kích thước lô),
  • Chi phí khung (bộ đệm thời gian chạy, không gian làm việc CUDA, bộ đệm mã thông báo),
  • Các thành phần tùy chọn chẳng hạn như chi phí định tuyến MoE hoặc trọng số bộ điều hợp.

Trên thực tế, bộ nhớ mô hình + bộ nhớ đệm KV + không gian làm việc là tổng hợp quyết định mô hình phù hợp với RAM GPU hay RAM hệ thống. Đối với các cửa sổ ngữ cảnh lớn (hàng chục nghìn token), bộ nhớ đệm KV có thể tự tiêu tốn hàng chục GB, khiến nhu cầu phần cứng thực tế tăng lên.

Tại sao kích thước mô hình lại quan trọng

Yếu tố chi phối cho việc triển khai tính toán là kích thước mô hình trong các tham số bởi vì điều đó quyết định dung lượng lưu trữ trọng số thô và bộ nhớ kích hoạt. Một nguyên tắc chung được các chuyên gia sử dụng: Lưu trữ FP16 (half-precision) cần khoảng 2 byte cho mỗi tham số, do đó, một mô hình 70B trong FP16 sẽ chiếm khoảng 140 GB bộ nhớ trọng số — và cần thêm bộ nhớ cho các hoạt động kích hoạt, trạng thái tối ưu hóa (nếu tinh chỉnh) và chi phí khung. Phép tính này giải thích tại sao các mô hình thường được chia nhỏ trên các GPU hoặc được lượng tử hóa để sử dụng trên một GPU duy nhất.

Yếu tố nào quyết định “lượng tính toán” cần thiết cho việc triển khai GPT-OSS?

Khi mọi người hỏi "bao nhiêu tính toán", họ thường muốn nói đến một hoặc nhiều nguồn lực có thể đo lường sau đây:

  • Bộ nhớ GPU (VRAM): hệ số giới hạn cho việc tải trọng số mô hình và phục vụ mã thông báo.
  • Tính toán GPU (FLOPS / thông lượng tensor): ảnh hưởng đến độ trễ và số mã thông báo mỗi giây.
  • Số lượng GPU và kết nối (NVLink / PCIe / mạng): xác định khả năng chia mô hình trên nhiều thiết bị có trọng lượng lớn.
  • CPU, RAM và lưu trữ: các thành phần hỗ trợ cho quá trình xử lý trước/sau, lưu trữ đệm và lưu trữ trọng số mô hình.
  • Ngăn xếp phần mềm suy luận và tối ưu hóa: các khuôn khổ như Hugging Face Text-Generation-Inference (TGI), vLLM, NVIDIA Triton và các kỹ thuật như lượng tử hóa hoặc chuyển tải thay đổi rất nhiều yêu cầu hiệu quả.

Các chiều này tương tác với nhau: một mô hình lượng tử hóa cần ít VRAM hơn nhưng vẫn được hưởng lợi từ GPU nhanh hơn để có độ trễ thấp. Ngược lại, một thiết lập thông lượng cao với nhiều người dùng đồng thời cần cả bộ nhớ và khả năng tính toán GPU mạnh mẽ hoặc xử lý hàng loạt thông minh.


Quá trình suy luận sử dụng bao nhiêu bộ nhớ cho mô hình 20B so với mô hình 120B?

Các tham số thô cần bao nhiêu bộ nhớ?

Chỉ riêng số lượng tham số là một phép đo không hoàn hảo vì bộ nhớ cho mỗi tham số phụ thuộc vào độ chính xác số:

  • FP32 tốn 4 byte/tham số; FP16/16-bit float tốn 2 byte/tham số.
  • Lượng tử hóa 8 bit, 4 bit và thậm chí 3 bit làm giảm đáng kể điều đó (ví dụ: 4 bit ≈ 0.5 byte/tham số cộng với các bảng khử lượng tử hóa nhỏ). Các kỹ thuật như GPTQ, AWQ và bộ lượng tử hóa dành riêng cho ML mang lại hiệu quả giảm đáng kể trong thực tế.

Sử dụng phép tính thô:

  • A Tham số 20B Mô hình ở FP16 ≈ 40 GB dữ liệu thô (20B × 2 byte). Với lượng tử hóa 4 bit được tối ưu hóa, dung lượng có thể giảm xuống dưới ~16 GB (cộng thêm chi phí nhỏ) — phù hợp với gpt-oss-20B mục tiêu khi kết hợp với các thủ thuật thời gian chạy.
  • A Tham số 120B Mô hình ở FP16 ≈ 240 GB dữ liệu thô. Để phù hợp với một GPU 80 GB duy nhất, mô hình phải sử dụng nén/lượng tử hóa và/hoặc kích hoạt thưa thớt (ví dụ: MoE trong đó chỉ một nhóm nhỏ chuyên gia hoạt động cho một mã thông báo), giảm hoạt động chiếm dụng bộ nhớ đáng kể. Tài liệu của OpenAI mô tả các lựa chọn thiết kế (tính thưa thớt, chú ý nhiều truy vấn được nhóm lại và các lược đồ lượng tử hóa mới) cho phép triển khai hiệu quả 120B trọng số vào ~80 GB RAM của thiết bị cho các trường hợp sử dụng suy luận phổ biến.

Còn bộ nhớ đệm KV và độ dài ngữ cảnh thì sao?

Độ dài ngữ cảnh là yếu tố hàng đầu để lập kế hoạch ghi nhớ:

  • Bộ nhớ đệm KV có tỷ lệ gần đúng như sau: (#layers) × (head_dim) × (context_length) × 2 (khóa + giá trị) × kích thước phần tử.
  • Đối với các mô hình lớn có cửa sổ dài (64K–131K token được hỗ trợ bởi một số cấu hình gpt-oss), bộ đệm KV có thể trở thành bộ nhớ tiêu thụ chính, thường yêu cầu hàng chục đến hàng trăm GB để xử lý toàn bộ. Nếu bạn cần hỗ trợ các cửa sổ ngữ cảnh rất dài với thông lượng cao, hãy chuẩn bị sẵn sàng để dành thêm bộ nhớ GPU hoặc chuyển bộ đệm KV sang RAM CPU/máy chủ hoặc bộ đệm KV được phân mảnh chuyên dụng.

Liệu lượng tử hóa và kiến ​​trúc thưa thớt có phải là chìa khóa để giảm thiểu tính toán không?

Lượng tử hóa—giảm độ chính xác về số của trọng số và kích hoạt—đẩy mạnh việc giảm yêu cầu VRAM lớn nhất cho suy luận và tinh chỉnh chi phí thấp.

Lượng tử hóa (sau khi huấn luyện hoặc trong quá trình chuyển đổi) là đòn bẩy mạnh mẽ nhất để giảm bộ nhớ và thường cải thiện thông lượng suy luận vì nhiều mô hình hơn phù hợp với bộ nhớ đệm nhanh. Các kỹ thuật được sử dụng rộng rãi trong giai đoạn 2024–2025 bao gồm GPTQ, AWQ và bộ lượng tử hóa 3–4 bit tùy chỉnh; các tiêu chuẩn cộng đồng cho thấy Lượng tử hóa 4 bit thường gây ra sự mất mát không đáng kể về chất lượng đồng thời cắt giảm bộ nhớ khoảng 4 lần so với FP16. Các kỹ thuật này hiện đã đủ hoàn thiện để trở thành một phần của quy trình triển khai tiêu chuẩn.

Thiết kế thưa thớt / MoE như thế nào

Các mô hình hỗn hợp chuyên gia (MoE) giảm tham số hoạt động đếm trên mỗi mã thông báo bằng cách định tuyến mã thông báo đến một nhóm nhỏ chuyên gia. Điều đó có nghĩa là 120 tỷ được tham số hóa Mô hình chỉ có thể kích hoạt một phần nhỏ trọng số của nó cho bất kỳ mã thông báo đơn lẻ nào, giúp giảm đáng kể nhu cầu bộ nhớ và flop cho suy luận. Kiến trúc gpt-oss của OpenAI sử dụng MoE và các mẫu thưa thớt khác để biến thể 120B có thể sử dụng thực tế trên một GPU bộ nhớ cao duy nhất. Tuy nhiên, MoE làm tăng độ phức tạp của thời gian chạy (bảng định tuyến, cân bằng tải, chi phí giao tiếp tiềm ẩn trong thiết lập nhiều GPU) mà bạn phải lập kế hoạch.


Khung suy luận và kiến ​​trúc phục vụ thay đổi nhu cầu tính toán như thế nào?

GPU đơn so với GPU đa so với dịch vụ phân tách

  • Single-GPU: triển khai đơn giản nhất; tốt nhất cho các mô hình nhỏ (≤13B) hoặc các mô hình lớn được lượng tử hóa nhiều.
  • Phục vụ phân mảnh nhiều GPU: chia nhỏ trọng số và/hoặc kích hoạt trên các GPU; bắt buộc đối với các mô hình 70B+ trong FP16 mà không cần lượng tử hóa. NVLink hoặc kết nối băng thông cao cải thiện độ trễ.
  • Phân tách / mô hình phục vụ song song: các giải pháp hiện đại đẩy tính toán vào các đội tàu với khả năng phân tách bộ nhớ (trọng số được lưu trữ trên nhiều máy), với bộ nhớ đệm nhanh riêng biệt của các lớp nóng trên GPU. Nền tảng Dynamo/Triton mới của NVIDIA và các lớp điều phối suy luận khác hỗ trợ rõ ràng các mô hình này để mở rộng quy mô suy luận LLM đồng thời tối ưu hóa chi phí và độ trễ.

H3: Các khuôn khổ và phần mềm quan trọng

  • Suy luận tạo văn bản ôm mặt (TGI) — cung cấp dịch vụ được tối ưu hóa cho nhiều mô hình mở và hỗ trợ xử lý theo lô, truyền phát mã thông báo và tối ưu hóa mô hình.
  • NVIDIA Triton / Dynamo (Triton → Dynamo Triton) — máy chủ suy luận doanh nghiệp với các tối ưu hóa dành riêng cho LLM và hỗ trợ cho kiến ​​trúc Blackwell/H100, được sử dụng cho các đội xe có thông lượng cao, độ trễ thấp.
  • Đường ống vLLM / ExLlama / llama.cpp / GGUF — các dự án cộng đồng và học thuật tối ưu hóa bộ nhớ và nhân CPU/GPU để đưa các mô hình lớn hơn vào kích thước phần cứng nhỏ hơn.

Việc lựa chọn đúng khuôn khổ sẽ ảnh hưởng đến việc bạn có cần hàng chục GPU (phân mảnh ngây thơ) hay có thể đạt được độ trễ tương tự với ít thiết bị hơn nhờ quản lý bộ nhớ tốt hơn, hợp nhất hạt nhân và hạt nhân lượng tử hóa.


Ví dụ triển khai tiêu biểu và khuyến nghị về phần cứng là gì?

Ví dụ 1 — Nhà phát triển cục bộ / máy tính xách tay tại chỗ (gpt-oss-20B)

  • Mục tiêu: Phát triển tương tác, suy luận cục bộ riêng tư, thử nghiệm quy mô nhỏ.
  • Thông số kỹ thuật thực tế tối thiểu: GPU dành cho người tiêu dùng hoặc máy trạm với RAM 16–32 GB (Máy Mac M1/M2/M3 có dung lượng 32 GB trở lên hoặc PC có RTX 4090/4080 / RTX 6000 có dung lượng 24–48 GB) thêm Lưu trữ SSD cho các tệp mô hình. Sử dụng lượng tử hóa 4 bit và thời gian chạy được tối ưu hóa (llama.cpp/ggml, ONNX Runtime hoặc Ollama). Thiết lập này xử lý độ dài ngữ cảnh vừa phải với độ trễ hợp lý.

Ví dụ 2 — Suy luận trung tâm dữ liệu GPU đơn (gpt-oss-120B)

  • Mục tiêu: Suy luận sản xuất ở thông lượng trung bình.
  • Thông số kỹ thuật được đề xuất: Độc thân GPU 80GB (A100 80GB, H100-80GB hoặc tương đương), CPU máy chủ và RAM hệ thống 512 GB+ để giảm tải và lưu trữ đệm, bộ nhớ NVMe để tải mô hình nhanh. Sử dụng các bản dựng chính thức / kernel được tối ưu hóa của gpt-oss và lượng tử hóa mạnh + độ thưa thớt kích hoạt MoE. Điều này mang lại sự cân bằng tốt giữa chi phí và khả năng cho nhiều khối lượng công việc thương mại.

Ví dụ 3 — Thông lượng cao, độ trễ thấp ở quy mô lớn

  • Mục tiêu: Hàng nghìn qps, mục tiêu độ trễ nghiêm ngặt, cửa sổ ngữ cảnh dài.
  • Thông số kỹ thuật được đề xuất: Các cụm GPU với phân mảnh mô hình (sharding tensor + song song pipeline) trên nhiều card A100/H100 hoặc các bộ tăng tốc suy luận mới hơn; phân mảnh bộ nhớ đệm KV hoặc giảm tải CPU; và tự động điều chỉnh quy mô trên các nhóm GPU đám mây. Bạn sẽ cần tính đến mạng (NVLink / PCIe / RDMA), chi phí thời gian chạy phân tán và các chiến lược xử lý hàng loạt cẩn thận. MLPerf và công cụ đo điểm chuẩn độc lập cung cấp các điểm tham chiếu cho các thiết lập đa GPU.

Thông lượng so với độ trễ ảnh hưởng như thế nào đến khả năng tính toán bạn cần?

Sự đánh đổi giữa độ trễ và xử lý theo lô là gì?

  • Hàng loạt tăng thông lượng (số yêu cầu mỗi giây) nhưng cũng làm tăng độ trễ cho bất kỳ yêu cầu đơn lẻ nào. Có thể tối đa hóa việc sử dụng CPU/GPU với các lô lớn hơn, nhưng các ứng dụng hướng đến người dùng thường ưu tiên độ trễ thấp cho mỗi yêu cầu.
  • Kích thước mô hình làm tăng cường sự đánh đổi này: các mô hình lớn hơn mang lại chi phí cho mỗi mã thông báo cao hơn, do đó chúng cần các lô lớn hơn để đạt được thông lượng hiệu quả về chi phí hoặc nhiều GPU hơn để phân bổ tải mà không làm giảm độ trễ.

Việc lập hồ sơ khối lượng công việc là điều không thể thiếu: đo lường số token/giây trên mỗi GPU theo kích thước lô mục tiêu và ngân sách độ trễ, sau đó cung cấp cho phù hợp. Sử dụng logic tự động điều chỉnh quy mô và lô theo yêu cầu (lô nhỏ, cửa sổ tăng trưởng) để duy trì SLA.


Chi phí để chạy gpt-oss trong môi trường sản xuất là bao nhiêu?

Những yếu tố nào tác động đến chi phí hoạt động?

Ba yếu tố chi phối chi phí:

  1. Giờ GPU (loại và số lượng) — mặt hàng lớn nhất dành cho các mô hình nặng.
  2. Bộ nhớ và lưu trữ — NVMe dùng cho phân mảnh mô hình và lưu trữ đệm; RAM dùng để chuyển tải KV.
  3. Thời gian kỹ thuật — hoạt động để quản lý phân mảnh, đường ống lượng tử hóa, giám sát và lọc an toàn.

Để ước tính sơ bộ:

Đối với một phiên bản A100 80GB duy nhất được sử dụng cho suy luận ổn định, chi phí theo giờ của đám mây (tùy thuộc vào khu vực và cam kết) cộng với kỹ thuật khấu hao và mạng thường dẫn đến hàng trăm đến hàng nghìn đô la mỗi ngày dành cho khối lượng công việc trung bình. Việc đẩy lên các cụm đa GPU sẽ làm tăng chi phí lên gấp bội. Con số chính xác phụ thuộc vào chiết khấu của nhà cung cấp, phiên bản được đặt trước và cấu hình thông lượng/độ trễ của bạn. Các hướng dẫn và điểm chuẩn phần cứng gần đây cung cấp các mức cơ sở chi phí trên mỗi QPS hợp lý mà bạn có thể điều chỉnh cho phù hợp với dự báo của mình.


Kỹ thuật vận hành nào giúp giảm chi phí và tính toán?

Phần mềm và thủ thuật mô hình nào quan trọng nhất?

  • Lượng tử hóa (GPTQ/AWQ) thành 4-bit/3-bit giúp giảm dung lượng lưu trữ và thường tăng tốc độ suy luận.
  • LoRA / QLoRA để tinh chỉnh cho phép bạn điều chỉnh các mô hình lớn với ít bộ nhớ GPU và khả năng tính toán hơn.
  • MoE / kích hoạt thưa thớt giảm việc sử dụng tham số hoạt động tại thời điểm suy luận, với cái giá phải trả là độ phức tạp của định tuyến.
  • Tải bộ nhớ đệm KV (di chuyển đến RAM hoặc đĩa lưu trữ với IO bất đồng bộ thông minh) trong bối cảnh rất dài.
  • Mô hình chưng cất hoặc thành phần: chưng cất các mô hình cổng hoặc sử dụng truy xuất để giảm các cuộc gọi đến mô hình lớn cho các nhiệm vụ đơn giản.

Những lựa chọn thời gian chạy nào quan trọng?

Chọn các thời gian chạy được tối ưu hóa cao (ONNX Runtime, Triton, kernel CUDA tùy chỉnh hoặc các thời gian chạy cộng đồng như llama.cpp để suy luận CPU) và tận dụng lõi tensor, xử lý hàng loạt, kernel hợp nhất và tải mô hình ánh xạ bộ nhớ để tối đa hóa khả năng sử dụng. Những lựa chọn này thường thay đổi yêu cầu phần cứng hiệu quả nhiều hơn là những cải tiến nhỏ về kích thước mô hình.


Những cạm bẫy và khó khăn thực tế là gì?

Điều gì có thể khiến nhu cầu tính toán của bạn tăng đột biến?

  • Cửa sổ ngữ cảnh dài: Việc tăng bộ nhớ đệm KV có thể làm quá tải bộ nhớ của bạn. Hãy lên kế hoạch giảm tải.
  • Tính đồng thời cao:Nhiều người dùng cùng lúc sẽ cần khả năng mở rộng theo chiều ngang, không chỉ một GPU mạnh mẽ.
  • Bộ lọc và đường ống an toàn: Các mô hình điều tiết, lưu trữ nhúng và truy xuất có thể làm tăng thêm chi phí CPU/GPU cho mỗi yêu cầu.
  • Khung không khớp: Sử dụng các toán tử chưa được tối ưu hóa hoặc không sử dụng hạt nhân lượng tử có thể khiến số bộ nhớ/độ trễ được yêu cầu trở nên không thực tế.

Kết luận — bạn thực sự cần bao nhiêu khả năng tính toán?

Không có câu trả lời duy nhất, nhưng các bản phát hành có trọng lượng mở hiện đại như gpt-oss đã hạ thấp đáng kể tiêu chuẩn:

  • Đối với nhiều trường hợp sử dụng, phần cứng loại máy trạm/người tiêu dùng (≈16–32 GB RAM với lượng tử hóa 4 bit) có thể chạy tốt mô hình lớp 20B để sử dụng tại địa phương/cạnh.
  • Đối với suy luận GPU đơn có khả năng cao, một GPU 80GB là đường cơ sở hợp lý cho các họ tham số 100–200B khi kết hợp với lượng tử hóa và độ thưa thớt.
  • Tinh chỉnh là thực tế ở quy mô sử dụng LoRA/QLoRA trên các máy đơn lẻ cho nhiều tác vụ; việc đào tạo đầy đủ hơn 100 mô hình vẫn là hoạt động của trung tâm dữ liệu đa GPU.

Cuối cùng, hãy nhớ rằng lựa chọn phần mềm (bộ lượng tử hóa, thời gian chạy, chiến lược xử lý hàng loạt) thường thay đổi phép tính phần cứng nhiều hơn là những khác biệt nhỏ trong số lượng tham số. Bắt đầu từ SLA của bạn, lập hồ sơ sớm và áp dụng các chiến lược lượng tử hóa và điều chỉnh hiệu quả theo tham số để giảm thiểu chi phí mà không ảnh hưởng đến chất lượng.

Cách truy cập API GPT-OSS

CometAPI là một nền tảng API hợp nhất tổng hợp hơn 500 mô hình AI từ các nhà cung cấp hàng đầu—chẳng hạn như dòng GPT của OpenAI, Gemini của Google, Claude của Anthropic, Midjourney, Suno, v.v.—thành một giao diện duy nhất thân thiện với nhà phát triển. Bằng cách cung cấp xác thực nhất quán, định dạng yêu cầu và xử lý phản hồi, CometAPI đơn giản hóa đáng kể việc tích hợp các khả năng AI vào ứng dụng của bạn. Cho dù bạn đang xây dựng chatbot, trình tạo hình ảnh, nhà soạn nhạc hay đường ống phân tích dựa trên dữ liệu, CometAPI cho phép bạn lặp lại nhanh hơn, kiểm soát chi phí và không phụ thuộc vào nhà cung cấp—tất cả trong khi khai thác những đột phá mới nhất trên toàn bộ hệ sinh thái AI.

Các nhà phát triển có thể truy cập GPT-OSS-20B và GPT-OSS-120B thông qua Sao chổiAPI, các phiên bản mẫu mới nhất được liệt kê là tính đến ngày xuất bản bài viết. Để bắt đầu, hãy khám phá các khả năng của mẫu trong Sân chơi và tham khảo ý kiến Hướng dẫn API để biết hướng dẫn chi tiết. Trước khi truy cập, vui lòng đảm bảo bạn đã đăng nhập vào CometAPI và lấy được khóa API. Sao chổiAPI cung cấp mức giá thấp hơn nhiều so với giá chính thức để giúp bạn tích hợp.

Đọc thêm

500+ Mô hình trong Một API

Giảm giá lên đến 20%