Alibaba AI Meluncurkan Qwen3-Max: Model Qwen dengan parameter triliun, didukung oleh CometAPI

CometAPI
AnnaOct 15, 2025
Alibaba AI Meluncurkan Qwen3-Max: Model Qwen dengan parameter triliun, didukung oleh CometAPI

Tim Qwen Alibaba telah merilis Qwen3-Max-Pratinjau (Instruksi) — model terbesar perusahaan hingga saat ini, dengan lebih dari 1 triliun parameter — dan segera menyediakannya melalui Qwen Chat, Alibaba Cloud Model Studio (API), dan marketplace pihak ketiga seperti CometAPI. Pratinjau ini menargetkan alur kerja penalaran, pengodean, dan dokumen panjang dengan menggabungkan skala ekstrem dengan jendela konteks yang sangat besar dan caching konteks untuk menjaga latensi tetap rendah untuk sesi yang panjang.

Sorotan teknis utama

  1. Jumlah parameter besar (triliun+): Peralihan ke model dengan lebih dari satu triliun parameter dirancang untuk meningkatkan kapasitas pembelajaran pola yang kompleks (penalaran multi-langkah, sintesis kode, pemahaman dokumen yang mendalam). Tolok ukur awal yang dirilis oleh Qwen menunjukkan hasil yang lebih baik pada rangkaian penalaran, pengodean, dan tolok ukur dibandingkan model-model unggulan Qwen sebelumnya.
  2. Konteks dan caching ultra-panjang: The token 262k Jendela ini memungkinkan tim memasukkan seluruh laporan panjang, basis kode multi-file, atau riwayat obrolan panjang dalam satu lintasan. Dukungan caching konteks mengurangi komputasi berulang untuk konteks berulang dan dapat memangkas latensi serta biaya untuk sesi yang diperpanjang.
  3. Keahlian multibahasa + pengkodean: Keluarga Qwen3 menekankan dukungan dwibahasa (Tiongkok/Inggris) dan multibahasa yang luas, ditambah pengodean yang lebih kuat dan penanganan keluaran yang terstruktur — berguna untuk asisten kode, pembuatan laporan otomatis, dan analisis teks berskala besar.
  4. Dirancang untuk kecepatan dan kualitas. Pengguna pratinjau menggambarkan kecepatan respons yang "sangat cepat" serta peningkatan dalam mengikuti instruksi dan penalaran dibandingkan varian Qwen3 sebelumnya. Alibaba memposisikan model ini sebagai andalan dengan throughput tinggi untuk skenario produksi, agensi, dan pengembang.

Ketersediaan dan Akses

Biaya Alibaba Cloud berjenjang, berbasis token Harga untuk Qwen3-Max-Preview (tarif input & output terpisah). Penagihan dihitung per juta token dan diterapkan pada token aktual yang dikonsumsi setelah kuota gratis.

Harga pratinjau yang dipublikasikan Alibaba (USD) dibagi berdasarkan permintaan memasukkan volume token (tingkatan yang sama menentukan tarif unit mana yang berlaku):

  • Token masukan 0–32K: 0.861 / 1 juta token input** dan **Token keluaran 3.441 / 1 juta.
  • Token masukan 32K–128K: 1.434 / 1 juta token input** dan **Token keluaran 5.735 / 1 juta.
  • Token masukan 128K–252K: 2.151 / 1 juta token input** dan **Token keluaran 8.602 / 1 juta.

CometAPI memberikan diskon resmi 20% untuk membantu pengguna memanggil API, detailnya lihat Pratinjau Qwen3-Max:

Token Masukan$0.24
Token Keluaran$2.42

Qwen3-Max memperluas keluarga Qwen3 (yang telah menggunakan desain hibrida seperti varian Mixture-of-Experts dan beberapa tingkatan parameter aktif pada versi sebelumnya). Rilis Qwen3 Alibaba sebelumnya berfokus pada mode "berpikir" (penalaran langkah demi langkah) dan "instruksi"; Qwen3-Max diposisikan sebagai varian instruksi teratas terbaru dalam lini tersebut, menunjukkan bahwa varian ini melampaui produk berkinerja terbaik perusahaan sebelumnya, Qwen3-235B-A22B-2507, yang menunjukkan bahwa model parameter 1T unggul dalam berbagai pengujian.

Pada SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2, dan LiveBench (20241125), Qwen3-Max-Preview secara konsisten mengungguli Claude Opus 4, Kimi K2, dan Deepseek-V3.1.

Alibaba AI Meluncurkan Qwen3-Max: Model Qwen dengan parameter triliun, didukung oleh CometAPI

Cara mengakses dan menggunakan Qwen3-Max (panduan praktis)

1) Cobalah di browser (Qwen Chat)

Mengunjungi Obrolan Qwen (antarmuka web/obrolan resmi Qwen) dan pilih Pratinjau Qwen3-Max Model (Instruct) jika ditampilkan di pemilih model. Ini adalah cara tercepat untuk mengevaluasi tugas percakapan dan instruksi secara visual.

2) Akses melalui Alibaba Cloud (Model Studio / API Awan)

  • Masuk ke Alibaba Cloud → Studio Model / Layanan Model. Buat contoh inferensi atau pilih titik akhir model yang dihosting untuk qwen3-max-pratinjau (atau versi pratinjau yang diberi label).
  • Autentikasi menggunakan Kunci Akses Alibaba Cloud/peran RAM Anda dan panggil titik akhir inferensi dengan permintaan POST yang berisi perintah Anda dan parameter pembuatan apa pun (suhu, token maks., dll.).

3) Gunakan melalui host/agregator pihak ketiga

Berdasarkan liputan, pratinjau ini dapat diakses melalui CometAPI dan agregator API lainnya yang memungkinkan pengembang memanggil beberapa model yang dihosting dengan satu kunci API. Hal ini dapat menyederhanakan pengujian lintas penyedia sekaligus memverifikasi latensi, ketersediaan regional, dan kebijakan penanganan data untuk setiap host.

Mulai

CometAPI adalah platform API terpadu yang menggabungkan lebih dari 500 model AI dari penyedia terkemuka—seperti seri GPT OpenAI, Gemini Google, Claude Anthropic, Midjourney, Suno, dan lainnya—menjadi satu antarmuka yang ramah bagi pengembang. Dengan menawarkan autentikasi yang konsisten, pemformatan permintaan, dan penanganan respons, CometAPI secara drastis menyederhanakan integrasi kapabilitas AI ke dalam aplikasi Anda. Baik Anda sedang membangun chatbot, generator gambar, komposer musik, atau alur kerja analitik berbasis data, CometAPI memungkinkan Anda melakukan iterasi lebih cepat, mengendalikan biaya, dan tetap tidak bergantung pada vendor—semuanya sambil memanfaatkan terobosan terbaru di seluruh ekosistem AI.

Kesimpulan

Qwen3-Max-Preview menempatkan Alibaba tepat di antara organisasi yang mengirimkan model berskala triliun kepada pelanggan. Kombinasi panjang konteks yang ekstrem dan API yang kompatibel dengan OpenAI menurunkan hambatan integrasi bagi perusahaan yang membutuhkan penalaran dokumen panjang, otomatisasi kode, atau orkestrasi agen. Biaya dan stabilitas pratinjau merupakan pertimbangan utama dalam adopsi: organisasi akan ingin melakukan uji coba dengan caching, streaming, dan panggilan batch untuk mengelola latensi dan harga.

SHARE THIS BLOG

500+ Model dalam Satu API

Diskon hingga 20%