GLM-4.7-Flash ialah ahli MoE A3B 30B yang ringan dan berprestasi tinggi dalam keluarga GLM-4.7, direka untuk membolehkan penggelaran setempat dan berkos rendah bagi pengkodan, aliran kerja ejenik dan penaakulan umum. Anda boleh menjalankannya secara setempat melalui tiga cara praktikal: (1) melalui Ollama (runtime setempat yang mudah dan terurus), (2) melalui Hugging Face / Transformers / vLLM / SGLang (penggelaran pelayan berasaskan GPU), atau (3) melalui GGUF + llama.cpp / llama-cpp-python (mesra CPU/edge).
Apakah GLM-4.7-Flash?
GLM-4.7-Flash ialah penambahan terkini kepada keluarga General Language Model (GLM) yang dibangunkan oleh Zhipu AI. Ia berfungsi sebagai adik-beradik yang ringan dan dioptimumkan untuk kelajuan kepada model perdana GLM-4.7. Walaupun model perdana menyasarkan tugasan penaakulan berskala besar di awan, varian "Flash" direka khusus untuk kelajuan, kecekapan kos, dan kebolehcapaian penggelaran setempat tanpa mengorbankan prestasi yang signifikan dalam domain teras seperti pengkodan dan logik.
Seni Bina: 30B-A3B MoE
Ciri teknikal penentu GLM-4.7-Flash ialah seni bina 30B-A3B Mixture-of-Experts (MoE).
- Jumlah Parameter: ~30 bilion.
- Parameter Aktif: ~3 bilion.
Dalam model "padat" tradisional, setiap parameter diaktifkan untuk setiap token yang dijana, yang menggunakan kuasa pengkomputeran yang besar. Sebaliknya, GLM-4.7-Flash hanya mengaktifkan subset kecil pakar (sekitar 3 bilion parameter) untuk mana-mana token.
Ini membolehkan model menyimpan sejumlah besar pengetahuan (setanding dengan model padat 30B) sambil mengekalkan kelajuan inferens dan latensi seperti model 3B yang jauh lebih kecil.
Seni bina ini ialah rahsia utama di sebalik keupayaannya berjalan pada perkakasan pengguna sambil mengatasi model padat yang lebih besar dalam penanda aras.
Tetingkap Konteks dan Modaliti
Model ini mempunyai tetingkap konteks yang mengagumkan sebanyak 200,000 token (200k), membolehkannya memuatkan keseluruhan repositori kod, dokumentasi teknikal panjang, atau sejarah sembang yang luas dalam satu prompt. Ia ialah model teks-masuk, teks-keluar terutamanya tetapi telah ditala-halus secara meluas untuk pematuhan arahan dan aliran kerja ejenik yang kompleks.
Apakah Ciri Utama GLM-4.7-Flash?
GLM-4.7-Flash bukan sekadar "model terbuka yang lain"; ia memperkenalkan beberapa ciri khusus yang memenuhi keperluan komuniti pembangun.
1. Mod "Thinking" (Penaakulan Sistem 2)
Salah satu ciri paling diperkatakan ialah "Proses Thinking" terbina dalam. Diilhamkan oleh rantaian penaakulan seperti model o1 oleh OpenAI, GLM-4.7-Flash boleh diarahkan untuk "berfikir" sebelum menjawab.
- Analisis Permintaan: Ia terlebih dahulu menghuraikan prompt pengguna untuk memahami niat teras.
- Sesi Idea & Perancangan: Ia menggariskan penyelesaian atau struktur kod yang berpotensi.
- Pembetulan Kendiri: Jika mengesan kecacatan logik semasa monolog dalaman, ia membetulkan diri sebelum menghasilkan output akhir.
- Output Akhir: Ia membentangkan penyelesaian yang diperkemas.
Keupayaan ini menjadikannya amat mantap dalam menyahpepijat kod kompleks, menyelesaikan bukti matematik, dan mengendalikan teka-teki logik berbilang langkah di mana model lebih kecil lazimnya berhalusinasi.
2. Keupayaan Pengkodan Bertaraf Canggih
Penanda aras yang dikeluarkan oleh Zhipu AI dan disahkan pihak ketiga bebas menunjukkan bahawa GLM-4.7-Flash mengatasi pesaing seperti Qwen-2.5-Coder-32B dan DeepSeek-V3-Lite dalam tugasan pengkodan tertentu. Ia cemerlang dalam:
- Pelengkapan Kod: Meramalkan beberapa baris kod seterusnya dengan ketepatan tinggi.
- Refaktor: Menulis semula kod legasi kepada piawaian moden.
- Penjanaan Ujian: Menulis ujian unit secara automatik untuk fungsi yang diberi.
3. Pengoptimuman Aliran Kerja Ejenik
Model ini telah ditala-halus untuk berfungsi sebagai "otak backend" bagi ejen AI. Ia menyokong Pemanggilan Fungsi (Penggunaan Alat) secara natif, membolehkannya membuat kueri pangkalan data, melaksanakan skrip Python, atau melayari web jika disambungkan kepada alat yang sesuai. Throughput yang tinggi (token sesaat) menjadikannya ideal untuk gelung ejen di mana latensi boleh terkumpul dengan cepat.
Keserasian Perkakasan
Disebabkan sifat MoE-nya, GLM-4.7-Flash agak memaafkan dari segi perkakasan.
- VRAM minimum (kuantum 4-bit): ~16 GB (Boleh dijalankan pada RTX 3090/4090, Mac Studio M1/M2/M3 Max).
- VRAM disyorkan (BF16): ~64 GB (Untuk ketepatan penuh, memerlukan A6000 atau Mac Studio Ultra).
- Sokongan Apple Silicon: Dioptimumkan tinggi untuk Metal (MLX), mencapai 60–80 token sesaat pada cip M3 Max.
Bagaimanakah GLM-4.7-Flash Berbanding Pesaing?
Untuk memahami nilai GLM-4.7-Flash, kita harus membandingkannya dengan peneraju sedia ada dalam ruang LLM setempat: siri Qwen dan siri Llama.
| Ciri | GLM-4.7-Flash | Qwen-2.5-Coder-32B | Llama-3.3-70B |
|---|---|---|---|
| Seni bina | 30B MoE (3B Aktif) | 32B Padat | 70B Padat |
| Kelajuan inferens | Sangat tinggi (menyamai ~7B) | Sederhana | Rendah |
| Kecekapan pengkodan | Cemerlang (Khusus) | Cemerlang | Baik |
| Tetingkap konteks | 200k | 128k | 128k |
| Keperluan VRAM | Rendah (~16–18GB @ 4-bit) | Sederhana (~20GB @ 4-bit) | Tinggi (~40GB @ 4-bit) |
| Penaakulan | Mod Thinking natif | CoT piawai | CoT piawai |
Keputusan: GLM-4.7-Flash menawarkan "titik manis".
Ia jauh lebih pantas daripada Qwen-2.5-32B kerana mempunyai parameter aktif yang lebih sedikit, namun ia menyaingi atau mengatasinya dalam tugasan pengkodan berkat jumlah parameter keseluruhan yang besar dan latihan khusus. Bagi pengguna dengan GPU VRAM 24GB (seperti RTX 3090/4090), GLM-4.7-Flash boleh dikatakan model paling berbaloi pada masa ini.
Cara memasang dan menggunakan GLM-4.7-Flash secara setempat (3 cara)
Berikut ialah tiga pendekatan praktikal dan diuji untuk menjalankan GLM-4.7-Flash secara setempat. Setiap pendekatan disertakan arahan salin-tampal dan penjelasan ringkas supaya anda boleh memilih aliran kerja yang sesuai dengan perkakasan dan matlamat anda.
Tiga pendekatan yang dibincangkan:
- vLLM — pelayan inferens gred produksi dengan penjadualan GPU dan batching. Hebat untuk tetapan berbilang pengguna atau gaya API.
- Ollama — pengurus/runtime model setempat yang ringkas (sesuai untuk percubaan pantas dan pengguna desktop). Ambil perhatian sesetengah keluaran memerlukan versi pralelepasan Ollama.
- llama.cpp / GGUF dengan Flash Attention — laluan minimal yang pantas dipacu komuniti untuk model GGUF terkuantum (berfungsi baik untuk GPU tunggal dan keperluan latensi rendah). Ini sering memerlukan cabang khas untuk sokongan flash attention.
Penggunaan API
Bagi mereka yang tidak mahu mengurus infrastruktur, CometAPI menawarkan API GLM-4.7.
Mengapa menggunakan GLM-4.7 API dalam CometAPI? Ia menawarkan prestasi yang jauh lebih baik daripada GLM-4.7 flash, dan CometAPI juga lebih murah daripada GLM-4.7 API Zhipu semasa. Mengapa menggunakan GLM-4.7 API dalam CometAPI? Ia menawarkan prestasi yang jauh lebih baik daripada GLM-4.7-flash, dan CometAPI pada masa ini lebih murah daripada GLM-4.7 API Zhipu. Jika anda mahukan keseimbangan antara prestasi dan harga, CometAPI ialah pilihan terbaik.
- Token Masukan: $0.44/M.
- Token Output: $1.78/M.
Bagaimanakah saya menjalankan GLM-4.7-Flash menggunakan vLLM?
Terbaik untuk: Penggelaran produksi, throughput tinggi, persekitaran pelayan.
vLLM ialah pustaka berprestasi tinggi yang menggunakan PagedAttention untuk memaksimumkan kelajuan inferens. Ini ialah cara yang disyorkan untuk melayan model jika anda membina aplikasi atau ejen.
Langkah 1: Pasang vLLM
Anda memerlukan persekitaran Linux dengan sokongan CUDA (WSL2 berfungsi pada Windows).
bash
pip install vllm
Langkah 2: Jalankan Pelayan Model
Jalankan pelayan menunjuk ke repositori Hugging Face. Ini akan memuat turun pemberat secara automatik (pastikan anda telah menyediakan log masuk huggingface-cli jika diperlukan, walaupun GLM biasanya awam).
bash
# This command launches an OpenAI-compatible API server
vllm serve zai-org/GLM-4.7-Flash \
--trust-remote-code \
--tensor-parallel-size 1 \
--dtype bfloat16
Petua: Jika anda mempunyai berbilang GPU, tingkatkan --tensor-parallel-size.
Langkah 3: Sambung melalui SDK OpenAI
Memandangkan vLLM menyediakan endpoint serasi OpenAI, anda boleh menggunakannya mudah dalam kod sedia ada.
pythonfrom openai import OpenAI# Point to your local vLLM serverclient = OpenAI( base_url="http://localhost:8000/v1", api_key="EMPTY" # vLLM doesn't require a key by default)completion = client.chat.completions.create( model="zai-org/GLM-4.7-Flash", messages=[ {"role": "system", "content": "You are an expert coding assistant."}, {"role": "user", "content": "Explain the difference between TCP and UDP."} ])print(completion.choices[0].message.content)
Nota & petua
- Flag
--tensor-parallel-sizedanspeculative-configialah contoh yang disyorkan panduan komuniti untuk mengoptimumkan throughput bagi model MoE. Laraskan berdasarkan bilangan GPU dan memori. - vLLM sering memerlukan cawangan utama transformers/vLLM untuk templat model terbaharu; jika anda melihat ralat, pasang versi GitHub perpustakaan (
pip install git+https://github.com/huggingface/transformers.git) seperti yang dinasihatkan panduan komuniti.
Bagaimanakah saya menjalankan GLM-4.7-Flash dengan Ollama?
Ollama ialah runtime setempat mesra pengguna yang memudahkan memuat turun dan menjalankan model GGUF. Halaman pustaka Ollama menyediakan entri rasmi untuk GLM-4.7-Flash.
Bila untuk digunakan: anda mahukan laluan paling ringkas untuk berjalan secara setempat pada Mac/Windows/Linux dengan kerja operasi minimum dan akses pantas kepada model melalui CLI, Python atau REST API setempat.
Prapemeriksaan
Pasang Ollama (runtime desktop/setempat). Halaman pustaka Ollama untuk glm-4.7-flash termasuk contoh penggunaan; ia menyatakan beberapa binaan model memerlukan Ollama 0.14.3 atau lebih baharu (pralepas pada masa penerbitan). Sahkan versi Ollama.
Langkah
- Pasang Ollama (ikuti arahan muat turun/pemasangan rasmi untuk OS anda).
- Tarik model (Ollama akan mendapatkan binaan yang dibungkus):
ollama pull glm-4.7-flash
- Jalankan sesi interaktif:
ollama run glm-4.7-flash
# or use the REST endpoint:
curl http://localhost:11434/api/chat \
-d '{
"model": "glm-4.7-flash",
"messages": [{"role": "user", "content": "Write a unit test in pytest for a function that reverses a string."}]
}'
- Gunakan SDK Ollama (contoh Python):
from ollama import chat
response = chat(
model='glm-4.7-flash',
messages=[{'role': 'user', 'content': 'Explain how binary search works.'}],
)
print(response.message.content)
Penggunaan pelayan lanjutan
# run an Ollama server accessible to your apps (example)
ollama serve --model zai-org/GLM-4.7-Flash --port 11434
Nota & petua
- GLM-4.7-Flash pada Ollama memerlukan Ollama 0.14.3 atau seumpamanya.
- Ollama mengautomasi pengendalian format (GGUF dll.), yang memudahkan menjalankan binaan terkuantum pada GPU pengguna.
- Ollama mendedahkan REST API setempat, berguna untuk integrasi dengan aplikasi setempat.
Bagaimanakah saya menjalankan GLM-4.7-Flash dengan llama.cpp / GGUF dan Flash Attention?
Laluan hibrid ini sesuai untuk pengguna yang mahukan kawalan maksimum, pilihan peringkat rendah, atau runtime minimal GPU tunggal. Komuniti telah menghasilkan artifak GGUF terkuantum (Q4_K, Q8_0 dll.) dan cabang kecil llama.cpp yang membolehkan FlashAttention dan MoE / penghalaan deepseek untuk output yang betul dan kelajuan tinggi.
Apa yang anda perlukan
- Blob model GGUF terkuantum (boleh dimuat turun dari Hugging Face atau hab komuniti lain). Contoh:
ngxson/GLM-4.7-Flash-GGUF. llama.cppdengan cabang komuniti yang merangkumi sokongan GLM-4.7/Flash attention (terdapat cabang komuniti yang menambah perubahan perlu). Contoh cabang yang dirujuk dalam kiriman komuniti:am17an/llama.cppdenganglm_4.7_headsize.
Bina dan jalankan (Linux)
# 1. clone a llama.cpp branch with GLM-4.7 / flash-attention patches
git clone --branch glm_4.7_headsize https://github.com/am17an/llama.cpp.git
cd llama.cpp
make
# 2. download GGUF (example uses Hugging Face)
# You can use huggingface_hub or hf_transfer to download
python -c "from huggingface_hub import hf_hub_download; hf_hub_download('ngxson/GLM-4.7-Flash-GGUF','GLM-4.7-Flash.gguf')"
# 3. Run with flash attention and proper override flags (community recommended)
./main -m GLM-4.7-Flash.gguf --override-kv deepseek2.expert_gating_func=int:2 \
--ctx 32768 \
--threads 8 \
--n_predict 512
Nota & petua: Oleh kerana GLM-4.7-Flash ialah MoE, sesetengah runtime memerlukan pengendalian khas bagi penghalaan gating/pakar (sebab itulah flag override). Jika anda menjalankan model dan melihat output berhalusinasi atau rosak, semak sama ada terdapat cabang komuniti yang dikemas kini.
Konfigurasi dan prompt apakah yang paling sesuai dengan GLM-4.7-Flash?
Tetapan yang disyorkan
- Pensampelan lalai (umum):
temperature: 1.0,top-p: 0.95,max_new_tokensbesar mengikut kegunaan — kad model menyenaraikan lalai dan tetapan khas untuk penilaian berbilang pusingan/ejenik. Untuk larian pengkodan deterministik, suhu lebih rendah (0–0.7) lazim. - Thinking / penaakulan terpelihara: Untuk tugasan ejenik atau penaakulan berbilang langkah yang kompleks, benarkan mod “thinking” / penaakulan terpelihara model seperti yang didokumenkan (Z.AI menyediakan flag thinking dan utiliti penghuraian).
- Penyahkodan spekulatif & prestasi: Dalam timbunan pelayan, penyahkodan spekulatif (vLLM) dan strategi gaya EAGLE (SGLang) disyorkan untuk mengurangkan latensi sambil mengekalkan kualiti.
Petua kejuruteraan prompt untuk tugasan pengkodan
- Gunakan arahan yang jelas: mulakan dengan "You are an expert software engineer. Provide code only." kemudian contoh ujian.
- Sertakan kekangan (versi bahasa, linter, kes tepi).
- Minta ujian unit dan penjelasan ringkas untuk kebolehselenggaraan.
- Untuk tugasan berbilang langkah, arahkan model untuk "think then act" jika mod itu tersedia; ini membantu urutan langkah dan panggilan alat yang lebih selamat.
Penyelesaian masalah, kekangan dan pertimbangan operasi
Isu lazim & mitigasi
- Ralat memori / OOM: pilih varian terkuantum yang lebih kecil (q4/q8) atau beralih ke runtime GGUF
llama.cpp. Ollama dan LM Studio menyenaraikan varian lebih kecil dan jejak memori masing-masing. - Respons perlahan pada suhu tinggi/mod “thinking”: kurangkan
temperatureatau gunakan penyahkodan spekulatif / kurangkan keluasan “thinking” untuk mempercepat jawapan; pada Ollama sesetengah pengguna melaporkan perubahan throughput selepas memulakan semula — pantau penggunaan sumber. Komen komuniti menyatakan sensitiviti kepada suhu bagi tempoh “thinking”. - Kesejajaran API vs setempat: GLM-4.7 di awan/host mungkin mempunyai pengoptimuman tambahan atau artifak terkuantum berbeza; uji secara setempat dengan prompt representatif untuk mengesahkan kesejajaran.
Keselamatan dan tadbir urus
Walaupun dengan pelesenan yang permisif, anggap output model sebagai tidak dipercayai dan gunakan penapisan kandungan serta pemeriksaan keselamatan standard jika output digunakan dalam laluan produksi (terutamanya untuk kod yang akan dilaksanakan secara automatik). Gunakan sandbox untuk skrip terjana dan semakan CI untuk kod terjana.
Kesimpulan
Pelancaran GLM-4.7-Flash menandakan titik kematangan yang ketara bagi AI berwajaran terbuka. Untuk sekian lama, pengguna perlu memilih antara kelajuan (model 7B yang tidak begitu pintar) dan kecerdasan (model 70B yang perlahan dan mahal untuk dijalankan). GLM-4.7-Flash merapatkan jurang ini dengan berkesan.
Jika anda mahukan GLM-4.7 yang lebih baik dan juga harga yang lebih baik, maka CometAPI ialah pilihan terbaik.
Pembangun boleh mengakses GLM-4.7 API melalui CometAPI, model terbaharu disenaraikan setakat tarikh penerbitan artikel. Untuk bermula, terokai keupayaan model dalam Playground dan rujuk panduan API untuk arahan terperinci. Sebelum mengakses, pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga yang jauh lebih rendah daripada harga rasmi untuk membantu anda mengintegrasi.
Gunakan CometAPI untuk mengakses model ChatGPT, mula membeli-belah!
Sedia untuk bermula?→ Daftar GLM-4.7 hari ini!
