โมเดลสนับสนุนองค์กรบล็อก
500+ AI Model API ทั้งหมดในหนึ่ง API เพียงแค่ใน CometAPI
API โมเดล
นักพัฒนา
เริ่มต้นอย่างรวดเร็วเอกสารประกอบแดชบอร์ด API
ทรัพยากร
โมเดล AIบล็อกองค์กรบันทึกการเปลี่ยนแปลงเกี่ยวกับ
2025 CometAPI สงวนลิขสิทธิ์ทั้งหมดนโยบายความเป็นส่วนตัวข้อกำหนดการให้บริการ
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

อินพุต:$0.96/M
เอาต์พุต:$3.84/M
บริบท:200K
เอาต์พุตสูงสุด:128K
GLM-4.7 เป็นโมเดลเรือธงล่าสุดของ Z.AI ซึ่งมาพร้อมการอัปเกรดในสองด้านสำคัญ: ความสามารถด้านการเขียนโปรแกรมที่เพิ่มขึ้น และการให้เหตุผลและการดำเนินการแบบหลายขั้นตอนที่มีเสถียรภาพมากขึ้น โดยแสดงให้เห็นถึงการปรับปรุงอย่างมีนัยสำคัญในการดำเนินภารกิจของเอเจนต์ที่ซับซ้อน พร้อมทั้งมอบประสบการณ์การสนทนาที่เป็นธรรมชาติมากขึ้นและความสวยงามของส่วนหน้า (front-end) ที่เหนือกว่า
ใหม่
ใช้งานเชิงพาณิชย์
Playground
ภาพรวม
คุณสมบัติ
ราคา
API

GLM-4.7 คืออะไร

GLM-4.7 คือโมเดลภาษาขนาดใหญ่แบบ open-foundation รุ่นเรือธงล่าสุดของ Z.ai / Zhipu AI (ชื่อโมเดล glm-4.7) โดยถูกวางตำแหน่งให้เป็นโมเดล “thinking” ที่มุ่งเน้นนักพัฒนา พร้อมการปรับปรุงเด่นในด้าน การเขียนโค้ด/การทำงานเชิงเอเจนต์ การให้เหตุผลหลายขั้นตอน การเรียกใช้เครื่องมือ และเวิร์กโฟลว์บริบทยาว การเปิดตัวครั้งนี้เน้นความสามารถในการรองรับบริบทขนาดใหญ่ (สูงสุด 200K context) เอาต์พุตสูงสุดจำนวนมาก (สูงสุด 128K tokens) และโหมด “thinking” เฉพาะทางสำหรับไปป์ไลน์เชิงเอเจนต์

คุณสมบัติหลัก

  • การปรับปรุงด้านเอเจนต์ / การใช้เครื่องมือ: มีโหมดการคิดในตัว (“Interleaved Thinking”, “Preserved Thinking”, การควบคุมระดับเทิร์น) เพื่อให้โมเดล “คิดก่อนลงมือทำ” รักษาเหตุผลข้ามหลายเทิร์น และมีความเสถียรมากขึ้นเมื่อเรียกใช้เครื่องมือหรือดำเนินงานหลายขั้นตอน ทั้งหมดนี้มุ่งรองรับเวิร์กโฟลว์เอเจนต์ที่ทนทาน (เทอร์มินัล ชุดเครื่องมือ การท่องเว็บ)
  • ความสามารถด้านการเขียนโค้ดและเทอร์มินัล: มีการปรับปรุงอย่างมีนัยสำคัญบนเบนช์มาร์กด้านโค้ดและงานอัตโนมัติบนเทอร์มินัล — เบนช์มาร์กของผู้พัฒนาระบุว่าดีขึ้นชัดเจนเมื่อเทียบกับ GLM-4.6 ในตัวชี้วัด SWE-bench และ Terminal Bench ซึ่งแปลเป็นความสามารถที่ดีขึ้นในการสร้างโค้ดหลายเทิร์น การจัดลำดับคำสั่ง และการกู้คืนในสภาพแวดล้อมแบบเอเจนต์
  • “Vibe coding” / คุณภาพเอาต์พุตฝั่งฟรอนต์เอนด์: คุณภาพ UI/เลย์เอาต์เริ่มต้นที่สร้างขึ้นดีขึ้นสำหรับ HTML สไลด์ และงานนำเสนอ (เลย์เอาต์สะอาดกว่า การกำหนดขนาดดีขึ้น และค่าภาพเริ่มต้นที่ดีกว่า)
  • เวิร์กโฟลว์บริบทยาว: หน้าต่างบริบท 200K โทเค็น และเครื่องมือสำหรับแคชบริบท เหมาะในทางปฏิบัติสำหรับโค้ดเบสหลายไฟล์ เอกสารยาว และเซสชันเอเจนต์หลายรอบ

ประสิทธิภาพบนเบนช์มาร์ก

ตารางเบนช์มาร์กจากผู้เผยแพร่/ผู้ดูแล GLM-4.7 และชุมชนรายงานว่ามีการพัฒนาอย่างมากเมื่อเทียบกับ GLM-4.6 และให้ผลลัพธ์ที่แข่งขันได้กับโมเดลร่วมสมัยอื่น ๆ ในงานด้านการเขียนโค้ด งานเชิงเอเจนต์ และการใช้เครื่องมือ ตัวเลขที่คัดเลือกมา (ที่มา: ตารางที่เผยแพร่อย่างเป็นทางการบน Hugging Face / Z.AI):

  • LiveCodeBench-v6 (เบนช์มาร์กเอเจนต์ด้านการเขียนโค้ด): 84.9 (อ้างว่าเป็น open-source SOTA)
  • SWE-bench Verified (การเขียนโค้ด): 73.8% (เพิ่มจาก 68.0% ใน GLM-4.6)
  • SWE-bench Multilingual: 66.7% (+12.9% เทียบกับ GLM-4.6)
  • Terminal Bench 2.0 (การกระทำบนเทอร์มินัลเชิงเอเจนต์): 41.0% (เพิ่มขึ้นอย่างเด่นชัด +16.5% จาก 4.6)
  • HLE (การให้เหตุผลซับซ้อนร่วมกับเครื่องมือ): 42.8% เมื่อใช้ร่วมกับเครื่องมือ (รายงานว่าดีขึ้นมากเมื่อเทียบกับเวอร์ชันก่อนหน้า)
  • τ²-Bench (การเรียกใช้เครื่องมือแบบโต้ตอบ): 87.4 (รายงานว่าเป็น open-source SOTA)

กรณีใช้งานทั่วไปและตัวอย่างสถานการณ์

  • ผู้ช่วยเขียนโค้ดเชิงเอเจนต์: การสร้างโค้ดแบบอัตโนมัติหรือกึ่งอัตโนมัติ การแก้โค้ดหลายเทิร์น งานอัตโนมัติบนเทอร์มินัล และสคริปต์ CI/CD
  • เอเจนต์ที่ขับเคลื่อนด้วยเครื่องมือ: การท่องเว็บ การประสานงาน API และเวิร์กโฟลว์หลายขั้นตอน (รองรับโดย preserved thinking และ function calling)
  • การสร้างฟรอนต์เอนด์และ UI: การสร้างโครงเว็บไซต์อัตโนมัติ ชุดสไลด์ และโปสเตอร์ พร้อมความสวยงามและเลย์เอาต์ที่ดีขึ้น
  • งานวิจัยและงานบริบทยาว: การสรุปเอกสาร การสังเคราะห์วรรณกรรม และการสร้างข้อความแบบ retrieval-augmented ข้ามเอกสารยาว (หน้าต่าง 200k โทเค็นมีประโยชน์ในที่นี้)
  • เอเจนต์การศึกษาแบบโต้ตอบ / ติวเตอร์เขียนโค้ด: การสอนหลายเทิร์นพร้อม preserved reasoning ที่จดจำบล็อกการให้เหตุผลก่อนหน้าตลอดทั้งเซสชัน

วิธีเข้าถึงและใช้งาน GLM 4.7 API

ขั้นตอนที่ 1: สมัครรับ API Key

เข้าสู่ระบบที่ cometapi.com หากคุณยังไม่ได้เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน จากนั้นเข้าสู่ CometAPI console ของคุณ รับข้อมูลรับรองการเข้าถึง API key ของอินเทอร์เฟซ คลิก “Add Token” ที่ส่วน API token ในศูนย์ส่วนบุคคล รับ token key: sk-xxxxx แล้วส่งข้อมูล

ขั้นตอนที่ 2: ส่งคำขอไปยัง MiniMax M2.1 API

เลือกเอนด์พอยต์ “glm-4.7” เพื่อส่งคำขอ API และตั้งค่า request body วิธีการส่งคำขอและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณด้วย แทนที่ <YOUR_API_KEY> ด้วย CometAPI key จริงจากบัญชีของคุณ เรียกใช้งานที่ไหน: API แบบ Chat

ใส่คำถามหรือคำขอของคุณลงในฟิลด์ content—นี่คือสิ่งที่โมเดลจะใช้ตอบกลับ ประมวลผลการตอบกลับจาก API เพื่อรับคำตอบที่สร้างขึ้น

ขั้นตอนที่ 3: ดึงและตรวจสอบผลลัพธ์

ประมวลผลการตอบกลับจาก API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับพร้อมสถานะของงานและ

คุณสมบัติสำหรับ GLM-4.7

สำรวจคุณสมบัติหลักของ GLM-4.7 ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความสะดวกในการใช้งาน ค้นพบว่าความสามารถเหล่านี้สามารถเป็นประโยชน์ต่อโครงการของคุณและปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างไร

ราคาสำหรับ GLM-4.7

สำรวจราคาที่แข่งขันได้สำหรับ GLM-4.7 ที่ออกแบบมาให้เหมาะสมกับงบประมาณและความต้องการการใช้งานที่หลากหลาย แผนการบริการที่ยืดหยุ่นของเรารับประกันว่าคุณจะจ่ายเฉพาะสิ่งที่คุณใช้เท่านั้น ทำให้สามารถขยายขนาดได้ง่ายเมื่อความต้องการของคุณเพิ่มขึ้น ค้นพบว่า GLM-4.7 สามารถยกระดับโปรเจกต์ของคุณได้อย่างไรในขณะที่ควบคุมต้นทุนให้อยู่ในระดับที่จัดการได้
ราคา Comet (USD / M Tokens)ราคาทางการ (USD / M Tokens)ส่วนลด
อินพุต:$0.96/M
เอาต์พุต:$3.84/M
อินพุต:$1.2/M
เอาต์พุต:$4.8/M
-20%

โค้ดตัวอย่างและ API สำหรับ GLM-4.7

เข้าถึงโค้ดตัวอย่างที่ครอบคลุมและทรัพยากร API สำหรับ GLM-4.7 เพื่อปรับปรุงกระบวนการผสานรวมของคุณ เอกสารประกอบที่มีรายละเอียดของเราให้คำแนะนำทีละขั้นตอน ช่วยให้คุณใช้ประโยชน์จากศักยภาพเต็มรูปแบบของ GLM-4.7 ในโครงการของคุณ
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

โมเดลเพิ่มเติม

A

Claude Opus 4.6

อินพุต:$4/M
เอาต์พุต:$20/M
Claude Opus 4.6 เป็นโมเดลภาษาขนาดใหญ่ระดับ “Opus” ของ Anthropic เปิดตัวในเดือนกุมภาพันธ์ 2026. ถูกวางตำแหน่งให้เป็นกำลังหลักสำหรับงานเชิงความรู้และเวิร์กโฟลว์การวิจัย — ปรับปรุงการให้เหตุผลในบริบทยาว การวางแผนหลายขั้นตอน การใช้เครื่องมือ (รวมถึงเวิร์กโฟลว์ซอฟต์แวร์เชิงตัวแทน) และงานการใช้คอมพิวเตอร์ เช่น การสร้างสไลด์และสเปรดชีตอัตโนมัติ.
A

Claude Sonnet 4.6

อินพุต:$2.4/M
เอาต์พุต:$12/M
Claude Sonnet 4.6 เป็นโมเดล Sonnet ที่มีความสามารถมากที่สุดเท่าที่เคยมีมา เป็นการอัปเกรดเต็มรูปแบบของทักษะของโมเดล ครอบคลุมการเขียนโค้ด การใช้งานคอมพิวเตอร์ การให้เหตุผลในบริบทยาว การวางแผนของเอเจนต์ งานด้านความรู้ และการออกแบบ Sonnet 4.6 ยังมาพร้อมกับหน้าต่างบริบทขนาด 1M โทเค็นในเวอร์ชันเบต้า
O

GPT-5.4 nano

อินพุต:$0.16/M
เอาต์พุต:$1/M
GPT-5.4 nano ถูกออกแบบมาสำหรับงานที่ความเร็วและต้นทุนมีความสำคัญสูงสุด เช่น การจำแนกประเภท การสกัดข้อมูล การจัดอันดับ และเอเจนต์ย่อย.
O

GPT-5.4 mini

อินพุต:$0.6/M
เอาต์พุต:$3.6/M
GPT-5.4 mini นำจุดแข็งของ GPT-5.4 มาสู่โมเดลที่เร็วกว่าและมีประสิทธิภาพมากขึ้น ซึ่งออกแบบมาสำหรับภาระงานปริมาณมาก
A

Claude Mythos Preview

A

Claude Mythos Preview

เร็วๆ นี้
อินพุต:$60/M
เอาต์พุต:$240/M
Claude Mythos Preview เป็นโมเดลระดับแนวหน้าที่มีความสามารถสูงสุดของเราจนถึงปัจจุบัน และทำคะแนนก้าวกระโดดอย่างชัดเจน บนเบนช์มาร์กการประเมินหลายรายการ เมื่อเทียบกับโมเดลระดับแนวหน้ารุ่นก่อนของเรา Claude Opus 4.6.
X

mimo-v2-pro

อินพุต:$0.8/M
เอาต์พุต:$2.4/M
MiMo-V2-Pro คือโมเดลพื้นฐานเรือธงของ Xiaomi ที่มีพารามิเตอร์รวมมากกว่า 1T และความยาวคอนเท็กซ์ 1M โดยได้รับการปรับแต่งอย่างลึกซึ้งสำหรับสถานการณ์แบบเอเจนต์ มีความสามารถในการปรับใช้ได้สูงกับเฟรมเวิร์กเอเจนต์ทั่วไป เช่น OpenClaw โดยติดอันดับระดับแนวหน้าของโลกในการทดสอบมาตรฐาน PinchBench และ ClawBench และมีประสิทธิภาพที่รับรู้ได้ใกล้เคียงกับ Opus 4.6 MiMo-V2-Pro ได้รับการออกแบบมาเพื่อทำหน้าที่เป็นสมองของระบบเอเจนต์ ประสานการทำงานของเวิร์กโฟลว์ที่ซับซ้อน ขับเคลื่อนงานวิศวกรรมสำหรับการใช้งานจริง และส่งมอบผลลัพธ์ได้อย่างน่าเชื่อถือ

บล็อกที่เกี่ยวข้อง

GLM-5 vs GLM-4.7: มีอะไรเปลี่ยนแปลงบ้าง อะไรสำคัญ และควรอัปเกรดหรือไม่?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: มีอะไรเปลี่ยนแปลงบ้าง อะไรสำคัญ และควรอัปเกรดหรือไม่?

GLM-5 ซึ่งเปิดตัวเมื่อวันที่ 11 กุมภาพันธ์ 2026 โดย Zhipu AI (Z.ai) เป็นการก้าวกระโดดด้านสถาปัตยกรรมครั้งใหญ่จาก GLM-4.7: ขนาด MoE ที่ใหญ่ขึ้น (≈744B เทียบกับ ~355B พารามิเตอร์ทั้งหมด), ความจุของพารามิเตอร์ที่ใช้งานอยู่สูงขึ้น, อัตรา hallucination ที่วัดได้ต่ำลง, และมีความก้าวหน้าอย่างชัดเจนในตัวชี้วัดด้าน agentic และการเขียนโค้ด — แต่ต้องแลกด้วยความซับซ้อนในการอนุมานและ (บางครั้ง) ความหน่วง.
วิธีใช้งาน GLM-4.7-Flash แบบโลคัลทำอย่างไร?
Jan 21, 2026
glm-4-7
glm-4-7

วิธีใช้งาน GLM-4.7-Flash แบบโลคัลทำอย่างไร?

GLM-4.7-Flash เป็นสมาชิก MoE แบบ A3B ขนาด 30B ในตระกูล GLM-4.7 ที่มีน้ำหนักเบาและมีประสิทธิภาพสูง ออกแบบมาเพื่อรองรับการปรับใช้แบบโลคัลและต้นทุนต่ำสำหรับการเขียนโค้ด เวิร์กโฟลว์เชิงตัวแทน และการให้เหตุผลทั่วไป คุณสามารถรันแบบโลคัลได้ 3 วิธีที่ใช้งานได้จริง: (1) ผ่าน Ollama (ใช้ง่าย มีรันไทม์โลคัลแบบมีการจัดการ), (2) ผ่าน Hugging Face / Transformers / vLLM / SGLang (การปรับใช้บนเซิร์ฟเวอร์ที่เน้น GPU เป็นหลัก), หรือ (3) ผ่าน GGUF + llama.cpp / llama-cpp-python (เหมาะกับ CPU/อุปกรณ์ปลายทาง)
GLM-4.7 เปิดตัวแล้ว: นี่หมายความว่าอย่างไรต่อความฉลาดของ AI?
Dec 23, 2025
glm-4-7

GLM-4.7 เปิดตัวแล้ว: นี่หมายความว่าอย่างไรต่อความฉลาดของ AI?

เมื่อวันที่ 22 ธันวาคม 2025 Zhipu AI (Z.ai) ได้เปิดตัว GLM-4.7 อย่างเป็นทางการ ซึ่งเป็นรุ่นล่าสุดในตระกูล General Language Model (GLM) ของตน — ดึงดูดความสนใจจากทั่วโลกในแวดวงโมเดล AI แบบโอเพนซอร์ส โมเดลนี้ไม่เพียงยกระดับความสามารถในงานเขียนโค้ดและงานให้เหตุผลเท่านั้น แต่ยังท้าทายความเหนือชั้นของโมเดลที่เป็นกรรมสิทธิ์อย่าง GPT-5.2 และ Claude Sonnet 4.5 ในเบนช์มาร์กสำคัญอีกด้วย