สำรวจ Playground ของ GLM-4.7 — สภาพแวดล้อมแบบโต้ตอบสำหรับทดสอบโมเดลและรันคำถามแบบเรียลไทม์ ลองใช้ prompts ปรับพารามิเตอร์ และทำซ้ำทันทีเพื่อเร่งการพัฒนาและตรวจสอบกรณีการใช้งาน
GLM-4.7 เป็นโมเดลภาษาขนาดใหญ่แบบ open‑foundation รุ่นเรือธงล่าสุดของ Z.ai / Zhipu AI (ชื่อโมเดล glm-4.7) มีการวางตำแหน่งเป็นโมเดล “คิดได้” ที่เน้นนักพัฒนา โดยปรับปรุงเด่นในด้าน การเขียนโค้ด/การทำงานแบบเอเจนต์, การให้เหตุผลหลายขั้นตอน, การเรียกใช้เครื่องมือ, และเวิร์กโฟลว์บริบทยาว รุ่นนี้เน้นความสามารถในการจัดการบริบทขนาดใหญ่ (สูงสุด 200K context), เอาต์พุตสูงสุด (ได้ถึง 128K tokens), และโหมด “การคิด” เฉพาะทางสำหรับสายงานเอเจนต์
ผู้เผยแพร่/ผู้ดูแล GLM-4.7 และตารางเบนช์มาร์กจากชุมชนรายงานว่ามีความก้าวหน้ามากเมื่อเทียบกับ GLM-4.6 และมีความสามารถทัดเทียมโมเดลร่วมสมัยอื่นๆ ในงานด้านการโค้ด เอเจนต์ และการใช้เครื่องมือ ตัวเลขที่คัดเลือกมา (แหล่งที่มา: ตารางที่เผยแพร่โดย Hugging Face / Z.AI อย่างเป็นทางการ):
เข้าสู่ระบบที่ cometapi.com. หากคุณยังไม่เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน ลงชื่อเข้าใช้ CometAPI console รับ API key สำหรับการเข้าถึงอินเทอร์เฟซ คลิก “Add Token” ที่ API token ในศูนย์ส่วนบุคคล รับ token key: sk-xxxxx แล้วส่ง
เลือกเอนด์พอยต์ “glm-4.7” เพื่อส่งคำขอ API และตั้งค่า request body วิธีการเรียกและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ยังมีการทดสอบ Apifox เพื่อความสะดวกของคุณ แทนที่ <YOUR_API_KEY> ด้วย CometAPI key จริงจากบัญชีของคุณ เรียกที่ไหน: Chat-style APIs
ใส่คำถามหรือคำขอของคุณลงในฟิลด์ content — โมเดลจะตอบสนองต่อสิ่งนี้ ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น
ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับสถานะงานและ
| ราคา Comet (USD / M Tokens) | ราคาทางการ (USD / M Tokens) |
|---|---|
อินพุต:$0.44/M เอาต์พุต:$1.78/M | อินพุต:$0.56/M เอาต์พุต:$2.22/M |
from openai import OpenAI
import os
# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"
client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
model="glm-4.7",
messages=[
{"role": "user", "content": "Hello! Tell me a short joke."}
]
)
print(completion.choices[0].message.content)