โมเดล
ราคา
องค์กร
ทรัพยากร
เริ่มต้นฟรี
เริ่มต้นฟรี
บล็อก AnythingLLM
บล็อก AnythingLLM
Mar 27, 2026
AnythingLLM
CometAPI
ขอข้อมูลเพิ่มเล็กน้อยครับ: “CometAPI” ที่คุณหมายถึงคือ - Comet (Comet ML/CometLLM สำหรับ LLM observability & proxy) หรือ - CometChat API (แพลตฟอร์มแชตแบบเรียลไทม์)? ระหว่างนี้แนวทางรวมแบบย่อมีดังนี้ - ถ้าเป็น Comet (Comet ML/CometLLM) และมี OpenAI-compatible proxy: 1) ไปที่ Admin > Model Provider ของ AnythingLLM 2) เลือก “OpenAI-compatible” 3) ใส่ Base URL ของ Comet proxy 4) ใส่ API Key ที่ Comet กำหนด (และ/หรือคีย์ของผู้ให้บริการโมเดลที่ผูกผ่าน Comet หากจำเป็น) 5) ตั้งค่า model name ให้ตรงกับที่ Comet รองรับ แล้วทดสอบการเชื่อมต่อ หมายเหตุ: ถ้า Comet ให้ค่า base URL/headers เฉพาะ ให้ใส่ตามเอกสารของ Comet; ในกรณี self-hosted สามารถกำหนดตัวแปรแวดล้อมอย่าง OPENAI_BASE_URL และ OPENAI_API_KEY ให้ชี้ไปที่ Comet proxy - ถ้าเป็น Comet สำหรับ logging/observability อย่างเดียว (ไม่มี endpoint): - ใช้ Comet OpenAI proxy เป็นทางผ่าน แล้วตั้งค่า Base URL ใน AnythingLLM ไปที่ proxy ดังกล่าว - หรือดัดแปลง deployment (fork/plug-in ฝั่ง server) เพื่อหุ้ม client LLM ของ AnythingLLM ด้วย SDK/agent ของ Comet (ต้องแก้โค้ด) - ถ้าเป็น CometChat API: - ตั้ง middleware HTTP (เช่น serverless function) ที่รับอินพุตจาก AnythingLLM แล้วเรียก CometChat REST API - ผูก middleware นั้นเข้ากับ AnythingLLM ผ่านความสามารถ “Tools/Webhooks/Function calling” (กำหนดสคีมาพารามิเตอร์และ URL ของ endpoint) - จัดเก็บ CometChat API Key/Token ในฝั่งเซิร์ฟเวอร์ ไม่ฝังในไคลเอนต์ บอกผมได้เลยว่าคุณหมายถึง Comet ใดและคุณใช้ AnythingLLM เวอร์ชัน/ผู้ให้บริการโมเดลใด จะได้ให้ขั้นตอนละเอียดที่ตรงแพลตฟอร์มครับ
ในช่วงปี 2025–2026 ภูมิทัศน์ของเครื่องมือ AI ยังคงรวมตัวกันอย่างต่อเนื่อง: API เกตเวย์ (เช่น CometAPI) ได้ขยายเพื่อมอบการเข้าถึงแบบ OpenAI ให้กับโมเดลนับร้อย,