บล็อก AnythingLLM

ขอข้อมูลเพิ่มเล็กน้อยครับ: “CometAPI” ที่คุณหมายถึงคือ
- Comet (Comet ML/CometLLM สำหรับ LLM observability & proxy) หรือ
- CometChat API (แพลตฟอร์มแชตแบบเรียลไทม์)?

ระหว่างนี้แนวทางรวมแบบย่อมีดังนี้
- ถ้าเป็น Comet (Comet ML/CometLLM) และมี OpenAI-compatible proxy:
  1) ไปที่ Admin > Model Provider ของ AnythingLLM
  2) เลือก “OpenAI-compatible”
  3) ใส่ Base URL ของ Comet proxy
  4) ใส่ API Key ที่ Comet กำหนด (และ/หรือคีย์ของผู้ให้บริการโมเดลที่ผูกผ่าน Comet หากจำเป็น)
  5) ตั้งค่า model name ให้ตรงกับที่ Comet รองรับ แล้วทดสอบการเชื่อมต่อ
  หมายเหตุ: ถ้า Comet ให้ค่า base URL/headers เฉพาะ ให้ใส่ตามเอกสารของ Comet; ในกรณี self-hosted สามารถกำหนดตัวแปรแวดล้อมอย่าง OPENAI_BASE_URL และ OPENAI_API_KEY ให้ชี้ไปที่ Comet proxy

- ถ้าเป็น Comet สำหรับ logging/observability อย่างเดียว (ไม่มี endpoint):
  - ใช้ Comet OpenAI proxy เป็นทางผ่าน แล้วตั้งค่า Base URL ใน AnythingLLM ไปที่ proxy ดังกล่าว
  - หรือดัดแปลง deployment (fork/plug-in ฝั่ง server) เพื่อหุ้ม client LLM ของ AnythingLLM ด้วย SDK/agent ของ Comet (ต้องแก้โค้ด)

- ถ้าเป็น CometChat API:
  - ตั้ง middleware HTTP (เช่น serverless function) ที่รับอินพุตจาก AnythingLLM แล้วเรียก CometChat REST API
  - ผูก middleware นั้นเข้ากับ AnythingLLM ผ่านความสามารถ “Tools/Webhooks/Function calling” (กำหนดสคีมาพารามิเตอร์และ URL ของ endpoint)
  - จัดเก็บ CometChat API Key/Token ในฝั่งเซิร์ฟเวอร์ ไม่ฝังในไคลเอนต์

บอกผมได้เลยว่าคุณหมายถึง Comet ใดและคุณใช้ AnythingLLM เวอร์ชัน/ผู้ให้บริการโมเดลใด จะได้ให้ขั้นตอนละเอียดที่ตรงแพลตฟอร์มครับ
Mar 27, 2026
AnythingLLM
CometAPI

ขอข้อมูลเพิ่มเล็กน้อยครับ: “CometAPI” ที่คุณหมายถึงคือ - Comet (Comet ML/CometLLM สำหรับ LLM observability & proxy) หรือ - CometChat API (แพลตฟอร์มแชตแบบเรียลไทม์)? ระหว่างนี้แนวทางรวมแบบย่อมีดังนี้ - ถ้าเป็น Comet (Comet ML/CometLLM) และมี OpenAI-compatible proxy: 1) ไปที่ Admin > Model Provider ของ AnythingLLM 2) เลือก “OpenAI-compatible” 3) ใส่ Base URL ของ Comet proxy 4) ใส่ API Key ที่ Comet กำหนด (และ/หรือคีย์ของผู้ให้บริการโมเดลที่ผูกผ่าน Comet หากจำเป็น) 5) ตั้งค่า model name ให้ตรงกับที่ Comet รองรับ แล้วทดสอบการเชื่อมต่อ หมายเหตุ: ถ้า Comet ให้ค่า base URL/headers เฉพาะ ให้ใส่ตามเอกสารของ Comet; ในกรณี self-hosted สามารถกำหนดตัวแปรแวดล้อมอย่าง OPENAI_BASE_URL และ OPENAI_API_KEY ให้ชี้ไปที่ Comet proxy - ถ้าเป็น Comet สำหรับ logging/observability อย่างเดียว (ไม่มี endpoint): - ใช้ Comet OpenAI proxy เป็นทางผ่าน แล้วตั้งค่า Base URL ใน AnythingLLM ไปที่ proxy ดังกล่าว - หรือดัดแปลง deployment (fork/plug-in ฝั่ง server) เพื่อหุ้ม client LLM ของ AnythingLLM ด้วย SDK/agent ของ Comet (ต้องแก้โค้ด) - ถ้าเป็น CometChat API: - ตั้ง middleware HTTP (เช่น serverless function) ที่รับอินพุตจาก AnythingLLM แล้วเรียก CometChat REST API - ผูก middleware นั้นเข้ากับ AnythingLLM ผ่านความสามารถ “Tools/Webhooks/Function calling” (กำหนดสคีมาพารามิเตอร์และ URL ของ endpoint) - จัดเก็บ CometChat API Key/Token ในฝั่งเซิร์ฟเวอร์ ไม่ฝังในไคลเอนต์ บอกผมได้เลยว่าคุณหมายถึง Comet ใดและคุณใช้ AnythingLLM เวอร์ชัน/ผู้ให้บริการโมเดลใด จะได้ให้ขั้นตอนละเอียดที่ตรงแพลตฟอร์มครับ

ในช่วงปี 2025–2026 ภูมิทัศน์ของเครื่องมือ AI ยังคงรวมตัวกันอย่างต่อเนื่อง: API เกตเวย์ (เช่น CometAPI) ได้ขยายเพื่อมอบการเข้าถึงแบบ OpenAI ให้กับโมเดลนับร้อย,