模型
定價
企業
資源
免費開始
免費開始
AnythingLLM 部落格
AnythingLLM 部落格
Mar 27, 2026
AnythingLLM
CometAPI
要先釐清您指的 CometAPI 是哪一個服務,才能給出精確的整合步驟。請提供以下資訊: - 您指的是 Comet(comet.com,用於實驗與 LLM 觀測/追蹤),還是 CometChat,或其他名為 Comet 的 API? - 您想要的整合目標:記錄提示與回覆、追蹤延遲與用量、離線評估,或把聊天前端接到某個 Comet 端點? - AnythingLLM 的版本與部署方式(Docker 或原始碼)、可否修改後端程式碼、使用的模型供應商(如 OpenAI/Anthropic/本地模型)。 若是要與 Comet(LLM Observability/實驗平台)整合,一般實作路徑如下(概述): - 在 AnythingLLM 後端攔截每次 LLM 請求與回應(含模型、提示、參數、延遲、token 用量、錯誤)。 - 於該攔截點呼叫 Comet 的上報介面(SDK 或 REST),帶上 workspace/project、run 名稱與自定義 metadata。 - 在部署環境設定 Comet 的 API Key 與專案資訊(例如 COMET_API_KEY、workspace、project),並對敏感資訊做脫敏。 - 驗證儀表板中是否已出現會話與指標;加入失敗重試與速率限制保護。 提供上述細節後,我可以給出針對您環境的具體設定項、檔案修改位置與上報欄位範例。
在 2025–2026 年,AI 工具生態持續整合:閘道 API(例如 CometAPI)擴展為提供 OpenAI 風格的存取方式,可連接數百個模型,