模型定價企業

AnythingLLM 部落格

AnythingLLM 部落格

要先釐清您指的 CometAPI 是哪一個服務,才能給出精確的整合步驟。請提供以下資訊:
- 您指的是 Comet(comet.com,用於實驗與 LLM 觀測/追蹤),還是 CometChat,或其他名為 Comet 的 API?
- 您想要的整合目標:記錄提示與回覆、追蹤延遲與用量、離線評估,或把聊天前端接到某個 Comet 端點?
- AnythingLLM 的版本與部署方式(Docker 或原始碼)、可否修改後端程式碼、使用的模型供應商(如 OpenAI/Anthropic/本地模型)。

若是要與 Comet(LLM Observability/實驗平台)整合,一般實作路徑如下(概述):
- 在 AnythingLLM 後端攔截每次 LLM 請求與回應(含模型、提示、參數、延遲、token 用量、錯誤)。
- 於該攔截點呼叫 Comet 的上報介面(SDK 或 REST),帶上 workspace/project、run 名稱與自定義 metadata。
- 在部署環境設定 Comet 的 API Key 與專案資訊(例如 COMET_API_KEY、workspace、project),並對敏感資訊做脫敏。
- 驗證儀表板中是否已出現會話與指標;加入失敗重試與速率限制保護。

提供上述細節後,我可以給出針對您環境的具體設定項、檔案修改位置與上報欄位範例。
Mar 27, 2026
AnythingLLM
CometAPI

要先釐清您指的 CometAPI 是哪一個服務,才能給出精確的整合步驟。請提供以下資訊: - 您指的是 Comet(comet.com,用於實驗與 LLM 觀測/追蹤),還是 CometChat,或其他名為 Comet 的 API? - 您想要的整合目標:記錄提示與回覆、追蹤延遲與用量、離線評估,或把聊天前端接到某個 Comet 端點? - AnythingLLM 的版本與部署方式(Docker 或原始碼)、可否修改後端程式碼、使用的模型供應商(如 OpenAI/Anthropic/本地模型)。 若是要與 Comet(LLM Observability/實驗平台)整合,一般實作路徑如下(概述): - 在 AnythingLLM 後端攔截每次 LLM 請求與回應(含模型、提示、參數、延遲、token 用量、錯誤)。 - 於該攔截點呼叫 Comet 的上報介面(SDK 或 REST),帶上 workspace/project、run 名稱與自定義 metadata。 - 在部署環境設定 Comet 的 API Key 與專案資訊(例如 COMET_API_KEY、workspace、project),並對敏感資訊做脫敏。 - 驗證儀表板中是否已出現會話與指標;加入失敗重試與速率限制保護。 提供上述細節後,我可以給出針對您環境的具體設定項、檔案修改位置與上報欄位範例。

在 2025–2026 年,AI 工具生態持續整合:閘道 API(例如 CometAPI)擴展為提供 OpenAI 風格的存取方式,可連接數百個模型,
500+ AI 模型 API,全部整合在一個 API 中。就在 CometAPI
模型 API
開發者
快速入門說明文件API 儀表板
公司
關於我們企業
資源
AI模型部落格更新日誌支援
服務條款隱私政策
© 2026 CometAPI · All rights reserved