跳至主要内容
注意

此教程為社群貢獻內容,並未由 Open WebUI 團隊提供支援。僅用於展示如何針對特定使用案例自訂 Open WebUI。想貢獻嗎?查看貢獻教程。

Helicone 與 Open WebUI 的整合

Helicone 是一個開源的 LLM 可觀察性平台,幫助開發者監控、除錯及改進包括 Open WebUI 部署在內的 生產準備 應用程式。

啟用 Helicone 後,你可以記錄 LLM 請求,評估並試驗提示,並獲得即時洞察,助你充滿信心地進行生產部署。

  • 跨模型類型的集中化即時監控:通過單個介面同時監控本地 Ollama 模型和雲端 API
  • 請求視覺化及回放:查看發送至 Open WebUI 每個模型的提示,以及由 LLM 生成的輸出以進行評估
  • 本地 LLM 性能追蹤:測量自我託管模型的響應時間和吞吐量
  • 按模型的使用分析:比較 Open WebUI 設置中不同模型的使用模式
  • 用戶分析以了解互動模式
  • 除錯功能用於排查模型回應的問題
  • 成本追蹤跨供應商的 LLM 使用情況

如何將 Helicone 整合至 OpenWebUI

第一步:創建 Helicone 帳戶並生成你的 API 金鑰

創建一個 Helicone 帳戶,並登錄以生成 API 金鑰

— 請務必生成一個 僅寫入 API 金鑰。這可確保你僅允許記錄數據至 Helicone,而無法讀取你的私人數據。

第二步:創建 OpenAI 帳戶並生成你的 API 金鑰

創建一個 OpenAI 帳戶,並登錄至 OpenAIs Developer Portal 生成 API 金鑰。

第三步:使用 Helicone 的基本 URL 運行你的 Open WebUI 應用

使用 Open WebUI 文檔 中的指令啟動你的第一個 Open WebUI 應用,並包含 Helicone 的 API BASE URL,讓你能自動查詢並監控。

   # 設置你的環境變數
export HELICONE_API_KEY=<YOUR_API_KEY>
export OPENAI_API_KEY=<YOUR_OPENAI_API_KEY>

# 運行帶有 Helicone 整合的 Open WebUI
docker run -d -p 3000:8080 \
-e OPENAI_API_BASE_URL="https://oai.helicone.ai/v1/$HELICONE_API_KEY" \
-e OPENAI_API_KEY="$OPENAI_API_KEY" \
--name open-webui \
ghcr.io/open-webui/open-webui

如果你已部署了 Open WebUI 應用,請到 管理後台 > 設置 > 連接,然後點擊「管理 OpenAI API 連接」中的 +。更新以下屬性:

  • 你的 API 基本 URL 將是 https://oai.helicone.ai/v1/<YOUR_HELICONE_API_KEY>
  • API 金鑰 為你的 OpenAI API 金鑰。

Open WebUI Helicone 設置

第四步:確認監控正常運行

為確認你的整合是否正常工作,登錄 Helicone 的儀表板並查看「請求」標籤。

你應能看到通過 Open WebUI 介面已發出的請求,這些請求已被記錄到 Helicone 中。

示例 Helicone 跟蹤

了解更多

如需了解 Helicone 的完整教程,可以查看 Helicones 文檔