注意
本教程是社区贡献内容,并未获得 Open WebUI 团队支持。仅作为展示如何根据具体用例定制 Open WebUI 的示例。如果希望贡献,请查看贡献教程。
将 Helicone 集成到 Open WebUI
Helicone 是一个开源的 LLM 可观察性平台,帮助开发者监控、调试并改进生产级应用程序,包括你的 Open WebUI 部署。
启用 Helicone 后,你可以记录 LLM 请求,评估和尝试提示,并获得即时的洞察,帮助你放心地将更新推送到生产环境。
- 实时监控,整合多种模型类型的视图:通过单一界面同时监控本地 Ollama 模型和云 API
- 请求可视化与重放:精准查看发送给 Open WebUI 每个模型的提示,以及 LLM 生成以供评估的输出
- 本地 LLM 性能跟踪:衡量自托管模型的响应时间和吞吐量
- 按模型分析使用情况:比较 Open WebUI 配置中不同模型的使用模式
- 用户分析以了解交互模式
- 调试功能以解决模型响应中的问题
- 成本追踪以监控跨供应商的 LLM 使用成本
如何将 Helicone 集成到 OpenWebUI 中
步骤 1:创建 Helicone 帐户并生成 API 密钥
创建 Helicone 帐户并登录,以生成 API 密钥。
— 请确保生成仅写入 API 密钥。这样可以确保仅向 Helicone 记录数据,而无法读取你的私密数据。
步骤 2:创建 OpenAI 帐户并生成 API 密钥
创建 OpenAI 帐户并登录 OpenAI's Developer Portal 来生成 API 密钥。
步骤 3:使用 Helicone 的基础 URL 运行 Open WebUI 应用程序
要启动你的第一个 Open WebUI 应用程序,请使用 Open WebUI 文档中的命令,并包含 Helicone 的 API BASE URL,以便自动查询和监控。
# 设置环境变量
export HELICONE_API_KEY=<你的 API 密钥>
export OPENAI_API_KEY=<你的 OpenAI API 密钥>
# 使用 Helicone 集成运行 Open WebUI
docker run -d -p 3000:8080 \
-e OPENAI_API_BASE_URL="https://oai.helicone.ai/v1/$HELICONE_API_KEY" \
-e OPENAI_API_KEY="$OPENAI_API_KEY" \
--name open-webui \
ghcr.io/open-webui/open-webui
如果你已经部署了 Open WebUI 应用程序,请转到 管理面板
> 设置
> 连接
并点击 "管理 OpenAI API 连接" 的 +
符号。更新以下属性:
- 你的
API Base URL
应为https://oai.helicone.ai/v1/<你的 HELICONE_API_KEY>
API KEY
应为你的 OpenAI API 密钥。
步骤 4:确认监控是否正常
确保你的集成正常工作,登录 Helicone 的仪表板并查看 "请求" 标签。
你应该可以看到通过 Open WebUI 界面发送的请求已经被记录到 Helicone 中。
了解更多
要获取关于 Helicone 的全面指南,你可以访问 Helicone's 的文档。