跳到主要内容

Open WebUI

Open WebUI 是一个 可扩展、功能丰富且用户友好的自托管 AI 平台,设计为完全离线运行。 它支持各种 LLM 运行器,比如 Ollama兼容 OpenAI 的 API,并内置 RAG 推理引擎,使其成为一个 强大的 AI 部署解决方案

GitHub stars GitHub forks GitHub watchers GitHub repo size GitHub language count GitHub top language GitHub last commit Hits Discord

Open WebUI 演示

提示

在寻找 企业计划?今天就与我们的销售团队联系吧!

获得 增强功能,包括 自定义主题和品牌服务级别协议 (SLA) 支持长期支持 (LTS) 版本 等更多!

Sponsored by n8n
n8n
Does your interface have a backend yet? Try n8n

使用 Docker 快速开始 🐳

信息

WebSocket 支持是 Open WebUI 正常运行所必需的。确保您的网络配置允许 WebSocket 连接。

如果 Ollama 已安装在您的电脑上,使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

将 Open WebUI 与 Nvidia GPU 支持一起运行,使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

Open WebUI 与 Ollama 捆绑

此安装方法使用一个包含 Open WebUI 和 Ollama 的容器镜像,通过一个命令实现快捷设置。根据您的硬件选择合适的命令:

  • 支持 GPU: 运行以下命令以利用 GPU 资源:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • 仅 CPU 使用: 如果您不使用 GPU,请改用此命令:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

两条命令让 Open WebUI 和 Ollama 的安装变得简单快捷,确保您可以迅速启动。

安装后,您可以通过 http://localhost:3000 访问 Open WebUI。祝享受!😄

使用开发分支 🌙

注意

:dev 分支包含最新的非稳定特性和修改。使用时需自行承担风险,因为它可能存在错误或未完成的功能。

如果您想尝试最新的前沿功能,并接受偶尔的不稳定,可以使用 :dev 标签,命令如下:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev

更新 Open WebUI

要轻松更新 Open WebUI 容器,请按照以下步骤操作:

手动更新

使用 Watchtower 手动更新您的 Docker 容器:

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

自动更新

每 5 分钟自动更新您的容器:

docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui

🔧 注意:如果您的容器名称不同,请将 open-webui 替换为您的容器名称。

手动安装

有两种主要方法可以安装和运行 Open WebUI:使用 uv 运行时管理器或 Python 的 pip。虽然这两种方法都有效,但我们强烈建议使用 uv,因为它简化了环境管理并减少了潜在冲突。

使用 uv 安装(推荐)

uv 运行时管理器可确保像 Open WebUI 这样的应用程序的 Python 环境管理轻松无忧。请按以下步骤开始:

1. 安装 uv

根据您的操作系统选择合适的安装命令:

  • macOS/Linux:

    curl -LsSf https://astral.sh/uv/install.sh | sh
  • Windows:

    powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. 运行 Open WebUI

安装 uv 后,运行 Open WebUI 变得轻而易举。使用以下命令运行,同时确保设置 DATA_DIR 环境变量以避免数据丢失。以下是每个平台的示例路径:

  • macOS/Linux:

    DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
  • Windows:

    $env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

使用 pip 安装

对于使用 Python 包管理器 pip 安装 Open WebUI 的用户,强烈建议使用 Python 运行时管理器,如 uvconda。这些工具有助于有效管理 Python 环境并避免冲突。

Python 3.11 是开发环境。虽然 Python 3.12 看似可以工作,但尚未经过全面测试。Python 3.13 完全未经测试——请自担风险使用

  1. 安装 Open WebUI:

    打开终端并运行以下命令:

    pip install open-webui
  2. 启动 Open WebUI:

    安装完成后,使用以下命令启动服务器:

    open-webui serve

更新 Open WebUI

要更新至最新版本,只需运行以下命令:

pip install --upgrade open-webui

此方法会安装所有必要的依赖项并启动 Open WebUI,从而实现简单高效的设置。在安装后,您可以通过 http://localhost:8080 访问 Open WebUI。尽情享用吧!😄

其他安装方法

我们提供多种其他安装选项,包括非 Docker 的本地安装方法、Docker Compose、Kustomize 和 Helm。请访问我们的 Open WebUI 文档 或加入我们的 Discord 社区 了解全面指南。

继续阅读完整的快速入门指南

赞助商 🙌

我们对赞助商的慷慨支持深表感谢。他们的贡献帮助我们维护和改进项目,确保我们能够为社区持续提供高质量的工作。谢谢!

致谢 🙏

我们深深地感谢以下机构提供的慷慨资助:

MozillaMozilla Builders 2024

GitHubGitHub Accelerator 2024