Open WebUI
Open WebUI 是一个 可扩展、功能丰富且用户友好的自托管 AI 平台,设计为完全离线运行。 它支持各种 LLM 运行器,比如 Ollama 和 兼容 OpenAI 的 API,并内置 RAG 推理引擎,使其成为一个 强大的 AI 部署解决方案。
提示
在寻找 企业计划? – 今天就与我们的销售团队联系吧!
获得 增强功能,包括 自定义主题和 品牌、服务级别协议 (SLA) 支持、长期支持 (LTS) 版本 等更多!
使用 Docker 快速开始 🐳
信息
WebSocket 支持是 Open WebUI 正常运行所必需的。确保您的网络配置允许 WebSocket 连接。
如果 Ollama 已安装在您的电脑上,使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
将 Open WebUI 与 Nvidia GPU 支持一起运行,使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Open WebUI 与 Ollama 捆绑
此安装方法使用一个包含 Open WebUI 和 Ollama 的容器镜像,通过一个命令实现快捷设置。根据您的硬件选择合适的命令:
-
支持 GPU: 运行以下命令以利用 GPU 资源:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
-
仅 CPU 使用: 如果您不使用 GPU,请改用此命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
两条命令让 Open WebUI 和 Ollama 的安装变得简单快捷,确保您可以迅速启动。
安装后,您可以通过 http://localhost:3000 访问 Open WebUI。祝享受!😄
使用开发分支 🌙
注意
:dev
分支包含最新的非稳定特性和修改。使用时需自行承担风险,因为它可能存在错误或未完成的功能。
如果您想尝试最新的前沿功能,并接受偶尔的不稳定,可以使用 :dev
标签,命令如下:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev
更新 Open WebUI
要轻松更新 Open WebUI 容器,请按照以下步骤操作: