⭐ 功能特色
Open WebUI 的主要功能 ⭐
-
🚀 輕鬆安裝:使用 Docker、Kubernetes、Podman、Helm Charts (
kubectl
、kustomize
、podman
或helm
) 無縫安裝,支持:ollama
(包含 Ollama) 和:cuda
(CUDA 支持) 圖像,確保輕鬆上手。 -
🛠️ 引導式初始設置:初次設置過程清晰明了,包括明確提示創建管理員帳戶。
-
🤝 OpenAI API 集成:簡單整合與 OpenAI 相容的 API,與 Ollama 模型一同進行靈活對話,OpenAI API URL 可自訂以便與各類第三方應用程序無縫整合。
-
🛡️ 細化的權限與使用者群組:允許管理員創建詳細的使用者角色、群組和權限,確保所有使用者的安全環境。這種細緻程度不僅增強了安全性,還能提供自訂的使用體驗,增強使用者的所有權和責任感。
-
📱 響應式設計:在桌上型電腦、筆記型電腦和行動設備上都能享受流暢體驗。
-
📱 行動設備的漸進式網頁應用程序:在行動設備上享受原生的漸進式網頁應用程序體驗,並支持在
localhost
或個人域名上離線使用,提供流暢的使用者介面。為了使 PWA 可安裝 到您的設備上,必須通過安全通信(通常是 HTTPS 提供)。資訊- 要設置 PWA,您需要對 Linux、Docker 和反向代理(如
Nginx
、Caddy
或Traefik
)有一定的了解。使用這些工具可以簡化構建和部署符合需求的 PWA 的過程。雖然目前沒有「一鍵安裝」選項,並且將 Open WebUI 實例安全部署到 HTTPS 所需的選項需要用戶經驗,但利用這些資源可以更輕鬆地創建和部署量身訂製的 PWA。
- 要設置 PWA,您需要對 Linux、Docker 和反向代理(如
-
✒️🔢 完整的 Markdown 和 LaTeX 支持:透過全面的 Markdown、LaTex 和富文本功能提升 LLM 體驗,提供更豐富的互動。
-
🧩 模型生成工具:直接從 Open WebUI 中易於根據 Ollama 基礎模型創建自訂模型,並新增自訂角色和代理人,自定義模型元素,並通過 Open WebUI 社群 集成輕鬆導入模型。
-
📚 本地與遠端 RAG 集成:使用前沿的檢索增強生成(RAG)技術在聊天中探討文件的未來互動。文件可加載到工作區的
Documents
分頁中,之後可使用井號 [#
] 查詢訪問,或以井號 [#
] 開始提示,後接網址進行網頁內容整合。 -
📄 文件提取:從包括 PDFs、Word 文件、Excel 試算表、PowerPoint 簡報等多種格式的文件中提取文本和數據。我們的先進文檔處理能力能與您的知識庫無縫集成,支持從複雜文件中準確檢索和生成資訊,同時保留其結構和格式。
-
🔍 RAG 的網頁搜索:您可以使用多種搜索提供商進行網頁搜索,並將結果直接注入到本地的檢索增強生成 (RAG) 體驗中。
-
🌐 網頁瀏覽功能:使用
#
命令後接網址,在聊天中無縫整合網站,此功能使您能將網頁內容直接引入對話中,提升互動的豐富性和深度。 -
🎨 圖像生成集成:無縫集成圖像生成功能,為您的聊天體驗帶來豐富的視覺內容。
-
⚙️ 同時使用多模型:輕鬆同時利用多個模型,發揮其各自的優勢以獲得最佳回應。並行使用多樣的模型模式以增強您的體驗。
-
🔐 基於角色的訪問控制 (RBAC):確保安全訪問與受限權限。僅授權人員可訪問 Ollama,而模型創建和拉取權限僅限於管理員。
-
🌐🌍 多語言支持:使用我們的國際化 (
i18n
) 支持以您偏好的語言體驗 Open WebUI。我們邀請您與我們共同擴展支持的語言!我們正在積極尋找貢獻者! -
🌟 持續更新:我們致力於透過例行更新、修復與新增功能來改進 Open WebUI。
還有更多令人驚艷的功能,包括... ⚡️
🔧 管線支援
-
🔧 管線框架:透過我們的模組化插件框架,無縫整合並自訂您的 Open WebUI 體驗,提升自訂化及功能性(https://github.com/open-webui/pipelines)。該框架允許輕鬆添加自訂邏輯以及整合 Python 庫,從 AI 代理到家居自動化 APIs。
-
📥 上傳管線:管線可以直接從
管理面板
>設定
>管線
菜單上傳,簡化管線管理流程。
利用我們的管線框架,可能性無窮且幾乎無限制。從一些預建管線開始以幫助您入門!
-
🔗 功能調用:透過管線無縫整合 功能調用,提升您的 LLM 互動並具備進階功能調用能力。
-
📚 自訂 RAG:透過管線無縫整合 自訂檢索輔助生成 (RAG),以自訂 RAG 邏輯提升您的 LLM 互動。
-
📊 使用 Langfuse 進行訊息監測:透過 Langfuse 管線,監測並分析訊息互動的即時使用統計資料。
-
⚖️ 使用者流量限制:透過 流量限制 管線有效管理 API 使用率,以 控制發送給 LLM 的請求流量避免超出速率限制。
-
🌍 即時 LibreTranslate 翻譯:使用 LibreTranslate 管線整合即時翻譯至您的 LLM 互動中,實現跨語言溝通。
- 請注意,此管線需要進一步設置 LibreTranslate 並在 Docker 容器中運行。
-
🛡️ 有害訊息過濾:我們的 Detoxify 管線會自動過濾掉有害訊息,以保持一個清晰且安全的聊天環境。
-
🔒 LLM-Guard:使用 LLM-Guard 管線確保 LLM 的安全互動,具有提示注入掃描器以識別並減輕針對大型語言模型的技能輸入操作。這防止了 LLM 中的數據泄漏並為抵禦提示注入攻擊添加了一層防護。
-
🕒 對話輪數限制:透過 對話輪數限制 管線改善互動管理。
-
📈 OpenAI 生成統計:我們的 OpenAI 管線提供詳細的 OpenAI 模型生成統計資料。
-
🚀 多模型支援:我們與多個 AI 模型提供商的 各種提供者 的無縫整合擴展了您的選擇與互動範圍。
除了廣泛的功能和自訂選項之外,我們還提供 一系列可供使用的示例管線 和 一個實用的示例支架管線 幫助您入門。這些資源將簡化您的開發過程,並使您能夠快速使用管線和 Python 創建強大的 LLM 互動。祝您編程愉快!💡
🖥️ 使用者體驗
-
🖥️ 直觀界面:聊天界面以使用者為核心進行設計,從 ChatGPT 的使用者界面中汲取靈感。
-
⚡ 快速響應性:享受可靠快速且響應迅速的性能。
-
🎨 啟動畫面:簡單的載入啟動畫面,提供更加流暢的使用者體驗。
-
🌐 個性化界面:在設定 > 界面中選擇設計完善的搜索登錄頁面或經典聊天 UI,提供量身定制的體驗。
-
📦 Pip 安裝方式:可透過指令
pip install open-webui
安裝 Open WebUI,簡化安裝流程,使新手更易上手。詳細資訊請造訪:https://pypi.org/project/open-webui/。 -
🌈 主題自定義:透過多種選項個性化您的 Open WebUI 體驗,包括精美主題、自定義聊天背景圖片,以及三種模式選擇:明亮模式、暗色模式或 OLED 暗色模式——或者讓她