跳至主要内容
注意

此教學為社群貢獻,並未由 Open WebUI 團隊支援。僅作為自訂 Open WebUI 以符合您特定用例的示範。如果有意貢獻,請參考貢獻教學。

備註

本指南已使用 手動安裝 設置的 Open WebUI 進行驗證。

使用 IPEX-LLM 在 Intel GPU 上設定本地 LLM

資訊

IPEX-LLM 是一個基於 PyTorch 的庫,用於在 Intel 的 CPU 和 GPU(例如:配備 iGPU 的本地電腦、Arc A 系列、Flex 和 Max 等獨立 GPU)上以非常低的延遲運行 LLM。

本教學展示如何使用 IPEX-LLM 加速的 Ollama 後端並託管於 Intel GPU 上 設置 Open WebUI。通過遵循本指南,即使僅在低成本的電腦(例如僅配備集成 GPU)上,您也能獲得流暢的使用體驗。

在 Intel GPU 上啟動 Ollama Serve

請參考 IPEX-LLM 官方文檔的 此指南,了解如何安裝和運行由 IPEX-LLM 加速並在 Intel GPU 上執行的 Ollama Serve。

提示

如果您希望從其他設備訪問 Ollama 服務,請在執行指令 ollama serve 前,確保設置或輸出環境變數 OLLAMA_HOST=0.0.0.0

配置 Open WebUI

通過選單中的 設定 -> 連接 訪問 Ollama 設置。預設情況下,Ollama 基本 URL 被設置為 https://localhost:11434,如下圖所示。要驗證 Ollama 服務連接狀態,請點擊文本框旁邊的 刷新按鈕。如果 WebUI 無法與 Ollama 服務器建立連接,您將看到錯誤消息 WebUI could not connect to Ollama

Open WebUI Ollama Setting Failure

如果連接成功,您將看到消息 Service Connection Verified,如下圖所示。

Open WebUI Ollama Setting Success

提示

如果您希望使用其他 URL 託管的 Ollama 服務器,只需將 Ollama 基本 URL 更新為新 URL 並按 刷新按鈕 重新確認與 Ollama 的連接。