Open WebUI
Open WebUI ist eine erweiterbare, funktionsreiche und benutzerfreundliche selbstgehostete KI-Plattform, die vollständig offline arbeitet. Sie unterstützt verschiedene LLM-Laufzeiten wie Ollama und OpenAI-kompatible APIs mit integrierter Inferenz-Engine für RAG, was sie zu einer leistungsstarken KI-Deployment-Lösung macht.
Sie suchen einen Enterprise-Plan? – Sprechen Sie noch heute mit unserem Vertriebsteam!
Erhalten Sie erweiterte Funktionen, darunter benutzerdefinierte Gestaltung und Branding, Service Level Agreement (SLA)-Support, Langzeit-Support (LTS)-Versionen und mehr!
Schneller Start mit Docker 🐳
WebSocket-Unterstützung ist erforderlich, damit Open WebUI korrekt funktioniert. Stellen Sie sicher, dass Ihre Netzwerk-Konfiguration WebSocket-Verbindungen zulässt.
Wenn Ollama auf Ihrem Computer ist, verwenden Sie diesen Befehl:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Um Open WebUI mit Nvidia GPU-Unterstützung auszuführen, verwenden Sie diesen Befehl:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Open WebUI zusammen mit Ollama
Diese Installationsmethode verwendet ein einziges Container-Image, das Open WebUI mit Ollama bündelt. Dadurch wird die Einrichtung über einen einzigen Befehl ermöglicht. Wählen Sie den entsprechenden Befehl basierend auf Ihrer Hardware-Konfiguration:
-
Mit GPU-Unterstützung: Nutzen Sie GPU-Ressourcen, indem Sie den folgenden Befehl ausführen:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
-
Nur für die CPU: Wenn Sie keine GPU verwenden, verwenden Sie stattdessen diesen Befehl:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Beide Befehle ermöglichen eine integrierte, unkomplizierte Installation sowohl von Open WebUI als auch Ollama, damit Sie alles schnell einrichten können.
Nach der Installation können Sie Open WebUI unter http://localhost:3000 erreichen. Viel Spaß! 😄
Verwendung des Entwicklungszweigs 🌙
Der :dev
-Zweig enthält die neuesten instabilen Funktionen und Änderungen. Verwenden Sie ihn auf eigene Gefahr, da er Fehler oder unvollständige Funktionen haben kann.
Wenn Sie die neuesten Funktionen ausprobieren möchten und gelegentliche Instabilität akzeptieren können, können Sie das Tag :dev
wie folgt verwenden:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev
Aktualisierung von Open WebUI
Um den Open WebUI-Container einfach zu aktualisieren, gehen Sie wie folgt vor:
Manuelle Aktualisierung
Verwenden Sie Watchtower, um Ihren Docker-Container manuell zu aktualisieren:
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
Automatische Updates
Halten Sie Ihren Container automatisch alle 5 Minuten aktuell:
docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui
🔧 Hinweis: Ersetzen Sie open-webui
durch den Namen Ihres Containers, falls dieser anders lautet.
Manuelle Installation
Es gibt zwei Hauptmethoden, um Open WebUI zu installieren und auszuführen: die Nutzung des uv
Runtime-Managers oder des Python-Pakets pip
. Beide Methoden sind effektiv, aber wir empfehlen dringend die Verwendung von uv
, da dies die Verwaltung der Umgebung vereinfacht und potenzielle Konflikte minimiert.
Installation mit uv
(Empfohlen)
Der uv
Runtime-Manager sorgt für eine nahtlose Verwaltung der Python-Umgebungen für Anwendungen wie Open WebUI. Befolgen Sie die folgenden Schritte, um zu beginnen:
1. Installieren Sie uv
Wählen Sie den passenden Installationsbefehl für Ihr Betriebssystem:
-
macOS/Linux:
curl -LsSf https://astral.sh/uv/install.sh | sh
-
Windows:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
2. Führen Sie Open WebUI aus
Sobald uv
installiert ist, ist es ganz einfach, Open WebUI auszuführen. Verwenden Sie den folgenden Befehl und achten Sie darauf, die Umgebungsvariable DATA_DIR
festzulegen, um Datenverluste zu vermeiden. Beispielpfade sind für jede Plattform angegeben:
-
macOS/Linux:
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
-
Windows:
$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve
Installation mit pip
Für Benutzer, die Open WebUI mit dem Python-Paketmanager pip
installieren, wird dringend empfohlen, Python-Runtime-Manager wie uv
oder conda
zu verwenden. Diese Tools helfen, Python-Umgebungen effektiv zu verwalten und Konflikte zu vermeiden.
Python 3.11 ist die Entwicklungsumgebung. Python 3.12 scheint zu funktionieren, wurde aber nicht ausführlich getestet. Python 3.13 wurde überhaupt nicht getestet—Verwendung auf eigenes Risiko.
-
Installieren Sie Open WebUI:
Öffnen Sie Ihr Terminal und führen Sie den folgenden Befehl aus:
pip install open-webui
-
Starten Sie Open WebUI:
Nach der Installation starten Sie den Server mit:
open-webui serve
Aktualisierung von Open WebUI
Führen Sie einfach den folgenden Befehl aus, um die neueste Version zu aktualisieren:
pip install --upgrade open-webui
Diese Methode installiert alle erforderlichen Abhängigkeiten und startet Open WebUI, was eine einfache und effiziente Einrichtung ermöglicht. Nach der Installation können Sie Open WebUI unter http://localhost:8080 aufrufen. Viel Spaß! 😄
Andere Installationsmethoden
Wir bieten verschiedene Installationsalternativen an, einschließlich nicht-Docker nativer Installationsmethoden, Docker Compose, Kustomize und Helm. Besuchen Sie unsere Open WebUI-Dokumentation oder treten Sie unserer Discord-Community bei, um umfassende Anleitungen zu erhalten.
Fahren Sie mit der vollständigen Einführungsanleitung fort.
Sponsoren 🙌
Wir sind unglaublich dankbar für die großzügige Unterstützung unserer Sponsoren. Ihre Beiträge helfen uns, unser Projekt zu pflegen und zu verbessern, sodass wir unserer Community weiterhin qualitativ hochwertige Arbeit liefern können. Vielen Dank!
Danksagungen 🙏
Wir sind äußerst dankbar für die großzügige Unterstützung durch Zuschüsse von: