Zum Hauptinhalt springen

Open WebUI

Open WebUI ist eine erweiterbare, funktionsreiche und benutzerfreundliche selbstgehostete KI-Plattform, die vollständig offline arbeitet. Sie unterstützt verschiedene LLM-Laufzeiten wie Ollama und OpenAI-kompatible APIs mit integrierter Inferenz-Engine für RAG, was sie zu einer leistungsstarken KI-Deployment-Lösung macht.

GitHub stars GitHub forks GitHub watchers GitHub repo size GitHub language count GitHub top language GitHub last commit Hits Discord

Open WebUI Demo

tipp

Sie suchen einen Enterprise-Plan?Sprechen Sie noch heute mit unserem Vertriebsteam!

Erhalten Sie erweiterte Funktionen, darunter benutzerdefinierte Gestaltung und Branding, Service Level Agreement (SLA)-Support, Langzeit-Support (LTS)-Versionen und mehr!

Sponsored by n8n
n8n
Does your interface have a backend yet? Try n8n

Schneller Start mit Docker 🐳

info

WebSocket-Unterstützung ist erforderlich, damit Open WebUI korrekt funktioniert. Stellen Sie sicher, dass Ihre Netzwerk-Konfiguration WebSocket-Verbindungen zulässt.

Wenn Ollama auf Ihrem Computer ist, verwenden Sie diesen Befehl:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Um Open WebUI mit Nvidia GPU-Unterstützung auszuführen, verwenden Sie diesen Befehl:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

Open WebUI zusammen mit Ollama

Diese Installationsmethode verwendet ein einziges Container-Image, das Open WebUI mit Ollama bündelt. Dadurch wird die Einrichtung über einen einzigen Befehl ermöglicht. Wählen Sie den entsprechenden Befehl basierend auf Ihrer Hardware-Konfiguration:

  • Mit GPU-Unterstützung: Nutzen Sie GPU-Ressourcen, indem Sie den folgenden Befehl ausführen:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • Nur für die CPU: Wenn Sie keine GPU verwenden, verwenden Sie stattdessen diesen Befehl:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

Beide Befehle ermöglichen eine integrierte, unkomplizierte Installation sowohl von Open WebUI als auch Ollama, damit Sie alles schnell einrichten können.

Nach der Installation können Sie Open WebUI unter http://localhost:3000 erreichen. Viel Spaß! 😄

Verwendung des Entwicklungszweigs 🌙

warnung

Der :dev-Zweig enthält die neuesten instabilen Funktionen und Änderungen. Verwenden Sie ihn auf eigene Gefahr, da er Fehler oder unvollständige Funktionen haben kann.

Wenn Sie die neuesten Funktionen ausprobieren möchten und gelegentliche Instabilität akzeptieren können, können Sie das Tag :dev wie folgt verwenden:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev

Aktualisierung von Open WebUI

Um den Open WebUI-Container einfach zu aktualisieren, gehen Sie wie folgt vor:

Manuelle Aktualisierung

Verwenden Sie Watchtower, um Ihren Docker-Container manuell zu aktualisieren:

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

Automatische Updates

Halten Sie Ihren Container automatisch alle 5 Minuten aktuell:

docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui

🔧 Hinweis: Ersetzen Sie open-webui durch den Namen Ihres Containers, falls dieser anders lautet.

Manuelle Installation

Es gibt zwei Hauptmethoden, um Open WebUI zu installieren und auszuführen: die Nutzung des uv Runtime-Managers oder des Python-Pakets pip. Beide Methoden sind effektiv, aber wir empfehlen dringend die Verwendung von uv, da dies die Verwaltung der Umgebung vereinfacht und potenzielle Konflikte minimiert.

Installation mit uv (Empfohlen)

Der uv Runtime-Manager sorgt für eine nahtlose Verwaltung der Python-Umgebungen für Anwendungen wie Open WebUI. Befolgen Sie die folgenden Schritte, um zu beginnen:

1. Installieren Sie uv

Wählen Sie den passenden Installationsbefehl für Ihr Betriebssystem:

  • macOS/Linux:

    curl -LsSf https://astral.sh/uv/install.sh | sh
  • Windows:

    powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. Führen Sie Open WebUI aus

Sobald uv installiert ist, ist es ganz einfach, Open WebUI auszuführen. Verwenden Sie den folgenden Befehl und achten Sie darauf, die Umgebungsvariable DATA_DIR festzulegen, um Datenverluste zu vermeiden. Beispielpfade sind für jede Plattform angegeben:

  • macOS/Linux:

    DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
  • Windows:

    $env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

Installation mit pip

Für Benutzer, die Open WebUI mit dem Python-Paketmanager pip installieren, wird dringend empfohlen, Python-Runtime-Manager wie uv oder conda zu verwenden. Diese Tools helfen, Python-Umgebungen effektiv zu verwalten und Konflikte zu vermeiden.

Python 3.11 ist die Entwicklungsumgebung. Python 3.12 scheint zu funktionieren, wurde aber nicht ausführlich getestet. Python 3.13 wurde überhaupt nicht getestet—Verwendung auf eigenes Risiko.

  1. Installieren Sie Open WebUI:

    Öffnen Sie Ihr Terminal und führen Sie den folgenden Befehl aus:

    pip install open-webui
  2. Starten Sie Open WebUI:

    Nach der Installation starten Sie den Server mit:

    open-webui serve

Aktualisierung von Open WebUI

Führen Sie einfach den folgenden Befehl aus, um die neueste Version zu aktualisieren:

pip install --upgrade open-webui

Diese Methode installiert alle erforderlichen Abhängigkeiten und startet Open WebUI, was eine einfache und effiziente Einrichtung ermöglicht. Nach der Installation können Sie Open WebUI unter http://localhost:8080 aufrufen. Viel Spaß! 😄

Andere Installationsmethoden

Wir bieten verschiedene Installationsalternativen an, einschließlich nicht-Docker nativer Installationsmethoden, Docker Compose, Kustomize und Helm. Besuchen Sie unsere Open WebUI-Dokumentation oder treten Sie unserer Discord-Community bei, um umfassende Anleitungen zu erhalten.

Fahren Sie mit der vollständigen Einführungsanleitung fort.

Sponsoren 🙌

Wir sind unglaublich dankbar für die großzügige Unterstützung unserer Sponsoren. Ihre Beiträge helfen uns, unser Projekt zu pflegen und zu verbessern, sodass wir unserer Community weiterhin qualitativ hochwertige Arbeit liefern können. Vielen Dank!

Danksagungen 🙏

Wir sind äußerst dankbar für die großzügige Unterstützung durch Zuschüsse von:

MozillaMozilla Builders 2024

GitHubGitHub Accelerator 2024