Open WebUI
Open WebUI est une plateforme d'IA extensible, riche en fonctionnalités et conviviale, auto-hébergée et conçue pour fonctionner entièrement hors ligne. Elle prend en charge divers moteurs LLM tels que Ollama et les API compatibles OpenAI, avec un moteur d'inférence intégré pour RAG, ce qui en fait une solution de déploiement IA puissante.
Vous cherchez un plan entreprise? – Discutez avec notre équipe commerciale dès aujourd'hui!
Obtenez des capacités améliorées, y compris personnalisation des thèmes et branding, support SLA (Service Level Agreement), versions support à long terme (LTS), et plus encore!
Démarrage rapide avec Docker 🐳
Le support WebSocket est nécessaire pour que Open WebUI fonctionne correctement. Assurez-vous que votre configuration réseau autorise les connexions WebSocket.
Si Ollama est sur votre ordinateur, utilisez cette commande :
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Pour exécuter Open WebUI avec le support GPU Nvidia, utilisez cette commande :
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Open WebUI intégré à Ollama
Cette méthode d'installation utilise une image de conteneur unique qui regroupe Open WebUI avec Ollama, permettant une installation simplifiée via une seule commande. Choisissez la commande appropriée en fonction de votre configuration matérielle :
-
Avec support GPU : Exploitez les ressources GPU en exécutant la commande suivante :
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
-
Pour CPU uniquement : Si vous nutilisez pas de GPU, utilisez cette commande à la place :
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Les deux commandes facilitent une installation intégrée et sans tracas d'Open WebUI et Ollama, assurant que vous puissiez tout mettre en œuvre rapidement.
Après l'installation, vous pouvez accéder à Open WebUI à http://localhost:3000. Profitez-en! 😄
Utilisation de la branche Dev 🌙
La branche :dev
contient les dernières fonctionnalités instables et modifications. Utilisez-la à vos risques, car elle peut comporter des bugs ou des fonctionnalités incomplètes.
Si vous souhaitez essayer les toutes dernières fonctionnalités et acceptez une instabilité occasionnelle, vous pouvez utiliser le tag :dev
comme ceci :
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev
Mise à jour d'Open WebUI
Pour mettre à jour facilement le conteneur Open WebUI, suivez ces étapes :
Mise à jour manuelle
Utilisez Watchtower pour mettre à jour votre conteneur Docker manuellement :
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
Mise à jour automatique
Gardez votre conteneur automatiquement mis à jour toutes les 5 minutes :
docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui
🔧 Remarque : Remplacez open-webui
par le nom de votre conteneur si celui-ci est différent.
Installation manuelle
Il existe deux principales façons d'installer et d'exécuter Open WebUI : en utilisant le gestionnaire d'exécution uv
ou le pip
de Pythons. Bien que les deux méthodes soient efficaces, nous recommandons vivement d'utiliser uv
, car cela simplifie la gestion de l'environnement et minimise les conflits potentiels.
Installation avec uv
(Recommandé)
Le gestionnaire d'exécution uv
assure une gestion fluide de l'environnement Python pour les applications comme Open WebUI. Suivez ces étapes pour commencer :
1. Installer uv
Choisissez la commande d'installation appropriée pour votre système d'exploitation :
-
macOS/Linux :
curl -LsSf https://astral.sh/uv/install.sh | sh
-
Windows :
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
2. Exécuter Open WebUI
Une fois que uv
est installé, exécuter Open WebUI est très simple. Utilisez la commande ci-dessous, en veillant à définir la variable d'environnement DATA_DIR
pour éviter la perte de données. Des chemins d'exemple sont fournis pour chaque plateforme :
-
macOS/Linux :
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
-
Windows :
$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve
Installation avec pip
Pour les utilisateurs installant Open WebUI avec le gestionnaire de paquets Python pip
, il est fortement recommandé d'utiliser des gestionnaires d'exécution Python comme uv
ou conda
. Ces outils permettent de gérer les environnements Python efficacement et évitent les conflits.
Python 3.11 est l'environnement de développement. Python 3.12 semble fonctionner mais n'a pas été testé en profondeur. Python 3.13 est entièrement non testé—utilisez à vos propres risques.
-
Installer Open WebUI :
Ouvrez votre terminal et exécutez la commande suivante :
pip install open-webui
-
Lancer Open WebUI :
Une fois installé, démarrez le serveur en utilisant :
open-webui serve
Mise à jour d'Open WebUI
Pour mettre à jour vers la dernière version, exécutez simplement :
pip install --upgrade open-webui
Cette méthode installe toutes les dépendances nécessaires et démarre Open WebUI, permettant une configuration simple et efficace. Après l'installation, vous pouvez accéder à Open WebUI à l'adresse http://localhost:8080. Profitez-en ! 😄
Autres méthodes d'installation
Nous proposons diverses alternatives d'installation, y compris des méthodes d'installation natives sans Docker, Docker Compose, Kustomize, et Helm. Consultez notre Documentation Open WebUI ou rejoignez notre communauté Discord pour des conseils complets.
Continuez avec le guide complet pour commencer.
Sponsors 🙌
Nous sommes extrêmement reconnaissants pour le soutien généreux de nos sponsors. Leurs contributions nous aident à maintenir et améliorer notre projet, nous permettant de continuer à offrir un travail de qualité à notre communauté. Merci !
Remerciements 🙏
Nous sommes profondément reconnaissants pour le soutien généreux sous forme de subventions fourni par :