Open WebUI
Open WebUI es una plataforma de IA autoalojada extensible, rica en características y fácil de usar diseñada para operar completamente sin conexión. Admite varios ejecutores de LLM como Ollama y APIs compatibles con OpenAI, con motor de inferencia incorporado para RAG, lo que la convierte en una potente solución de despliegue de IA.
¿Buscas un Plan Empresarial? – ¡Habla con nuestro equipo de ventas hoy!
Obtén capacidades mejoradas, incluyendo temas personalizados y branding, soporte de Acuerdo de Nivel de Servicio (SLA), versiones de Soporte a Largo Plazo (LTS) y ¡más!
Inicio rápido con Docker 🐳
El soporte para WebSocket es necesario para que Open WebUI funcione correctamente. Asegúrate de que tu configuración de red permita conexiones WebSocket.
Si Ollama está en tu computadora, utiliza este comando:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Para ejecutar Open WebUI con soporte para GPU Nvidia, utiliza este comando:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Open WebUI incluido con Ollama
Este método de instalación utiliza una imagen de contenedor única que incluye Open WebUI con Ollama, permitiendo una configuración simplificada mediante un único comando. Elige el comando apropiado según tu configuración de hardware:
-
Con soporte para GPU: Utiliza recursos de GPU ejecutando el siguiente comando:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
-
Solo para CPU: Si no estás utilizando una GPU, utiliza este comando en su lugar:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Ambos comandos facilitan una instalación integrada y sin complicaciones de Open WebUI y Ollama, garantizando que todo esté funcionando rápidamente.
Después de la instalación, puedes acceder a Open WebUI en http://localhost:3000. ¡Disfrútalo! 😄
Usando la rama de desarrollo 🌙
La rama :dev
contiene las últimas características inestables y cambios. Úsala bajo tu propio riesgo ya que puede tener errores o características incompletas.
Si deseas probar las últimas características de vanguardia y no te importa la inestabilidad ocasional, puedes usar la etiqueta :dev
así:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev
Actualizando Open WebUI
Para actualizar fácilmente el contenedor Open WebUI, sigue estos pasos:
Actualización manual
Usa Watchtower para actualizar manualmente tu contenedor Docker:
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
Actualizaciones automáticas
Mantén tu contenedor actualizado automáticamente cada 5 minutos:
docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui
🔧 Nota: Sustituye open-webui
por el nombre de tu contenedor si es diferente.
Instalación manual
Hay dos maneras principales de instalar y ejecutar Open WebUI: usando el administrador de runtime uv
o el pip
de Python. Aunque ambos métodos son efectivos, recomendamos encarecidamente usar uv
ya que simplifica la gestión del entorno y minimiza posibles conflictos.
Instalación con uv
(Recomendada)
El administrador de runtime uv
garantiza una gestión impecable del entorno de Python para aplicaciones como Open WebUI. Sigue estos pasos para comenzar:
1. Instalar uv
Elige el comando de instalación adecuado para tu sistema operativo:
-
macOS/Linux:
curl -LsSf https://astral.sh/uv/install.sh | sh
-
Windows:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
2. Ejecutar Open WebUI
Una vez que uv
esté instalado, ejecutar Open WebUI es muy sencillo. Usa el comando de abajo, asegurándote de configurar la variable de entorno DATA_DIR
para evitar la pérdida de datos. Se proporcionan ejemplos de rutas para cada plataforma:
-
macOS/Linux:
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
-
Windows:
$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve
Instalación con pip
Para los usuarios que instalen Open WebUI con el administrador de paquetes pip
de Python, se recomienda encarecidamente usar administradores de runtime de Python como uv
o conda
. Estas herramientas ayudan a gestionar los entornos de Python de manera efectiva y a evitar conflictos.
Python 3.11 es el entorno de desarrollo. Python 3.12 parece funcionar pero no ha sido probado exhaustivamente. Python 3.13 está completamente sin probar—úsalo bajo tu propia responsabilidad.
-
Instalar Open WebUI:
Abre tu terminal y ejecuta el siguiente comando:
pip install open-webui
-
Iniciar Open WebUI:
Una vez instalado, inicia el servidor usando:
open-webui serve
Actualización de Open WebUI
Para actualizar a la última versión, simplemente ejecuta:
pip install --upgrade open-webui
Este método instala todas las dependencias necesarias y comienza Open WebUI, permitiendo una configuración simple y eficiente. Después de la instalación, puedes acceder a Open WebUI en http://localhost:8080. ¡Disfruta! 😄
Otros métodos de instalación
Ofrecemos diversas alternativas de instalación, incluidas formas de instalación nativas sin Docker, Docker Compose, Kustomize y Helm. Visita nuestra Documentación de Open WebUI o únete a nuestra comunidad en Discord para obtener orientación completa.
Continúa con la guía completa de inicio.
Patrocinadores 🙌
Estamos increíblemente agradecidos por el generoso apoyo de nuestros patrocinadores. Sus contribuciones nos ayudan a mantener y mejorar nuestro proyecto, asegurando que podamos seguir entregando trabajo de calidad a nuestra comunidad. ¡Gracias!
Reconocimientos 🙏
Estamos profundamente agradecidos por el generoso apoyo de las becas otorgadas por: