Saltar al contenido principal

Open WebUI

Open WebUI es una plataforma de IA autoalojada extensible, rica en características y fácil de usar diseñada para operar completamente sin conexión. Admite varios ejecutores de LLM como Ollama y APIs compatibles con OpenAI, con motor de inferencia incorporado para RAG, lo que la convierte en una potente solución de despliegue de IA.

Estrellas de GitHub Forks de GitHub Observadores de GitHub Tamaño del repositorio en GitHub Número de lenguajes en GitHub Lenguaje principal en GitHub Último commit en GitHub Hits Discord

Demostración de Open WebUI

tip

¿Buscas un Plan Empresarial?¡Habla con nuestro equipo de ventas hoy!

Obtén capacidades mejoradas, incluyendo temas personalizados y branding, soporte de Acuerdo de Nivel de Servicio (SLA), versiones de Soporte a Largo Plazo (LTS) y ¡más!

Sponsored by n8n
n8n
Does your interface have a backend yet? Try n8n

Inicio rápido con Docker 🐳

info

El soporte para WebSocket es necesario para que Open WebUI funcione correctamente. Asegúrate de que tu configuración de red permita conexiones WebSocket.

Si Ollama está en tu computadora, utiliza este comando:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Para ejecutar Open WebUI con soporte para GPU Nvidia, utiliza este comando:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

Open WebUI incluido con Ollama

Este método de instalación utiliza una imagen de contenedor única que incluye Open WebUI con Ollama, permitiendo una configuración simplificada mediante un único comando. Elige el comando apropiado según tu configuración de hardware:

  • Con soporte para GPU: Utiliza recursos de GPU ejecutando el siguiente comando:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • Solo para CPU: Si no estás utilizando una GPU, utiliza este comando en su lugar:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

Ambos comandos facilitan una instalación integrada y sin complicaciones de Open WebUI y Ollama, garantizando que todo esté funcionando rápidamente.

Después de la instalación, puedes acceder a Open WebUI en http://localhost:3000. ¡Disfrútalo! 😄

Usando la rama de desarrollo 🌙

aviso

La rama :dev contiene las últimas características inestables y cambios. Úsala bajo tu propio riesgo ya que puede tener errores o características incompletas.

Si deseas probar las últimas características de vanguardia y no te importa la inestabilidad ocasional, puedes usar la etiqueta :dev así:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev

Actualizando Open WebUI

Para actualizar fácilmente el contenedor Open WebUI, sigue estos pasos:

Actualización manual

Usa Watchtower para actualizar manualmente tu contenedor Docker:

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

Actualizaciones automáticas

Mantén tu contenedor actualizado automáticamente cada 5 minutos:

docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui

🔧 Nota: Sustituye open-webui por el nombre de tu contenedor si es diferente.

Instalación manual

Hay dos maneras principales de instalar y ejecutar Open WebUI: usando el administrador de runtime uv o el pip de Python. Aunque ambos métodos son efectivos, recomendamos encarecidamente usar uv ya que simplifica la gestión del entorno y minimiza posibles conflictos.

Instalación con uv (Recomendada)

El administrador de runtime uv garantiza una gestión impecable del entorno de Python para aplicaciones como Open WebUI. Sigue estos pasos para comenzar:

1. Instalar uv

Elige el comando de instalación adecuado para tu sistema operativo:

  • macOS/Linux:

    curl -LsSf https://astral.sh/uv/install.sh | sh
  • Windows:

    powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. Ejecutar Open WebUI

Una vez que uv esté instalado, ejecutar Open WebUI es muy sencillo. Usa el comando de abajo, asegurándote de configurar la variable de entorno DATA_DIR para evitar la pérdida de datos. Se proporcionan ejemplos de rutas para cada plataforma:

  • macOS/Linux:

    DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
  • Windows:

    $env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

Instalación con pip

Para los usuarios que instalen Open WebUI con el administrador de paquetes pip de Python, se recomienda encarecidamente usar administradores de runtime de Python como uv o conda. Estas herramientas ayudan a gestionar los entornos de Python de manera efectiva y a evitar conflictos.

Python 3.11 es el entorno de desarrollo. Python 3.12 parece funcionar pero no ha sido probado exhaustivamente. Python 3.13 está completamente sin probar—úsalo bajo tu propia responsabilidad.

  1. Instalar Open WebUI:

    Abre tu terminal y ejecuta el siguiente comando:

    pip install open-webui
  2. Iniciar Open WebUI:

    Una vez instalado, inicia el servidor usando:

    open-webui serve

Actualización de Open WebUI

Para actualizar a la última versión, simplemente ejecuta:

pip install --upgrade open-webui

Este método instala todas las dependencias necesarias y comienza Open WebUI, permitiendo una configuración simple y eficiente. Después de la instalación, puedes acceder a Open WebUI en http://localhost:8080. ¡Disfruta! 😄

Otros métodos de instalación

Ofrecemos diversas alternativas de instalación, incluidas formas de instalación nativas sin Docker, Docker Compose, Kustomize y Helm. Visita nuestra Documentación de Open WebUI o únete a nuestra comunidad en Discord para obtener orientación completa.

Continúa con la guía completa de inicio.

Patrocinadores 🙌

Estamos increíblemente agradecidos por el generoso apoyo de nuestros patrocinadores. Sus contribuciones nos ayudan a mantener y mejorar nuestro proyecto, asegurando que podamos seguir entregando trabajo de calidad a nuestra comunidad. ¡Gracias!

Reconocimientos 🙏

Estamos profundamente agradecidos por el generoso apoyo de las becas otorgadas por:

MozillaMozilla Builders 2024

GitHubGitHub Accelerator 2024