🚧 Problemas de Conectividad del Servidor
Estamos aquí para ayudarte a configurar todo y que funcione sin problemas. A continuación, encontrarás instrucciones paso a paso adaptadas para diferentes escenarios para resolver problemas comunes de conexión con Ollama y servidores externos como Hugging Face.
🌟 Conexión al Servidor Ollama
🚀 Accediendo a Ollama desde Open WebUI
¿Problemas para conectarte a Ollama desde Open WebUI? Podría ser porque Ollama no está escuchando en una interfaz de red que permita conexiones externas. Vamos a solucionarlo:
-
Configura Ollama para escuchar ampliamente 🎧: Establece
OLLAMA_HOST
en0.0.0.0
para que Ollama escuche en todas las interfaces de red. -
Actualiza las variables de entorno: Asegúrate de que
OLLAMA_HOST
esté configurado correctamente en tu entorno de implementación. -
Reinicia Ollama🔄: Es necesario un reinicio para que los cambios surtan efecto.
💡 Después de configurarlo, verifica que Ollama sea accesible visitando la interfaz WebUI.
Para obtener instrucciones más detalladas sobre cómo configurar Ollama, consulta la Documentación Oficial de Ollama.
🐳 Error de conexión con Docker
Si ves un error de conexión al intentar acceder a Ollama, podría ser porque el contenedor de Docker WebUI no puede comunicarse con el servidor Ollama que se ejecuta en tu host. Vamos a solucionarlo:
-
Ajusta la configuración de red 🛠️: Usa la bandera
--network=host
en tu comando Docker. Esto vincula tu contenedor directamente a la red de tu host. -
Cambia el puerto: Recuerda que el puerto interno cambia de 3000 a 8080.
Ejemplo de Comando Docker:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
🔗 Después de ejecutar el comando anterior, tu WebUI debería estar disponible en http://localhost:8080
.
🔒 Problema de Conexión SSL con Hugging Face
¿Has encontrado un error SSL? Podría ser un problema con el servidor de Hugging Face. Aquí tienes qué hacer:
-
Verifica el estado del servidor Hugging Face: Comprueba si hay un problema o interrupción conocida en su sistema.
-
Cambia de punto de conexión: Si Hugging Face está caído, cambia el punto de conexión en tu comando Docker.
Ejemplo de Comando Docker para problemas de conexión:
docker run -d -p 3000:8080 -e HF_ENDPOINT=https://hf-mirror.com/ --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
🍏 Podman en MacOS
¿Estás trabajando en MacOS con Podman? Aquí tienes cómo garantizar la conectividad:
-
Habilita el loopback del host: Usa
--network slirp4netns:allow_host_loopback=true
en tu comando. -
Establece OLLAMA_BASE_URL: Asegúrate de que apunte a
http://host.containers.internal:11434
.
Ejemplo de Comando Podman:
podman run -d --network slirp4netns:allow_host_loopback=true -p 3000:8080 -e OLLAMA_BASE_URL=http://host.containers.internal:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main