Перейти к основному содержимому

🚧 Проблемы с подключением к серверу

Мы здесь, чтобы помочь вам настроить все и обеспечить бесперебойную работу. Ниже вы найдете пошаговые инструкции, адаптированные для разных сценариев, чтобы решить общие проблемы подключения к Ollama и внешним серверам, таким как Hugging Face.

🌟 Подключение к серверу Ollama

🚀 Доступ к Ollama через Open WebUI

Испытываете трудности с подключением к Ollama через Open WebUI? Возможно, проблема в том, что Ollama не слушает сетевой интерфейс, который позволяет внешние подключения. Давайте исправим это:

  1. Настройка Ollama на широкое прослушивание 🎧: Установите OLLAMA_HOST в 0.0.0.0, чтобы Ollama мог слушать все сетевые интерфейсы.

  2. Обновление переменных окружения: Убедитесь, что OLLAMA_HOST корректно установлен в вашей среде развертывания.

  3. Перезапуск Ollama🔄: Перезапустите сервер, чтобы внесенные изменения вступили в силу.

💡 После настройки, убедитесь, что Ollama доступен, посетив интерфейс WebUI.

Подробные инструкции по настройке Ollama можно найти в официальной документации Ollama.

🐳 Ошибка подключения Docker

Если вы видите ошибку подключения при попытке получить доступ к Ollama, возможно, контейнер WebUI Docker не может связаться с сервером Ollama, работающим на вашем хосте. Давайте это исправим:

  1. Настройка сетевых параметров 🛠️: Используйте флаг --network=host в вашей команде Docker. Это напрямую связывает ваш контейнер с сетью хоста.

  2. Изменение порта: Учтите, что внутренний порт изменяется с 3000 на 8080.

Пример команды Docker:

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🔗 После выполнения вышеуказанного, ваш интерфейс WebUI должен быть доступен по адресу http://localhost:8080.

🔒 Проблема с подключением по SSL к Hugging Face

Возникла ошибка SSL? Возможно, проблема на сервере Hugging Face. Вот что нужно сделать:

  1. Проверить состояние сервера Hugging Face: Убедитесь, что нет известных отключений или проблем с их стороны.

  2. Смена конечной точки: Если Hugging Face недоступен, измените конечную точку в вашей команде Docker.

Пример команды Docker для проблем с подключением:

docker run -d -p 3000:8080 -e HF_ENDPOINT=https://hf-mirror.com/ --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🍏 Podman на MacOS

Работа на MacOS с Podman? Вот как обеспечить подключение:

  1. Разрешение обратного loopback хоста: Используйте --network slirp4netns:allow_host_loopback=true в вашей команде.

  2. Установите OLLAMA_BASE_URL: Убедитесь, что он указывает на http://host.containers.internal:11434.

Пример команды Podman:

podman run -d --network slirp4netns:allow_host_loopback=true -p 3000:8080 -e OLLAMA_BASE_URL=http://host.containers.internal:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main