🕸️ Diagramas de Rede
Aqui, fornecemos diagramas claros e estruturados para ajudá-lo a entender como diversos componentes da rede interagem em diferentes configurações. Esta documentação foi criada para usuários de macOS/Windows e Linux. Cada cenário é ilustrado usando diagramas Mermaid para mostrar como as interações são configuradas dependendo das diferentes configurações de sistema e estratégias de implantação.
Opções de Configuração no Mac OS/Windows 🖥️
Ollama no Host, Open WebUI no Container
Neste cenário, Ollama é executado diretamente na máquina host, enquanto Open WebUI opera dentro de um container Docker.
Ollama e Open WebUI em Pilha Compose
Ambos Ollama e Open WebUI são configurados dentro da mesma pilha Docker Compose, simplificando as comunicações de rede.
Ollama e Open WebUI, Redes Separadas
Aqui, Ollama e Open WebUI são implantados em redes Docker separadas, potencialmente levando a problemas de conectividade.
Open WebUI na Rede do Host
Nesta configuração, Open WebUI utiliza a rede do host, o que impacta sua capacidade de conectar em determinados ambientes.
Opções de Configuração no Linux 🐧
Ollama no Host, Open WebUI no Container (Linux)
Este diagrama é específico para a plataforma Linux, com Ollama executando no host e Open WebUI implantado dentro de um container Docker.
Ollama e Open WebUI em Pilha Compose (Linux)
Uma configuração onde Ollama e Open WebUI residem na mesma pilha Docker Compose, permitindo uma rede simplificada no Linux.
Ollama e Open WebUI, Redes Separadas (Linux)
Um cenário no qual Ollama e Open WebUI estão em redes Docker diferentes em um ambiente Linux, o que pode dificultar a conectividade.
Open WebUI na Rede Host, Ollama no Host (Linux)
Uma configuração ideal onde tanto o Open WebUI quanto o Ollama utilizam a rede do host, facilitando uma interação perfeita em sistemas Linux.
Cada configuração aborda diferentes estratégias de implantação e configurações de rede para ajudá-lo a escolher a melhor opção para suas necessidades.