Pular para o conteúdo principal

Open WebUI

Open WebUI é uma plataforma de IA auto-hospedada extensível, rica em recursos e fácil de usar, projetada para operar completamente offline. Ela suporta vários runners de LLM como Ollama e APIs compatíveis com OpenAI, com motor de inferência integrado para RAG, tornando-se uma solução poderosa para implantação de IA.

Estrelas no GitHub Forks no GitHub Observadores no GitHub Tamanho do repositório no GitHub Contagem de linguagens no GitHub Linguagem principal no GitHub Último commit no GitHub Hits Discord

Demo do Open WebUI

dica

Está procurando por um Plano Empresarial?Fale com nosso time de vendas hoje!

Obtenha capacidades aprimoradas, incluindo temas e branding personalizados, suporte com Acordo de Nível de Serviço (SLA), versões com Suporte de Longo Prazo (LTS) e mais!

Sponsored by n8n
n8n
Does your interface have a backend yet? Try n8n

Começo Rápido com Docker 🐳

info

Suporte a WebSocket é necessário para o funcionamento correto do Open WebUI. Certifique-se de que sua configuração de rede permite conexões WebSocket.

Se o Ollama está no seu computador, use este comando:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Para executar Open WebUI com suporte a GPU Nvidia, use este comando:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

Open WebUI Integrado com Ollama

Este método de instalação utiliza uma única imagem de container que integra Open WebUI com Ollama, permitindo uma configuração simplificada via um único comando. Escolha o comando apropriado com base na configuração de hardware:

  • Com Suporte à GPU: Utilize recursos de GPU executando o comando a seguir:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • Somente CPU: Caso não esteja usando uma GPU, utilize este comando:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

Ambos os comandos facilitam uma instalação integrada e sem complicações do Open WebUI e Ollama, garantindo que você possa configurar tudo rapidamente.

Após a instalação, você pode acessar o Open WebUI em http://localhost:3000. Aproveite! 😄

Usando a Branch de Desenvolvimento 🌙

atenção

A branch :dev contém os recursos mais recentes e instáveis. Use-a por sua conta e risco, pois pode ocorrer bugs ou recursos incompletos.

Se você deseja experimentar os recursos de ponta mais recentes e está bem com instabilidade ocasional, pode usar a tag :dev como esta:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev

Atualizando Open WebUI

Para atualizar facilmente o container do Open WebUI, siga estes passos:

Atualização Manual

Use Watchtower para atualizar seu container Docker manualmente:

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

Atualizações Automáticas

Mantenha seu container atualizado automaticamente a cada 5 minutos:

docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui

🔧 Nota: Substitua open-webui pelo nome do seu container se for diferente.

Instalação Manual

Existem duas maneiras principais de instalar e executar o Open WebUI: usando o gerenciador de runtime uv ou o pip do Python. Embora ambos os métodos sejam eficazes, recomendamos fortemente o uso do uv, pois ele simplifica o gerenciamento do ambiente e minimiza possíveis conflitos.

Instalação com uv (Recomendada)

O gerenciador de runtime uv garante um gerenciamento contínuo do ambiente Python para aplicativos como o Open WebUI. Siga estes passos para começar:

1. Instale o uv

Escolha o comando de instalação apropriado para seu sistema operacional:

  • macOS/Linux:

    curl -LsSf https://astral.sh/uv/install.sh | sh
  • Windows:

    powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. Execute o Open WebUI

Após instalar o uv, executar o Open WebUI é muito simples. Use o comando abaixo, garantindo que você configure a variável de ambiente DATA_DIR para evitar perda de dados. Caminhos de exemplo são fornecidos para cada plataforma:

  • macOS/Linux:

    DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
  • Windows:

    $env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

Instalação com pip

Para os usuários que instalam o Open WebUI com o gerenciador de pacotes do Python, o pip, é fortemente recomendado usar gerenciadores de runtime do Python como uv ou conda. Essas ferramentas ajudam a gerenciar ambientes Python de forma eficaz e a evitar conflitos.

O Python 3.11 é o ambiente de desenvolvimento. O Python 3.12 parece funcionar, mas não foi testado profundamente. O Python 3.13 não foi testado—use por sua conta e risco.

  1. Instale o Open WebUI:

    Abra seu terminal e execute o seguinte comando:

    pip install open-webui
  2. Inicie o Open WebUI:

    Uma vez instalado, inicie o servidor usando:

    open-webui serve

Atualizando o Open WebUI

Para atualizar para a versão mais recente, basta executar:

pip install --upgrade open-webui

Este método instala todas as dependências necessárias e inicia o Open WebUI, permitindo uma configuração simples e eficiente. Após a instalação, você pode acessar o Open WebUI em http://localhost:8080. Aproveite! 😄

Outros Métodos de Instalação

Oferecemos várias alternativas de instalação, incluindo métodos de instalação nativa sem Docker, Docker Compose, Kustomize e Helm. Visite nossa Documentação do Open WebUI ou junte-se à nossa comunidade no Discord para orientações abrangentes.

Continue com o guia completo de introdução.

Patrocinadores 🙌

Somos extremamente gratos pelo apoio generoso de nossos patrocinadores. Suas contribuições nos ajudam a manter e melhorar nosso projeto, garantindo que possamos continuar a oferecer um trabalho de qualidade à nossa comunidade. Obrigado!

Agradecimentos 🙏

Somos profundamente gratos pelo apoio generoso de bolsas fornecido por:

MozillaConstrutores Mozilla 2024

GitHubAcelerador do GitHub 2024