📄️ 🐋 Execute DeepSeek R1 Dynamic 1.58-bit com Llama.cpp
Um grande agradecimento ao UnslothAI por seus incríveis esforços! Graças ao seu trabalho árduo, agora podemos executar o modelo completo DeepSeek-R1 com 671 bilhões de parâmetros em sua forma quantizada dinâmica de 1,58 bits (comprimido para apenas 131 GB) no Llama.cpp! E o melhor de tudo? Você não precisa mais se preocupar em precisar de GPUs ou servidores corporativos robustos — é possível executar este modelo em sua máquina pessoal (embora lentamente na maioria do hardware de consumo).
📄️ 🖥️ Configuração Local de LLM com IPEX-LLM na GPU Intel
Este tutorial é uma contribuição da comunidade e não é suportado pela equipe Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para seu caso de uso específico. Deseja contribuir? Confira o tutorial de contribuição.
📄️ ⚛️ Continue.dev VSCode Extension com Open WebUI
Este tutorial é uma contribuição da comunidade e não é apoiado pela equipe do Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para seu caso de uso específico. Quer contribuir? Confira o tutorial de contribuição.
📄️ 🛃 Configuração com Loja CA Personalizada
Este tutorial é uma contribuição da comunidade e não é suportado pela equipe do Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para seu caso específico. Quer contribuir? Confira o tutorial de contribuição.
📄️ 🌐 Motor de Busca do Navegador
Este tutorial é uma contribuição da comunidade e não é apoiado pela equipe do Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para seu caso de uso específico. Quer contribuir? Confira o tutorial de contribuição.
📄️ 🕵🏻♀️ Monitore suas solicitações LLM com Helicone
Este tutorial é uma contribuição da comunidade e não é suportado pela equipe do Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para seu caso de uso específico. Quer contribuir? Confira o tutorial de contribuição.
📄️ 💥 Monitoramento e Depuração com Langfuse
Langfuse (GitHub) oferece observabilidade e avaliações de código aberto para Open WebUI. Ao ativar a integração com Langfuse, você pode rastrear os dados do seu aplicativo com Langfuse para desenvolver, monitorar e melhorar o uso do Open WebUI, incluindo:
📄️ 🔠 Integração do LibreTranslate
Este tutorial é uma contribuição da comunidade e não é apoiado pela equipe Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para casos de uso específicos. Quer contribuir? Confira o tutorial de contribuição.
📄️ 🔗 Suporte ao Websocket Redis
Este tutorial é uma contribuição da comunidade e não é suportado pela equipe do Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para seu caso de uso específico. Quer contribuir? Confira o tutorial de contribuição.
📄️ 🛌 Integrar com o Amazon Bedrock
Este tutorial é uma contribuição da comunidade e não é suportado pela equipe do Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para seu caso de uso específico. Quer contribuir? Confira o tutorial de contribuição.
📄️ 🔗 Integração Okta OIDC SSO
Este tutorial é uma contribuição da comunidade e não é suportado pela equipe do Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para seu caso de uso específico. Quer contribuir? Confira o tutorial de contribuição.
📄️ 🦊 Barra lateral do Chatbot de IA do Firefox
Este tutorial é uma contribuição da comunidade e não é suportado pela equipe do Open WebUI. Ele serve apenas como uma demonstração de como personalizar o Open WebUI para o seu caso de uso específico. Quer contribuir? Confira o tutorial de contribuição.