📄️ 🐋 Ejecutar DeepSeek R1 Dinámico 1.58-bit con Llama.cpp
¡Un enorme agradecimiento a UnslothAI por sus increíbles esfuerzos! Gracias a su arduo trabajo, ahora podemos ejecutar el modelo completo DeepSeek-R1 con 671 mil millones de parámetros en su forma dinámica de 1.58-bit cuantificada (comprimido a solo 131GB) en Llama.cpp. ¿La mejor parte? Ya no tienes que desesperarte por necesitar GPU de clase empresarial o servidores masivos: es posible ejecutar este modelo en tu máquina personal (aunque de manera lenta en la mayoría del hardware de consumo).
📄️ 🖥️ Configuración local de LLM con IPEX-LLM en GPU de Intel
Este tutorial es una contribución de la comunidad y no cuenta con el soporte del equipo de Open WebUI. Solo sirve como demostración de cómo personalizar Open WebUI para su caso de uso específico. ¿Quieres contribuir? Consulta el tutorial de contribución.
📄️ ⚛️ Continue.dev Extensión VSCode con Open WebUI
Este tutorial es una contribución de la comunidad y no está respaldado por el equipo de Open WebUI. Sirve solo como una demostración sobre cómo personalizar Open WebUI para tu caso de uso específico. ¿Quieres contribuir? Consulta el tutorial de contribución.
📄️ 🛃 Configuración con un almacén de CA personalizado
Este tutorial es una contribución de la comunidad y no está respaldado por el equipo de Open WebUI. Sirve solo como una demostración de cómo personalizar Open WebUI para su caso de uso específico. ¿Quieres contribuir? Consulta el tutorial de contribución.
📄️ 🌐 Motor de búsqueda del navegador
Este tutorial es una contribución de la comunidad y no está respaldado por el equipo de Open WebUI. Solo sirve como una demostración sobre cómo personalizar Open WebUI para tu caso de uso específico. ¿Quieres contribuir? Consulta el tutorial de contribución.
📄️ 🕵🏻♀️ Monitorea tus solicitudes LLM con Helicone
Este tutorial es una contribución de la comunidad y no está respaldado por el equipo de Open WebUI. Solo sirve como una demostración de cómo personalizar Open WebUI para tu caso de uso específico. ¿Quieres contribuir? Revisa el tutorial para colaboradores.
📄️ 💥 Monitoreo y Depuración con Langfuse
Langfuse (GitHub) ofrece observabilidad y evaluaciones de código abierto para Open WebUI. Al habilitar la integración con Langfuse, puedes rastrear los datos de tu aplicación con Langfuse para desarrollar, monitorear y mejorar el uso de Open WebUI, incluyendo:
📄️ 🔠 Integración de LibreTranslate
Este tutorial es una contribución comunitaria y no está respaldado por el equipo de Open WebUI. Solo sirve como una demostración de cómo personalizar Open WebUI para su caso de uso específico. ¿Quieres contribuir? Revisa el tutorial de contribución.