⭐ Características
Características Clave de Open WebUI ⭐
-
🚀 Configuración Sin Esfuerzo: Instala fácilmente utilizando Docker, Kubernetes, Podman, Helm Charts (
kubectl
,kustomize
,podman
ohelm
) para una experiencia sin complicaciones con soporte para las imágenes:ollama
con Ollama integrado y:cuda
con soporte CUDA. -
🛠️ Configuración Inicial Guiada: Completa el proceso de configuración con claridad, incluyendo una indicación explícita para crear una cuenta de administrador durante la primera configuración.
-
🤝 Integración con OpenAI API: Integra fácilmente APIs compatibles con OpenAI para conversaciones versátiles junto con modelos Ollama. La URL de la API de OpenAI se puede personalizar para integrar Open WebUI sin problemas con diversas aplicaciones de terceros.
-
🛡️ Permisos Granulares y Grupos de Usuarios: Permite que los administradores creen roles de usuario detallados, grupos de usuarios y permisos en el espacio de trabajo, asegurando un entorno de usuario seguro para todos los involucrados. Esta granularidad no solo mejora la seguridad, sino que también permite experiencias personalizadas para los usuarios, fomentando un sentido de propiedad y responsabilidad entre ellos.
-
📱 Diseño Responsivo: Disfruta de una experiencia fluida en computadoras de escritorio, portátiles y dispositivos móviles.
-
📱 Aplicación Web Progresiva para Móvil: Disfruta de una experiencia nativa con una aplicación web progresiva en tu dispositivo móvil con acceso sin conexión en
localhost
o un dominio personal, y una interfaz de usuario sencilla. Para que nuestra PWA sea instalable en tu dispositivo, debe entregarse en un contexto seguro, lo cual generalmente significa que debe estar servida a través de HTTPS.info- Para configurar una PWA, necesitarás algunos conocimientos sobre tecnologías como Linux, Docker y proxies inversos como
Nginx
,Caddy
oTraefik
. Utilizar estas herramientas puede ayudar a simplificar el proceso de construcción y despliegue de una PWA adaptada a tus necesidades. Aunque no hay una opción de "instalación con un clic" disponible, y la opción disponible para desplegar de forma segura tu instancia de Open WebUI a través de HTTPS requiere experiencia del usuario, usar estos recursos puede facilitar la creación y el despliegue de una PWA adaptada a tus necesidades.
- Para configurar una PWA, necesitarás algunos conocimientos sobre tecnologías como Linux, Docker y proxies inversos como
-
✒️🔢 Soporte Completo de Markdown y LaTeX: Mejora tu experiencia con LLM con capacidades completas de Markdown, LaTeX y Texto Enriquecido para interacciones mejoradas.
-
🧩 Constructor de Modelos: Crea fácilmente modelos personalizados a partir de modelos base Ollama directamente desde Open WebUI. Crea y agrega personajes y agentes personalizados, personaliza elementos del modelo e importa modelos sin esfuerzo a través de la integración con Open WebUI Community.
-
📚 Integración Local y Remota de RAG: Descubre el futuro de las interacciones mediante chat y explora tus documentos con nuestra tecnología de Generación Aumentada por Recuperación (RAG) de vanguardia dentro de tus chats. Los documentos pueden cargarse en la pestaña
Documents
del espacio de trabajo, después de lo cual pueden accederse utilizando el símbolo de almohadilla [#
] antes de una consulta, o iniciando el mensaje con el símbolo de almohadilla [#
] seguido de una URL para integrar contenido de páginas web. -
📄 Extracción de Documentos: Extrae texto y datos de varios formatos de documentos, incluyendo PDFs, documentos de Word, hojas de cálculo de Excel, presentaciones de PowerPoint y más. Nuestras capacidades avanzadas de procesamiento de documentos permiten una integración fluida con tu base de conocimiento, permitiendo una recuperación y generación precisa de información de documentos complejos conservando su estructura y formato.
-
🔍 Búsqueda Web para RAG: Puedes realizar búsquedas web utilizando una selección de varios proveedores de búsqueda e inyectar los resultados directamente en tu experiencia local de Generación Aumentada por Recuperación (RAG).
-
🌐 Capacidades de Navegación Web: Integra sitios web sin problemas en tu experiencia de chat utilizando el comando
#
seguido por una URL. Esta función permite incorporar directamente contenido web en tus conversaciones, mejorando la riqueza y profundidad de tus interacciones. -
🎨 Integración de Generación de Imágenes: Incorpora sin problemas capacidades de generación de imágenes para enriquecer tu experiencia de chat con contenido visual dinámico.
-
⚙️ Utilización Concurrente de Modelos: Interactúa sin esfuerzo con múltiples modelos simultáneamente, aprovechando sus fortalezas únicas para obtener respuestas óptimas. Utiliza en paralelo un conjunto diverso de modalidades de modelos para mejorar tu experiencia.
-
🔐 Control de Acceso Basado en Roles (RBAC): Garantiza un acceso seguro con permisos restringidos. Solo personas autorizadas pueden acceder a tu Ollama, mientras que los derechos de creación y obtención de modelos están exclusivamente reservados para los administradores.
-
🌐🌍 Soporte Multilingüe: Experimenta Open WebUI en tu idioma preferido con nuestro soporte de internacionalización (
i18n
). ¡Te invitamos a unirte a nosotros para ampliar los idiomas soportados! ¡Estamos buscando activamente colaboradores! -
🌟 Actualizaciones Continuas: Estamos comprometidos a mejorar Open WebUI con actualizaciones regulares, correcciones y nuevas funciones.
Y muchas más características destacadas, incluyendo... ⚡️
🔧 Soporte para Pipelines
-
🔧 Marco de Trabajo Pipelines: Integra y personaliza tu experiencia Open WebUI sin problemas con nuestro marco de trabajo modular de plugins para mayor personalización y funcionalidad (https://github.com/open-webui/pipelines). Este marco permite agregar lógica personalizada e integrar bibliotecas de Python fácilmente, desde agentes de IA hasta APIs de automatización doméstica.
-
📥 Pipeline de Carga: Los pipelines pueden ser cargados directamente desde el menú
Panel de Administración
>Configuración
>Pipelines
, agilizando el proceso de gestión de pipelines.
Las posibilidades con nuestro marco de trabajo Pipelines no tienen límites y prácticamente son infinitas. ¡Empieza con algunos pipelines preconstruidos para ayudarte a comenzar!
-
🔗 Llamadas Funcionales: Integra Llamadas Funcionales sin problemas a través de Pipelines para mejorar tus interacciones con LLM con capacidades avanzadas de llamadas funcionales.
-
📚 RAG Personalizado: Integra un pipeline personalizado de Generación Aumentada por Recuperación (RAG) sin problemas para mejorar tus interacciones con LLM con lógica RAG personalizada.
-
📊 Monitoreo de Mensajes con Langfuse: Supervisa y analiza las interacciones de mensajes en las estadísticas de uso en tiempo real mediante el pipeline Langfuse.
-
⚖️ Limitación de Tasa para Usuarios: Gestiona el uso de API de manera eficiente controlando el flujo de solicitudes enviadas a LLM para evitar exceder los límites de tasa con el pipeline Rate Limit.
-
🌍 Traducción en Tiempo Real con LibreTranslate: Integra traducciones en tiempo real en tus interacciones con LLM usando el pipeline LibreTranslate, permitiendo comunicación entre idiomas.
- Tenga en cuenta que este pipeline requiere configuración adicional con LibreTranslate en un contenedor Docker para funcionar.
-
🛡️ Filtrado de Mensajes Tóxicos: Nuestro pipeline Detoxify filtra automáticamente los mensajes tóxicos para mantener un ambiente de chat limpio y seguro.
-
🔒 LLM-Guard: Garantiza interacciones seguras con LLM utilizando el pipeline LLM-Guard, que incluye un Escáner de Inyección de Prompts que detecta y mitiga manipulaciones astutas de entrada dirigidas a modelos de lenguaje grande. Esto protege tus LLM contra fugas de datos y añade una capa de resistencia contra ataques por inyección de prompts.
-
🕒 Límites de Turnos de Conversación: Mejora la gestión de interacciones estableciendo límites en los turnos de conversación con el pipeline Conversation Turn Limit.
-
📈 Estadísticas de Generación de OpenAI: Nuestro pipeline OpenAI proporciona estadísticas detalladas de generación para los modelos de OpenAI.
-
🚀 Soporte Multi-Modelo: Nuestra integración sin problemas con varios modelos de IA de distintos proveedores amplía tus posibilidades con una amplia gama de modelos de lenguaje para elegir e interactuar.
Además de las amplias características y opciones de personalización, también proporcionamos una biblioteca de pipelines de ejemplo listos para usar junto con un pipeline modelo práctico para ayudarte a comenzar. Estos recursos simplificarán tu proceso de desarrollo y te permitirán crear rápidamente interacciones potentes con LLM utilizando pipelines y Python. ¡Feliz programación! 💡
🖥️ Experiencia del Usuario
-
🖥️ Interfaz Intuitiva: La interfaz de chat ha sido diseñada con el usuario en mente, inspirada en la interfaz de usuario de ChatGPT.
-
⚡ Respuesta Rápida: Disfruta de un rendimiento confiable, rápido y receptivo.
-
🎨 Pantalla de Carga: Una pantalla de carga simple para una experiencia de usuario más fluida.
-
🌐 Interfaz Personalizada: Elige entre una página de aterrizaje de búsqueda recién diseñada y la interfaz de chat clásica en Configuración > Interfaz, permitiendo una experiencia personalizada.
-
📦 Método de instalación con Pip: La instalación de Open WebUI se puede realizar mediante el comando
pip install open-webui
, lo que agiliza el proceso y lo hace más accesible para nuevos usuarios. Para obtener más información, visite: https://pypi.org/project/open-webui/. -
🌈 Personalización de temas: Personaliza tu experiencia con Open WebUI con una variedad de opciones, incluyendo temas sólidos pero elegantes, imágenes de fondo personalizables para el chat y tres opciones de modos: Claro, Oscuro u Oscuro OLED, ¡o deja que Ella elija por ti! ;)
-
🖼️ Soporte para fondos personalizados: Configura un fondo personalizado desde Configuración > Interfaz para personalizar tu experiencia.
-
📝 Banners enriquecidos con Markdown: Crea anuncios visualmente atractivos con soporte para Markdown en los banners, permitiendo contenido más rico y dinámico.
-
💻 Resaltado de sintaxis de código: La función de resaltado de sintaxis mejora la legibilidad del código, ofreciendo una vista clara y concisa del mismo.
-
🗨️ Renderización en Markdown en mensajes de usuario: Los mensajes de usuario ahora se renderizan en Markdown, mejorando la legibilidad e interacción.
-
🎨 Opciones flexibles para texto: Alterna entre entrada de texto enriquecido y el área de texto tradicional para el chat, adaptándose a tus preferencias y ofreciendo una elección entre un formato avanzado y una entrada de texto más sencilla.
-
👆 Compartir código sin esfuerzo: Facilita el proceso de compartir y colaborar con opciones convenientes para copiar código, incluyendo un botón flotante para bloques de código y clic para copiar desde fragmentos, ahorrando tiempo y reduciendo la frustración.
-
🎨 Artefactos interactivos: Renderiza contenido web y archivos SVG directamente en la interfaz, permitiendo iteraciones rápidas y cambios en vivo para mayor creatividad y productividad.
-
🖊️ Edición de código en vivo: Los bloques de código supercargados permiten editar en vivo directamente en la respuesta del modelo LLM, con recargas en vivo soportadas por los artefactos, optimizando la codificación y las pruebas.
-
🔍 Interacción mejorada con SVG: Capacidades de desplazamiento y zoom para imágenes SVG, incluyendo diagramas de Mermaid, que permiten una exploración más profunda y comprensión de conceptos complejos.
-
🔍 Acciones rápidas al seleccionar texto: Aparecen botones flotantes cuando se resalta texto en las respuestas del modelo LLM, ofreciendo interacciones más profundas como "Hacer una pregunta" o "Explicar", mejorando la experiencia general del usuario.
-
↕️ Soporte de chat bidireccional: Cambia fácilmente entre direcciones de chat de izquierda a derecha y de derecha a izquierda para acomodar diversas preferencias de idioma.
-
📱 Accesibilidad móvil: La barra lateral se puede abrir y cerrar en dispositivos móviles con un simple gesto de deslizamiento.
-
🤳 Retroalimentación háptica en dispositivos compatibles: Los dispositivos Android admiten retroalimentación háptica para una experiencia táctil inmersiva durante ciertas interacciones.
-
🔍 Búsqueda en la configuración del usuario: Busca rápidamente campos de configuración, mejorando la facilidad de uso y navegación.
-
📜 Documentación Swagger sin conexión: Accede a documentación API Swagger amigable para desarrolladores sin conexión, asegurando accesibilidad completa dondequiera que estés.
-
💾 Optimización del rendimiento: La carga diferida de dependencias grandes minimiza el uso inicial de memoria, mejorando el rendimiento y reduciendo los tiempos de carga.
-
🚀 Configuración persistente y escalable: Las configuraciones de Open WebUI se almacenan en una base de datos (webui.db), lo que permite una configuración equilibrada, alta disponibilidad y ajustes persistentes en varias instancias, facilitando el acceso y la reutilización de tus configuraciones.
-
🔄 Importación/Exportación portátil: Importa y exporta configuraciones de Open WebUI fácilmente, simplificando el proceso de replicar configuraciones en varios sistemas.
-
❓ Acceso rápido a documentación y atajos: El botón de signo de interrogación ubicado en la esquina inferior derecha de la pantalla principal de la interfaz (disponible en pantallas más grandes como PC de escritorio y laptops) ofrece a los usuarios acceso fácil a la página de documentación de Open WebUI y a los atajos de teclado disponibles.
-
📜 Registro de cambios y verificación de actualizaciones: Los usuarios pueden acceder a un registro de cambios completo y verificar actualizaciones en el menú
Configuración
>Acerca de
>Ver novedades
, que brinda una visión rápida de las últimas características, mejoras y correcciones de errores, así como la posibilidad de buscar actualizaciones.
💬 Conversaciones
-
💬 Chat verdaderamente asincrónico: Disfruta de una multitarea sin interrupciones con soporte de chat verdaderamente asincrónico, permitiéndote crear chats, navegar fuera y regresar en cualquier momento con las respuestas listas.
-
🔔 Notificaciones de finalización de chat: Mantén tu actualización con notificaciones instantáneas dentro de la interfaz cuando un chat termine en una pestaña no activa, asegurando que nunca te pierdas una respuesta completada.
-
🌐 Integración de webhook para notificaciones: Recibe actualizaciones oportunas para chats de larga duración o necesidades de integración externa con notificaciones configurables por webhook, incluso cuando tu pestaña esté cerrada.
-
📚 Canales (Beta): Explora la colaboración en tiempo real entre usuarios y AIs con salas de chat estilo Discord/Slack, crea bots para canales y desbloquea comunicación asincrónica para flujos de trabajo proactivos de múltiples agentes.
-
🖊️ Indicadores de escritura en canales: Mejora la colaboración con indicadores de escritura en tiempo real en canales, manteniendo a todos comprometidos e informados.
-
👤 Indicadores de Estado de Usuario: Visualiza rápidamente el estado de un usuario al hacer clic en su imagen de perfil en los canales, proporcionando mejores insights de coordinación y disponibilidad.
-
💬 Controles de Charla: Ajusta fácilmente los parámetros para cada sesión de chat, ofreciendo un control más preciso sobre tus interacciones.
-
💖 Gestión de Respuestas Favoritas: Marca y organiza fácilmente tus respuestas favoritas directamente desde la vista general del chat, mejorando la facilidad de recuperación y acceso a respuestas preferidas.
-
📌 Chats Anclados: Soporte para chats anclados, lo que te permite mantener conversaciones importantes fácilmente accesibles.
-
🔍 Soporte de Embedding para RAG: Cambia el modelo de embedding de Recuperación Generativa Aumentada (RAG) directamente en el menú
Admin Panel
>Settings
>Documents
, mejorando el procesamiento de documentos. Esta característica es compatible con modelos de Ollama y OpenAI. -
📜 Citas en Funcionalidad RAG: La característica de Recuperación Generativa Aumentada (RAG) permite a los usuarios rastrear fácilmente el contexto de documentos proporcionados a los LLMs con citas añadidas como puntos de referencia.
-
🌟 Tubería de RAG Mejorada: Una subcaracterística de búsqueda híbrida conmutativa para nuestra funcionalidad de embedding de RAG que mejora la funcionalidad de RAG mediante
BM25
, con reordenamiento potenciado porCrossEncoder
, y umbrales configurables de puntuación de relevancia. -
📹 Tubería RAG de YouTube: La tubería dedicada de Recuperación Generativa Aumentada (RAG) para resumir videos de YouTube mediante URLs de video permite una interacción fluida con las transcripciones de video directamente.
-
📁 Recuperación Completa de Documentos: Alterna entre la recuperación completa de documentos y fragmentos tradicionales, permitiendo tareas completas como resúmenes y soportando capacidades mejoradas de documentos.
-
🌟 Relevancia de Citas en RAG: Evalúa fácilmente la precisión de las citas con la adición de porcentajes de relevancia en los resultados de RAG.
-
🗂️ RAG Avanzado: Mejora la precisión de RAG con un pre-procesamiento inteligente del historial de chats para determinar las mejores consultas antes de la recuperación.
-
📚 Citas Integradas para RAG: Benefíciate de citas integradas sin problemas para las respuestas de Recuperación Generativa Aumentada (RAG), mejorando la trazabilidad y proporcionando claridad de las fuentes para los archivos recién subidos.
-
📁 Manejo de Texto Extenso: Convierte opcionalmente texto extenso pegado en una carga de archivo que se pueda usar directamente con RAG, manteniendo la interfaz del chat más limpia.
-
🔄 Soporte Multi-Modal: Interactúa sin esfuerzo con modelos que admiten interacciones multi-modales, incluidas imágenes (por ejemplo,
LLaVA
). -
🤖 Soporte para Múltiples Modelos: Cambia rápidamente entre diferentes modelos para diversas interacciones de chat.
-
🔀 Fusionar Respuestas en Chat de Múltiples Modelos: Mejora el diálogo al fusionar respuestas de varios modelos en una sola respuesta coherente.
-
✅ Múltiples Instancias del Mismo Modelo en Chats: Mejora el chat de múltiples modelos para admitir la adición de múltiples instancias del mismo modelo.
-
💬 Función de Chat Temporal: Se introdujo una función de chat temporal, reemplazando la antigua configuración de historial de chat para mejorar la flexibilidad de la interacción del usuario.
-
🖋️ Edición de Mensajes de Usuario: Se mejoró la función de edición de chat de usuario para permitir guardar cambios sin enviarlos.
-
💬 Edición Eficiente de Conversaciones: Crea pares de mensajes nuevos rápida e intuitivamente usando el atajo Cmd/Ctrl+Shift+Enter, simplificando las pruebas de longitud de conversación.
-
🖼️ Compresión de Imágenes en Cliente: Ahorra ancho de banda y mejora el rendimiento con la compresión de imágenes en el cliente, permitiéndote comprimir imágenes antes de subirlas desde Configuración > Interfaz.
-
👥 Integración de Modelos con '@': Cambia fácilmente a cualquier modelo local o externo accesible durante las conversaciones, permitiendo a los usuarios aprovechar la inteligencia colectiva de múltiples modelos en un solo chat. Esto se puede hacer mediante el comando
@
para especificar el modelo por nombre dentro de un chat. -
🏷️ Etiquetado de Conversaciones: Categoriza y localiza conversaciones etiquetadas de forma sencilla para una referencia rápida y una recopilación de datos optimizada usando nuestro eficiente sistema de consultas
tag:
, que te permite gestionar, buscar y organizar tus conversaciones sin saturar la interfaz. -
🧠 Auto-Etiquetado: Las conversaciones pueden etiquetarse automáticamente de manera opcional para una mejor organización, imitando la eficiencia de los títulos generados automáticamente.
-
👶 Clonación de Chats: Clona y guarda fácilmente un snapshot de cualquier chat para referencia futura o continuación. Esta función facilita retomar donde lo dejaste o compartir tu sesión con otros. Para crear una copia de tu chat, simplemente haz clic en el botón
Clone
en las opciones del menú desplegable del chat. ¿Puedes seguirle la pista a tus clones? -
⭐ Flujos de Conversación Visualizados: Diagrama interactivo de mensajes para una mejor visualización de los flujos de conversación, mejorando la comprensión y la navegación de discusiones complejas.
-
📁 Carpetas de Chats: Organiza tus chats en carpetas, arrástralos y suéltalos para una gestión sencilla, y expórtalos sin problemas para compartirlos o analizarlos.
-
📤 Importación Fácil de Chats: Importa chats a tu espacio de trabajo simplemente arrastrando y soltando exportaciones de chats (JSON) en la barra lateral.
-
📜 Soporte para preajustes de indicación: Accede instantáneamente a indicaciones predefinidas personalizadas utilizando el comando
/
en el campo de entrada de chat. Carga iniciadores de conversación predefinidos sin esfuerzo y agiliza tus interacciones. Importa indicaciones fácilmente a través de la integración de Open WebUI Community o crea las tuyas propias. -
📅 Soporte para variables de indicación: Las variables de indicación como
{{CLIPBOARD}}
,{{CURRENT_DATE}}
,{{CURRENT_DATETIME}}
,{{CURRENT_TIME}}
,{{CURRENT_TIMEZONE}}
,{{CURRENT_WEEKDAY}}
,{{USER_NAME}}
,{{USER_LANGUAGE}}
y{{USER_LOCATION}}
pueden utilizarse en la indicación del sistema o mediante un comando de barra para seleccionar una indicación directamente dentro de un chat.- Ten en cuenta que la variable de indicación
{{USER_LOCATION}}
requiere una conexión segura mediante HTTPS. Para utilizar esta variable de indicación, asegúrate de que{{USER_LOCATION}}
esté activada en el menú deConfiguración
>Interfaz
. - Ten en cuenta que las variables de indicación
{{CLIPBOARD}}
requieren acceso al portapapeles de tu dispositivo.
- Ten en cuenta que la variable de indicación
-
🧠 Función de memoria: Añade manualmente información que desees que tus LLMs recuerden mediante el menú de
Configuración
>Personalización
>Memoria
. Las memorias pueden añadirse, editarse y eliminarse.
💻 Gestión de modelos
-
🛠️ Constructor de modelos: Todos los modelos pueden ser creados y editados con un modo persistente de constructor de modelos dentro de la página de edición de modelos.
-
📚 Soporte de conocimiento para modelos: Capacidad para adjuntar herramientas, funciones y colecciones de conocimiento directamente a los modelos desde la página de edición de un modelo, mejorando la información disponible para cada modelo.
-
🗂️ Preajustes de modelo: Crea y administra preajustes de modelo tanto para Ollama como para la API de OpenAI.
-
🏷️ Etiquetado de modelos: El espacio de trabajo de modelos permite a los usuarios organizar sus modelos mediante etiquetas.
-
📋 Ordenación en el menú desplegable de selección de modelos: Los modelos pueden organizarse fácilmente arrastrándolos y soltándolos en las posiciones deseadas dentro del espacio de trabajo de modelos, lo cual reflejará los cambios en el menú desplegable de modelos.
-
🔍 Menú desplegable de selección de modelos: Encuentra y selecciona tus modelos fácilmente usando búsqueda difusa e información detallada del modelo con etiquetas de modelo y descripciones de modelo.
-
⌨️ Selección de modelos con teclas de flecha: Usa las teclas de flecha para una selección más rápida de modelos, mejorando la accesibilidad.
-
🔧 Acciones rápidas en el espacio de trabajo de modelos: Mejora las acciones rápidas con la tecla Shift para ocultar/mostrar y eliminar modelos en el espacio de trabajo de modelos.
-
😄 Uso transparente del modelo: Mantente informado sobre el estado del sistema durante las consultas con modelos aumentados con conocimiento, gracias a las pantallas de estado visibles.
-
⚙️ Control refinado con parámetros avanzados: Obtén un nivel más profundo de control ajustando parámetros del modelo como
seed
,temperature
,frequency penalty
,context length
,seed
, y más. -
🔄 Integración fluida: Copia cualquier comando CLI
ollama run {model:tag}
directamente desde la página de un modelo en Ollama library y pégalo en el menú desplegable de modelos para seleccionar y cargar modelos fácilmente. -
🗂️ Crear archivo de modelo Ollama: Para crear un archivo de modelo para Ollama, navega al menú
Panel de administración
>Configuración
>Modelos
>Crear un modelo
. -
⬆️ Creación de modelo con archivo GGUF: Crea modelos de Ollama fácilmente subiendo archivos GGUF directamente desde Open WebUI en el menú
Configuración administrativa
>Configuración
>Modelo
>Experimental
. El proceso ha sido simplificado con la opción de subir desde tu máquina o descargar archivos GGUF desde Hugging Face. -
⚙️ Configuración de modelo por defecto: La preferencia de modelo por defecto para nuevos chats se puede establecer en el menú de
Configuración
>Interfaz
en dispositivos móviles, o más fácilmente en un nuevo chat bajo el menú desplegable de selección de modelo en PCs de escritorio y laptops. -
💡 Perspectivas sobre respuestas de LLM: Los detalles de cada respuesta generada pueden visualizarse, incluidos los datos de la API de modelos externos y la información completa del modelo local.
-
🕒 Detalles del modelo de un vistazo: Visualiza detalles críticos del modelo, incluyendo el hash del modelo y la última marca de tiempo de modificación, directamente en el espacio de trabajo de Modelos para mejorar el seguimiento y la gestión.
-
📥🗑️ Descargar/eliminar modelos: Los modelos pueden descargarse o eliminarse directamente desde Open WebUI con facilidad.
-
🔄 Actualizar todos los modelos de Ollama: Un botón conveniente permite a los usuarios actualizar todos sus modelos instalados localmente en una sola operación, simplificando la gestión de modelos.
-
🍻 Integración de tarjetas de personaje de TavernAI: Experimenta una narración visual mejorada con la integración de tarjetas de personaje de TavernAI en nuestro constructor de modelos. Los usuarios pueden incorporar tarjetas de personaje PNG de TavernAI directamente en sus archivos de modelo, creando una experiencia más inmersiva y atractiva.
-
🎲 Área de pruebas de modelo (Beta): Prueba modelos con el área de pruebas de modelo (
beta
), que permite a los usuarios probar y explorar las capacidades y parámetros de los modelos de forma sencilla en un entorno de prueba antes de implementarlos en un entorno de chat en vivo.
👥 Colaboración
-
🗨️ Compartir chats locales: Genera y comparte enlaces de chat entre usuarios de manera eficiente y sin complicaciones, mejorando así la colaboración y comunicación.
-
👍👎 Anotación RLHF: Mejora el impacto de tus mensajes calificándolos con un pulgar hacia arriba o hacia abajo y proporciona una calificación para la respuesta en una escala de 1 a 10, seguida de la opción de dar retroalimentación textual, facilitando la creación de conjuntos de datos para Aprendizaje por Refuerzo con Retroalimentación Humana (
RLHF
). Utiliza tus mensajes para entrenar o ajustar modelos, mientras aseguras la confidencialidad de los datos guardados localmente. -
🔧 Exportación Integral de Retroalimentación: Exporta datos de historial de retroalimentación a JSON para una integración fluida con el procesamiento de RLHF y análisis adicional, proporcionando valiosos insights para mejoras.
-
🤝 Compartir con la Comunidad: Comparte tus sesiones de chat con la Comunidad Open WebUI haciendo clic en el botón
Compartir con la Comunidad Open WebUI
. Esta función te permite interactuar con otros usuarios y colaborar en la plataforma.- Para utilizar esta función, inicia sesión en tu cuenta de la Comunidad Open WebUI. Compartir tus chats fomenta una comunidad vibrante, promueve el intercambio de conocimientos y facilita la resolución conjunta de problemas. Ten en cuenta que compartir sesiones de chat con la comunidad es una función opcional. Solo los administradores pueden activar o desactivar esta función en el menú
Configuración del Administrador
>Configuración
>General
.
- Para utilizar esta función, inicia sesión en tu cuenta de la Comunidad Open WebUI. Compartir tus chats fomenta una comunidad vibrante, promueve el intercambio de conocimientos y facilita la resolución conjunta de problemas. Ten en cuenta que compartir sesiones de chat con la comunidad es una función opcional. Solo los administradores pueden activar o desactivar esta función en el menú
-
🏆 Tabla de Clasificación Comunitaria: Compite y sigue tu rendimiento en tiempo real con nuestro sistema de clasificación, que utiliza el sistema de calificación ELO y permite el intercambio opcional de historial de retroalimentación.
-
⚔️ Arena de Evaluación de Modelos: Realiza test A/B a ciegas de los modelos directamente desde la Configuración de Administrador para una comparación verdadera lado a lado, facilitando la elección del mejor modelo para tus necesidades.
-
🎯 Clasificaciones Basadas en Temas: Descubre clasificaciones más precisas con nuestro sistema experimental de reordenamiento basado en temas, que ajusta las posiciones en la tabla según la similitud de etiquetas en la retroalimentación.
-
📂 Espacio de Trabajo Unificado y Colaborativo: Accede y administra todos tus archivos de modelos, indicaciones, documentos, herramientas y funciones en un solo lugar conveniente, permitiendo también que múltiples usuarios colaboren y contribuyan a modelos, conocimientos, indicaciones o herramientas, simplificando tu flujo de trabajo y mejorando el trabajo en equipo.
📚 Historial y Archivo
-
📜 Historial de Chats: Accede y administra tu historial de conversaciones fácilmente a través de la barra lateral de navegación del chat. Desactiva el historial de chats en el menú
Configuración
>Chats
para evitar que se cree historial de chat con nuevas interacciones. -
🔄 Acceso al Historial de Regeneración: Revive y explora fácilmente todo tu historial de regeneración de respuestas del LLM.
-
📬 Archivar Chats: Almacena sin esfuerzo conversaciones completadas que hayas tenido con modelos para futuras referencias o interacciones, manteniendo una interfaz de chat ordenada y sin desorden.
-
🗃️ Archivar Todos los Chats: Esta función te permite archivar rápidamente todos tus chats de una vez.
-
📦 Exportar Todos los Chats Archivados como JSON: Esta función permite a los usuarios exportar fácilmente todos sus chats archivados en un solo archivo JSON, que puede ser usado para propósitos de respaldo o transferencia.
-
📄 Descargar Chats como JSON/PDF/TXT: Descarga fácilmente tus chats de forma individual en tu formato preferido
.json
,.pdf
o.txt
. -
📤📥 Importar/Exportar Historial de Chats: Mueve tus datos de chats de manera fluida dentro y fuera de la plataforma usando las opciones
Importar Chats
yExportar Chats
. -
🗑️ Eliminar Todos los Chats: Esta opción te permite eliminar permanentemente todos tus chats, asegurando un nuevo comienzo.