Saltar al contenido principal

Integración de Langfuse con Open WebUI

Langfuse (GitHub) ofrece observabilidad y evaluaciones de código abierto para Open WebUI. Al habilitar la integración con Langfuse, puedes rastrear los datos de tu aplicación con Langfuse para desarrollar, monitorear y mejorar el uso de Open WebUI, incluyendo:

  • Trazas de la aplicación
  • Patrones de uso
  • Datos de costos por usuario y modelo
  • Reproducción de sesiones para depurar problemas
  • Evaluaciones

Cómo integrar Langfuse con Open WebUI

Integración de Langfuse Pasos de integración de Langfuse

Pipelines en Open WebUI es un marco independiente de interfaz de usuario para plugins de la API de OpenAI. Permite la inyección de plugins que interceptan, procesan y reenvían solicitudes de usuario al LLM final, permitiendo un control y personalización mejorados del manejo de solicitudes.

Para rastrear los datos de tu aplicación con Langfuse, puedes usar el pipeline de Langfuse, que permite la monitorización y análisis en tiempo real de las interacciones de mensajes.

Guía Rápida

Paso 1: Configura Open WebUI

Asegúrate de tener Open WebUI en funcionamiento. Para hacerlo, revisa la documentación de Open WebUI.

Paso 2: Configura Pipelines

Inicia Pipelines utilizando Docker. Usa el siguiente comando para iniciar Pipelines:

docker run -p 9099:9099 --add-host=host.docker.internal:host-gateway -v pipelines:/app/pipelines --name pipelines --restart always ghcr.io/open-webui/pipelines:main

Paso 3: Conecta Open WebUI con Pipelines

En los Admin Settings, crea y guarda una nueva conexión de tipo API de OpenAI con los siguientes detalles:

  • URL:http://host.docker.internal:9099 (aquí es donde está ejecutándose el contenedor Docker lanzado anteriormente).
  • Password: 0p3n-w3bu! (contraseña estándar)

Configuración de Open WebUI

Paso 4: Agregar el Pipeline del Filtro de Langfuse

A continuación, dirígete a Admin Settings -> Pipelines y agrega el Pipeline del Filtro de Langfuse. Especifica que Pipelines está escuchando enhttp://host.docker.internal:9099 (como fue configurado previamente) e instala el Pipeline del Filtro de Langfuse usando la opción Install from Github URL con la siguiente URL:

https://github.com/open-webui/pipelines/blob/main/examples/filters/langfuse_filter_pipeline.py

Ahora, ingresa tus claves API de Langfuse a continuación. Si aún no te has registrado en Langfuse, puedes obtener tus claves API creando una cuenta aquí.

Agregar Pipeline de Langfuse en Open WebUI

Nota: Para capturar el uso (conteo de tokens) de los modelos de OpenAI mientras la transmisión está habilitada, debes ir a la configuración del modelo en Open WebUI y marcar la casilla "Usage" aquí bajo Capabilities.

Paso 5: Visualiza tus trazas en Langfuse

Ahora puedes interactuar con tu aplicación Open WebUI y ver las trazas en Langfuse.

Traza de ejemplo en la interfaz de Langfuse:

Traza de ejemplo de Open WebUI en Langfuse

Aprende más

Para una guía completa sobre Open WebUI Pipelines, visita este artículo.