Aller au contenu principal

Intégration de Langfuse avec Open WebUI

Langfuse (GitHub) offre une observabilité et des évaluations open source pour Open WebUI. En activant l'intégration Langfuse, vous pouvez tracer les données de votre application avec Langfuse pour développer, surveiller et améliorer l'utilisation d'Open WebUI, y compris :

  • Traces de l'application
  • Modèles d'utilisation
  • Données de coût par utilisateur et modèle
  • Sessions de relecture pour déboguer les problèmes
  • Évaluations

Comment intégrer Langfuse avec Open WebUI

Intégration Langfuse Étapes d'intégration de Langfuse

Pipelines dans Open WebUI est un cadre agnostique de l'interface utilisateur pour les plugins OpenAI API. Il permet l'injection de plugins qui interceptent, traitent et transmettent les invites des utilisateurs au modèle linguistique final, offrant un contrôle et une personnalisation renforcés de la gestion des invites.

Pour tracer vos données d'application avec Langfuse, vous pouvez utiliser le pipeline Langfuse, qui permet une surveillance et une analyse en temps réel des interactions de messages.

Guide de démarrage rapide

Étape 1 : Configuration d'Open WebUI

Assurez-vous qu'Open WebUI est en cours d'exécution. Pour ce faire, consultez la documentation Open WebUI.

Étape 2 : Configuration des Pipelines

Lancez Pipelines en utilisant Docker. Utilisez la commande suivante pour démarrer les Pipelines :

docker run -p 9099:9099 --add-host=host.docker.internal:host-gateway -v pipelines:/app/pipelines --name pipelines --restart always ghcr.io/open-webui/pipelines:main

Étape 3 : Connecter Open WebUI aux Pipelines

Dans les Paramètres Administratifs, créez et enregistrez une nouvelle connexion de type API OpenAI avec les détails suivants :

  • URL :http://host.docker.internal:9099 (c'est là que le conteneur Docker lancé précédemment s'exécute).
  • Mot de passe : 0p3n-w3bu! (mot de passe standard)

Paramètres Open WebUI

Étape 4 : Ajouter le pipeline de filtre Langfuse

Ensuite, dans les Paramètres Administratifs -> Pipelines, ajoutez le pipeline de filtre Langfuse. Spécifiez que Pipelines écoute surhttp://host.docker.internal:9099 (comme configuré précédemment) et installez le pipeline de filtre Langfuse en utilisant l'option Install from Github URL avec l'URL suivante :

https://github.com/open-webui/pipelines/blob/main/examples/filters/langfuse_filter_pipeline.py

Ajoutez ensuite vos clés API Langfuse ci-dessous. Si vous ne vous êtes pas encore inscrit à Langfuse, vous pouvez obtenir vos clés API en créant un compte ici.

Ajouter le Pipeline Langfuse dans Open WebUI

Note : Pour capturer l'utilisation (décompte de tokens) des modèles OpenAI tout en activant le streaming, vous devez naviguer vers les paramètres du modèle dans Open WebUI et cocher la case "Usage" ci-dessous Capacités.

Étape 5 : Voir vos traces dans Langfuse

Vous pouvez maintenant interagir avec votre application Open WebUI et voir les traces dans Langfuse.

Exemple de trace dans l'interface Langfuse :

Exemple de Trace Open WebUI dans Langfuse

En savoir plus

Pour un guide complet sur les Pipelines Open WebUI, consultez ce post.