Saltar al contenido principal
aviso

Este tutorial es una contribución de la comunidad y no está respaldado por el equipo de Open WebUI. Sirve solo como una demostración sobre cómo personalizar Open WebUI para tu caso de uso específico. ¿Quieres contribuir? Consulta el tutorial de contribución.

Integrando la Extensión Continue.dev VSCode con Open WebUI

Descargar Extensión

Puedes descargar la extensión VSCode aquí en el Visual Studio Marketplace

Una vez instalada, deberías tener ahora una pestaña "continue" en la barra lateral. Ábrela.

Haz clic en el selector de Asistente encima del campo principal de chat. Luego, pasa el ratón por encima de "Asistente Local" y deberías ver un icono de configuración (parece un engranaje).

Una vez que hagas clic en el icono de configuración, un archivo config.yaml debería abrirse en el editor.

Aquí podrás configurar Continue para usar Open WebUI.


Actualmente, el proveedor "ollama" no soporta autenticación, por lo que no podemos usar este proveedor con Open WebUI.

Sin embargo, Ollama y Open WebUI tienen compatibilidad con la especificación de API de OpenAI. Puedes ver una publicación del blog de Ollama aquí sobre esto.

Aún podemos configurar Continue para usar el proveedor 'openai', lo cual nos permitirá usar el token de autenticación de Open WebUI.


Configuración

En config.yaml, todo lo que necesitas hacer es agregar/cambiar las siguientes opciones.

Cambiar proveedor a openai

provider: openai

Agregar o actualizar apiBase

Establece esto a tu dominio de Open Web UI al final.

apiBase: http://localhost:3000/ # Si seguiste la guía de inicio rápido con Docker

Agregar apiKey

apiKey: sk-79970662256d425eb274fc4563d4525b # Reemplazar con tu clave API

Puedes encontrar y generar tu clave API en Open WebUI -> Configuración -> Cuenta -> Claves API

Deberás copiar la "Clave API" (esta comienza con sk-)

Configuración Ejemplo

Aquí tienes un ejemplo básico de config.yaml usando Open WebUI a través de un proveedor openai. Usando Granite Code como el modelo. Asegúrate de cargar el modelo en tus instancias de ollama previamente.

name: Asistente Local
version: 1.0.0
schema: v1
models:
- name: Granite Code
provider: openai
model: granite-code:latest
env:
useLegacyCompletionsEndpoint: false
apiBase: http://TUOPENWEBUI/ollama/v1
apiKey: sk-TU-CLAVE-API
roles:
- chat
- edit

- name: Modelo ABC de pipeline
provider: openai
model: PIPELINE_MODEL_ID
env:
useLegacyCompletionsEndpoint: false
apiBase: http://TUOPENWEBUI/api
apiKey: sk-TU-CLAVE-API
roles:
- chat
- edit

- name: Autocompletar Granite Code
provider: openai
model: granite-code:latest
env:
useLegacyCompletionsEndpoint: false
apiBase: http://localhost:3000/ollama/v1
apiKey: sk-TU-CLAVE-API
roles:
- autocomplete

prompts:
- name: prueba
description: Escribir tests unitarios para el código seleccionado
prompt: |
Escribe un conjunto completo de tests unitarios para el código seleccionado. Debería configurar, ejecutar tests que verifiquen la corrección incluyendo casos extremos importantes, y desmontar. Asegúrate de que los tests sean completos y sofisticados. Proporciona los tests solo como resultado del chat, no edites ningún archivo.

¡Guarda tu config.yaml y eso es todo!

Ahora deberías ver tu modelo en la selección de modelos de la pestaña Continue.

Selecciona tu modelo y ahora deberías estar chateando a través de Open WebUI (y/o cualquier pipeline que hayas configurado).

Puedes hacer esto para tantos modelos como desees usar. Aunque cualquier modelo debería funcionar, deberías usar un modelo que esté diseñado para código.

Consulta la documentación de Continue para una configuración adicional, Documentación de Continue