Перейти к основному содержимому

🔗 Integrations

📄️ 🐋 Запустите DeepSeek R1 Dynamic 1.58-bit с помощью Llama.cpp

Огромная благодарность UnslothAI за их невероятные усилия! Благодаря их упорной работе, мы теперь можем запустить полную модель DeepSeek-R1 с параметрами 671B в ее динамической 1.58-битной квантованной форме (сжатой до всего 131GB) на Llama.cpp! А самое лучшее? Вам больше не нужно расстраиваться из-за необходимости иметь огромные серверы или GPUs корпоративного класса — эту модель можно запустить на вашем персональном компьютере (хотя для большинства потребительского оборудования это будет медленно).

📄️ 🖥️ Настройка локальной LLM с IPEX-LLM на Intel GPU

Этот урок является вкладом сообщества и не поддерживается командой Open WebUI. Он предназначен только для демонстрации того, как настроить Open WebUI для вашего конкретного сценария использования. Хотите внести свой вклад? Ознакомьтесь с руководством по вкладу.

📄️ ⚛️ Расширение Continue.dev VSCode с Open WebUI

Этот учебник является вкладом сообщества и не поддерживается командой Open WebUI. Он служит только демонстрацией того, как настроить Open WebUI для конкретного случая использования. Хотите внести вклад? Ознакомьтесь с учебником по внесению изменений.

📄️ 🕵🏻‍♀️ Следите за запросами LLM с Helicone

Этот обучающий материал является вкладом сообщества и не поддерживается командой Open WebUI. Он служит только демонстрацией того, как настроить Open WebUI под ваши конкретные задачи. Хотите внести свой вклад? Ознакомьтесь с руководством по внесению изменений.

📄️ 💥 Мониторинг и отладка с Langfuse

Langfuse (GitHub) предлагает решения для наблюдаемости и оценки качества с открытым исходным кодом для Open WebUI. Включив интеграцию с Langfuse, вы можете отслеживать данные вашего приложения с помощью Langfuse для разработки, мониторинга и улучшения использования Open WebUI, включая: