⭐ Функции
Ключевые функции Open WebUI ⭐
-
🚀 Простая установка: Легкая установка с использованием Docker, Kubernetes, Podman, Helm Charts (
kubectl
,kustomize
,podman
илиhelm
) для беспроблемного запуска с поддержкой изображений:ollama
(включает Ollama) и:cuda
(с поддержкой CUDA). -
🛠️ Пошаговая начальная настройка: Завершите процесс настройки с ясно стью, включая явное указание на создание учетной записи администратора при первой настройке.
-
🤝 Интеграция OpenAI API: Легко интегрируйте API, совместимые с OpenAI, для универсальных взаимодействий с моделями Ollama. URL-адрес API OpenAI можно настроить для бесшовной интеграции Open WebUI с различными сторонними приложениями.
-
🛡️ Тонкие настройки доступа и группы пользователей: Администраторы могут создавать детализированные роли пользователей, группы пользователей и права доступа в рабочей области, обеспечивая безопасную среду для всех пользователей. Такой уровень детализации повышает безопасность, а также позволяет создавать персонализированный пользовательский опыт, обеспечивая чувство ответственности и вовлеченности.
-
📱 Адаптивный дизайн: Наслаждайтесь удобной работой на настольных ПК, ноутбуках и мобильных устройствах.
-
📱 Прогрессивное веб-приложение для мобильных устройств: Испытайте нативный функционал прогрессивного веб-приложения на вашем мобильном устройстве с возможностью работы в оффлайн-режиме на
localhost
или персональном домене и удобным интерфейсом. Чтобы наше PWA можно было установить на ваше устройство, оно должно быть поставлено в безопасном контексте, как правило, через HTTPS.к сведению- Для настройки PWA вам нужно будет некоторое понимание таких технологий, как Linux, Docker и обратные прокси-серверы, такие как
Nginx
,Caddy
илиTraefik
. Использование этих инструментов может упростить процесс создания и развертывания PWA под ваши задачи. Хотя "установки в один клик" нет, для безопасного развертывания вашей Open WebUI-инстанции через HTTPS требуется опыт пользователя, но с этими ресурсами это становится легче.
- Для настройки PWA вам нужно будет некоторое понимание таких технологий, как Linux, Docker и обратные прокси-серверы, такие как
-
✒️🔢 Полная поддержка Markdown и LaTeX: Улучшите ваш опыт работы с LLM, используя расширенные возможности Markdown, LaTeX и Rich Text для полного взаимодействия.
-
🧩 Конструктор моделей: Легко создавайте пользовательские модели на основе моделей Ollama прямо из Open WebUI. Создавайте и добавляйте индивидуальных персонажей и агентов, настраивайте элементы моделей и импортируйте их через интеграцию с Open WebUI Community.
-
📚 Локальная и удаленная интеграция RAG: Погрузитесь в будущее чатов и исследуйте свои документы с использованием нашей передовой технологии Retrieval Augmented Generation (RAG) в ваших беседах. Документы можно загрузить в вкладку
Documents
рабочей области, после чего они доступны через решетку [#
] перед запросом или началом с решетки [#
] и URL-адреса для интеграции содержимого веб-страницы. -
📄 Извлечение данных из документов: Извлекайте текст и данные из различных форматов документов, включая PDF, документы Word, таблицы Excel, презентации PowerPoint и многое другое. Наши передовые возможности обработки документов позволяют бесшовно интегрировать их в базу знаний, обеспечивая точное извлечение и генерацию информации из сложных документов при сохранении их структуры и форматирования.
-
🔍 Поиск в интернете для RAG: Выполняйте веб-поиск, испол ьзуя выбор различных поисковых провайдеров, и вставляйте результаты непосредственно в ваш локальный опыт работы с Retrieval Augmented Generation (RAG).
-
🌐 Возможности веб-серфинга: Интегрируйте веб-сайты непосредственно в ваш чат с помощью команды
#
и URL-адреса. Эта функция позволяет внедрять веб-контент прямо в ваши беседы, улучшая их насыщенность и глубину. -
🎨 Интеграция генерации изображений: Легко добавляйте возможности генерации изображений для обогащения чатов динамическим визуальным контентом.
-
⚙️ Одновременное использование моделей: Легко взаимодействуйте с несколькими моделями одновременно, используя их уникальные сильные стороны для оптимального ответа. Параллельное использование различных модальностей моделей улучшает ваш опыт.
-
🔐 Ролевое управление доступом (RBAC): Обеспечьте безопасный доступ с ограниченными разрешениями. Только авторизованные лица могут получить доступ к Ollama, а права на создание и загрузку моделей доступны исключительно администраторам.
-
🌐🌍 Многоязычная поддержка: Используйт е Open WebUI на предпочитаемом языке благодаря поддержке международализации (
i18n
). Мы приглашаем вас присоединиться к расширению списка поддерживаемых языков! Мы активно ищем участников! -
🌟 Непрерывные обновления: Мы стремимся к улучшению Open WebUI с регулярными обновлениями, исправлениями и новыми функциями.
И многие другие удивительные функции, включая... ⚡️
🔧 Поддержка конвейеров
-
🔧 Фреймворк конвейеров: Легко интегрируйте и настраивайте ваш Open WebUI с помощью нашей модульной системы плагинов для повышения кастомизации и функциональности (https://github.com/open-webui/pipelines). Наша система позволяет легко добавлять пользовательскую логику и интеграцию с Python-библиотеками, от AI-агентов до API для автоматизации дома.
-
📥 Загрузка конвейера: Конвейеры могут быть загружены напрямую через меню
Административная панель
>Настройки
>Конвейеры
, упрощая процесс управления конвейерами.
Возможности нашей системы конвейеров безграничны. Начните с нескольких готовых конвейеров, которые помогут вам начать!
-
🔗 Вызов функц ий: Интегрируйте вызов функций через конвейеры, чтобы улучшить взаимодействие с LLM, добавив возможности продвинутого вызова функций.
-
📚 Пользовательский RAG: Бесшовно интегрируйте пользовательский Retrieval Augmented Generation (RAG) конвейер для улучшения взаимодействий с LLM с помощью пользовательской RAG-логики.
-
📊 Мониторинг сообщений с Langfuse: Следите и анализируйте взаимодействия сообщений в режиме реального времени с помощью статистики Langfuse конвейера.
-
⚖️ Ограничение скорости пользователей: Эффективно управляйте использованием API, контролируя количество запросов, отправляемых в LLM, чтобы избежать превышения лимитов через конвейер Rate Limit.
-
🌍 Перевод в режиме реального времени с LibreTranslate: Интегрируйте переводы в режиме реального времени в ваши взаимодействия с LLM с помощью LibreTranslate конвейера, что позволяет кросс-языковую коммуникацию.
- Обратите внимание, что данный конвейер требует дополнительной настройки LibreTranslate в Docker-контейнере.
-
🛡️ Фильтрация токсичных сообщений: Наш Detoxify конвейер автоматически фильтрует токсичные сообщения для поддержания чистоты и безопасности чатов.
-
🔒 LLM-Guard: Обеспечьте безопасность взаимодействия с LLM благодаря конвейеру LLM-Guard, который включает сканер инъекций подсказок, выявляющий и нейтрализующий сложные манипуляции ввода, нацеленные на крупные языковые модели. Это защищает ваши LLM от утечки данных и добавляет уровень защиты от атаки с помощью инъекции подсказок.
-
🕒 Ограничение количества ходов в разговоре: Улучшите управление взаимодействием, установив ограничения на количество ходов в разговоре с помощью конвейера Conversation Turn Limit.
-
📈 Статистика генерации OpenAI: Наш OpenAI конвейер предоставляет подробную статистику генерации для моделей OpenAI.
-
🚀 Поддержка нескольких моделей: Наша легкая интеграция с различными AI-моделями от различных провайдеров расширяет ваши возможности, позволяя выбрать и работать с широким спектром языковых моделей.