📄️ 🐋 使用 Llama.cpp 运行 DeepSeek R1 动态 1.58-bit
向 UnslothAI 表示极大的感谢!多亏了他们的努力,我们现在可以在 Llama.cpp 上运行 完整的 DeepSeek-R1 671B 参数模型的动态 1.58-bit 量化版本(压缩到仅 131GB)!最棒的是,你再也不用为需要大型企业级 GPU 或服务器而感到沮丧了 —— 现在可以在你的个人电脑上运行这个模型(尽管对于大多数消费级硬件来说速度较慢)。
📄️ 🖥️ 使用 Intel GPU 和 IPEX-LLM 设置本地 LLM
本教程是社区贡献内容,不受 Open WebUI 团队支持。它仅用于示范如何根据特定需求自定义 Open WebUI。想要贡献?请查看贡献教程。
📄️ ⚛️ Continue.dev VSCode扩展与Open WebUI集成
本教程是社区贡献内容,不受Open WebUI团队支持,仅作为定制Open WebUI以满足特定需求的示范使用。想要贡献?请查看贡献教程。
📄️ 🛃 使用自定义 CA 存储进行设置
本教程由社区贡献,不受 Open WebUI 团队支持,仅作为如何针对特定用途自定义 Open WebUI 的示例。想要贡献?请查看贡献教程。
📄️ 🌐 浏览器搜索引擎
本教程由社区贡献,未得到 Open WebUI 团队的支持。它仅作为一个如何定制 Open WebUI 以满足特定使用场景的示例。想要贡献?查看贡献教程。
📄️ 🕵🏻♀️ 使用 Helicone 监控你的 LLM 请求
本教程是社区贡献内容,并未获得 Open WebUI 团队支持。仅 作为展示如何根据具体用例定制 Open WebUI 的示例。如果希望贡献,请查看贡献教程。
📄️ 💥 使用 Langfuse 进行监控和调试
Langfuse (GitHub) 为 Open WebUI 提供开源的可观测性和评估功能。启用 Langfuse 集成后,您可以通过 Langfuse 跟踪您的应用程序数据,以开发、监控和改进 Open WebUI 的使用,包括:
📄️ 🔠 LibreTranslate 集成
本教程是社区贡献内容,不受 Open WebUI 团队支持,仅用于展示如何根据特定用例定制 Open WebUI。想要贡献?查看贡献教程。
📄️ 🔗 Redis Websocket 支持
本教程是由社区贡献,不受 Open WebUI 团队支持。它仅作为定制 Open WebUI 以满足特定用例的演示。如果您愿意贡献,请查看贡献教程。
📄️ 🛌 与 Amazon Bedrock 集成
本教程是社区贡献的内容,不受 Open WebUI 团队支持。它仅作为如何为您的特定用例自定义 Open WebUI 的示例。想要贡献?请查看贡献教程。
📄️ 🔗 Okta OIDC SSO 集成
本教程是社区贡献,不受 Open WebUI 团队支持。它仅作为如何定制 Open WebUI 以满足您的特定使用案例的演示使用。想要贡献吗?查看贡献教程。
📄️ 🦊 Firefox AI聊天机器人侧边栏
本教程是社区贡献内容,不受Open WebUI团队支持。它仅作为如何根据您的特定用例自定义Open WebUI的演示。想要做出贡献?请查看贡献教程。