Open WebUI
扫码查看

Open WebUI 是一个可扩展、自托管的 AI 界面,支持离线运行的开源AI交互界面。

Open WebUI

综合介绍

Open WebUI 是一个开源、用户友好的自托管AI交互平台,专为离线运行设计。它支持多种语言模型运行器,如 Ollama 和 OpenAI 兼容的 API,提供强大的 AI 交互功能。用户可以通过简单的界面与 AI 模型进行对话、管理文档并执行复杂任务。平台支持 Docker 和 Kubernetes 部署,安装简单,适合个人和企业使用。Open WebUI 提供语音交互、模型构建和本地 RAG(检索增强生成)功能,满足多样化的 AI 应用需求。它完全开源,遵循修订后的 BSD-3 许可证,保留“Open WebUI”品牌,确保用户可以自由使用和修改。

功能列表

  • 支持离线运行的 AI 交互界面,兼容 Ollama 和 OpenAI API。
  • 提供语音和视频通话功能,支持免提操作。
  • 内置 RAG 功能,可直接加载文档并通过查询检索内容。
  • 模型构建工具,允许用户通过界面创建和导入自定义 Ollama 模型。
  • 支持 Python 函数调用,允许用户添加自定义函数与模型交互。
  • 提供文档库管理,方便用户上传和管理文件。
  • 支持多平台部署,包括 Docker、Kubernetes 和本地 Python 安装。
  • 提供企业级功能,如自定义主题、SLA 支持和长期支持版本。

使用帮助

安装不支持

Open WebUI 提供多种安装方式,适合不同技术水平的用户。以下是主要安装方法:

Docker 安装

  1. 确保已安装 Docker。
  2. 运行以下命令以启动 Open WebUI 容器:
    docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    

  1. 对于 Nvidia GPU 支持,运行:
    docker run -d -p 3000:8080 --gpus all -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
    
  2. 安装完成后,访问 http://localhost:8080 使用平台。

Python 安装

  1. 确保使用 Python 3.11(推荐使用 uv 或 conda 管理环境)。
  2. 运行以下命令安装 Open WebUI:
    pip install open-webui
    
  3. 设置数据目录以避免数据丢失,例如:
    DATA_DIR=/path/to/data open-webui
    
  4. 启动后,访问 http://localhost:8080

主要功能操作

  • AI 对话:进入主界面,选择模型(如 Ollama 或 OpenAI API),直接输入问题即可开始对话。支持文本和语音输入,点击麦克风图标启用免提模式。
  • RAG 功能:上传文档到文档库,输入查询时使用 # 前缀调用文档内容。例如:#filename 查询内容。系统会根据文档内容生成更精准的回答。
  • 模型构建:在模型构建页面,选择“创建模型”,输入模型参数或导入现有模型。支持社区模型直接导入,操作简单。
  • 语音交互:点击界面上的语音图标,启用麦克风进行免提对话。支持实时语音转文字,适合快速交互。
  • Python 函数调用:在工具工作区添加 Python 函数代码,保存后可直接在对话中使用。例如,添加一个计算函数后,可通过对话调用该功能。
  • 文档管理:在文档库上传 PDF、TXT 等文件,支持批量上传。文件可通过 RAG 功能直接用于对话或查询。

注意事项

  • 确保网络支持 WebSocket 连接,否则可能导致功能异常。
  • Docker 安装需包含 -v open-webui:/app/backend/data 参数以保存数据。
  • Python 安装建议使用虚拟环境,避免依赖冲突。

进阶功能

  • 企业级功能:通过企业计划,用户可获得自定义主题、SLA 支持等功能。联系官方销售团队获取详情。
  • 社区支持:加入 Open WebUI Discord 社区,获取实时帮助和更新信息。
  • 模型优化:定期更新模型以提升性能,参考官方文档的更新指南。

应用场景

  1. 个人 AI 助手用户可以在本地部署 Open WebUI,作为私人 AI 助手处理日常任务,如文档整理、问题解答或日程管理。离线运行确保数据隐私。
  2. 企业级 AI 部署企业可通过 Docker 或 Kubernetes 部署 Open WebUI,用于内部知识库管理、客户支持自动化或数据分析。
  3. 开发者的 AI 实验平台开发者可通过模型构建和 Python 函数调用功能,快速测试和开发自定义 AI 模型,适合研究和原型开发。
  4. 教育与研究学生和研究人员可利用 RAG 功能分析学术文档,快速提取关键信息,支持论文写作和知识整理。

QA

  1. Open WebUI 是否需要联网?不需要。Open WebUI 设计为完全离线运行,适合无网络环境。但某些功能(如 OpenAI API)需要联网。
  2. 支持哪些语言模型?支持 Ollama、OpenAI 兼容 API 以及用户自定义模型。
  3. 如何确保数据安全?离线运行和自托管模式确保数据存储在本地设备,Docker 安装需正确配置数据卷以防止丢失。
  4. 是否支持 GPU 加速?是的,使用 :cuda 镜像支持 Nvidia GPU 加速,需安装相应驱动。
  5. 如何获取技术支持?可通过 GitHub 提交问题或加入 Open WebUI Discord 社区获取帮助。
微信微博Email复制链接