Decentralization? We're still early!

使用 Docker Compose 部署 Open WebUI 并集成 Gemini API

人工智能技术的快速发展,让越来越多的用户能够轻松体验 AI 带来的便利与创新。Open WebUI 是一个基于 Web 的强大工具,能够让用户以简单直观的方式使用各种 AI 模型。而 Gemini API 是 Google 提供的一款高性能模型接口,它以强大的生成能力和广泛的应用场景被用户广泛认可。

本文将详细介绍如何通过 Docker Compose 快速部署 Open WebUI,并提供三种与 Gemini API 集成的方法,帮助你充分发挥这两者的潜力,开启高效、便捷的 AI 创作之旅。

一、使用 Docker Compose 部署 Open WebUI

Docker Compose 是一种简化容器化应用部署的工具,特别适合像 Open WebUI 这样的多组件应用程序。通过 Docker Compose,只需一个配置文件即可部署复杂的服务,还可以通过简单的命令启动、停止和更新服务。

以下是一个示例 docker-compose.yml 文件,用于部署 Open WebUI:

version: "3.9"
services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "3000:8080" # 将容器端口 8080 映射到主机端口 4000,可根据需要修改
    volumes:
      - open-webui:/app/backend/data
    restart: always
volumes:
  open-webui: null
networks: {}

你可以使用Dockge加快部署速度。相关知识,可参考基地其他文章/讨论。

二、将 Open WebUI 与 Gemini API 集成

Open WebUI 是一个高度可扩展的平台,允许用户根据需求集成不同的 AI 模型和 API。Gemini API 作为 Google 提供的高性能模型接口,为用户提供了一种强大、灵活的生成式 AI 解决方案。将两者结合,可以大幅提升 Open WebUI 的功能和使用场景。

以下是三种常见的集成方法:

(一)方法一:使用第三方插件(推荐)

如果你希望快速完成集成,最便捷的方式是使用 Open WebUI 的第三方插件。例如,https://openwebui.com/f/matthewh/google_genai 插件专为 Gemini API 提供支持,安装和配置非常简单。

配置步骤包括:

第一,安装插件:在 Open WebUI 的插件市场中搜索并安装 google_genai 插件。打开 Open WebUI 的设置页面,找到函数,然后导入这个插件的代码。

第二,配置 API 密钥:输入你的 Gemini API 密钥。

第三,启用插件: 为函数点击启用,将默认模型设置为 gemini

完成配置后,你可以开始使用 Gemini 模型进行生成任务。

使用插件是最简单的方式,特别适合希望快速体验 Gemini API 功能的用户。插件本身通常是免费的,你只需支付 Gemini API 的调用费用。

(二)方法二:修改 OpenAI 库设置

此外,还可以通过修改 OpenAI 库的配置,直接集成 Gemini API。但由于Gemini的API尚不完全兼容OpenAI的API,所以目前来说并不完美,会有一定限制。

配置步骤包括:

第一,找到配置文件:在 Open WebUI 的代码库中,定位到 OpenAI 库的配置部分。

第二,修改以下参数: API Key:配置你的 Gemini API 密钥。

第三,Base URL:设置 Gemini API 的基础 URL。

第四,模型名称:指定使用的模型名称(如 gemini)。

完成修改后,保存文件并重启 Open WebUI。

(三)方法三:通过 OpenRouter 集成

OpenRouter 是一种灵活的解决方案,它不仅支持 Gemini API,还支持其他开源或商用模型。通过 OpenRouter,你可以方便地切换模型,管理不同的 API 调用。

配置步骤包括:

第一,注册 OpenRouter:访问 OpenRouter 官网,注册账号并获取 API 密钥。

第二,配置 Open WebUI: 打开 Open WebUI 的 API 设置页面。

第三,输入 OpenRouter 提供的 API 密钥。

第四,选择目标模型(如 gemini)。

通过 OpenRouter 平台统一管理多个模型和 API 调用。OpenRouter 可能会收取一定的服务费用。配置完成后,建议进行充分测试,确保调用正常。

三、小结

本文详细介绍了如何通过 Docker Compose 快速部署 Open WebUI,并提供了三种集成 Gemini API 的方法。通过结合 Gemini API 的强大生成能力和 Open WebUI 的直观操作界面,你的 AI 学研之旅将变得前所未有的高效和有趣。

作为非营利站点,基地的建设离不开大家的捐助支持。在Cardano钱包(如Lace、Eternl 等)中输入 ADA Handle 名称$brave2049,即可为基地提供小额捐助。为支持Cardano治理和基地建设,亦欢迎将Cardano链上治理权限委托给Brave(Brave的Cardano链上治理DRep信息)

相關文章

Open WebUI:AI 应用的 WordPress 时刻?

Open WebUI 的出现,预示着这个“WordPress 时刻”或许即将到来,让每个人都能在本地运行强大的 LLM。 随着 AI 模型协同使用成为重要趋势,能够支持多种模型的平台将更具优势。 本文将 Open WebUI 与其他开源 AI 工具进行比较,探讨 AI 平民化的未来。

回复