Decentralization? We're still early!

在Cherry Studio中轻松配置MCP,打造你的超级AI助手

  • 在Cherry Studio中轻松配置MCP,打造你的超级AI助手

    發布人 Brave 2025-04-23 00:46

    MCP,全称为Model Context Protocol(模型上下文协议),你可以把它理解为一座连接API与大语言模型的桥梁。通过MCP,AI模型可使用标准化的、通用的语言,与各种外部工具和服务进行顺畅的交流和协作。MCP让AI模型不再局限于文本生成,而是能真正地“动手”完成任务。

    Cherry Studio是一款界面简洁、功能强大的AI工具聚合平台。接下来,就让我们一起看看如何在Cherry Studio中配置并使用MCP服务器,让你的AI助手变得更加智能和全能。

    一、 Cherry Studio 客户端安装

    1. 下载:首先,访问Cherry Studio的GitHub Releases页面下载最新的Windows版本客户端。
    2. 下载地址:https://github.com/CherryHQ/cherry-studio/releases
    3. 安装:选择合适的安装路径,按照提示完成快速安装。
    4. 启动:安装后打开Cherry Studio,你会看到一个非常清爽直观的操作界面。
    5. (本文示例基于版本:V1.1.8)

    二、 MCP服务器配置入门

    启动Cherry Studio后,导航至 设置 -> MCP服务器。首次进入,系统可能会提示你需要安装 UVBun 环境。

    直接点击对应的“安装”按钮即可。通常情况下,安装成功后这两个环境提示会消失。

    • 注意:如果遇到UV环境反复提示安装失败的情况,这可能是当前版本的一个小Bug,可以暂时忽略,继续后续配置步骤,多数情况下不影响基本使用。

    三、 配置与测试MCP服务

    MCP服务主要有两种连接类型:SSE(Server-Sent Events)和STDIO(Standard Input/Output)。它们各有优劣,适用于不同场景。

    (一)远程MCP服务 (SSE类型) 配置与测试

    SSE类型的MCP服务通常运行在远程服务器上。

    • 优点:配置极其简单,无需本地环境依赖,开箱即用。适合调用在线API、获取云端数据等任务。
    • 缺点:因为服务在远端,无法直接访问你本地的计算机资源(如本地文件)。

    配置步骤:

    1. 查找服务:访问 MCP 服务聚合网站 https://mcp.so/ 搜索可用的MCP Server。这里我们以 fetch 服务为例,它能让AI模型抓取指定网页的内容。
    2. 获取URL:在 fetch 服务的页面上,找到使用SSE URL连接方式的代码片段。复制其中的URL地址(例如:https://router.mcp.so/sse/bw9c1pm8o377c8)。
    3. 添加服务器:回到Cherry Studio的MCP服务器设置界面,点击 添加服务器
    4. 名称:自定义一个易于识别的名称(如 Fetch网页内容)。
    5. 类型:选择 SSE
    6. URL:粘贴刚才复制的URL地址。
    7. 点击 确定 保存。你会看到服务器添加成功的提示。

    测试步骤:

    1. 配置模型:首先确保你在Cherry Studio中配置了支持函数调用(Function Calling)的大模型服务。在 设置 -> 模型服务 中,点击底部的 管理 按钮。选择模型时,请留意模型名称后带有“扳手”图标的模型,这些通常表示支持工具调用。(详细模型配置可参考Cherry Studio相关文档)。本例以配置好的硅基流动模型为例。
    2. 选择助手与模型:回到主界面,选择一个助手(或使用默认助手),点击顶部的模型服务切换按钮,选择你刚才配置好的支持函数调用的模型。
    3. 启用MCP服务:在聊天输入框底部,你会看到一个MCP服务器图标。点击它,确保 Fetch网页内容 服务旁边的开关是开启状态。(重要:每次使用前都要检查并手动开启所需服务)。
    4. 发出指令:现在,你可以向AI助手发出指令了,比如:“请帮我访问 [某个网址] 并总结一下主要内容。”
    5. 查看结果:AI模型会调用 fetch 服务抓取网页信息,并根据内容进行回复。
    • 提示:如果收到错误代码或无法访问,可能是目标网站设置了防爬虫机制,禁止AI抓取。可以尝试更换其他网站进行测试。

    (二)本地MCP服务 (STDIO类型) 配置与测试

    STDIO类型的MCP服务直接在你的本地计算机上运行。

    • 优点:能够直接访问本地文件系统、调用本地安装的应用程序,实现AI与本地资源的深度集成。例如,让AI读取本地文档、分析本地表格数据、甚至调用本地绘图工具。
    • 缺点:需要在本地预先配置好相应的运行环境(通常是Python或NodeJS),配置相对复杂一些。

    配置步骤:

    1. 查找服务包:在Cherry Studio的MCP服务器设置界面,点击 NPX包列表 后方的 搜索 按钮。
    2. 搜索并添加:输入服务包名称进行搜索。这里我们以 @modelcontextprotocol/server-filesystem 为例,这是一个允许AI操作本地文件的服务。搜索到后,点击 添加服务器
    3. 编辑服务器信息:系统会自动填充大部分信息。你需要关注 参数 部分。在此处添加你希望AI能够操作的本地目录路径。注意:每个参数需单独占一行。例如,如果你想让AI操作 D:\ai 目录,就在参数框中输入 D:\ai。点击 确定 保存。
    4. 确认添加:你会看到 filesystem 服务添加成功的提示。

    测试步骤:

    1. 选择助手与模型:同SSE测试步骤1、2。
    2. 启用MCP服务:在聊天输入框底部的MCP服务器图标菜单中,现在除了 fetch 服务外,还会看到刚才添加的 filesystem 服务。确保其开关处于开启状态。
    3. 发出指令:向AI助手发出操作本地文件的指令,例如:“请在 D:\ai 目录下创建一个名为 mcp学习笔记.txt 的文本文件。”
    4. 验证结果:AI模型会调用本地的 filesystem 服务执行命令。之后,你可以去 D:\ai 目录下检查,应该能看到新创建的 mcp学习笔记.txt 文件。

    四、小结

    MCP协议为AI模型的应用打开了新的大门,让AI不再仅仅是“聊天机器人”,更能成为可以调用工具、执行任务的得力“助手”。而Cherry Studio这样的客户端工具,则大大降低了我们普通用户体验和使用MCP功能的门槛。通过简单的配置,无论是利用便捷的SSE远程服务,还是功能强大的STDIO本地服务,我们都能根据自己的需求,在Cherry Studio中定制出能力更强的个性化智能助手。随着MCP生态的不断发展,未来AI助手的可能性将更加广阔,值得我们持续关注和探索。现在,不妨就动手试试在Cherry Studio中配置你的第一个MCP服务吧!

    Brave 回复 3 weeks, 3 days ago 1 成員 · 0 回复
  • 0 回复

歡迎留言回复交流。

Log in to reply.

讨论開始
00 回复 2018 年 6 月
現在