

在Cherry Studio中轻松配置MCP,打造你的超级AI助手
-
在Cherry Studio中轻松配置MCP,打造你的超级AI助手
MCP,全称为Model Context Protocol(模型上下文协议),你可以把它理解为一座连接API与大语言模型的桥梁。通过MCP,AI模型可使用标准化的、通用的语言,与各种外部工具和服务进行顺畅的交流和协作。MCP让AI模型不再局限于文本生成,而是能真正地“动手”完成任务。
Cherry Studio是一款界面简洁、功能强大的AI工具聚合平台。接下来,就让我们一起看看如何在Cherry Studio中配置并使用MCP服务器,让你的AI助手变得更加智能和全能。
一、 Cherry Studio 客户端安装
- 下载:首先,访问Cherry Studio的GitHub Releases页面下载最新的Windows版本客户端。
- 下载地址:https://github.com/CherryHQ/cherry-studio/releases
- 安装:选择合适的安装路径,按照提示完成快速安装。
- 启动:安装后打开Cherry Studio,你会看到一个非常清爽直观的操作界面。
- (本文示例基于版本:V1.1.8)
二、 MCP服务器配置入门
启动Cherry Studio后,导航至
设置
->MCP服务器
。首次进入,系统可能会提示你需要安装UV
和Bun
环境。直接点击对应的“安装”按钮即可。通常情况下,安装成功后这两个环境提示会消失。
- 注意:如果遇到UV环境反复提示安装失败的情况,这可能是当前版本的一个小Bug,可以暂时忽略,继续后续配置步骤,多数情况下不影响基本使用。
三、 配置与测试MCP服务
MCP服务主要有两种连接类型:SSE(Server-Sent Events)和STDIO(Standard Input/Output)。它们各有优劣,适用于不同场景。
(一)远程MCP服务 (SSE类型) 配置与测试
SSE类型的MCP服务通常运行在远程服务器上。
- 优点:配置极其简单,无需本地环境依赖,开箱即用。适合调用在线API、获取云端数据等任务。
- 缺点:因为服务在远端,无法直接访问你本地的计算机资源(如本地文件)。
配置步骤:
- 查找服务:访问 MCP 服务聚合网站 https://mcp.so/ 搜索可用的MCP Server。这里我们以
fetch
服务为例,它能让AI模型抓取指定网页的内容。 - 获取URL:在
fetch
服务的页面上,找到使用SSE URL连接方式的代码片段。复制其中的URL地址(例如:https://router.mcp.so/sse/bw9c1pm8o377c8
)。 - 添加服务器:回到Cherry Studio的MCP服务器设置界面,点击
添加服务器
。 - 名称:自定义一个易于识别的名称(如
Fetch网页内容
)。 - 类型:选择
SSE
。 - URL:粘贴刚才复制的URL地址。
- 点击
确定
保存。你会看到服务器添加成功的提示。
测试步骤:
- 配置模型:首先确保你在Cherry Studio中配置了支持函数调用(Function Calling)的大模型服务。在
设置
->模型服务
中,点击底部的管理
按钮。选择模型时,请留意模型名称后带有“扳手”图标的模型,这些通常表示支持工具调用。(详细模型配置可参考Cherry Studio相关文档)。本例以配置好的硅基流动模型为例。 - 选择助手与模型:回到主界面,选择一个助手(或使用默认助手),点击顶部的模型服务切换按钮,选择你刚才配置好的支持函数调用的模型。
- 启用MCP服务:在聊天输入框底部,你会看到一个MCP服务器图标。点击它,确保
Fetch网页内容
服务旁边的开关是开启状态。(重要:每次使用前都要检查并手动开启所需服务)。 - 发出指令:现在,你可以向AI助手发出指令了,比如:“请帮我访问 [某个网址] 并总结一下主要内容。”
- 查看结果:AI模型会调用
fetch
服务抓取网页信息,并根据内容进行回复。
- 提示:如果收到错误代码或无法访问,可能是目标网站设置了防爬虫机制,禁止AI抓取。可以尝试更换其他网站进行测试。
(二)本地MCP服务 (STDIO类型) 配置与测试
STDIO类型的MCP服务直接在你的本地计算机上运行。
- 优点:能够直接访问本地文件系统、调用本地安装的应用程序,实现AI与本地资源的深度集成。例如,让AI读取本地文档、分析本地表格数据、甚至调用本地绘图工具。
- 缺点:需要在本地预先配置好相应的运行环境(通常是Python或NodeJS),配置相对复杂一些。
配置步骤:
- 查找服务包:在Cherry Studio的MCP服务器设置界面,点击
NPX包列表
后方的搜索
按钮。 - 搜索并添加:输入服务包名称进行搜索。这里我们以
@modelcontextprotocol/server-filesystem
为例,这是一个允许AI操作本地文件的服务。搜索到后,点击添加服务器
。 - 编辑服务器信息:系统会自动填充大部分信息。你需要关注
参数
部分。在此处添加你希望AI能够操作的本地目录路径。注意:每个参数需单独占一行。例如,如果你想让AI操作D:\ai
目录,就在参数框中输入D:\ai
。点击确定
保存。 - 确认添加:你会看到
filesystem
服务添加成功的提示。
测试步骤:
- 选择助手与模型:同SSE测试步骤1、2。
- 启用MCP服务:在聊天输入框底部的MCP服务器图标菜单中,现在除了
fetch
服务外,还会看到刚才添加的filesystem
服务。确保其开关处于开启状态。 - 发出指令:向AI助手发出操作本地文件的指令,例如:“请在
D:\ai
目录下创建一个名为mcp学习笔记.txt
的文本文件。” - 验证结果:AI模型会调用本地的
filesystem
服务执行命令。之后,你可以去D:\ai
目录下检查,应该能看到新创建的mcp学习笔记.txt
文件。
四、小结
MCP协议为AI模型的应用打开了新的大门,让AI不再仅仅是“聊天机器人”,更能成为可以调用工具、执行任务的得力“助手”。而Cherry Studio这样的客户端工具,则大大降低了我们普通用户体验和使用MCP功能的门槛。通过简单的配置,无论是利用便捷的SSE远程服务,还是功能强大的STDIO本地服务,我们都能根据自己的需求,在Cherry Studio中定制出能力更强的个性化智能助手。随着MCP生态的不断发展,未来AI助手的可能性将更加广阔,值得我们持续关注和探索。现在,不妨就动手试试在Cherry Studio中配置你的第一个MCP服务吧!
歡迎留言回复交流。
Log in to reply.