这个比较实用,和大家分享下使用过程,首先安装不再说了,下载下来,可以直接使用
用到比较多的功能有:
小程序:这个是嵌入了各个 AI 对话页面,访问这些登入可以直接使用,如豆包、ChatGPT、DeepSeek 等,这些和你使用的页面是一样的,没有任何区别
助手:这个也是我们要详细介绍的功能,配合 MCP 服务,能实现很多页面无法实现的功能,如旅游规划、微信读书数据分析等等
知识库:这个也是用的比较多,算是高级功能,简单来说就是把你的文档输入进去当做 AI 的知识库,以后 AI 问答可以实现以你的文档文参考进行输出,比较适用于一些内部知识的梳理和使用
AI助手-旅游规划师
对于助手的使用,首先介绍下 MCP 服务器,这个 MCP 你不用了解是做啥的,简单来说就是一个通用接口,可以实现 AI 与一些服务提供商的打通,前面文章中介绍了如何使用 windsurf 集成高德 MCP 来实现旅游规划,有兴趣的翻翻前面的文章
这里主要是想说Cherry Studio是如何实现的,并且比 windsurf 实现起来更加完美,详细的成果可以访问:https://adra2n.github.io/bashang.html。
这个在测试过程中发现使用 Claude 来做目的规划,用高德 MCP +DeepSeek 做页面展示出现的效果是最好的。
配置高德 MCP 的步骤如下:
在Cherry Studio 设置中 MCP 服务器中添加
名称随意填写,主要是下面的配置选项:
类型是标准输入/输出
命令:填写 npx,注意需要安装 npx 和 bun,可以点击右上角最右边进行自动安装
包管理源选择淘宝,主要是为了速度更快一些
环境变量:AMAP_MAPS_API_KEY=你申请的高德 KEY
3. 可以访问https://mcp.so/server/amap-maps/amap
来看具体的工具及 MCP 说明
4.https://mcp.so/
中也有很多 MCP 服务可以使用,有兴趣的可以自己配置下看看
配置好了之后,可以在智能体中创建自己的智能体,如“旅游规划师”,提示词可以是:
然后选择添加到助手中就可以使用了。在对话框中输入 Claude 生成的旅游规划,记得选择下方的MCP 服务器,选择高德即可
AI助手-微信读书助手
这个同样的设置,只是有一些不同的是,这个 MCP 服务器是网友自己做的,不是官方的,需要本地进行部署,git 地址:https://github.com/freestylefly/mcp-server-weread
按照 readme 中的步骤进行下载安装即可,这个不用启动服务器,启动的话在Cherry Studio中启动即可
需要注意的是,微信读书的 cookie,其实不用那么多,只要下面三个字段即可:wr_skey、wr_vid、wr_rt
这个的配置可以参考如下:
类型是标准输入/输出
命令:填写 node
参数添加:
本地路径/mcp-server-weread/build/index.js
环境变量:WEREAD_COOKIE="wr_skey=xxxxx;wr_vid=xxxx;wr_rt=xxxxx"
配置好了之后,在助手那即可使用了。对于能实现如何效果,文档中有介绍:
不过经我测试,好像获取书架上的书是可以的,但是获取笔记和评论有些问题,待更新吧
知识库
这个的话需要自己部署本地模型进行处理,不用 DeepSeek 了,耗费太大,本地部署的话用的是 Ollama+Definity/snowflake-arctic-embed-l-v2.0-q8_0:latest模型,当然也可以用其他嵌入模型,方法是一样的
安装的比较简单,直接安装 Ollama,然后执行ollama pull Definity/snowflake-arctic-embed-l-v2.0-q8_0
即可
完成后,在模型服务中选择 Ollma 即可加载模型
下一步创建知识库,在工具中点击知识库图标即可进入知识库配置中,新增知识库,然后选择嵌入模型即可,也可参考:https://docs.cherry-ai.com/knowledge-base/emb-models-info
选择嵌入模型
后面会要求导入文件、网址、网站、笔记等信息,导入后,知识库会自动向量化,文档比较大的话会处理时间会比较长一些
创建助手,选择上除创建的知识库,问答即可查找知识库中的内容了。
总结
上面几种案例应该可以把Cherry Studio的主要功能都介绍了,包括了如何使用远端的 MCP 服务,以及自己搭建的 MCP 服务,以及本地搭建的模型集成等
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...