MCP助力大模型:自动批量下载文献,效率提升太香了!

MCP 最近这么火,你还不知道它是啥吗?别慌,动手实战一番就包你明白了。

而且,咱这个是真的实战,绝对干货啊,全网少见的干货。

我们之前讲了很多建立知识库之类的,新鲜的知识才有意思嘛。问题是新鲜货哪里来呢,徒手去搜索加下载?2025 年了,咱不能这么干了。

你有没有想过让大模型自动给我们搜索、下载、解读文献,一条龙服务?即便像 Deep Research 之类的服务也主要是帮你搜索和整合资源,但不给你下载资源对不。

实际上,是可以手撸一个智能体帮我们干这项大工程的。只是现在不是流行 MCP 嘛,咱们也想通过这种方式来建一个。

马上给你安排上。

本篇将以 arxiv 为例,目标是让你发个话,智能体就帮你搜索、下载文献,甚至解读一条龙到家。

为了照顾不同需求,咱这里贴心地实现了两套方案,

  • Trae CN + Cline,功能强大

  • Cherry Studio,容易上手

当然,如果你喜欢的话,也不拦着你直接用 Python 开干。

1、MCP

这个概念最近很热,相信大家都见过。这里简要地作个解释,毕竟本篇的主旨是在于动手实践。

你别看网文一篇一篇,不如跟着本篇撸一撸,你就真刀真枪见识过了。

当然,概念了解下还是有必要的。先看一个图,心急的话也可以跳过此图看下面的大白话。

图片

MCP 作为「模型上下文协议」,可以看成专门为 AI 模型设计生态系统服务,它通过一个标准化的协议来管理和交换 AI 模型所需的各种信息,从而实现与各种外部服务和数据源的无缝集成。

用大白话来说,MCP 就像是 AI 模型(比如 DeepSeek、Gemini 等)的「超级翻译官」和「万能助手」。

我们不妨想象一下,AI 模型是个很厉害的专家,但是它自己只会说一种「AI 语言」。它需要跟各种网站、数据库、工具等外部世界打交道才能完成任务。

  • 翻译官: 这些「外部世界」说的都是不同的「外语」,即各种不同的数据格式和通信方式。MCP 就负责把 AI 模型说的话翻译成这些外语,也把这些外语翻译成 AI 模型能听懂的话。这样,AI 模型就不用学那么多外语了,只需要跟 MCP 说就行。

  • 万能助手: AI 模型有时候需要很多信息才能做好一件事,就像做菜需要菜谱、食材、调料一样。MCP 就负责把 AI 模型需要的所有信息(比如要查的资料、要用的工具、之前的聊天记录等等)都准备好,打包成一个大礼包(上下文),交给 AI 模型。这样,AI 模型就能直接开始工作。

举个例子:

你问 DeepSeek:杭州今天天气怎么样?

DeepSeek 自己没这项功能啊,咋办?它通过 MCP 获知提供这项功能的服务,然后使唤它查询外部天气预报网站,得知今天杭州的天气情况,再将数据整理好,最后给你答案:杭州今天晴,最高 27 度。

所以,MCP 的好处是:

  • 简单: AI 模型不用学那么多外语,不用操心那么多杂事,只需要跟 MCP 打交道。

  • 方便: 要加新的功能,比如查天气、订机票、下载文献等,只需要让 MCP 学会跟新的外部世界打交道就行,不用改 AI 模型本身。

  • 整洁: MCP 把所有乱七八糟的信息都整理好,AI 模型用起来更顺手。

总之,MCP 就是一个让 AI 模型更方便、更强大、更容易跟各种服务和数据打交道的「中间人」。

这时候可以品一下这个图,

图片

2、安装服务

回到主题,我们的目标是自动给咱从 arxiv 上下载文献,那就先搜一下提供这个功能的 MCP 服务器。

找到两个,一个如下图所示,但感觉它主要是搜索,貌似不提供下载业务。

图片

另一个见下图,看起来它是能够下载文献的。这下省事了,必须给一个大赞。

图片

本人用的是 mac,下面的安装流程也是针对它而言。因为手头没有 Windows 电脑,稍微有点差异吧,但问题应该不大,稍微捣鼓一下肯定没问题。

  • 安装第一个比较方便,用命令 pip install mcp-simple-arxiv 即可;

  • 用 brew install uv 先安装 uv,然后用命令 uv tool install arxiv-mcp-server 安装第二个。

顺利的话,很快就搞定啦。主要一点,你安装过 Python,就方便了。

图片

然后就是在 Cline 里配置,可以用 VS Code 或者 Cursor、Windsurf 之类的。

此处我们用国货 Trae 的国内版,安装插件 Cline 咱就略过了,直接打开 Cline,点击 MCP 服务器。

图片

然后,点击左侧底部的 Configure MCP Servers,像右侧那样填写,然后看到灯绿就算配置好了。

图片

这样子就算配置好两个 MCP 服务了,然后就等着给大模型发号施令:搜索、解读、下载等任务。搜索和下载不是大模型自己的本事,需要外挂。

在 Cline 中提供了两种与大模型的交互模式,计划模式(Plan)和执行模式(Act),分别负责智能规划任务和高效执行任务。

3、设置大模型

别忘了在 Cline 里选择大模型!注意,这里需要大模型的 API Key。你可以让 plan 和 act 使用同一个模型,或者让它们分别使用不同模型。比如一个用 deepseek-chat,另一个使用 deepseek-reasoner,像下面这样。

图片

虽然在 DeepSeek API 那里咱也充了钱,但为了省钱,继续撸谷歌的羊毛,此处均使用 Gemini 2.0 Pro or Flash。

4、论文智能体

好了,现在就是整装待发的状态了。

图片

Cline 默认在左侧,如果你习惯右侧开车的话,像下面这样点击一下即可发射到右侧。

图片

左侧关掉,就可以右侧开车了。

给大模型下达命令:帮我搜一下扩散模型和大语言模型相结合的最新论文。

图片

Gemini 调用 simple-arxiv 搜了 10 篇论文,

图片

继续下命令:把这些论文的摘要和方法概要用中文解读一下,然后存放到一个 Markdown 文件中。

稍等一会儿,左侧就自动出现一个 Markdown 文件,里面就是摘要和对方法的简要解读。

图片

下载论文

接下来,我们让它下载论文。你会发现,这时它会自动调用第二个服务,就是 arxiv-mcp-server。因为第一服务并没有提供下载业务嘛。

图片

它会询问你是否下载到配置好的那个目录里,选 yes。

图片

不一会儿,任务完成。不过你也可以让它给你把文件名改一改。

图片

上面这样子其实是比较泛泛地搜索,如果想让它精细一些,比如让它搜题目中包含 Self-Supervised Learning 的论文。

图片

会发现返回的结果不符要求,只有一篇的题目符合要求。

那就给它明确指示:在 arxiv 上使用 ti: "Self-Supervised Learning" 搜。

图片

这样看着就对路了嘛。

图片

接着,让它给出详细信息,

图片

5、Cherry Studio

如果你没怎么编过程,也许不喜欢 Trae + Cline 这种方式,那咱们也可以使用可爱的小樱桃是不。代价是用不了 Trae 强大的文件编辑能力。

因为我们前面已经安装好相应的工具了,这里只需要配置一下 MCP 服务器即可。

先如下步骤打开配置文件,

图片

然后,可以直接参考我的配置。

{
  "mcpServers": {
    "arxiv-mcp-server": {
      "command": "uv",
      "args": [
        "tool",
        "run",
        "arxiv-mcp-server",
        "--storage-path",
        "~/Documents/arxiv"
      ]
    },
    "simple-arxiv": {
      "command": "/opt/anaconda3/bin/python",
      "args": [
        "-m",
        "mcp_simple_arxiv"
      ]
    }
  }
}

回到上面那个图,启用那里的绿灯点亮的话,就说明 OK 啦。

接着,到聊天界面打开 MCP 服务器。

图片

最后,选择大模型,给它上活。

图片

图片

最后三篇如下,

图片

不错,题目都符合要求。然后,让它下载一篇看看。

图片

好了,今天就到这里了。

怎么样,有没有心动?论文自动下载、自动解读,是不是有很多事情可以搞了?请你发挥想象吧。MCP + 论文,赶紧捣鼓起来吧,别忘了回来交流经验。

 

 大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。


2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书 

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。



4.LLM面试题和面经合集


这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。



👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集***

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员辣条

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值