社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

为什么MCP能爆火,但ChatGPT插件之流全都死了?神贴断言:MCP吞噬一切!网友:炒作太过,本质还是重复造轮子!

51CTO官微 • 3 月前 • 66 次点击  
图片

点击蓝字 关注我们

了解与IT有关的人和事

图片

编辑 |伊风


MCP(Model Context Protocol)其实并不新,它早在去年就由 Anthropic 正式提出。


但短短几个月后,它的支持阵容迅速扩展,从 Cursor、Zed 等新兴工具,到谷歌、OpenAI 等顶级玩家,几乎整个 LLM 工具链都开始围绕 MCP 建设生态。


你有没有想过一个问题:


为什么 MCP 之前的那些“前辈”都没活下来,它却突然火遍全场?


我们见过太多失败的尝试:Function Calling、LangChain、AutoGPT、Custom GPTs、Plugins……


MCP 真有什么技术上质变的地方吗?还是说它只是踩中了一个刚刚好的时机?


为什么Anthropic 能做成OpenAI做不成的事?


这个问题,今天在 Hacker News 上一篇爆火的帖子里被系统性地拆解了。



作者从模型能力、协议标准、开发体验、生态势能多个层面,把 MCP 能够迅速爆火的“天时地利人和”理得明明白白。


更大胆的是,他还提出了一个断言:MCP 将吞噬一切。


他说:

 “我们相信 MCP 会留下来:它已经‘够好’了,且好在了前人没做到的地方。不仅我们这样想,我们的 API-first 客户也已经将 MCP Server 视作 API 的核心部分。”


这篇帖子也引发了开发者的激烈讨论,有人赞叹 MCP 终于统一了接口调用的混乱局面,也有人冷笑——“这不就是个加了 decorator 的 tool calling 吗?”


那 MCP 到底改变了什么?又是否真的值得我们为它下注?


我们不妨从它的“失败前辈”们说起。


过去的失败:MCP的前辈们做错了什么?


MCP 的定位是:“帮助你基于大语言模型(LLM)构建智能代理和复杂工作流”


如果你一直关注这类技术的发展,就会知道——这绝不是第一次有人尝试用结构化、自动化的方式,把外部世界连接到语言模型上。


过去的尝试包括:


  • Function/tool 调用:写一个 JSON Schema,由模型来选择函数。但每次请求都需要手动连接函数,还要你自己承担重试逻辑的大部分实现。 

  • ReAct / LangChain:让模型输出一个  Action: string,然后你得自己解析——经常很不稳定,调试也很困难。 

  • ChatGPT 插件:功能丰富,但受限严重。你得自己搭建 OpenAPI 服务并通过 OpenAI 审核。 

  • Custom GPTs:入门门槛更低,但仍然困于 OpenAI 的运行时环境。 

  • AutoGPT、BabyAGI:雄心勃勃的代理框架,但配置繁复、循环混乱、错误层层叠加。


为什么是MCP杀出重围?


抛开夸张的炒作,MCP 既不是魔法,也谈不上什么技术革命。


但它确实简单、有效、执行得当——关键是,它生逢其时。


模型终于够好了


过去,工具调用的实际体验可以用一个词形容:混乱。


哪怕只是最基础的功能,也要配合大量的错误处理——重试逻辑、字段校验、异常提示,一步错,步步错,跑起来很费劲。


尤其是在智能体(Agent)场景下,对模型的鲁棒性要求极高。


很多人都踩过坑:模型输出一个莫名其妙的指令,导致后续对话彻底崩溃。我们通常叫这类问题“上下文污染”。


工具越多,风险越大。于是大多数 Agent 反而选择了保守策略——缩短链路,避免做多错多。


如今的新模型,已经足够强大。虽然仍不完美——更强的模型往往更慢,仍受限于上下文大小,信息过多时性能会下降——但已经“好到可以用了”。


而一旦模型能力跨过这个临界点,集成工具的复杂性就会显著下降。


MCP 的登场,正好踩在了这个节点上。


协议够实用了


过去的工具接口都被绑定在特定技术栈里:


  •  OpenAI 的 function calling 只能在他们自家 API 里用; 
  •  ChatGPT 插件必须跑在他们的运行时中; 
  •  LangChain 的工具深度耦合在提示循环里; 


你无法随意将一个工具从 A 平台搬到 B 平台,每个平台都得重新接线。


更糟的是,不同平台对 JSON Schema 等规范的支持也略有差异。想要支持重试,你还得自己搞清楚怎么拼接提示信息、触发新的一轮生成,而且每个平台的做法都“略微不一样”——足够令人抓狂。


还有些隐性坑,比如:同样的提示词,在不同平台表现差异巨大,都是因为消息处理细节不同。


MCP 提供了一种共享的、与厂商无关的协议。你定义一次工具,任何支持 MCP 的 LLM 代理都能使用它


当然,兼容性问题并没有完全解决。目前想让 MCP 同时在所有平台顺利跑通,依然具有挑战性。尤其在初期没有认证标准,导致集成更加困难。


但 MCP 的承诺很重要:只要你符合 MCP 标准,其它问题就变成了“别人的 bug”。当你不再需要对抗整个世界去实现某个想法时,创新速度会自然提升。


 MCP协议虽然不完美,但“已经足够好”。它作为一个抽象层,明确划清了工具与代理之间的界限,让工具开发者专注于工具,代理开发者专注于代理。


工具链够易用了


MCP 提供的开发工具链足够直观、质量上乘,也足够易上手。多语言 SDK 提供良好支持,不管你用什么技术栈都能方便集成。


无需多余搭建,无需自己处理重试逻辑,无需操心代理连接。门槛变低,意味着构建、共享、复用工具的速度都加快,可以部署到 CLI、IDE、代理、Web 服务等各种环境。


你可以很快开始,并立刻看到效果


这里有个小结论:开发者体验至关重要。平台能否被广泛采用,有时只取决于那一点点摩擦是否被消除了。


势头够强劲了


不出所料,任何协议的成功都需要猛烈的上升态势和开发者中的口碑宣传。


一个协议的价值,来自于客户端和服务端的广泛支持。


在客户端,MCP 已获得广泛采纳:OpenAI Agent SDK 和 Google DeepMind 全面支持,Cursor、Cline、Zed 等主流代理工具已完成集成。


在服务端,MCP也在加速入场。越来越多 API-first 公司将自家服务封装成 MCP 工具。即使没有官方 MCP 工具,也有第三方服务填补空白。


除了 MCP 核心软件之外,丰富的独立生态也在迅速崛起:


  •  工具注册表(如 awesome-mcp-servers、smithery.ai、postman、glama.ai) 
  •  第三方服务(如 Cloudflare、Vercel) 
  •  教程(glama.ai、Towards Data Science) 
  •  在线课程、活动等(Hugging Face) 


这些动量不是一夜之间建立的。Anthropic 团队付出了大量努力,撰写优质文档、举办技术讲座、组织线下活动,甚至直接与企业合作,为 MCP 构建了一个已然具有吸引力的生态。


随着 MCP 成为主流,基础模型提供商未来可能会直接在训练中加入 MCP 使用模式的数据。这将反过来提升模型处理工具和代理任务的能力,巩固 MCP 作为未来 API 接入思维方式的地位


开发者争论:MCP也是“重复造轮子”,如果消亡也不会奇怪!


到这里,我们已经梳理作者认为 MCP 能爆火的多个原因。但在开发者社区,对 MCP 的看法仍然分歧明显。


不少人承认 MCP 的确降低了接入工具的门槛,让复杂任务更容易落地。比如有位开发者提到,他们用 MCP 接入了 50 多个内部工具,Agent几秒钟就能自动完成本该几小时的 Jira 和 Confluence 浏览总结,对业务效率的提升非常实在。


但也有许多老牌程序员对 MCP 抱有强烈的保留意见。他们的核心观点是:MCP 不是突破,而是在重复造轮子。


一位资深开发者在评论中这样写道:

只是因为现在所有用户侧工具都支持 MCP,我才会用 MCP。


一旦业界选定了一个“正常”的统一标准,我会立刻把 MCP 扔掉,因为 MCP 并没有带来任何我用标准 API 做不到的东西。


我经历过从 EDI 到 EJB、XML-RPC 等整个演变过程。我们行业总爱造新 API 接口,但要么没设计好,要么难以复用。这种“无视已有经验,另起炉灶”的情况我早已见怪不怪。


只要出现一个更合理、可集成性强的替代方案,我会毫不犹豫地彻底换掉 MCP。企业领域很多人想法都一样——毕竟我们花了几十年构建完善的 API 管理系统,而 MCP 把这一切都搞乱了。



这番话引起了不少共鸣。另一位用户回复道:


完全同意,虽然我理解 MCP 在用户端工具方面的价值,但很多人似乎是在“重新造轮子”,因为他们根本不懂 REST。用 LLM 发起一个定义良好的 REST 请求,其实并不难。

更有人抛出了一个更具未来感的判断


如果未来 LLM 支持直接发 HTTP 请求,我不会惊讶 MCP 会因此消亡,或者至少大幅减少使用场景。 因为如果你训练 LLM 直接调用 REST API,那 MCP 很多用例就没意义了。



或许,MCP 的成功并不是因为它有多先进,而是它刚好出现得足够及时——踩在了模型能力提升、工具生态爆发、标准化需求集中的那个临界点上。


但如果有一天,LLM 真能直接联网、调用 API、读写文件……我们还会需要 MCP 吗?


你怎么看?欢迎在评论区聊聊你的看法,或者分享你使用 MCP 的踩坑与收获。


参考链接:

https://www.stainless.com/blog/mcp-is-eating-the-world--and-its-here-to-stay

关注51CTO官微

帮助一亿数字化人才终身成长

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/183717
 
66 次点击