Lazy loaded image
用户答疑
MCP只能适用Claude的大模型么
Words 1169Read Time 3 min
2025-2-12
2025-3-31
type
status
date
slug
summary
tags
category
icon
password
来自用户的提问:MCP只能适用Claude的大模型么
MCP(Model Context Protocol)并不只能适用 Claude 的大模型,这点很多人一开始也搞错了。MCP 是 Anthropic 在 2024 年中推出来的一个开放协议,设计初衷是让各种大语言模型(LLM)都能通过标准化的方式调用外部工具,而不是绑定某个特定模型。所以理论上,只要模型支持工具调用(Tool Calling)或者类似的功能,MCP 就能用。以下是我给你挖的细节:

MCP 的本质

MCP 是个协议,不是某个模型的专属配件。它定义了一套规则:怎么描述工具(用 JSON Schema)、怎么让模型发请求、怎么处理返回结果。Cline 团队拿这个协议做了 MCP Marketplace,把服务器和工具的实现标准化,但底层的模型支持完全取决于 Cline 本身能兼容啥。

用 Cline 举例

Cline 虽然最早是为 Anthropic 的 Claude 系列(比如 Claude 3.5 Sonnet)优化的,但 3.4 版本之后,它已经扩展了对其他模型的支持。MCP Marketplace 里的服务器并不关心你用的是哪个模型,只要 Cline 能跟模型对接上,MCP 就能跑。具体支持的模型包括:
  • Anthropic Claude:原生支持,毕竟 MCP 是 Anthropic 的产物,Claude 用起来最丝滑。
  • OpenAI 模型:像 GPT-4o、GPT-4-Turbo,通过 OpenAI 兼容 API,能完美跑 MCP。配置里可以调上下文窗口和输出长度。
  • DeepSeek:3.4 更新加了 DeepSeek-R1 和 V3 支持,这俩模型性价比高,也能用 MCP。
  • Alibaba Qwen 2.5:包括编码模型和多模态模型,最近才加进来,跑 MCP 没问题。
  • Mistral:修复了非 codestral 模型的支持,比如 Mixtral,也能用 MCP。
  • AWS Bedrock:通过 Bedrock Profiles 集成,能跑 Bedrock 上的各种模型(包括 Anthropic 的,但也支持其他家)。

技术上咋实现的?

MCP 服务器本质上是个独立的小程序,跑在本地或者云端,提供 REST API 或者 WebSocket 接口。模型通过 Cline 的中间层发指令给 MCP,拿到结果后处理。关键是模型得支持“工具调用”能力,也就是能解析 MCP 返回的工具定义(JSON 格式),然后生成符合格式的请求。
  • Claude 的工具调用是天生的,MCP 协议直接基于它的实现。
  • OpenAI 的 Function Calling 和 MCP 高度兼容,Cline 内部做了适配。
  • DeepSeek、Qwen 这些新模型,只要支持类似 OpenAI 的工具调用接口,就能无缝接上。

有没有限制?

虽然 MCP 不限 Claude,但实际用起来有些细节得注意:
  1. 模型能力差异: 不是所有模型都像 Claude 那么擅长理解复杂工具调用。Claude 在处理多步推理和工具交互时特别强,OpenAI 的 GPT-4o 也不差,但有些便宜模型(比如早期 LLaMA)可能会懵逼,生成的指令乱七八糟。
  1. Cline 的适配: MCP Marketplace 是 Cline 的功能,模型支持取决于 Cline 的更新。如果 Cline 没集成某个模型(比如 Grok 或者某个小众开源模型),你就得自己改 Cline 的代码或者等官方支持。
  1. 性能开销: MCP 服务器跑本地,模型跑云端,网络延迟和算力要求对体验影响挺大。Claude 和 OpenAI 的云服务响应快,DeepSeek 如果本地跑可能会卡。

实际例子

X 上有人用 OpenAI 的 GPT-4o 跑了个 GitHub MCP,自动生成 PR,完全没问题。Reddit 上还有人拿 DeepSeek-R1 接了个 Supabase MCP,查数据库顺畅得很。甚至有个家伙用 Mistral 的 Mixtral 跑了个“网页抓取 MCP”,虽然偶尔出点小错,但功能都实现了。

说到最后

MCP 不是 Claude 专属,Cline 把它变成了一个通用平台。只要你用的模型支持工具调用,MCP Marketplace 里的服务器都能跑。Claude 可能是最优解,但 OpenAI、DeepSeek、Qwen 这些也完全没问题。未来 Cline 如果再加更多模型支持(比如 Grok 或者 LLaMA 系),MCP 的适用范围还会更广。
上一篇
RPA vs. MCP Server:核心对比
下一篇
DeepSeek R2:加速推出的“下一代推理王者”?