最新消息:雨落星辰是一个专注网站SEO优化、网站SEO诊断、搜索引擎研究、网络营销推广、网站策划运营及站长类的自媒体原创博客

一文拆解 MCP:AI 大模型领域爆火的标准化交互协议全解析

网站源码admin2浏览0评论

一文拆解 MCP:AI 大模型领域爆火的标准化交互协议全解析

MCP是近期的AI领域的热点,特别是在海外社区获得热烈讨论,每天都有大量MCP工具诞生。MCP 协议连接各类 AI 模型与外部资源的“桥梁”,正在逐渐发挥的关键作用。那么MCP 是如何统一工具调用?客户端与服务器怎么交互?为何不同客户端对模型的支持存在差异?今天就从MCP的概念,工作流程,架构原理等方面,来深入探讨MCP协议。

一、什么是 MCP 协议

MCP,即 Model Context Protocol(模型上下文协议),由 Anthropic 公司(也就是开发 Claude 模型的公司)推出的一个开放标准协议。它如同智能交互领域的 “通用插头” 或 “USB 接口”,通过制定统一规范,实现 AI 模型与外部资源的无缝对接。无论是连接数据库、调用第三方 API,还是访问本地文件,MCP 都能有效解决 AI 模型与外部数据源、工具间的交互难题,为 AI 应用拓展了更广阔的可能性。

我们在使用大模型的过程中,往往需要与文件、数据库、浏览器、代码仓库等外部工具频繁交互。在没有 MCP之前,若想借助大模型处理这些外部工具中的内容,往往需要手动截图、复制粘贴文本等繁琐操作,将信息导入大模型以发起对话,不仅效率低下,还容易出错 。MCP 作为 AI 与外部工具的标准化中间层协议,可自动访问外部工具、整合信息与大模型交互。各 MCP 服务专司一类工作,如文件解析、数据检索等,显著提升协同效率。

简而言之,MCP 协议就是为 AIGC 领域中多客户端与服务器之间通信量身定制的一套标准规范,确保信息传递的准确性与高效性,这对于 AIGC 内容生成过程中频繁的交互需求至关重要。

二、MCP 的核心架构

MCP 协议的架构包含客户端、服务器以及连接二者的通信通道。关键组件包括:

  • MCP 主机(MCP Host):发起请求的 LLM 应用程序(例如 Claude Desktop、IDE 或 AI 工具)。
  • MCP 客户端(MCP Client):在主机程序内部,与 MCP server 保持 1:1 的连接。
  • MCP 服务器(MCP Server):为 MCP Client 提供上下文、工具和 prompt 信息。
  • 本地资源(Local Resources):本地计算机中可供 MCP server 安全访问的资源(例如文件、数据库)。
  • 远程资源(Remote Resources):MCP server 可以连接到的远程资源(例如通过 API)。

MCP工作方式如下:MCP Host,比如 Claude Desktop、Cursor 这些工具,在内部实现了 MCP Client,然后MCP Client 通过标准的 MCP 协议和 MCP Server 进行交互,由各种三方开发者提供的 MCP Server 负责实现各种和三方资源交互的逻辑,比如访问数据库、浏览器、本地文件,最终再通过 标准的 MCP 协议返回给 MCP Client,最终在 MCP Host 上展示。

三、MCP 的通讯模式

MCP定义了服务端与客户端进行通讯的协议与消息格式,其支持两种类型通讯机制:标准输入输出通讯 STDIO 、基于SSE的HTTP通讯 SSE ,分别对应着本地与远程通讯。服务端与客户端之间使用JSON-RPC 2.0格式进行消息传输。

  • STDIO:主要用在本地服务上,使用了stdio传输数据,具体流程Client启动Server程序作为子进程,其消息通讯是通过stdin/stdout进行的,消息格式为JSON-RPC 2.0。
  • SSE :主要用在远程服务上,Client使用SSE与Server进行通讯,消息的格式为JSON-RPC 2.0,Server定义了/see与/messages接口用于推送与接收数据。

简单理解,STDIO 调用方式是将一个 MCP Server 下载到你的本地,直接调用这个工具,而 SSE 则是通过 HTTP 服务调用托管在远程服务器上的 MCP Server

四、MCP 是如何运作的?

要真正理解MCP是什么,我们需要了解它的运作机制,然后你就能知道MCP的调用方式和传统的HTTP调用方式有什么不同?

1. 用户请求发起:用户向 AI Agent 询问 "现在几点了?",此时 AI Agent 作为 MCP 客户端,将用户提问、负责处理时间查询的 MCP 服务器信息以及 MCP 工具相关信息,一同发送至大语言模型(LLM)。

2. LLM 智能决策:LLM 接收信息后启动推理流程,基于用户的时间查询需求及 MCP 服务器功能特性,筛选出最适配的 MCP 服务器与 MCP 工具,并将决策结果反馈给 AI Agent(MCP 客户端)。返回信息示例为:"建议使用 time MCP 服务器中的 get_current_time MCP 工具,该工具可满足用户时间查询需求"。

3. 工具调用执行:AI Agent(MCP 客户端)依据 LLM 的建议,直接调用指定的 MCP 工具,即 Time MCP Server中的 get_current_time 工具,触发时间查询操作。

4. 结果获取:Time MCP Server执行时间查询任务后,将当前时间结果返回至 AI Agent(MCP 客户端)。

5. 内容整合请求:为实现更优质的结果输出,AI Agent(MCP 客户端)将用户原始问题与获取到的时间结果再次提交至 LLM,请求对信息进行整合优化。

6. 结果输出:LLM 对信息进行结构化处理后,将规整的内容返回给 AI Agent(MCP 客户端),最终由 AI Agent(MCP 客户端)将结果原原本本地反馈给用户 。

在 MCP 全链路调用中,MCP Server 与 MCP Tool 的信息是系统核心。用户发起请求后,这些信息帮助大语言模型(LLM)快速理解需求,匹配最佳解决方案。作为 MCP 体系的核心 System Prompt,它们既为 LLM 提供关键上下文,又像操作指南,精准指引模型调用功能模块,最终高效响应用户需求,是实现 MCP 智能交互的关键 。

总结

MCP 协议未来发展趋势良好,有望成为 AI 时代的基础协议。它将推动智能体发展,实现数字与物理世界深度融合,重构产业生态1。随着其开源与普及,会形成全新技术生态,降低工具开发门槛,促进跨平台协作。同时,MCP 协议也将面临动态安全机制、生态治理等挑战,但这些挑战不会阻挡其发展步伐。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。原始发表:2025-04-28,如有侵权请联系 cloudcommunity@tencent 删除协议服务器工具客户端模型
发布评论

评论列表(0)

  1. 暂无评论