什么是 MCP 服务器?解读重要的 AI 赋能器
MCP 服务器是人工智能开发和未来代理互联网的关键工具。它们为人工智能提供了重要的工具,使其不仅能够说话,还能行动。正是凭借 MCP 服务器,大型语言模型才能轻松访问数据库、与文本转语音服务和 3D 建模应用程序交互,甚至还能抓取网站数据。那么,MCP 服务器究竟是什么呢?
什么是 MCP?
MCP(模型上下文协议)服务器是 MCP 的主要组件:它是 LLM 可以使用的工具的开放标准。该协议由 Claude 的创建者 Anthropic 于 2024 年 11 月 26 日发布。
LLM 可以根据训练数据整天聊天——但仅此而已。默认情况下,AI 无法访问实时数据,也无法操作任何内容。你可以使用专门的 API 赋予它这些功能,但这既耗时又费力。因此,每次你想添加诸如查询时间或与 Slack 交互之类的功能时,你都必须针对特定的模型-应用/服务组合进行定制工作。
但是,MCP 框架引入了一项新标准,用于创建一个位于 LLM(或者更准确地说是 AI 应用程序)和你希望它使用的工具之间的翻译器。无论工具使用什么奇怪的“语言”,它的 MCP 服务器都会将其翻译成任何 AI 模型(例如 Claude、ChatGPT 等)都能理解的内容。
MCP 系统包含以下主要组件:
- MCP 主机: 这就是您正在使用的 AI 应用程序。
- MCP 客户端: 这就是 AI 用来与 MCP 服务器建立安全连接的方法。
- MCP 服务器: 将人工智能想要的内容与相关服务提供的内容进行转换。
什么是 MCP 服务器?
MPC 服务器是一个强大的转换器,允许模型与系统和数据进行交互。API 必须针对特定的服务和 LLM 组合创建,而 MCP 服务器只需针对特定服务即可。
因此,例如, Oxylabs MCP 服务器 将为您拥有的任何 AI 模型提供网络抓取功能。
MCP 服务器可以包含三种类型的 原语 这可以是 裸露 供人工智能使用:
- 资源: 这是 上下文 以其最原始/常见的形式:文档、文件、数据库。它使人工智能能够查找 Apache Doris 数据库中的数据。这样,人工智能可以访问的不仅仅是开发模型时提供的数据。
- 工具: 资源允许被动消费,而工具则允许人工智能在无需人类参与的情况下完成任务。工具是人工智能输入新条目、删除数据以及管理数据库的方式——或者 在 ImgFlip 上创建表情包这使得人工智能不再只是一个复杂的聊天机器人,而是一个代理。
- 提示: 提示可能是最特定于 AI 的 MCP 服务器内容类型,它是专门的 AI 指令,允许其以预设的标准化方式执行任务。例如,如果你告诉模型“计划一次假期”,提示模板可能会让 AI 询问你期望的地点、时长、预算和兴趣。
举个具体的例子,假设有一个 MCP 服务器,它提供数据库的上下文信息。它可以提供查询数据库的工具、包含数据库模式的资源,以及包含与工具交互的少量示例的提示。
modelcontextprotocol.io
该协议围绕 JSON-RPC 2.0 通信构建 - RPC 部分指的是“远程过程调用”,这个概念与 MCP 客户端可能需要在同一设备或其他在线位置调用 MCP 服务器的方式紧密相关。
但这还不是全部——MCP 服务器还可以要求客户端提供数据——或者用更专业的术语来说,有一些原语可以公开:
- 采样: 允许服务器从客户端的 AI 应用程序请求语言模型完成,以访问语言模型,而无需拥有自己的语言模型 SDK。
- 启发:当服务器创建者想要从用户那里获取更多信息或提示对某个操作进行确认时。
- 记录:为了调试和监控目的而提交日志的简单行为。
MCP 服务器和 API 之间有什么区别?
MCP 服务器和 API 之间的关键区别在于 MCP 服务器用于服务 AI/LLM。 当然,它们都允许软件与外部服务进行交互,但相似之处也仅限于此:
- 我们已经提到 标准化传统的 API 会以开发人员认为最佳的格式输出数据。但由于 MCP 是一个标准,无论服务的输入是什么,MCP 服务器的输出都是任何 AI 模型都可以轻松使用的。
- API 通常由开发者创建,允许第三方软件与其应用和服务交互。例如,Reddit API 允许不同的 Reddit 客户端存在,但它的设计初衷并非如此。同样的 API 也允许 AI 使用 Reddit 数据进行训练。相比之下,MCP 服务器的存在是为了 为人工智能提供标准化的数据、工具和提示.
- API 不会为了模型的易理解和易用而定制输入和输出。但 MCP 专门处理了调用 API、读取响应并将其转换为 可用上下文人工智能本身不需要经过编程就能“理解”幕后发生的任何过程。
- API 通常将安全性留给最终用户。然而,MCP 服务器在开发时就已经具备了安全性,例如嵌入在传输层的身份验证程序。
MCP 服务器在网页抓取中有什么用处?
同时,LLM 可以为多个服务运行 MCP 客户端,因此它可以访问网络抓取 MCP 服务器,获取所需的网络抓取数据,然后将其输入数据库 MCP 服务器进行存储、处理和检索。就这样。
在结论
MCP 服务器是驱动 AI 代理的全新 MCP 架构的关键组成部分。如果没有它,我们将沦为一堆拼凑的解决方案,不得不根据每种新情况进行定制。但现在,MCP 服务器让 AI 与其他服务和谐共存,或者说高效地抓取网络数据。