- # why - # what - ## 概念 - Model Context Protocol(模型上下文协议,简称MCP)是由Anthropic于2024年11月开源发布的一种开放标准和框架。其目标是在人工智能模型(尤其是大型语言模型,LLM)与外部工具、系统和数据源之间建立统一的上下文连接方式。 - MCP采用**客户端-服务器**架构,基于**JSON-RPC 2.0**协议进行通信。具体来说,MCP定义了一类**MCP服务器**,由开发者针对某个数据源或应用编写,用以向AI模型暴露可用的功能(称为“工具”)、数据资源以及提示模板等;同时还有对应的 **MCP客户端**,嵌入在AI助手或应用中,与这些服务器建立一对一连接,充当模型与服务器的桥梁 。最终,运行LLM的主机应用(如Claude桌面版、IDE插件或定制AI Agent)可以通过MCP客户端发现并调用各MCP服务器提供的能力,从而让模型以标准化方式访问外部数据和执行操作。 - 在浏览器场景里,MCP 让模型能**看得到**你的页面、**动得了**你的标签页,从而实现“AI 远程驾驶浏览器”。 - 理论上所有的 App,不管是本地的如 logseq、Obsidian,还是远程服务器中的,如 notion、Readwise 、Figma都可以安装** MCP server**,让 App 与 LLM 可以进行对话。 - Anthropic 将其定义为代理系统的 USB-C 端口等效物。它标准化了 AI 应用程序、LLM 和外部数据源(数据库、Gmail、Slack 等)之间的连接。就像[[IO-Link]]。机器是客户端,外围设备是工具,MCP 是 Type-C 接口。因此,无论设备或外围设备由谁制造,它们都能无缝协作。 - ![](https://image.harryrou.wiki/2025-06-16-130457.png) - ## 架构 - ![](https://image.harryrou.wiki/2025-06-16-135656.png) - 完整的 MCP 架构由四部分组成 - **主机 Host** :协调整个系统并管理 LLM 交互 - **客户端 Clients** :以 1:1 关系将主机连接到服务器 - **服务器 Servers** :通过工具、资源和提示提供专门的功能 - **基础协议 Base Protocol** :定义所有这些组件如何通信 - ## 类比 - 早期的 ChatGPT 插件 - # how - **cursor** - 例如,在 Cursor 内部,如果遵循协议,您可以连接到任何 MCP 服务器。 - MCP with knowledgebase - 可以安装本地的ob 里的笔记、Readwise 里的文章、微信读书划线笔记 - vs [[ima 知识库]]:一个是通过 MCP 协议,一个是通过 [[RAG 检索增强生成]]。 - [DR- MCP与 ERP 的可行性](https://readwise.io/reader/shared/01jxwh1qr9936bq1b2jd1cyrgx) - MCP with [[browser Tool]] - MCP with figma:不用手动设计了 - [[ChatGPT 连接器]] - [[claude MCP打通写作工作流]] - # how good - # Ref. - [What is Model Context Protocol (MCP): Explained](https://readwise.io/reader/shared/01jxvtq9sy4p13p650vnjd8tf0) - [MCP Wikipedia](https://readwise.io/reader/shared/01jxwdc2sv3yrxzc334x62csj6)