开源模型上下文协议 MCP 更新:采用 Streamable HTTP 取代 HTTP+SSE


开源模型上下文协议 MCP 规范今天发布了新版本,一些主要变化:

  • 基于 OAuth 2.1 的身份验证框架
  • 用 Streamable HTTP 传输取代了以前的 HTTP+SSE 传输
  • 支持 JSON-RPC 批处理
  • 工具注释可以更好地描述工具行为

详情查看 https://github.com/modelcontextprotocol/specification/tree/main/docs/specification/2025-03-26

Streamable HTTP 改变了 MCP 的数据传输方式,让协议变得:

  1. 更灵活(支持流式传输,但不强制)

  2. 更易用(支持无状态服务器)

  3. 更兼容(适用于标准 HTTP 基础设施)

💡 简单比喻: 原来的 MCP 传输方式就像是你和客服通话时必须一直保持在线(SSE 需要长连接),而新的方式更像是你随时可以发消息,然后等回复(普通 HTTP 请求,但可以流式传输)。

主要变更

  1. 移除 /sse 端点

    • 服务器不再单独维护 SSE(Server-Sent Events)端点。
  2. 所有客户端 → 服务器的消息都通过 /message 端点

    • 任何数据传输都通过 /message 进行,不再依赖 /sse。
  3. 服务器可以选择升级请求为 SSE

    • 服务器可以根据需要动态升级 HTTP 请求为 SSE 流,用于发送通知或请求。
  4. 客户端通过 Header 提供 Mcp-Session-Id

    • 服务器可选是否需要存储 Session 信息,但客户端始终发送 Mcp-Session-Id 头部信息。
  5. 支持无状态(Stateless)服务器

    • 服务器可选择完全无状态运行,不再需要维持长期连接。

相關推薦

2025-03-26

Anthropic 工程师在 MCP 的 GitHub 仓库提交了一个希望采用 "Streamable HTTP" 传输代替「HTTP+SSE」的 PR,以解决当前远程 Model Context Protocol (MCP) 传输方式的关键限制,同时保留其优势。 根据该 PR 目前的状态,MCP 现已合并"Streamable HTTP" 提

2025-04-01

hub.com/1Panel-dev/mcp-1panel)基于MCP(Model Context Protocol,模型上下文协议)开发,能够大幅度简化Linux服务器的日常管理工作,为用户提供AI时代服务器管理的全新体验。 针对服务器管理场景,用户的交互体验从最早的使用命令行

2025-05-12

一、MCP简介 MCP(Model Context Protocol,模型上下文协议)是由Anthropic公司于2024年推出的开放标准,旨在统一AI模型与外部数据源、工具之间的通信方式。MCP提供了一套规范化的接口,使大语言模型(LLM)能够更便捷地与各类外部工

2025-05-01

求头或环境变量中提取认证令牌(Authorization),并通过上下文(context.Context)传递。 工具调用:注册一个名为 make_authenticated_request 的工具,用于向外部 API(httpbin.org)发送带认证的请求。 多传输协议支持:支持 SSE 和 stdio

2025-04-29

MaxKB同时支持目前最为流行的MCP(Model Context Protocol,模型上下文协议),为用户灵活调用MCP工具提供了充分的便利性。 在帮助企业落地DeepSeek的过程中,MaxKB开源项目组发现很多企业都有“智能问数”的需求,即允许员工使用自

2025-05-14

n Param 注解,添加字段支持 优化 solon 允许 MethodWrap 没有上下文的用况 优化 solon-web-sse 边界,允许 SseEmitter 未提交之前就可 complete 优化 solon-serialization JsonPropsUtil.apply 分解成本个方法,按需选择 优化 solon-ai 允许 MethodFunction

2025-04-22

史诗级”更新 —— 支持 MCP。MarkItDown 现已提供 MCP(模型上下文协议)服务器 (MarkItDown-MCP),以便与 LLM 应用程序如 Claude Desktop 集成。 MarkItDown-MCP 提供两种主要的服务器模式: STDIO模式(默认):通过标准输入/输出进行通

2025-03-20

tee 什么是 Gitee MCP Server? MCP(Model Context Protocol,模型上下文协议)是一个用于 AI 与开发环境交互的标准协议,让 AI 具备代码上下文的感知能力,而不只是单纯地做代码补全或聊天问答。 正如 USB-C 提供了一种将设备连接到

2025-05-22

式。可以从简单的QuestionAnswerAdvisor开始,为提示注入相关上下文,或者使用RetrievalAugmentationAdvisor扩展到更复杂的模块化 RAG 管道,为你的应用量身定制。 可以在参考文档的部分中阅读有关它们的更多信息。 对话历史记录是创

2025-05-24

有:Chat;RAG;MCP;AiFlow。 其中 ChatModel 是 Solon AI 的核心模型接口(其它暂略),通过方言的方式(ChatDialect)可适配各种环境(或平台)提供的大语言模型。 2、历时回顾 时间 回顾 备注 2025-01 中 Solon Flow

2025-03-26

持 command / sse 类型的 MCP Server 支持自动获取 IDE 操作的上下文 支持任意兼容 OpenAI 模型、DeepSeek、claude 3.5 sonnet 等模型接入 架构设计 OpenSumi MCP 架构图 功能演示   Fast Apply 演示   运行

2025-05-17

,确保一致性 (#5642)。 修复了“网页搜索”和“清除上下文”在某些情况下不工作的问题 (#5677)。 修复了 StoreSyncService 在注册 IPC 处理器时设置标志的 bug (#5715)。 修复了聊天消息翻译的问题 (#5682)。 确

2025-04-22

Gitee MCP Server v0.1.9 已经发布,Gitee 模型上下文协议 (MCP) 服务器。 更新内容 fix: Update description for target_commitish and make it required @JJ-H 详情查看:https://gitee.com/oschina/mcp-gitee/releases/v0.1.9

2025-05-21

微软宣布在 Windows 11 中集成模型上下文协议(MCP),旨在未来使 Windows 11 成为一个智能代理操作系统。 MCP 与 Windows 的集成将为 AI 智能体连接原生 Windows 应用提供标准化框架,使应用能够无缝参与智能体交互。