开源模型上下文协议 MCP 已合并 "Streamable HTTP" 提案


近日,Anthropic 工程师在 MCP 的 GitHub 仓库提交了一个希望采用 "Streamable HTTP" 传输代替「HTTP+SSE」的 PR,以解决当前远程 Model Context Protocol (MCP) 传输方式的关键限制,同时保留其优势。

根据该 PR 目前的状态,MCP 现已合并"Streamable HTTP" 提案。

https://github.com/modelcontextprotocol/specification/pull/206

Streamable HTTP 改变了 MCP 的数据传输方式,让协议变得:

  1. 更灵活(支持流式传输,但不强制)

  2. 更易用(支持无状态服务器)

  3. 更兼容(适用于标准 HTTP 基础设施)

💡 简单比喻: 原来的 MCP 传输方式就像是你和客服通话时必须一直保持在线(SSE 需要长连接),而新的方式更像是你随时可以发消息,然后等回复(普通 HTTP 请求,但可以流式传输)。

主要变更

  1. 移除 /sse 端点

    • 服务器不再单独维护 SSE(Server-Sent Events)端点。
  2. 所有客户端 → 服务器的消息都通过 /message 端点

    • 任何数据传输都通过 /message 进行,不再依赖 /sse。
  3. 服务器可以选择升级请求为 SSE

    • 服务器可以根据需要动态升级 HTTP 请求为 SSE 流,用于发送通知或请求。
  4. 客户端通过 Header 提供 Mcp-Session-Id

    • 服务器可选是否需要存储 Session 信息,但客户端始终发送 Mcp-Session-Id 头部信息。
  5. 支持无状态(Stateless)服务器

    • 服务器可选择完全无状态运行,不再需要维持长期连接。

变更的动机

当前的 HTTP+SSE 传输 存在以下问题:

  • 不支持可恢复性(Resumability):连接断开后,客户端必须重新开始整个会话。

  • 服务器需要维持长期连接(High Availability Requirement):服务器必须保持高可用性,以支持持续的 SSE 连接。

  • SSE 仅支持服务器 → 客户端消息,无法灵活进行双向通信。

新的 “Streamable HTTP” 传输方式解决了这些问题,并增强了系统的可扩展性和灵活性。


相關推薦

2025-03-28

,一些主要变化: 基于 OAuth 2.1 的身份验证框架 用 Streamable HTTP 传输取代了以前的 HTTP+SSE 传输 支持 JSON-RPC 批处理 工具注释可以更好地描述工具行为 详情查看 https://github.com/modelcontextprotocol/specification/tree/main/do

2025-04-23

详情参考《智能体》。 支持将文档内容和网页内容作为上下文: #Web:支持联网搜索,AI 会自动提取网页内的相关内容作为上下文。 #Doc:支持通过 URL 或上传 .md/.txt 文件的方式添加文档集。 详情参考《上下文》。

2025-03-20

tee 什么是 Gitee MCP Server? MCP(Model Context Protocol,模型上下文协议)是一个用于 AI 与开发环境交互的标准协议,让 AI 具备代码上下文的感知能力,而不只是单纯地做代码补全或聊天问答。 正如 USB-C 提供了一种将设备连接到

2025-03-29

能体应用的开发效率。 MCP(Model Context Protocol)模型上下文协议是由 Anthropic 推出的业界领先的开放标准,旨在构建大模型与数据源之间的安全双向链接,解决了社区中工具实现风格不统一、难以跨模型共享的问题。

2025-04-22

Gitee MCP Server v0.1.9 已经发布,Gitee 模型上下文协议 (MCP) 服务器。 更新内容 fix: Update description for target_commitish and make it required @JJ-H 详情查看:https://gitee.com/oschina/mcp-gitee/releases/v0.1.9

2025-04-01

hub.com/1Panel-dev/mcp-1panel)基于MCP(Model Context Protocol,模型上下文协议)开发,能够大幅度简化Linux服务器的日常管理工作,为用户提供AI时代服务器管理的全新体验。 针对服务器管理场景,用户的交互体验从最早的使用命令行

2025-04-03

使用 CoT 来进行工具调用,而不依赖于 function tool。 关键上下文。即基于 IDE 的 PSI 接口丰富了语法分析计算与架构视图,提供系统的关键上下文。 同时,DevIns 能和 MCP 生态非常好的结合在一起,以便于更好地调用工具。 2

2025-04-22

史诗级”更新 —— 支持 MCP。MarkItDown 现已提供 MCP(模型上下文协议)服务器 (MarkItDown-MCP),以便与 LLM 应用程序如 Claude Desktop 集成。 MarkItDown-MCP 提供两种主要的服务器模式: STDIO模式(默认):通过标准输入/输出进行通

2025-04-08

。可通过设置 chat.agent.enabled 启用(详情) 使用模型上下文协议(MCP)服务器工具扩展代理模式(详情)。 尝试代理模式下的新内置工具来获取网络内容、查找符号引用和深度思考(详情)。 代码编辑 Next Edit Sugges

2025-03-26

持 command / sse 类型的 MCP Server 支持自动获取 IDE 操作的上下文 支持任意兼容 OpenAI 模型、DeepSeek、claude 3.5 sonnet 等模型接入 架构设计 OpenSumi MCP 架构图 功能演示   Fast Apply 演示   运行

2025-04-23

更流畅、更定制 升级中,Trae新版本不仅带来了智能体与上下文理解能力,还提供多种 AI 工具,并支持MCP自由接入各类外部资源;在产品交互形态上,Trae新版本把原先的Builder与Chat板块融合,打破了传统以代码为中心的IDE模式

2025-04-15

谷歌开源了首个Agent开发套件—ADK,这也是OpenAI之后第二家大厂发布的标准化智能体SDK。 ADK能帮助开发人员极大简化开发超复杂流程的智能体,从大模型选择、自动化流程编排、测试到应用部署可一站式完成,并且支持双向音

2025-04-10

漫画故事。MCP 巧妙地打开了以文本为主要互动手段的大模型,与现实世界之间的大门。 随着 OpenAI 宣布 Agent SDK 对 MCP 的正式支持,这标志着 MCP 已经成为了大模型和现实工具通讯上的事实标准。 尽管 MCP 的协议本身并不特别复

2025-03-27

繁琐事务,助力 Gitee 专业版研发提效 Gitee MCP Server 正式开源:让 AI 助手直连你的代码仓库