OpenAI Responses API 支持 MCP


OpenAI 宣布 Responses API 已支持 MCP,开发者只需几行代码就能将 OpenAI 模型连接到 Cloudflare、HubSpot、Stripe 等任何远程 MCP 服务器,帮助开发者构建更智能的智能体应用。

Responses API 是 OpenAI 的状态化 API,支持包括网络搜索、文件搜索和计算机使用在内的多种新工具,为开发者提供更简洁、灵活的方式与 OpenAI 模型交互。

from openai import OpenAI

client = OpenAI()

resp = client.responses.create(
model="gpt-4.1",
tools=[
{
"type": "mcp",
"server_label": "deepwiki",
"server_url": "https://mcp.deepwiki.com/mcp",
"require_approval": "never",
},
],
input="What transport protocols are supported in the 2025-03-26 version of the MCP spec?",
)

print(resp.output_text)

除了支持 MCP 外,OpenAI 还对 Responses API 中的图像生成、Code Interpreter 和文件搜索工具进行了重大更新,进一步增强了智能体的功能。

  • 图像生成:开发者现在可以在 Responses API 中直接访问 OpenAI 的最新图像生成模型(如 <gpt-image-1>),并将其作为工具使用。该工具支持实时流传输,允许开发者在图像生成过程中查看预览,并支持多轮编辑,使开发者能够逐步精细调整图像。
  • Code Interpreter:Code Interpreter 工具现在可以在 Responses API 中使用,支持数据分析、解决复杂的数学和编码问题,甚至帮助模型深入理解和操作图像。例如,在处理数学问题时,模型可以利用 Code Interpreter 运行代码来得出答案,从而显著提升性能。
  • 文件搜索:文件搜索工具得到了增强,允许开发者根据用户查询将文档中的相关内容块提取到模型的上下文中。此外,该工具还支持跨多个向量存储执行搜索,并允许使用数组进行属性过滤。
  • 后台模式:对于需要较长时间处理的任务,开发者可以使用后台模式异步启动这些任务,而无需担心超时或其他连接问题。开发者可以通过轮询这些任务来检查是否完成,或者在需要时开始流式传输事件。
  • 推理摘要:Responses API 现在可以生成模型内部思维链的简洁自然语言摘要。这使得开发者更容易调试、审计和构建更好的最终用户体验。
  • 加密推理项:符合零数据保留(ZDR)条件的客户可以在 API 请求之间重复使用推理项,而无需将任何推理项存储在 OpenAI 的服务器上。这不仅提高了智能性,还减少了标记使用量,降低了成本和延迟。

详情查看:https://platform.openai.com/docs/guides/tools-remote-mcp


相關推薦

2025-05-27

MCP的感知更清晰 优化消息复制成图片能力 支持 OpenAI Responses API Claude 4 / Gemini 05-20 相关支持 详情查看更新说明。

2025-05-17

支持图像编辑功能(#5469)。 支持 OpenAI 最新的 Responses API (#5621)。 增强了 OpenRouter 中 Token 预算的计算逻辑 (#5625)。 新增 Qwen3 系列模型支持 (#5533): 紧跟模型发展趋势,集成最新的 Qwen3 系列大语言

2023-01-12

meta:meta arithmetic 命令有多余的 spaces meta:从 meta responses 中删除多余的 spaces proxy:修复后端连接初始化的错误 修复 2038 年之后的日志时间戳 修复 clang 错误的函数原型 proxy:添加 mcp.await FASTGOOD flag New Featu

2025-04-19

。 「Flex processing 」可以显著降低 Chat Completions 或 Responses 请求的成本,但会以较慢的响应时间和偶尔的资源不可用为代价。它非常适合非生产或低优先级任务,如模型评估、数据丰富化或异步工作负载。 OpenAI 表示,

2025-05-30

发布,新版本带来了通过工具调用进行流式响应 (Streaming responses with tool calling) 功能,让开发者构建的聊天应用从此能够像流式输出普通文本一样,实时地调用工具并展示结果。 这一更新使得所有聊天应用都能够在模型生成内

2025-05-21

议旨在标准化 AI 模型与数据系统的连接方式,此前 OpenAI 和 Google 也已表示支持。 为了确保安全性,Windows 11 将提供以下安全控制: 代理中介通信 (Proxy-Mediated Communication):所有 MCP 客户端-服务器交互都通过一

2025-03-26

erver 支持自动获取 IDE 操作的上下文 支持任意兼容 OpenAI 模型、DeepSeek、claude 3.5 sonnet 等模型接入 架构设计 OpenSumi MCP 架构图 功能演示   Fast Apply 演示   运行终端命令   支持

2025-04-08

行。它支持多种 LLM(大型语言模型)运行器,如Ollama和OpenAI兼容 API,并内置了用于 RAG 的推理引擎,使其成为一个强大的 AI 部署解决方案。 上周发布的 0.6.0 包括如下变化: 通过 OpenAPI 支持外部工具服务器:立即将 Open Web

2025-04-09

供商:新增对七牛云 AI (Qiniu AI) 提供商的支持。(581ad5f) OpenAI & Web Search:新增对gpt-4o-mini(或OpenAI-4o-web-search) 的支持,并添加了对网页搜索引用的支持。(f2ca56a) 构建:新增对 Windows ARM64 平台的支持。(8501ab8) 导出:添加了导出菜

2025-04-10

主要互动手段的大模型,与现实世界之间的大门。 随着 OpenAI 宣布 Agent SDK 对 MCP 的正式支持,这标志着 MCP 已经成为了大模型和现实工具通讯上的事实标准。 尽管 MCP 的协议本身并不特别复杂,但无论从 Server 的实现、配置,

2025-04-15

谷歌开源了首个Agent开发套件—ADK,这也是OpenAI之后第二家大厂发布的标准化智能体SDK。 ADK能帮助开发人员极大简化开发超复杂流程的智能体,从大模型选择、自动化流程编排、测试到应用部署可一站式完成,并且支持双向音

2025-03-29

盖逆地理编码、地点检索、路线规划等。 作为国内首家支持 MCP 协议的地图服务商,百度地图 MCP Server 发布后,智能体开发者仅需简单配置,就可以在大模型中快速接入地图服务,实现查找周边地点、 规划出行路线等能力,大

2025-03-27

不再需要为代码评审苦恼。 除了 PR Review,Gitee Code MCP 还支持 Issue 处理、Commit 追踪、代码仓库管理等完整代码仓库相关 DevOps 流程。现在就去试试,探索 AI 赋能开发的新方式吧! 推荐阅读 写一行代码,用 Cursor + Gitee MCP

2025-03-20

问题、拉取请求和通知进行交互 可配置的 API 基础 URL,支持不同的 Gitee 实例 命令行标志,便于配置 支持个人、组织和企业操作 开源地址:https://gitee.com/oschina/mcp-gitee 什么是 Gitee MCP Server? MCP(Model Context Protocol,