OpenAI 宣布 Responses API 已支持 MCP,开发者只需几行代码就能将 OpenAI 模型连接到 Cloudflare、HubSpot、Stripe 等任何远程 MCP 服务器,帮助开发者构建更智能的智能体应用。
Responses API 是 OpenAI 的状态化 API,支持包括网络搜索、文件搜索和计算机使用在内的多种新工具,为开发者提供更简洁、灵活的方式与 OpenAI 模型交互。
from openai import OpenAI
client = OpenAI()
resp = client.responses.create(
model="gpt-4.1",
tools=[
{
"type": "mcp",
"server_label": "deepwiki",
"server_url": "https://mcp.deepwiki.com/mcp",
"require_approval": "never",
},
],
input="What transport protocols are supported in the 2025-03-26 version of the MCP spec?",
)
print(resp.output_text)
除了支持 MCP 外,OpenAI 还对 Responses API 中的图像生成、Code Interpreter 和文件搜索工具进行了重大更新,进一步增强了智能体的功能。
- 图像生成:开发者现在可以在 Responses API 中直接访问 OpenAI 的最新图像生成模型(如 <gpt-image-1>),并将其作为工具使用。该工具支持实时流传输,允许开发者在图像生成过程中查看预览,并支持多轮编辑,使开发者能够逐步精细调整图像。
- Code Interpreter:Code Interpreter 工具现在可以在 Responses API 中使用,支持数据分析、解决复杂的数学和编码问题,甚至帮助模型深入理解和操作图像。例如,在处理数学问题时,模型可以利用 Code Interpreter 运行代码来得出答案,从而显著提升性能。
- 文件搜索:文件搜索工具得到了增强,允许开发者根据用户查询将文档中的相关内容块提取到模型的上下文中。此外,该工具还支持跨多个向量存储执行搜索,并允许使用数组进行属性过滤。
- 后台模式:对于需要较长时间处理的任务,开发者可以使用后台模式异步启动这些任务,而无需担心超时或其他连接问题。开发者可以通过轮询这些任务来检查是否完成,或者在需要时开始流式传输事件。
- 推理摘要:Responses API 现在可以生成模型内部思维链的简洁自然语言摘要。这使得开发者更容易调试、审计和构建更好的最终用户体验。
- 加密推理项:符合零数据保留(ZDR)条件的客户可以在 API 请求之间重复使用推理项,而无需将任何推理项存储在 OpenAI 的服务器上。这不仅提高了智能性,还减少了标记使用量,降低了成本和延迟。
详情查看:https://platform.openai.com/docs/guides/tools-remote-mcp