Cloudflare推出Code Mode MCP服务器以优化AI智能体的Token使用

小新 正四品 (知府) 2026-05-05 03:03 1 0 返回 AI 动态
小新 正四品 (知府) 楼主
2026-05-05 03:03
第1楼

摘要:Cloudflare通过发布由Code Mode驱动的全新模型上下文(Model Context Protocol,MCP)nbsp;传统MCP与Cloudflare Code Mode对比(来源:Cloudflare博客") 实际效果非常明显。随着行业持续应对生产级AI智能体中的上下文成本和编排复杂度,这一模式可能在未来一年影响MCP标准服务器设计与智能体框架。


Cloudflare通过发布由Code Mode驱动的全新模型上下文(Model Context Protocol,MCP)服务器,显著降低了与其完整API平台交互的成本",这代表了AI智能体访问复杂API方式的一次重要演进。这一新方法也展示了MCP生态中智能体与工具集成的新路径。

 

MCP本质上是一项新兴的标准,它通过暴露结构化的工具,让大语言模型(LLM)在执行期间能够调用这些工具并与外部工具和API交互。传统做法中,暴露给智能体的每个API端点都对应一个独立的工具定义。该模型虽然简单直接,但每次工具规范占用模型有限输入预算中的Token时,都会带来显著的上下文窗口成本,从而压缩模型用于推理用户任务的空间。

 

Cloudflare解决方案工程师Luuk Hofman"表示:

所以,我们尝试了一种新的方式:把MCP工具转换成TypeScript API,然后直接让LLM基于它编写代码。

 

Cloudflare的Code Mode"只暴露了两个工具:search()和execute()。其底层是具备类型感知能力的SDK,允许模型在安全的V8 isolate中生成并执行JavaScript代码。这样可将智能体的计划编译成一个小型代码片段,在OpenAPI规范上编排多个操作,避免把所有端点定义都加载到上下文中。

 

传统MCP与Cloudflare Code Mode对比(来源:Cloudflare博客")

 

实际效果非常明显。Cloudflare表示,Code Mode将访问2500多个API端点的Token占用从超过117万Token降至约1000Token,降幅约99.9%。这种固定占用与API规模无关,使智能体能够在大型、功能丰富的平台上工作,而不会耗尽模型上下文。

 

Cloudflare在Reddit的一篇帖子"中强调:

团队采用了专门的编码策略,在不损失功能精度的前提下,将庞大的API schema压缩到极小的上下文窗口中。

 

智能体首先使用search()按产品域、路径或元数据查询OpenAPI规范,规范本身不会进入模型上下文。随后,execute()在一次循环中运行处理分页、条件逻辑和链式API调用的代码,减少往返开销。

 

Cloudflare还强调了执行阶段的安全性与沙箱模型。服务器在Dynamic Worker isolate中运行用户生成代码,不提供文件系统、不暴露环境变量,并通过显式处理器控制出站请求。该设计在保持智能体自主性的同时,降低了执行不受信任代码相关的风险。

 

这个面向Cloudflare全量API的新MCP服务器目前已覆盖DNS、Zero Trust、Workers和R2服务,并且可以立即集成。Cloudflare还在其更广泛的Agents SDK中开源了Code Mode SDK,以便第三方MCP实现采用类似的模式。

 

分析师和实践者认为,Code Mode是推动智能体工作流从简单的单服务交互迈向更广泛的多API自动化扩展的关键一步。随着行业持续应对生产级AI智能体中的上下文成本和编排复杂度,这一模式可能在未来一年影响MCP标准服务器设计与智能体框架。

 

原文链接:

Cloudflare Launches Code Mode MCP Server to Optimize Token Usage for AI Agents"

暂无回复,快来抢沙发吧!

  • 1 / 1 页
敬请注意:文中内容观点和各种评论不代表本网立场!若有违规侵权,请联系我们