谷歌推出AppFunctions连接AI智能体和Android应用

小新 正五品 (知州) 2026-04-15 02:29 2 0 返回 AI 动态
小新 正五品 (知州) 楼主
2026-04-15 02:29
第1楼

摘要:nbsp;由于并非所有应用都适配AppFunctions,尤其在初期阶段,谷歌还在Android系统中搭载了UI自动化平台,作为未集成应用的备用方案。nbsp;谷歌在公告中强调,隐私保护与用户控制权是AppFunctions的设计核心。nbsp;查看英文原文:Google Unveils AppFunctions to Connect AI Agents and Android Apps"


谷歌为了将Android打造为“智能体优先(agent-first)”的操作系统,推出了全新的早期测试功能,用以支持以任务为核心的模式",应用可以提供功能构块(functional building block),用户可借助AI智能体或助手实现自身的目标。

 

这个新模式的核心基础是AppFunctions",这是一个Jetpack API,开发者可通过它在应用内开放自描述能力,实现与AI智能体的无缝衔接。交互在设备本地运行,这降低了网络延迟,同时提升了隐私性与运行效率。

AppFunctions对标通过MCP云服务器声明后端能力的方式,为Android应用提供本地化的解决方案,与WebMCP一致,函数在设备本地而非服务器端执行。

 

例如,用户可向Gemini助手发送指令:“从Samsung Gallery展示我家猫的照片”。助手解析指令后调取对应照片并在自身界面展示,图片会保留在上下文中,便于用户在后续操作中编辑、分享或执行其他操作。

 

由于并非所有应用都适配AppFunctions,尤其在初期阶段,谷歌还在Android系统中搭载了UI自动化平台,作为未集成应用的备用方案。该自动化层支持用户通过Gemini助手完成各类复杂操作,比如,为口味特殊的家人订购披萨、与同事协调多段行程的拼车、复购上次的生鲜商品,全程无需开发者额外适配。

平台承担了核心的运算工作,开发者无需编写代码即可让应用支持智能体交互,无需投入大量工程资源,就能低成本拓展应用的使用场景。

 

谷歌在公告中强调,隐私保护与用户控制权是AppFunctions的设计核心。所有交互均在设备本地完成,用户可通过实时视图、通知掌握全部流程,手动干预智能体操作,购物等敏感操作必须经过用户确认。

 

目前AppFunctions和UI自动化平台仍处于早期测试阶段,仅适配Galaxy S26系列机型,计划在Android 17版本中全面推送。

 

查看英文原文:Google Unveils AppFunctions to Connect AI Agents and Android Apps"

暂无回复,快来抢沙发吧!

  • 1 / 1 页
敬请注意:文中内容观点和各种评论不代表本网立场!若有违规侵权,请联系我们