AI摘要:今年全国两会期间,全国政协委员、上海交通大学安泰经济与管理学院教授陆铭就AI智能体的治理问题发出了呼吁。
正是因为长期关注这些问题,陆铭在今年两会期间将视角进一步延伸到AI智能体的制度建设上——在他看来,技术对就业和社会结构的冲击已经不是未来的假设,而是正在发生的现实,制度不能继续缺位。
“AI时代的很多核心命题,早已不是纯粹的技术问题,而是产权、法律、制度和社会治理的综合命题。”
(文/陈济深 编辑/张广凯)
2026年是“十五五”开局之年,人工智能正加速向智能体形态演进,成为赋能新质生产力的重要引擎。
在过去一年间,AI智能体向产业端和消费端渗透的速度已经远超制度建设的节奏。从辅助购物决策的消费类智能体,到代写代码的生产力工具,再到可跨平台调度用户数据的 AI 手机,智能体的形态正经历从聊天框走向操作系统的深刻演变。而智能体数据调用中的利益归属、跨平台授权的合法性边界、AI决策失误的责任划分,仍是现行法律框架中的空白地带。
今年全国两会期间,全国政协委员、上海交通大学安泰经济与管理学院教授陆铭就AI智能体的治理问题发出了呼吁。
他对观察者网表示,政策制定者应尽早在数据权属、授权机制、利益分享和风险责任划分等关键环节建立规则框架,以更好地帮助中国在全球AI竞争中占据主动地位。
正视AI社会变革影响,锚定治理底层逻辑
陆铭长期从事城市经济与劳动力市场研究,乍看与AI智能体相距甚远。但在他看来,两者之间的关联远比外界想象的更为紧密。
“AI的发展对劳动力市场和就业的影响非常大,其中涉及大量教育水平、技能水平并不高的群体,他们的未来,尤其是青年人的未来在什么方向需要社会关注。”陆铭说。
陆铭认为,低技能劳动者和尚未建立职业壁垒的年轻人恰恰是AI冲击中最可能首当其冲的对象,也是他长期研究的核心关切。
在他的判断中,AI对就业的影响是一把“双刃剑”。一面是赋能:对于那些不可替代的岗位和个体,AI将成为强有力的效率杠杆。另一面是替代:那些标准化、流程化、依赖操作技能和记忆技能的岗位,正面临被数字技术逐步吞噬的压力。
而更深层的结构性变化在于,AI时代将催生大量灵活就业和“一人公司”。
陆铭举了一个直观的例子:一个内容创作者,核心竞争力来自他的想法和判断力,至于写作、排版、编辑、财务这些环节,未来都可以交给AI完成。原来需要三五个人配合的小型团队,可能缩减为一个人加一组智能体。
这不仅改变了企业的组织形态,也对劳动力市场结构和社会保障制度的设计逻辑提出了根本性的挑战。正是因为长期关注这些问题,陆铭在今年两会期间将视角进一步延伸到AI智能体的制度建设上——在他看来,技术对就业和社会结构的冲击已经不是未来的假设,而是正在发生的现实,制度不能继续缺位。
而这些就业形态与社会结构的剧变,恰恰是AI治理不能“裸奔”的底层原因 —— 制度轨道不仅要规范技术与数据的边界,更要提前兜住技术变革带来的社会风险。
以前瞻性制度供给,避免产业发展被动急刹
陆铭对观察者网表示:AI治理建设的核心目的是服务而非阻碍中国AI行业健康发展。
“AI赋能千行百业、进入老百姓生活、辅助消费决策,从大的方向上来讲,未来一定是往这个方向走。任何阻挡这个趋势的政策,很可能让中国在全球竞争里面临不利的局面——你不做,别人也会做。”
在他看来,尽早建立规则框架,反而是在为创新松绑——当所有参与者都清楚边界在哪里,创新反而可以更大胆,企业不必在模糊地带提心吊胆,更不必担心某天整个赛道被紧急叫停。比起事后的被动纠偏,事前的制度供给是对产业更负责任的保护。
正是基于“不能抑制发展,也不能回避问题”这一逻辑,陆铭指出了当前AI智能体发展中最紧迫的制度需求。它们集中在两个层面,都指向同一个现实:智能终端正在获得前所未有的数据调度能力,但目前围绕这种能力的规则几乎一片空白。
第一个层面关乎利益分配。 随着AI手机等新产品形态的出现,智能终端在辅助消费决策的过程中,往往需要跨平台调用不同APP的用户数据——帮用户买一张机票,可能同时涉及出行、支付、社交等多个应用的信息。
陆铭认为,这种跨平台的数据调用正在成为AI终端的核心竞争领域,但原有的APP开发者依靠自身产品积累用户和数据所构建的“护城河”,可能在这一过程中被悄然侵蚀。
“价值的产生,有多少归智能终端的开发商,有多少应归属于APP开发者参与分享,这块实际上现在是盲区。”
换言之,在数据产权和利益分配机制尚未建立的情况下,先发者可能在事实上调用了其他平台长期积累的数据资产,却无需为此分担成本,而且数据资产根本上归用户所有。
陆铭建议,可以通过制度设计加上算法手段,基于后台可追溯的数据调用记录,形成透明的利益分享机制——“你调用了我的什么数据,调用了多少,后台是可以追溯的,技术上并不难实现。”
如果说利益分配尚可通过算法解决,那么第二个层面则带来一定的道德挑战性,陆铭以聊天记录为例,即便消费者本人授权AI手机调用自己的聊天记录,但聊天记录中涉及的对话另一方并未授权。
“我授权你看我的聊天记录,我没有授权你去看别人的聊天记录,这里面涉及到另外一个主体的问题了。”
现行的数据保护框架是建立在"用户知情同意"为核心的原则上,在AI智能体的跨平台调用场景下,这样的原则如何落实需要更细致的讨论。
以规则完善规范竞争,包容多元市场创新探索
如果说制度真空是当下最急迫的问题,那么竞争失序就是陆铭最担心的中期后果。
这种担忧并非杞人忧天。陆铭将AI领域的竞争与当年的外卖大战做了区分:外卖平台的补贴战本质上是花钱买用户习惯,各家烧一轮钱,格局大致落定,亏损也就过去了。
但AI领域的竞争逻辑根本不同。“数据获取很多不是付费获得的,而是通过消费者习惯和授权来获取。谁进入得早,谁跨平台调用的数据多,谁可能就训练得更好。”
正因为AI领域的竞争不像外卖大战那样“烧一轮钱就结束”,而是围绕数据这一可持续积累的核心资源展开,规则建设的紧迫性才格外突出。陆铭担心的并非竞争本身,而是在规则缺位下,行业格局可能由“谁先跑”而非“谁跑得好”来决定。
不过,陆铭并不主张用行政手段强制规定行业格局。他提出了两种可能的市场演化路径:一是大平台通过多元化布局或兼并重组,在自身体系内部实现跨业务数据协同;二是不同APP之间通过跨平台协作和利益分享机制形成合作联盟。
“未来市场上很可能不是存在一个单一的模式,而是多种模式并存。让市场去尝试不同的组合,我觉得应该包容,让他们去创新。”
两种模式各有利弊,都会面临内部数据打通的现实挑战,最终“应该交给市场,由竞争去解决”。
他特别指出,中国在这场博弈中具备一个不容忽视的大国优势——几乎所有类型的消费类APP都有国产版本,跨平台合作不涉及跨境数据流通的复杂性。小国可能面临“有外卖平台但没有社交媒体”的困境,一旦需要跨平台数据协作就触及跨境数据安全问题,而中国可以在国内体系中完成全链条的数据协作探索。
筑牢风险防控底线,推动政企学三方协同共治
制度真空不仅可能催生新问题,还可能放大旧问题。
这一风险并非指向某一类具体产品,而是AI辅助决策这一通用能力可能面临的系统性偏差。
他举了一个直观的例子:如果一个用户因为从不比价,已经被某平台标记为“价格不敏感”,那么AI在替这位用户做消费决策时,参考的就是一组被扭曲过的数据。AI不但不会纠正这种偏差,反而会进一步固化甚至放大它。
“AI甚至可能误导决策。”陆铭说。
而当AI辅助决策真的造成了用户损失,一个更棘手的问题随之浮出水面:谁来承担责任?
“是智能体承担责任,还是智能体的生产商承担责任,还是消费者责任自负?”陆铭认为,立法者必须尽早对这类问题给出界定,“否则就会出现制度失序,一片混乱”。
至于哪些权限应被优先划入"高危"范畴,陆铭选择了审慎的表达方式:“如何界定高危,坦率讲不太适合经济学家来回答,需要法律工作者去回答。”
他强调,支付信息、银行数据等是否属于高危权限,涉及社会风险和金融风险的综合评估,需要法律界与社会科学界协同研究,“我们只能先说一些原则性的问题”。
他同时指出,数据安全、隐私保护和AI决策风险并非中国独有的问题,部分议题终将需要放到全球层面进行讨论。
对话临近尾声,陆铭把话题拉回到一个更宏观的层面:在AI技术以月为单位迭代的今天,真正的瓶颈可能不在算力或算法,而在我们理解和治理这场变革的能力。
“AI时代的很多核心命题,早已不是纯粹的技术问题,而是产权、法律、制度和社会治理的综合命题。”他说。AI技术发展产生的利益归属、授权合法性、责任划分——每一个都需要经济学、法学、社会学乃至伦理学的协同回应。
这恰恰是陆铭最感到紧迫的地方。他坦言,当前社会科学界对AI智能体浪潮带来的诸多新问题,不仅缺乏深入研究,“恐怕连问题在哪都还没看清楚,更不要说去解决”。高校研究者的考核激励仍以论文发表为主,面对产业端日新月异的真实挑战,学术界的响应速度远远不够。
陆铭认为,AI智能体的健康发展,需要企业、政府与学术界形成三方合力。企业的实践走在最前面,是制度建设的现实基础;政府应从公共利益出发,尽早识别新技术带来的系统性风险,推动立法与监管框架的前瞻布局;而学术界,尤其是社会科学界,应当走出论文的惯性轨道,直面这场变革中最迫切的现实问题,为企业实践和公共政策提供真正有价值的智力支撑。
“中国已经在AI技术进步上弯道超车、引领全球了,社会科学界不能缺席。”陆铭说,社会、公众、政府和企业的需求是急迫的,“我们应该在里面投入时间、精力和智慧。”
点击阅读原文
正是因为长期关注这些问题,陆铭在今年两会期间将视角进一步延伸到AI智能体的制度建设上——在他看来,技术对就业和社会结构的冲击已经不是未来的假设,而是正在发生的现实,制度不能继续缺位。
“AI时代的很多核心命题,早已不是纯粹的技术问题,而是产权、法律、制度和社会治理的综合命题。”
(文/陈济深 编辑/张广凯)
2026年是“十五五”开局之年,人工智能正加速向智能体形态演进,成为赋能新质生产力的重要引擎。
在过去一年间,AI智能体向产业端和消费端渗透的速度已经远超制度建设的节奏。从辅助购物决策的消费类智能体,到代写代码的生产力工具,再到可跨平台调度用户数据的 AI 手机,智能体的形态正经历从聊天框走向操作系统的深刻演变。而智能体数据调用中的利益归属、跨平台授权的合法性边界、AI决策失误的责任划分,仍是现行法律框架中的空白地带。
今年全国两会期间,全国政协委员、上海交通大学安泰经济与管理学院教授陆铭就AI智能体的治理问题发出了呼吁。
他对观察者网表示,政策制定者应尽早在数据权属、授权机制、利益分享和风险责任划分等关键环节建立规则框架,以更好地帮助中国在全球AI竞争中占据主动地位。
正视AI社会变革影响,锚定治理底层逻辑
陆铭长期从事城市经济与劳动力市场研究,乍看与AI智能体相距甚远。但在他看来,两者之间的关联远比外界想象的更为紧密。
“AI的发展对劳动力市场和就业的影响非常大,其中涉及大量教育水平、技能水平并不高的群体,他们的未来,尤其是青年人的未来在什么方向需要社会关注。”陆铭说。
陆铭认为,低技能劳动者和尚未建立职业壁垒的年轻人恰恰是AI冲击中最可能首当其冲的对象,也是他长期研究的核心关切。
在他的判断中,AI对就业的影响是一把“双刃剑”。一面是赋能:对于那些不可替代的岗位和个体,AI将成为强有力的效率杠杆。另一面是替代:那些标准化、流程化、依赖操作技能和记忆技能的岗位,正面临被数字技术逐步吞噬的压力。
而更深层的结构性变化在于,AI时代将催生大量灵活就业和“一人公司”。
陆铭举了一个直观的例子:一个内容创作者,核心竞争力来自他的想法和判断力,至于写作、排版、编辑、财务这些环节,未来都可以交给AI完成。原来需要三五个人配合的小型团队,可能缩减为一个人加一组智能体。
这不仅改变了企业的组织形态,也对劳动力市场结构和社会保障制度的设计逻辑提出了根本性的挑战。正是因为长期关注这些问题,陆铭在今年两会期间将视角进一步延伸到AI智能体的制度建设上——在他看来,技术对就业和社会结构的冲击已经不是未来的假设,而是正在发生的现实,制度不能继续缺位。
而这些就业形态与社会结构的剧变,恰恰是AI治理不能“裸奔”的底层原因 —— 制度轨道不仅要规范技术与数据的边界,更要提前兜住技术变革带来的社会风险。
以前瞻性制度供给,避免产业发展被动急刹
陆铭对观察者网表示:AI治理建设的核心目的是服务而非阻碍中国AI行业健康发展。
“AI赋能千行百业、进入老百姓生活、辅助消费决策,从大的方向上来讲,未来一定是往这个方向走。任何阻挡这个趋势的政策,很可能让中国在全球竞争里面临不利的局面——你不做,别人也会做。”
在他看来,尽早建立规则框架,反而是在为创新松绑——当所有参与者都清楚边界在哪里,创新反而可以更大胆,企业不必在模糊地带提心吊胆,更不必担心某天整个赛道被紧急叫停。比起事后的被动纠偏,事前的制度供给是对产业更负责任的保护。
正是基于“不能抑制发展,也不能回避问题”这一逻辑,陆铭指出了当前AI智能体发展中最紧迫的制度需求。它们集中在两个层面,都指向同一个现实:智能终端正在获得前所未有的数据调度能力,但目前围绕这种能力的规则几乎一片空白。
第一个层面关乎利益分配。 随着AI手机等新产品形态的出现,智能终端在辅助消费决策的过程中,往往需要跨平台调用不同APP的用户数据——帮用户买一张机票,可能同时涉及出行、支付、社交等多个应用的信息。
陆铭认为,这种跨平台的数据调用正在成为AI终端的核心竞争领域,但原有的APP开发者依靠自身产品积累用户和数据所构建的“护城河”,可能在这一过程中被悄然侵蚀。
“价值的产生,有多少归智能终端的开发商,有多少应归属于APP开发者参与分享,这块实际上现在是盲区。”
换言之,在数据产权和利益分配机制尚未建立的情况下,先发者可能在事实上调用了其他平台长期积累的数据资产,却无需为此分担成本,而且数据资产根本上归用户所有。
陆铭建议,可以通过制度设计加上算法手段,基于后台可追溯的数据调用记录,形成透明的利益分享机制——“你调用了我的什么数据,调用了多少,后台是可以追溯的,技术上并不难实现。”
如果说利益分配尚可通过算法解决,那么第二个层面则带来一定的道德挑战性,陆铭以聊天记录为例,即便消费者本人授权AI手机调用自己的聊天记录,但聊天记录中涉及的对话另一方并未授权。
“我授权你看我的聊天记录,我没有授权你去看别人的聊天记录,这里面涉及到另外一个主体的问题了。”
现行的数据保护框架是建立在"用户知情同意"为核心的原则上,在AI智能体的跨平台调用场景下,这样的原则如何落实需要更细致的讨论。
以规则完善规范竞争,包容多元市场创新探索
如果说制度真空是当下最急迫的问题,那么竞争失序就是陆铭最担心的中期后果。
这种担忧并非杞人忧天。陆铭将AI领域的竞争与当年的外卖大战做了区分:外卖平台的补贴战本质上是花钱买用户习惯,各家烧一轮钱,格局大致落定,亏损也就过去了。
但AI领域的竞争逻辑根本不同。“数据获取很多不是付费获得的,而是通过消费者习惯和授权来获取。谁进入得早,谁跨平台调用的数据多,谁可能就训练得更好。”
正因为AI领域的竞争不像外卖大战那样“烧一轮钱就结束”,而是围绕数据这一可持续积累的核心资源展开,规则建设的紧迫性才格外突出。陆铭担心的并非竞争本身,而是在规则缺位下,行业格局可能由“谁先跑”而非“谁跑得好”来决定。
不过,陆铭并不主张用行政手段强制规定行业格局。他提出了两种可能的市场演化路径:一是大平台通过多元化布局或兼并重组,在自身体系内部实现跨业务数据协同;二是不同APP之间通过跨平台协作和利益分享机制形成合作联盟。
“未来市场上很可能不是存在一个单一的模式,而是多种模式并存。让市场去尝试不同的组合,我觉得应该包容,让他们去创新。”
两种模式各有利弊,都会面临内部数据打通的现实挑战,最终“应该交给市场,由竞争去解决”。
他特别指出,中国在这场博弈中具备一个不容忽视的大国优势——几乎所有类型的消费类APP都有国产版本,跨平台合作不涉及跨境数据流通的复杂性。小国可能面临“有外卖平台但没有社交媒体”的困境,一旦需要跨平台数据协作就触及跨境数据安全问题,而中国可以在国内体系中完成全链条的数据协作探索。
筑牢风险防控底线,推动政企学三方协同共治
制度真空不仅可能催生新问题,还可能放大旧问题。
这一风险并非指向某一类具体产品,而是AI辅助决策这一通用能力可能面临的系统性偏差。
他举了一个直观的例子:如果一个用户因为从不比价,已经被某平台标记为“价格不敏感”,那么AI在替这位用户做消费决策时,参考的就是一组被扭曲过的数据。AI不但不会纠正这种偏差,反而会进一步固化甚至放大它。
“AI甚至可能误导决策。”陆铭说。
而当AI辅助决策真的造成了用户损失,一个更棘手的问题随之浮出水面:谁来承担责任?
“是智能体承担责任,还是智能体的生产商承担责任,还是消费者责任自负?”陆铭认为,立法者必须尽早对这类问题给出界定,“否则就会出现制度失序,一片混乱”。
至于哪些权限应被优先划入"高危"范畴,陆铭选择了审慎的表达方式:“如何界定高危,坦率讲不太适合经济学家来回答,需要法律工作者去回答。”
他强调,支付信息、银行数据等是否属于高危权限,涉及社会风险和金融风险的综合评估,需要法律界与社会科学界协同研究,“我们只能先说一些原则性的问题”。
他同时指出,数据安全、隐私保护和AI决策风险并非中国独有的问题,部分议题终将需要放到全球层面进行讨论。
对话临近尾声,陆铭把话题拉回到一个更宏观的层面:在AI技术以月为单位迭代的今天,真正的瓶颈可能不在算力或算法,而在我们理解和治理这场变革的能力。
“AI时代的很多核心命题,早已不是纯粹的技术问题,而是产权、法律、制度和社会治理的综合命题。”他说。AI技术发展产生的利益归属、授权合法性、责任划分——每一个都需要经济学、法学、社会学乃至伦理学的协同回应。
这恰恰是陆铭最感到紧迫的地方。他坦言,当前社会科学界对AI智能体浪潮带来的诸多新问题,不仅缺乏深入研究,“恐怕连问题在哪都还没看清楚,更不要说去解决”。高校研究者的考核激励仍以论文发表为主,面对产业端日新月异的真实挑战,学术界的响应速度远远不够。
陆铭认为,AI智能体的健康发展,需要企业、政府与学术界形成三方合力。企业的实践走在最前面,是制度建设的现实基础;政府应从公共利益出发,尽早识别新技术带来的系统性风险,推动立法与监管框架的前瞻布局;而学术界,尤其是社会科学界,应当走出论文的惯性轨道,直面这场变革中最迫切的现实问题,为企业实践和公共政策提供真正有价值的智力支撑。
“中国已经在AI技术进步上弯道超车、引领全球了,社会科学界不能缺席。”陆铭说,社会、公众、政府和企业的需求是急迫的,“我们应该在里面投入时间、精力和智慧。”
点击阅读原文