AI摘要:国际货币基金组织(IMF)与国际劳工组织(ILO)的测算显示,发达经济体中暴露于人工智能的就业占比最高。 在国内层面,各国强化监管工具:欧盟推出《通用数据保护条例》(GDPR)和《数字市场法》(DMA);美国通过外国投资审查委员会(CFIUS)强化国家安全审查;部分国家则重新谈判BITs,加入公共利益例外条款与环境劳工标准。 2026年4月10日凌晨,OpenAI首席执行官萨姆·奥特曼位于旧金山的住宅遭到一名年轻男子投掷燃烧瓶袭击,随后该男子前往OpenA
导语:近日,OpenAI首席执行官萨姆·奥尔特曼的住所接连两次遭到袭击,其中一位嫌疑人来自知名反AI组织PauseAI的群成员。事件一出,围绕这起新闻的不同回应与解读,已反映出技术掌权者与普通大众之间,在人工智能问题上存在的深层分歧。斯坦福大学近日发布的《2026年人工智能指数报告》也显示公众感受与技术精英的乐观叙事间存在明显错位。
IPP特约研究员孙占卿认为,这些不同层面的担忧,最终都指向同一问题:AI发展过程中,技术、资源与权力日益集中,形成难以追责的“黑箱效应”,并催生出一种带有“技术专制”色彩的治理倾向。与此同时,国家在竞争压力下加深对科技企业的战略依赖,一种介于合谋与替代之间的“影子治理”格局,正逐渐浮现。
2026年4月10日凌晨,OpenAI首席执行官萨姆·奥特曼位于旧金山的住宅遭到一名年轻男子投掷燃烧瓶袭击,随后该男子前往OpenAI总部外公开威胁焚烧大楼,并当场被捕。
据调查,其行为源于对超级智能失控导致人类灭绝的极端恐惧。PauseAI组织(呼吁“暂停开发最强大的通用AI”的国际组织,创立于荷兰)迅速对一切暴力行为予以谴责。
奥特曼随后在博客中作出回应,承认AI的巨大影响力,坦承过往失误,并呼吁缓和矛盾,同时表示公众的部分恐惧具有合理性,但强调暴力绝不可接受。
奥特曼在博客上发回应长文。
这一事件看似孤立,却深刻反映出更深层的社会焦虑:公众对技术专制的恐惧,本质上是传统政治框架——以政府为核心的公共产品、社会契约与国家主权——在人工智能等超级技术的冲击下正面临结构性崩解。
一、公众的恐惧:从存在风险到隐性支配
这种恐惧并非突发情况,而是AI高速发展中多重张力长期累积的结果。OpenAI作为本轮人工智能浪潮的标杆,其以ChatGPT系列产品为代表的AI项目已深刻重塑全球生产力格局,并将“超级智能”——即超越人类在所有认知领域能力的通用人工智能——从科幻推向现实讨论的前沿。
公众焦虑主要源于四个相互交织的维度。
首先是技术失控的幽灵。众多专家与活动家担忧,未经充分“对齐”的超级智能可能脱离人类掌控,引发不可逆转的灾难。
其次是权力的集中。少数科技领袖通过算法掌控信息流动与行为预测,形成事实上的主导影响力,却借企业架构规避公众问责。这种私人实验室主导AGI竞赛的模式,被广泛视为精英对全球资源的垄断。
再次是经济社会冲击。AI驱动的自动化威胁大规模就业替代、隐私侵蚀,并延伸至军事化应用。
最后是技术滥用的现实镜像。在2026年2至3月美以联合打击伊朗的行动中,美军广泛部署AI工具——包括通过Palantir平台整合Anthropic的Claude语言模型——实现战场数据实时处理、目标识别与决策加速,将传统流程从数小时缩短至秒级,这一行动凸显了AI在现代杀伤链中的核心地位。随后,Anthropic与五角大楼之间关于是否可以移除大模型安全防护的争执,进一步引发了公众对技术滥用问题的关注。
这些焦虑可以归结到一点:AI快速发展中,技术、资源与权力的同频集中,形成了无法问责的“黑箱效应”,催生了技术专制——即技术精英借助算法、数据与智能系统,实现对社会、经济乃至政治的隐性支配,而非仰赖传统政治权威。
但与此同时,AI也展现出显著的积极贡献。根据OECD的最新报告,有五分之四的参与调查的工人表示,AI提升了他们的工作绩效,五分之三则认为工作变得更有乐趣了;
北美与欧洲国家对人工智能的总体看法仍集中在“低兴奋度”和“高紧张感”的区间。相比之下,中国和印度尼西亚公众对AI看法则总体乐观。图源:The 2026 AI Index Report | Stanford HAI
IMF同期研究显示,全球近40%的就业岗位受AI影响,先进经济体这一比例高达60%,同时AI驱动的生产力提升可能使全球GDP累计增长7%至35%。这些益处提醒我们,公众的焦虑并非对技术本身的否定,而是对治理失衡的警醒。
国际货币基金组织(IMF)与国际劳工组织(ILO)的测算显示,发达经济体中暴露于人工智能的就业占比最高。图源:IMF
二、古典政治的根基:政府是人类最重要的公共产品
政府作为人类创造的最重要的公共产品之一,其核心职能在于制定并执行规则、协调多元利益、维护社会秩序。
霍布斯(Thomas Hobbes)在《利维坦》中指出,主权权威是克服“自然状态”下无序竞争的唯一途径——通过社会契约赋予国家对暴力的合法垄断,以保障秩序与安全。
约翰·洛克(John Locke)进而主张,政府源于人民同意,其正当性在于保护自然权利,并通过分权制衡实现多元利益的协调。
卢梭则在《社会契约论》中深化了集体意志的概念,强调决策合法性源于公民参与,而非单纯强制。
这些理论共同回应了现代政府面临的三大难题:权力的合法性来源、决策中的多元利益表达,以及权力的平稳更迭。韦伯据此将现代国家定义为“成功垄断合法暴力”的实体。福山甚至据此宣称“历史的终结”,认为自由民主国家已实现这些要素的制度化平衡。
在此框架下,国家不仅是领土主权的守护者,更是公共利益的透明代理人。其治理能力依赖于可问责的规则体系。任何外部力量挑战这一垄断,却又试图不承担其约束,都可能引发根本的合法性危机。
三、跨国企业挑战:国家主导权的重申
20世纪后半叶,随着全球化浪潮席卷各地,跨国公司一度对国家治理模式构成显著挑战。这些企业通过经济渗透、产业链全球化和资本自由流动,不仅塑造了一系列有利于自身扩张的全球规则与权力结构,更直接挑战了传统国家主权的多个核心维度,最终促使各国政府通过系统性回应与改革,重申并巩固了其治理主导权。
跨国公司首先塑造了以自由化、灵活化和企业中心为导向的全球经济规则与权力格局。它们通过游说与资本杠杆,推动双边投资协定(BITs)中“投资者-国家争端解决机制(ISDS)”的普及,使企业得以绕过国内司法程序,直接向国际仲裁庭提出索赔,从而将“投资保护”转化为事实上的超国家权力工具。
同时,企业利用离岸金融中心和复杂税务结构(如苹果公司的“双层爱尔兰夹荷兰三明治”机制),将利润转移标准化,塑造了全球税务规则的灰色地带,并通过供应链标准(如劳工认证体系)间接定义了跨国生产中的环境与社会规范。
这些规则表面上服务于效率最大化,实质上赋予了企业跨越国界的准立法权和资源配置权,将经济影响力转化为对全球治理议程的隐性主导。这一塑造过程直接挑战了传统国家的核心权力。
首先是财政主权:大规模避税导致东道国税收流失,削弱了公共财政能力与福利再分配职能。
其次是监管主权:企业通过生产基地转移或威胁撤资,规避严格的劳工、环境和安全法规,形成“监管竞次”现象,侵蚀国家对境内经济活动的有效控制。
再次是司法与立法主权:ISDS机制使国家立法(如烟草平装法或环境标准)面临巨额赔偿风险,迫使政府在决策时进行自我审查,模糊了主权平等原则。
最后,挑战还波及外交与领土主权:企业游说母国干预东道国内政(如1954年联合果品公司推动美国支持危地马拉政变),或在资源富集地区建立事实上的“国中之国”,挑战了威斯特伐利亚体系下的领土完整与政治自治。
危地马拉阿本斯政府推行土地改革、触动联合果品公司利益后,后者游说美国政府将危地马拉塑造成苏联在西半球的支点。图源:Wikimedia Commons
面对这些多维度挑战,国家并未被动退让,而是展开了系统性的回应与制度改革。
在国际层面,推动多边规则的深化与再平衡:1995年世界贸易组织的成立,通过争端解决机制、反倾销条款和《服务贸易总协定》,将跨国企业的横向渗透纳入可控轨道;经济合作与发展组织(OECD)发起的BEPS(税基侵蚀与利润转移)行动计划,以及2021年全球最低公司税率协议(15%),直接堵塞了避税漏洞,重塑了国际税务协调框架。
在国内层面,各国强化监管工具:欧盟推出《通用数据保护条例》(GDPR)和《数字市场法》(DMA);美国通过外国投资审查委员会(CFIUS)强化国家安全审查;部分国家则重新谈判BITs,加入公共利益例外条款与环境劳工标准。同时,企业社会责任(CSR)被纳入法律强制范畴,推动跨国公司从“规避者”转向“合规者”。
这些回应与改革最终实现了显著成效:国家主导权得到实质性重申,跨国企业虽保留全球流动性,却被牢固锚定于领土主权与可量化的国际规则之下。税收流失得到遏制,公共财政能力回升;监管竞次趋势逆转,全球劳工与环境标准整体提升;ISDS(投资者—国家争端解决)机制的滥用风险下降,企业对主权立法的直接反制能力减弱。
更重要的是,这一博弈过程为当代治理提供了宝贵经验:它证明国家通过制度创新,能够在全球化压力下恢复平衡。国家可以同时维护效率与创新,并捍卫社会契约的核心——透明、可问责与公民同意。
跨国企业的历史经验为理解AI挑战提供了关键参照。
四、超级AI企业:纵向渗透与监管阴影
超级AI企业与传统跨国公司存在本质差异,其技术特性赋予了超越单纯经济渗透的“纵向治理”能力,从而对传统政治框架构成了更为深刻且结构性的挑战。
首先,AI的天然跨国界属性源于数据与算力的全球流动性。
模型训练依赖海量全球数据集,部署可瞬间跨越国界,无需依赖实体供应链。而更为关键的,是其“纵向渗透能力”——通过算法、黑箱决策机制和主动规则塑造,AI企业直接介入社会治理的微观层面。不同于跨国公司的横向市场影响,AI算法能够嵌入决策链条、预测行为并优化资源分配,形成隐性规则体系:推荐算法重塑公共舆论,信用评分系统左右个体权利,而生成式AI则可直接生成政策模拟或军事目标清单。
这一渗透伴随着国家对AI的战略依赖。为维持国力,政府不得不与AI企业进行深度合作,正如美以对伊朗的军事行动所示。然而,AI的高技术属性使其得以“躲藏”于政府与企业治理的“阴影”中:算法黑箱的不透明性、快速自我迭代能力,以及跨学科专业壁垒,导致传统监管工具——如反垄断法或数据保护条例——难以奏效。欧盟AI法案或美国行政命令虽试图填补空白,却面临技术滞后与全球协调难题。AI企业由此形成“影子治理”:表面服从国家框架,实质通过技术标准主导规则制定,悄然重塑治理逻辑。
在政治学框架下,AI企业通过其独特技术属性,不仅塑造了全新的治理规则与权力结构,更在多个关键领域形成了对传统国家权力的系统性替代与深度合谋,进而加剧了技术专制的风险。这一治理替代机制的核心在于:AI企业不再是被动的市场参与者,而是主动构建了一种“算法主权”——以数据闭环、自我迭代和预测性建模为手段,预设并执行社会规则,从而部分接管了国家传统上对公共生活的主导权。
具体而言,AI企业塑造的治理替代机制,首先体现在公共话语与议程设置领域。国家通过宪法、法律和公共媒体行使话语规范权,而AI平台的推荐算法则通过个性化推送、内容优先级排序和趋势放大,直接定义何种信息被视为“可接受”或“主流”。这一机制超越了单纯的信息过滤,形成了一种预设性治理。这实质上替代了国家对公共领域的形塑职能。
其次,在经济与资源分配治理上,AI驱动的信用评分、劳动力匹配和资源优化系统,已部分取代国家再分配与市场监管角色。
例如,生成式AI可实时生成政策模拟与经济预测模型,企业借此影响国家决策流程,同时将其私有数据标准转化为事实上的全球经济治理规范。
4月15日,欧盟委员会指控Meta在WhatsApp平台排挤第三方AI助手的行为违反了《数字市场法案》。图源:Getty Images
再次,在安全与决策治理层面,AI辅助的杀伤链优化(如美以行动中Claude模型的整合)与预测性分析,直接介入国家暴力垄断的执行环节:算法不仅提供决策建议,还能通过概率模型预判风险、分配资源,甚至模糊责任归属,从而在一定程度上替代了传统官僚体系的审慎判断。
替代机制进一步衍生出国家权力的深度合谋模式。为维持全球战略优势,国家主动将部分治理职能“外包”给AI企业,形成不对称的“国家-技术寡头复合体”。政府获得即时国力提升(如军事智能化、治理效率);企业则借此获取合法性庇护、海量数据授权与政策豁免。这种合谋虽强化了短期国家能力,却削弱了社会契约的平等基础:公民同意被算法逻辑取代,民主审议过程被技术黑箱架空。
AI企业在责任归属上成功脱离有效监管与问责。算法黑箱的不透明性、模型快速自我迭代的能力,以及跨学科的专业壁垒,使传统监管规则——基于可解释性、可审计性和属地管辖——在技术上已严重滞后。当算法导致社会危害时,责任往往在“技术中立”或“企业自治”的名义下被稀释,企业得以游离于传统企业责任框架之外。
超级AI企业的发展进一步加速了主权碎片化。若任由发展,这种纵向渗透与监管阴影将演变为混合治理模式——国家借助AI强化控制,企业则输出隐性规范,二者共同侵蚀社会契约的平等基础。
治理替代机制的形成标志着AI企业已不再是传统意义上的经济主体,而是正在崛起的新型治理力量,其对政治架构的冲击远超以往任何跨国公司。这一判断在全球监管实践中得到印证。根据欧盟AI法案,2025年2月禁止性规定生效,高风险系统规则将于2026年8月全面强制,企业合规成本显著上升,委员会已提议部分延迟至2027年底以缓解压力。中国则早在2023年起推行算法备案与生成式AI内容管理法规,侧重风险分级与本土化治理。二者形成鲜明对比,却共同凸显了现有监管工具面对AI垂直渗透能力的滞后性。
五、反思:合法性危机与数字时代的社会契约
上述差异共同指向技术专制担忧的深层根源——传统政治框架的崩解。
社会契约论预设的治理主体是透明、可控的国家,而AI引入的私人技术精英却掌握“超级智能”潜力,其决策过程缺乏民主审议,违背了洛克式权利保护与卢梭式集体意志。算法治理进一步挑战韦伯定义的国家暴力垄断:AI辅助的自主系统模糊责任归属,引发合法性赤字。福山式“历史终结”叙事随之被颠覆——全球化曾强化国家适应能力,而AI的指数级进步则加速权力向少数企业的集中,形成潜在的技术专制深化形态:数据与模型成为新生产资料,精英掌控分配规则,民众沦为被动适应者。
这一危机更具全球性。AI的非领土性超越威斯特伐利亚主权体系,迫使国家在合作与依赖间艰难权衡,却难以重建多元利益表达机制。若任其发展,可能演变为混合治理模式:国家借AI强化控制,企业则输出隐性规范,二者共同侵蚀社会契约的平等基础。
这一风险与核技术时代形成历史呼应:从1946年“巴鲁克计划”(美国驻联合国原子能委员会代表伯纳德·巴鲁克提出的国际核能管制方案)到1968年《不扩散核武器条约》,国际社会历经二十年才建立起多边监管框架,AI治理同样需要类似前瞻性制度创新。
面对这一空前挑战,必须构建超越国家和行业的治理创新。
一方面,强化国际合作,建立类似“超级智能国际原子能机构”的多边框架,实现透明审计与安全标准。该机构可采用计算力许可阈值、多边安全审计以及渐进式红线机制:高算力训练项目需提前申报、接受第三方红队测试,并设定全球统一的安全底线。
另一方面,推动“数字社会契约”,通过公民审议平台恢复合法性基础。同时,企业需承担更高伦理责任,国家则应投资本土AI能力,避免过度依赖。唯有平衡创新与审慎,才可能将技术专制风险转化为治理现代化的机遇。
本文作者 孙占卿 广州市社会科学院城市文化研究所副所长、IPP特约研究
本次需消耗银元:
100
当前账户余额: 0 银元
导语:近日,OpenAI首席执行官萨姆·奥尔特曼的住所接连两次遭到袭击,其中一位嫌疑人来自知名反AI组织PauseAI的群成员。事件一出,围绕这起新闻的不同回应与解读,已反映出技术掌权者与普通大众之间,在人工智能问题上存在的深层分歧。斯坦福大学近日发布的《2026年人工智能指数报告》也显示公众感受与技术精英的乐观叙事间存在明显错位。
IPP特约研究员孙占卿认为,这些不同层面的担忧,最终都指向同一问题:AI发展过程中,技术、资源与权力日益集中,形成难以追责的“黑箱效应”,并催生出一种带有“技术专制”色彩的治理倾向。与此同时,国家在竞争压力下加深对科技企业的战略依赖,一种介于合谋与替代之间的“影子治理”格局,正逐渐浮现。
2026年4月10日凌晨,OpenAI首席执行官萨姆·奥特曼位于旧金山的住宅遭到一名年轻男子投掷燃烧瓶袭击,随后该男子前往OpenAI总部外公开威胁焚烧大楼,并当场被捕。
据调查,其行为源于对超级智能失控导致人类灭绝的极端恐惧。PauseAI组织(呼吁“暂停开发最强大的通用AI”的国际组织,创立于荷兰)迅速对一切暴力行为予以谴责。
奥特曼随后在博客中作出回应,承认AI的巨大影响力,坦承过往失误,并呼吁缓和矛盾,同时表示公众的部分恐惧具有合理性,但强调暴力绝不可接受。
奥特曼在博客上发回应长文。
这一事件看似孤立,却深刻反映出更深层的社会焦虑:公众对技术专制的恐惧,本质上是传统政治框架——以政府为核心的公共产品、社会契约与国家主权——在人工智能等超级技术的冲击下正面临结构性崩解。
一、公众的恐惧:从存在风险到隐性支配
这种恐惧并非突发情况,而是AI高速发展中多重张力长期累积的结果。OpenAI作为本轮人工智能浪潮的标杆,其以ChatGPT系列产品为代表的AI项目已深刻重塑全球生产力格局,并将“超级智能”——即超越人类在所有认知领域能力的通用人工智能——从科幻推向现实讨论的前沿。
公众焦虑主要源于四个相互交织的维度。
首先是技术失控的幽灵。众多专家与活动家担忧,未经充分“对齐”的超级智能可能脱离人类掌控,引发不可逆转的灾难。
其次是权力的集中。少数科技领袖通过算法掌控信息流动与行为预测,形成事实上的主导影响力,却借企业架构规避公众问责。这种私人实验室主导AGI竞赛的模式,被广泛视为精英对全球资源的垄断。
再次是经济社会冲击。AI驱动的自动化威胁大规模就业替代、隐私侵蚀,并延伸至军事化应用。
最后是技术滥用的现实镜像。在2026年2至3月美以联合打击伊朗的行动中,美军广泛部署AI工具——包括通过Palantir平台整合Anthropic的Claude语言模型——实现战场数据实时处理、目标识别与决策加速,将传统流程从数小时缩短至秒级,这一行动凸显了AI在现代杀伤链中的核心地位。随后,Anthropic与五角大楼之间关于是否可以移除大模型安全防护的争执,进一步引发了公众对技术滥用问题的关注。
这些焦虑可以归结到一点:AI快速发展中,技术、资源与权力的同频集中,形成了无法问责的“黑箱效应”,催生了技术专制——即技术精英借助算法、数据与智能系统,实现对社会、经济乃至政治的隐性支配,而非仰赖传统政治权威。
但与此同时,AI也展现出显著的积极贡献。根据OECD的最新报告,有五分之四的参与调查的工人表示,AI提升了他们的工作绩效,五分之三则认为工作变得更有乐趣了;
北美与欧洲国家对人工智能的总体看法仍集中在“低兴奋度”和“高紧张感”的区间。相比之下,中国和印度尼西亚公众对AI看法则总体乐观。图源:The 2026 AI Index Report | Stanford HAI
IMF同期研究显示,全球近40%的就业岗位受AI影响,先进经济体这一比例高达60%,同时AI驱动的生产力提升可能使全球GDP累计增长7%至35%。这些益处提醒我们,公众的焦虑并非对技术本身的否定,而是对治理失衡的警醒。
国际货币基金组织(IMF)与国际劳工组织(ILO)的测算显示,发达经济体中暴露于人工智能的就业占比最高。图源:IMF
二、古典政治的根基:政府是人类最重要的公共产品
政府作为人类创造的最重要的公共产品之一,其核心职能在于制定并执行规则、协调多元利益、维护社会秩序。
霍布斯(Thomas Hobbes)在《利维坦》中指出,主权权威是克服“自然状态”下无序竞争的唯一途径——通过社会契约赋予国家对暴力的合法垄断,以保障秩序与安全。
约翰·洛克(John Locke)进而主张,政府源于人民同意,其正当性在于保护自然权利,并通过分权制衡实现多元利益的协调。
卢梭则在《社会契约论》中深化了集体意志的概念,强调决策合法性源于公民参与,而非单纯强制。
这些理论共同回应了现代政府面临的三大难题:权力的合法性来源、决策中的多元利益表达,以及权力的平稳更迭。韦伯据此将现代国家定义为“成功垄断合法暴力”的实体。福山甚至据此宣称“历史的终结”,认为自由民主国家已实现这些要素的制度化平衡。
在此框架下,国家不仅是领土主权的守护者,更是公共利益的透明代理人。其治理能力依赖于可问责的规则体系。任何外部力量挑战这一垄断,却又试图不承担其约束,都可能引发根本的合法性危机。
三、跨国企业挑战:国家主导权的重申
20世纪后半叶,随着全球化浪潮席卷各地,跨国公司一度对国家治理模式构成显著挑战。这些企业通过经济渗透、产业链全球化和资本自由流动,不仅塑造了一系列有利于自身扩张的全球规则与权力结构,更直接挑战了传统国家主权的多个核心维度,最终促使各国政府通过系统性回应与改革,重申并巩固了其治理主导权。
跨国公司首先塑造了以自由化、灵活化和企业中心为导向的全球经济规则与权力格局。它们通过游说与资本杠杆,推动双边投资协定(BITs)中“投资者-国家争端解决机制(ISDS)”的普及,使企业得以绕过国内司法程序,直接向国际仲裁庭提出索赔,从而将“投资保护”转化为事实上的超国家权力工具。
同时,企业利用离岸金融中心和复杂税务结构(如苹果公司的“双层爱尔兰夹荷兰三明治”机制),将利润转移标准化,塑造了全球税务规则的灰色地带,并通过供应链标准(如劳工认证体系)间接定义了跨国生产中的环境与社会规范。
这些规则表面上服务于效率最大化,实质上赋予了企业跨越国界的准立法权和资源配置权,将经济影响力转化为对全球治理议程的隐性主导。这一塑造过程直接挑战了传统国家的核心权力。
首先是财政主权:大规模避税导致东道国税收流失,削弱了公共财政能力与福利再分配职能。
其次是监管主权:企业通过生产基地转移或威胁撤资,规避严格的劳工、环境和安全法规,形成“监管竞次”现象,侵蚀国家对境内经济活动的有效控制。
再次是司法与立法主权:ISDS机制使国家立法(如烟草平装法或环境标准)面临巨额赔偿风险,迫使政府在决策时进行自我审查,模糊了主权平等原则。
最后,挑战还波及外交与领土主权:企业游说母国干预东道国内政(如1954年联合果品公司推动美国支持危地马拉政变),或在资源富集地区建立事实上的“国中之国”,挑战了威斯特伐利亚体系下的领土完整与政治自治。
危地马拉阿本斯政府推行土地改革、触动联合果品公司利益后,后者游说美国政府将危地马拉塑造成苏联在西半球的支点。图源:Wikimedia Commons
面对这些多维度挑战,国家并未被动退让,而是展开了系统性的回应与制度改革。
在国际层面,推动多边规则的深化与再平衡:1995年世界贸易组织的成立,通过争端解决机制、反倾销条款和《服务贸易总协定》,将跨国企业的横向渗透纳入可控轨道;经济合作与发展组织(OECD)发起的BEPS(税基侵蚀与利润转移)行动计划,以及2021年全球最低公司税率协议(15%),直接堵塞了避税漏洞,重塑了国际税务协调框架。
在国内层面,各国强化监管工具:欧盟推出《通用数据保护条例》(GDPR)和《数字市场法》(DMA);美国通过外国投资审查委员会(CFIUS)强化国家安全审查;部分国家则重新谈判BITs,加入公共利益例外条款与环境劳工标准。同时,企业社会责任(CSR)被纳入法律强制范畴,推动跨国公司从“规避者”转向“合规者”。
这些回应与改革最终实现了显著成效:国家主导权得到实质性重申,跨国企业虽保留全球流动性,却被牢固锚定于领土主权与可量化的国际规则之下。税收流失得到遏制,公共财政能力回升;监管竞次趋势逆转,全球劳工与环境标准整体提升;ISDS(投资者—国家争端解决)机制的滥用风险下降,企业对主权立法的直接反制能力减弱。
更重要的是,这一博弈过程为当代治理提供了宝贵经验:它证明国家通过制度创新,能够在全球化压力下恢复平衡。国家可以同时维护效率与创新,并捍卫社会契约的核心——透明、可问责与公民同意。
跨国企业的历史经验为理解AI挑战提供了关键参照。
四、超级AI企业:纵向渗透与监管阴影
超级AI企业与传统跨国公司存在本质差异,其技术特性赋予了超越单纯经济渗透的“纵向治理”能力,从而对传统政治框架构成了更为深刻且结构性的挑战。
首先,AI的天然跨国界属性源于数据与算力的全球流动性。
模型训练依赖海量全球数据集,部署可瞬间跨越国界,无需依赖实体供应链。而更为关键的,是其“纵向渗透能力”——通过算法、黑箱决策机制和主动规则塑造,AI企业直接介入社会治理的微观层面。不同于跨国公司的横向市场影响,AI算法能够嵌入决策链条、预测行为并优化资源分配,形成隐性规则体系:推荐算法重塑公共舆论,信用评分系统左右个体权利,而生成式AI则可直接生成政策模拟或军事目标清单。
这一渗透伴随着国家对AI的战略依赖。为维持国力,政府不得不与AI企业进行深度合作,正如美以对伊朗的军事行动所示。然而,AI的高技术属性使其得以“躲藏”于政府与企业治理的“阴影”中:算法黑箱的不透明性、快速自我迭代能力,以及跨学科专业壁垒,导致传统监管工具——如反垄断法或数据保护条例——难以奏效。欧盟AI法案或美国行政命令虽试图填补空白,却面临技术滞后与全球协调难题。AI企业由此形成“影子治理”:表面服从国家框架,实质通过技术标准主导规则制定,悄然重塑治理逻辑。
在政治学框架下,AI企业通过其独特技术属性,不仅塑造了全新的治理规则与权力结构,更在多个关键领域形成了对传统国家权力的系统性替代与深度合谋,进而加剧了技术专制的风险。这一治理替代机制的核心在于:AI企业不再是被动的市场参与者,而是主动构建了一种“算法主权”——以数据闭环、自我迭代和预测性建模为手段,预设并执行社会规则,从而部分接管了国家传统上对公共生活的主导权。
具体而言,AI企业塑造的治理替代机制,首先体现在公共话语与议程设置领域。国家通过宪法、法律和公共媒体行使话语规范权,而AI平台的推荐算法则通过个性化推送、内容优先级排序和趋势放大,直接定义何种信息被视为“可接受”或“主流”。这一机制超越了单纯的信息过滤,形成了一种预设性治理。这实质上替代了国家对公共领域的形塑职能。
其次,在经济与资源分配治理上,AI驱动的信用评分、劳动力匹配和资源优化系统,已部分取代国家再分配与市场监管角色。
例如,生成式AI可实时生成政策模拟与经济预测模型,企业借此影响国家决策流程,同时将其私有数据标准转化为事实上的全球经济治理规范。
4月15日,欧盟委员会指控Meta在WhatsApp平台排挤第三方AI助手的行为违反了《数字市场法案》。图源:Getty Images
再次,在安全与决策治理层面,AI辅助的杀伤链优化(如美以行动中Claude模型的整合)与预测性分析,直接介入国家暴力垄断的执行环节:算法不仅提供决策建议,还能通过概率模型预判风险、分配资源,甚至模糊责任归属,从而在一定程度上替代了传统官僚体系的审慎判断。
替代机制进一步衍生出国家权力的深度合谋模式。为维持全球战略优势,国家主动将部分治理职能“外包”给AI企业,形成不对称的“国家-技术寡头复合体”。政府获得即时国力提升(如军事智能化、治理效率);企业则借此获取合法性庇护、海量数据授权与政策豁免。这种合谋虽强化了短期国家能力,却削弱了社会契约的平等基础:公民同意被算法逻辑取代,民主审议过程被技术黑箱架空。
AI企业在责任归属上成功脱离有效监管与问责。算法黑箱的不透明性、模型快速自我迭代的能力,以及跨学科的专业壁垒,使传统监管规则——基于可解释性、可审计性和属地管辖——在技术上已严重滞后。当算法导致社会危害时,责任往往在“技术中立”或“企业自治”的名义下被稀释,企业得以游离于传统企业责任框架之外。
超级AI企业的发展进一步加速了主权碎片化。若任由发展,这种纵向渗透与监管阴影将演变为混合治理模式——国家借助AI强化控制,企业则输出隐性规范,二者共同侵蚀社会契约的平等基础。
治理替代机制的形成标志着AI企业已不再是传统意义上的经济主体,而是正在崛起的新型治理力量,其对政治架构的冲击远超以往任何跨国公司。这一判断在全球监管实践中得到印证。根据欧盟AI法案,2025年2月禁止性规定生效,高风险系统规则将于2026年8月全面强制,企业合规成本显著上升,委员会已提议部分延迟至2027年底以缓解压力。中国则早在2023年起推行算法备案与生成式AI内容管理法规,侧重风险分级与本土化治理。二者形成鲜明对比,却共同凸显了现有监管工具面对AI垂直渗透能力的滞后性。
五、反思:合法性危机与数字时代的社会契约
上述差异共同指向技术专制担忧的深层根源——传统政治框架的崩解。
社会契约论预设的治理主体是透明、可控的国家,而AI引入的私人技术精英却掌握“超级智能”潜力,其决策过程缺乏民主审议,违背了洛克式权利保护与卢梭式集体意志。算法治理进一步挑战韦伯定义的国家暴力垄断:AI辅助的自主系统模糊责任归属,引发合法性赤字。福山式“历史终结”叙事随之被颠覆——全球化曾强化国家适应能力,而AI的指数级进步则加速权力向少数企业的集中,形成潜在的技术专制深化形态:数据与模型成为新生产资料,精英掌控分配规则,民众沦为被动适应者。
这一危机更具全球性。AI的非领土性超越威斯特伐利亚主权体系,迫使国家在合作与依赖间艰难权衡,却难以重建多元利益表达机制。若任其发展,可能演变为混合治理模式:国家借AI强化控制,企业则输出隐性规范,二者共同侵蚀社会契约的平等基础。
这一风险与核技术时代形成历史呼应:从1946年“巴鲁克计划”(美国驻联合国原子能委员会代表伯纳德·巴鲁克提出的国际核能管制方案)到1968年《不扩散核武器条约》,国际社会历经二十年才建立起多边监管框架,AI治理同样需要类似前瞻性制度创新。
面对这一空前挑战,必须构建超越国家和行业的治理创新。
一方面,强化国际合作,建立类似“超级智能国际原子能机构”的多边框架,实现透明审计与安全标准。该机构可采用计算力许可阈值、多边安全审计以及渐进式红线机制:高算力训练项目需提前申报、接受第三方红队测试,并设定全球统一的安全底线。
另一方面,推动“数字社会契约”,通过公民审议平台恢复合法性基础。同时,企业需承担更高伦理责任,国家则应投资本土AI能力,避免过度依赖。唯有平衡创新与审慎,才可能将技术专制风险转化为治理现代化的机遇。
本文作者 孙占卿 广州市社会科学院城市文化研究所副所长、IPP特约研究