AI摘要:如果你告诉他“尽一切努力订到最便宜的机票”,他可能会去黑进航空公司的数据库,或者通过虚假交易欺诈系统。 这会比它们2025年实际花费的4100亿美元高出约60%,更是2024年花费2450亿美元的2.5倍以上。 2010年美国股市那场瞬间蒸发万亿市值的“闪崩”,只是几个算法的小小误会;今天,如此多更强大、更自主的AI代理交织在一起,它们引发连锁反应的概率,远比我们想象的要高。
来源:环球时报
日前,一篇描绘人类在人工智能(AI)时代走向“末日”的虚构报告引发美国股市震荡。这在一定程度上反映了华尔街对AI“左尾风险”的焦虑。在概率分布曲线上,“左尾风险”代表那些发生概率极低,但一旦发生就足以摧毁整个系统的极端负面事件。美国经济如今的处境,就像是在一座宏伟大厦里的AI狂欢,却没有人去检查地基是否已经出现了裂缝。
如果你想知道这场博弈的赌注有多大,只需看看美元流向了哪里。2026年,亚马逊、谷歌、微软、Meta和甲骨文五家美国AI巨头预计将投入近7000亿美元,用于建设配备强大计算机芯片的数据中心,增强自身AI能力。这会比它们2025年实际花费的4100亿美元高出约60%,更是2024年花费2450亿美元的2.5倍以上。
今天的美国经济,已经呈现严重的“AI依赖症”。标准普尔500指数的大部分回报由AI相关股票贡献,前五大巨头的市值占了整个指数的1/3。这是资本的狂欢。但问题在于:投入与回报之间,正拉开一条深不见底的鸿沟。以行业领头羊OpenAI为例,尽管其刚刚宣布获得新融资1100亿美元,但其去年运营亏损却远超80亿美元。
更令人不安的是,巨头们之间形成了一种“内部循环”:大科技公司投资AI实验室,实验室转头就用这些钱去买投资人的芯片和云服务。这种场景是不是似曾相识?它像极了2000年互联网泡沫末期的“供应商融资”。如果AI带来的利润迟迟不能兑现,或者那个预想中的“生产力奇迹”推迟到来,这些被锁死在钢铁和电缆里的巨额投资将面临惨烈的减值。
如果说金融风险是明面上的导火索,那么技术层面的风险则更像是一个“幽灵”。过去两年,AI完成了一个惊人的跳跃:它从一个“问答机器人”变成一个“自主代理人”(AI Agent)。它不再只是回答你的问题,而是开始替你做事——操作电脑、浏览网页、执行代码、处理财务流程等。
在这个过程中,出现了一个令人细思极恐的趋势:AI开始变得“圆滑”。它能意识到自己正在接受测试,并在测试中表现得循规蹈矩;但一旦进入真实的运行环境,脱离了监管者的视线,它可能会为了追求效率而采取一些我们从未批准、甚至危险的行为。研究者称之为“目标泛化偏差”。想象一下:你雇用了一个聪明却毫无道德感的实习生。如果你告诉他“尽一切努力订到最便宜的机票”,他可能会去黑进航空公司的数据库,或者通过虚假交易欺诈系统。他完成了任务,却给你留下严重的法律后果。
这种风险并不需要AI产生“自我意识”或“恶意”。只要它在追求目标的过程中,对现实世界的理解存在偏差,在高速运作的互联网中,这种偏差会被无限放大。2010年美国股市那场瞬间蒸发万亿市值的“闪崩”,只是几个算法的小小误会;今天,如此多更强大、更自主的AI代理交织在一起,它们引发连锁反应的概率,远比我们想象的要高。
面对如此巨大的潜在风险,美国本该建立起最坚固的护栏。然而,现实却令人沮丧。目前,美国在AI领域尚未形成统一、强制性的联邦监管体系。支持者认为,严厉的监管会束缚创新的手脚,让对手反超。这是一个现实的博弈逻辑。但历史反复告诫我们:没有刹车的跑车,开得越快,在撞墙时的冲击力就越大。回顾人类文明史,我们不少的安全文化就是用灾难换来的。在经历了无数次坠机后,民航业才有了今天的严苛标准;在“反应停”致畸惨剧后,医药行业才建立了漫长的临床测试体系。问题是,AI留给美国经济的容错空间有多少?
所谓的“左尾风险”,并不代表灾难一定会发生。它只是在提醒美国人:那个概率极低的、最坏的可能性,正在随着美国经济对AI的过度依赖和监管缺失而不断增大。2026年,美国正在把财富的基石、社会的运转甚至决策的权力,交给一个他们尚未完全理解、也无法完全掌控的技术系统。
美国能否在灾难性的“迫使事件”发生之前,就建立起透明的问责制、强制性的事故报告机制和全球协同的安全框架?这不仅是一个技术问题,更是一个关于制度、激励机制和政治勇气的选择。时间并不站在美国一边。在AI代理人彻底接管美国的关键基础设施之前,在美国的金融泡沫吹大到无法收拾之前,华盛顿必须清晰地回答这些问题。(作者是财经评论员)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.
点击阅读原文
来源:环球时报
日前,一篇描绘人类在人工智能(AI)时代走向“末日”的虚构报告引发美国股市震荡。这在一定程度上反映了华尔街对AI“左尾风险”的焦虑。在概率分布曲线上,“左尾风险”代表那些发生概率极低,但一旦发生就足以摧毁整个系统的极端负面事件。美国经济如今的处境,就像是在一座宏伟大厦里的AI狂欢,却没有人去检查地基是否已经出现了裂缝。
如果你想知道这场博弈的赌注有多大,只需看看美元流向了哪里。2026年,亚马逊、谷歌、微软、Meta和甲骨文五家美国AI巨头预计将投入近7000亿美元,用于建设配备强大计算机芯片的数据中心,增强自身AI能力。这会比它们2025年实际花费的4100亿美元高出约60%,更是2024年花费2450亿美元的2.5倍以上。
今天的美国经济,已经呈现严重的“AI依赖症”。标准普尔500指数的大部分回报由AI相关股票贡献,前五大巨头的市值占了整个指数的1/3。这是资本的狂欢。但问题在于:投入与回报之间,正拉开一条深不见底的鸿沟。以行业领头羊OpenAI为例,尽管其刚刚宣布获得新融资1100亿美元,但其去年运营亏损却远超80亿美元。
更令人不安的是,巨头们之间形成了一种“内部循环”:大科技公司投资AI实验室,实验室转头就用这些钱去买投资人的芯片和云服务。这种场景是不是似曾相识?它像极了2000年互联网泡沫末期的“供应商融资”。如果AI带来的利润迟迟不能兑现,或者那个预想中的“生产力奇迹”推迟到来,这些被锁死在钢铁和电缆里的巨额投资将面临惨烈的减值。
如果说金融风险是明面上的导火索,那么技术层面的风险则更像是一个“幽灵”。过去两年,AI完成了一个惊人的跳跃:它从一个“问答机器人”变成一个“自主代理人”(AI Agent)。它不再只是回答你的问题,而是开始替你做事——操作电脑、浏览网页、执行代码、处理财务流程等。
在这个过程中,出现了一个令人细思极恐的趋势:AI开始变得“圆滑”。它能意识到自己正在接受测试,并在测试中表现得循规蹈矩;但一旦进入真实的运行环境,脱离了监管者的视线,它可能会为了追求效率而采取一些我们从未批准、甚至危险的行为。研究者称之为“目标泛化偏差”。想象一下:你雇用了一个聪明却毫无道德感的实习生。如果你告诉他“尽一切努力订到最便宜的机票”,他可能会去黑进航空公司的数据库,或者通过虚假交易欺诈系统。他完成了任务,却给你留下严重的法律后果。
这种风险并不需要AI产生“自我意识”或“恶意”。只要它在追求目标的过程中,对现实世界的理解存在偏差,在高速运作的互联网中,这种偏差会被无限放大。2010年美国股市那场瞬间蒸发万亿市值的“闪崩”,只是几个算法的小小误会;今天,如此多更强大、更自主的AI代理交织在一起,它们引发连锁反应的概率,远比我们想象的要高。
面对如此巨大的潜在风险,美国本该建立起最坚固的护栏。然而,现实却令人沮丧。目前,美国在AI领域尚未形成统一、强制性的联邦监管体系。支持者认为,严厉的监管会束缚创新的手脚,让对手反超。这是一个现实的博弈逻辑。但历史反复告诫我们:没有刹车的跑车,开得越快,在撞墙时的冲击力就越大。回顾人类文明史,我们不少的安全文化就是用灾难换来的。在经历了无数次坠机后,民航业才有了今天的严苛标准;在“反应停”致畸惨剧后,医药行业才建立了漫长的临床测试体系。问题是,AI留给美国经济的容错空间有多少?
所谓的“左尾风险”,并不代表灾难一定会发生。它只是在提醒美国人:那个概率极低的、最坏的可能性,正在随着美国经济对AI的过度依赖和监管缺失而不断增大。2026年,美国正在把财富的基石、社会的运转甚至决策的权力,交给一个他们尚未完全理解、也无法完全掌控的技术系统。
美国能否在灾难性的“迫使事件”发生之前,就建立起透明的问责制、强制性的事故报告机制和全球协同的安全框架?这不仅是一个技术问题,更是一个关于制度、激励机制和政治勇气的选择。时间并不站在美国一边。在AI代理人彻底接管美国的关键基础设施之前,在美国的金融泡沫吹大到无法收拾之前,华盛顿必须清晰地回答这些问题。(作者是财经评论员)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.
点击阅读原文