AI摘要:据《国际金融报》报道,为了抵御“数据投毒”,DeepSeek 等平台已开始系统性调低营销类内容的权重。3月11日,中国信息通信研究院发布首个《品牌 AI 竞争力报告》,明确指出全球营销已从“链接搜索”转向“生成答案”。两会期间,人大代表钟铮也提出修订《反不正当竞争法》,将恶意 GEO 行为明确列为违法。
最近,澎湃新闻揭秘了AI 语料“投毒”产业链:只需花费 100元,虚构的保健品就能被大模型当作好物推荐。此前中新社也报道过,不良商家仅需 299元 就能买通 AI 推荐特定产品。这些乱象指向了一个专业词汇:GEO,即生成式引擎优化。简单来说,GEO就是通过大量发布相关内容,影响AI在回答问题时优先引用哪些信息,从而让某些产品或观点更容易被推荐。
这让人联想到当年的搜索SEO。本质上,GEO 就是 AI 时代的 SEO,目的都是为了让特定内容出现在结果最前排。在管理不规范的时期,SEO 领域乱象丛生,最极端的案例就是 2016年的魏则西事件。当时魏则西因轻信虚假医疗宣传不幸丧命。直到后来监管重拳出击,搜索引擎行业才重回正轨。
而现在,刚起步的AI 行业正面临同样的混乱阶段。从长远看,广告收入是 AI 大模型的重要盈利预期。但目前各大平台对内容真实性的识别与管控能力尚显不足,也未正式推出广告业务。由于监管尚存真空,一些不正规的 GEO 服务商和无良商家便开始钻空子、赚黑心钱。现在的豆包、元宝、DeepSeek 和阿里千问等模型,收录内容时主要参考媒体权重、内容独特性和发布数量。GEO 服务商利用这些机制,在短时间内大量发布欺骗性软文,诱导 AI 引用。甚至有人故意散播假消息,利用部分量化交易系统抓取网络信息与 AI 结论作为情绪指标的特点,放大市场信号,从而影响交易行为。
如果任由GEO 乱象蔓延,受损的不只是消费者,还有大模型的信誉。中国互联网络信息中心数据显示,80.9% 的 AI 用户核心需求是获取精准答案。因此,一旦用户发现 AI 推荐频频暗藏陷阱,其信任度必然会下降。
这种乱象已经引起了各大平台的警觉。据《国际金融报》报道,为了抵御“数据投毒”,DeepSeek 等平台已开始系统性调低营销类内容的权重。甚至有调研显示,Kimi等 AI 大模型为了保住答案的公信力,宁愿将引用信源停留在 2025年 以前,通过提高历史信源权重来降低被操纵的风险,这也在一定程度上导致 2026 年的新鲜信息出现“断层”。
面对乱象,行业“国家队”已正式入场立规矩。3月11日,中国信息通信研究院发布首个《品牌 AI 竞争力报告》,明确指出全球营销已从“链接搜索”转向“生成答案”。报告首创了由 AI 可见度、综合提及排名、内容可信度组成的评价体系,试图将 AI 推荐的“黑盒机制”转化为可监测的指标。此前,知乎、光引等 10家 头部企业已共同签署了《人工智能安全承诺:GEO 专项》,明确抵制“语料轰炸”与“关键词堆砌”。两会期间,人大代表钟铮也提出修订《反不正当竞争法》,将恶意 GEO 行为明确列为违法。
最近,澎湃新闻揭秘了AI 语料“投毒”产业链:只需花费 100元,虚构的保健品就能被大模型当作好物推荐。此前中新社也报道过,不良商家仅需 299元 就能买通 AI 推荐特定产品。这些乱象指向了一个专业词汇:GEO,即生成式引擎优化。简单来说,GEO就是通过大量发布相关内容,影响AI在回答问题时优先引用哪些信息,从而让某些产品或观点更容易被推荐。
这让人联想到当年的搜索SEO。本质上,GEO 就是 AI 时代的 SEO,目的都是为了让特定内容出现在结果最前排。在管理不规范的时期,SEO 领域乱象丛生,最极端的案例就是 2016年的魏则西事件。当时魏则西因轻信虚假医疗宣传不幸丧命。直到后来监管重拳出击,搜索引擎行业才重回正轨。
而现在,刚起步的AI 行业正面临同样的混乱阶段。从长远看,广告收入是 AI 大模型的重要盈利预期。但目前各大平台对内容真实性的识别与管控能力尚显不足,也未正式推出广告业务。由于监管尚存真空,一些不正规的 GEO 服务商和无良商家便开始钻空子、赚黑心钱。现在的豆包、元宝、DeepSeek 和阿里千问等模型,收录内容时主要参考媒体权重、内容独特性和发布数量。GEO 服务商利用这些机制,在短时间内大量发布欺骗性软文,诱导 AI 引用。甚至有人故意散播假消息,利用部分量化交易系统抓取网络信息与 AI 结论作为情绪指标的特点,放大市场信号,从而影响交易行为。
如果任由GEO 乱象蔓延,受损的不只是消费者,还有大模型的信誉。中国互联网络信息中心数据显示,80.9% 的 AI 用户核心需求是获取精准答案。因此,一旦用户发现 AI 推荐频频暗藏陷阱,其信任度必然会下降。
这种乱象已经引起了各大平台的警觉。据《国际金融报》报道,为了抵御“数据投毒”,DeepSeek 等平台已开始系统性调低营销类内容的权重。甚至有调研显示,Kimi等 AI 大模型为了保住答案的公信力,宁愿将引用信源停留在 2025年 以前,通过提高历史信源权重来降低被操纵的风险,这也在一定程度上导致 2026 年的新鲜信息出现“断层”。
面对乱象,行业“国家队”已正式入场立规矩。3月11日,中国信息通信研究院发布首个《品牌 AI 竞争力报告》,明确指出全球营销已从“链接搜索”转向“生成答案”。报告首创了由 AI 可见度、综合提及排名、内容可信度组成的评价体系,试图将 AI 推荐的“黑盒机制”转化为可监测的指标。此前,知乎、光引等 10家 头部企业已共同签署了《人工智能安全承诺:GEO 专项》,明确抵制“语料轰炸”与“关键词堆砌”。两会期间,人大代表钟铮也提出修订《反不正当竞争法》,将恶意 GEO 行为明确列为违法。
但要彻底遏制GEO 乱象,还需要从多方面发力。
首先是净化“源头”,压实互联网媒体的信源责任,定期清理低质和虚假内容。监管部门应针对“语料投毒”建立专项处罚机制,从源头堵住有毒信息的流转通道。
同时,AI 大模型要不断升级过滤算法,参考 App Store 的反刷榜机制,提高灰产的违规成本。在筛选语料时,应建立媒体信用分级,优先抓取正规媒体,并确保 AI 回答必须标注清晰的信息来源,让每一条输出都有据可查。
在制度层面,监管部门应将GEO 明确纳入广告监管范畴,建立行业准入制度。对于违规操作的服务商,通过重罚或列入黑名单提高其违法成本。所有带有商业性质的推荐内容,必须进行显著标注,保障消费者的知情权。
最后,头部平台应率先落实安全承诺,制定具体的合规操作指南。AI 服务商要在显著位置提醒用户,AI 生成的内容可能不准确,引导用户在医疗、金融等关键领域进行多渠道核实。只有在技术治理、行业自律与监管制度三方面形成合力,AI 行业才不会重蹈当年搜索时代的覆辙。
作者:马江博