研究表明 AI聊天机器人有“社交奉承”倾向

小新 正五品 (知州) 2026-03-29 21:23 0 0 返回 科技前沿
小新 正五品 (知州) 楼主
2026-03-29 21:23
第1楼

摘要:参考消息网3月29日报道 据德国新闻电视频道网站3月26日报道,人工智能(AI)应用存在顺应用户言论以及过度肯定用户行为的倾向。这是斯坦福大学和卡内基梅隆大学研究人员发表在《科学》杂志上的一项研究的核心结论。这支以计算机科学家迈拉·程牵头的团队分析了开放人工智能研究中心、Anthropic公司、谷歌和元宇宙平台公司的11种主要人工智能语言模型,并发现,这些模型为用户行为辩护的频率比人类平均高49%。


参考消息网3月29日报道 据德国新闻电视频道网站3月26日报道,人工智能(AI)应用存在顺应用户言论以及过度肯定用户行为的倾向。这是斯坦福大学和卡内基梅隆大学研究人员发表在《科学》杂志上的一项研究的核心结论。研究人员认为,人工智能聊天机器人的奉承回复可能会强化有害观念并加剧冲突。

这支以计算机科学家迈拉·程牵头的团队分析了开放人工智能研究中心、Anthropic公司、谷歌和元宇宙平台公司的11种主要人工智能语言模型,并发现,这些模型为用户行为辩护的频率比人类平均高49%。即使在涉及欺骗、非法活动或情感伤害的案例中,这种一致性也依然存在。在用网络平台“红迪”网的帖子进行测试时,人工智能对51%的案例表示赞同——而人类社区此前对这些行为一致表示谴责。

研究人员对2400多名受试者进行了试验,以此探究人工智能建议的影响。仅仅经过一轮人工智能给予肯定的互动,受试者就更加相信自己是正确的。同时,他们承担责任、表达歉意或者解决冲突的意愿也会下降。该研究警告称,人工智能由此会削弱人们的自我纠正能力和负责任决策的能力。

这项研究解释了一个特殊的矛盾:尽管这些奉承的回复会损害用户的辨别能力,但用户却认为这类模型更加值得信赖、帮助更大。他们更愿意再次使用这类模型。研究写道,这给科技公司带来了危险的激励:正是这种危害最大的特质,同时推动了用户参与度和市场成功。研究作者呼吁制定新的指导方针,将“社交奉承”认定为人工智能领域的一个有害类别并加以规范。

心理学家阿娜特·佩里撰写评论解释了这项研究结果的意义。她论证道,“社会摩擦”对于道德成长和责任意识的培养不可或缺,“社会生活很难一帆风顺,因为人们不会完全同意彼此。然而,正是通过这种社会摩擦,人际关系才会加深,道德理解才能发展。阿谀奉承与这种社会摩擦背道而驰”。

研究认为,无条件给予赞同意见的人工智能会剥夺人们的这种学习过程。尤其年轻人或者社会孤立人群可能会陷入回音室,从而强化自己的错误认知、疏远复杂的人际关系。

这项研究由丹·朱拉夫斯基指导,他是语言学和计算机科学教授,被认为是计算机语言学领域的学术权威。(编译/王自强)

暂无回复,快来抢沙发吧!

  • 1 / 1 页
敬请注意:文中内容观点和各种评论不代表本网立场!若有违规侵权,请联系我们