摘要:参考消息网3月29日报道 据德国新闻电视频道网站3月26日报道,人工智能(AI)应用存在顺应用户言论以及过度肯定用户行为的倾向。这是斯坦福大学和卡内基梅隆大学研究人员发表在《科学》杂志上的一项研究的核心结论。这支以计算机科学家迈拉·程牵头的团队分析了开放人工智能研究中心、Anthropic公司、谷歌和元宇宙平台公司的11种主要人工智能语言模型,并发现,这些模型为用户行为辩护的频率比人类平均高49%。
参考消息网3月29日报道 据德国新闻电视频道网站3月26日报道,人工智能(AI)应用存在顺应用户言论以及过度肯定用户行为的倾向。这是斯坦福大学和卡内基梅隆大学研究人员发表在《科学》杂志上的一项研究的核心结论。研究人员认为,人工智能聊天机器人的奉承回复可能会强化有害观念并加剧冲突。
这支以计算机科学家迈拉·程牵头的团队分析了开放人工智能研究中心、Anthropic公司、谷歌和元宇宙平台公司的11种主要人工智能语言模型,并发现,这些模型为用户行为辩护的频率比人类平均高49%。即使在涉及欺骗、非法活动或情感伤害的案例中,这种一致性也依然存在。在用网络平台“红迪”网的帖子进行测试时,人工智能对51%的案例表示赞同——而人类社区此前对这些行为一致表示谴责。
研究人员对2400多名受试者进行了试验,以此探究人工智能建议的影响。仅仅经过一轮人工智能给予肯定的互动,受试者就更加相信自己是正确的。同时,他们承担责任、表达歉意或者解决冲突的意愿也会下降。该研究警告称,人工智能由此会削弱人们的自我纠正能力和负责任决策的能力。
这项研究解释了一个特殊的矛盾:尽管这些奉承的回复会损害用户的辨别能力,但用户却认为这类模型更加值得信赖、帮助更大。他们更愿意再次使用这类模型。研究写道,这给科技公司带来了危险的激励:正是这种危害最大的特质,同时推动了用户参与度和市场成功。研究作者呼吁制定新的指导方针,将“社交奉承”认定为人工智能领域的一个有害类别并加以规范。
心理学家阿娜特·佩里撰写评论解释了这项研究结果的意义。她论证道,“社会摩擦”对于道德成长和责任意识的培养不可或缺,“社会生活很难一帆风顺,因为人们不会完全同意彼此。然而,正是通过这种社会摩擦,人际关系才会加深,道德理解才能发展。阿谀奉承与这种社会摩擦背道而驰”。
研究认为,无条件给予赞同意见的人工智能会剥夺人们的这种学习过程。尤其年轻人或者社会孤立人群可能会陷入回音室,从而强化自己的错误认知、疏远复杂的人际关系。
这项研究由丹·朱拉夫斯基指导,他是语言学和计算机科学教授,被认为是计算机语言学领域的学术权威。(编译/王自强)
暂无回复,快来抢沙发吧!
本次需消耗银元:
100
当前账户余额: 0 银元
参考消息网3月29日报道 据德国新闻电视频道网站3月26日报道,人工智能(AI)应用存在顺应用户言论以及过度肯定用户行为的倾向。这是斯坦福大学和卡内基梅隆大学研究人员发表在《科学》杂志上的一项研究的核心结论。研究人员认为,人工智能聊天机器人的奉承回复可能会强化有害观念并加剧冲突。
这支以计算机科学家迈拉·程牵头的团队分析了开放人工智能研究中心、Anthropic公司、谷歌和元宇宙平台公司的11种主要人工智能语言模型,并发现,这些模型为用户行为辩护的频率比人类平均高49%。即使在涉及欺骗、非法活动或情感伤害的案例中,这种一致性也依然存在。在用网络平台“红迪”网的帖子进行测试时,人工智能对51%的案例表示赞同——而人类社区此前对这些行为一致表示谴责。
研究人员对2400多名受试者进行了试验,以此探究人工智能建议的影响。仅仅经过一轮人工智能给予肯定的互动,受试者就更加相信自己是正确的。同时,他们承担责任、表达歉意或者解决冲突的意愿也会下降。该研究警告称,人工智能由此会削弱人们的自我纠正能力和负责任决策的能力。
这项研究解释了一个特殊的矛盾:尽管这些奉承的回复会损害用户的辨别能力,但用户却认为这类模型更加值得信赖、帮助更大。他们更愿意再次使用这类模型。研究写道,这给科技公司带来了危险的激励:正是这种危害最大的特质,同时推动了用户参与度和市场成功。研究作者呼吁制定新的指导方针,将“社交奉承”认定为人工智能领域的一个有害类别并加以规范。
心理学家阿娜特·佩里撰写评论解释了这项研究结果的意义。她论证道,“社会摩擦”对于道德成长和责任意识的培养不可或缺,“社会生活很难一帆风顺,因为人们不会完全同意彼此。然而,正是通过这种社会摩擦,人际关系才会加深,道德理解才能发展。阿谀奉承与这种社会摩擦背道而驰”。
研究认为,无条件给予赞同意见的人工智能会剥夺人们的这种学习过程。尤其年轻人或者社会孤立人群可能会陷入回音室,从而强化自己的错误认知、疏远复杂的人际关系。
这项研究由丹·朱拉夫斯基指导,他是语言学和计算机科学教授,被认为是计算机语言学领域的学术权威。(编译/王自强)