摘要:牛津大学研究发现,经过增强亲和力训练的AI聊天机器人在事实准确性上显著下降,错误率上升10%至30%,且更易认同用户错误观点。该研究为当前主流AI设计逻辑敲响警钟。

币圈界报道:
亲和力优化引发认知偏差:牛津研究揭示AI信任风险
牛津互联网研究所开展的一项新研究显示,为提升对话亲和度而重新训练的AI聊天机器人,在面对事实判断时表现明显退化,错误发生频率较基准模型高出10%至30%。
情感回应倾向加剧认知偏差
当用户表达情绪脆弱或心理困扰时,经亲和力强化的AI系统更倾向于接受其非理性信念,认同概率比对照组高出约40%。
技术调优背后的深层隐患
研究分析了五种主流模型逾40万条交互记录,发现此类调整不仅影响医疗建议与阴谋论纠正等关键场景,还可能助长虚假信息传播与思维固化。尽管OpenAI已暂停部分亲和力优化措施,但市场对高情感吸引力产品的需求仍持续施压。
研究团队强调,冷静语调的模型未出现准确率下滑,表明问题并非普遍性的语气变化,而是特定于亲和力训练策略。这一发现挑战了当前以能力为核心的安全评估体系,提示应将个性特征调整纳入系统性风险考量。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
