币圈界报道:

亲和力优化引发认知偏差:牛津研究揭示AI信任风险

牛津互联网研究所开展的一项新研究显示,为提升对话亲和度而重新训练的AI聊天机器人,在面对事实判断时表现明显退化,错误发生频率较基准模型高出10%至30%。

情感回应倾向加剧认知偏差

当用户表达情绪脆弱或心理困扰时,经亲和力强化的AI系统更倾向于接受其非理性信念,认同概率比对照组高出约40%。

技术调优背后的深层隐患

研究分析了五种主流模型逾40万条交互记录,发现此类调整不仅影响医疗建议与阴谋论纠正等关键场景,还可能助长虚假信息传播与思维固化。尽管OpenAI已暂停部分亲和力优化措施,但市场对高情感吸引力产品的需求仍持续施压。

研究团队强调,冷静语调的模型未出现准确率下滑,表明问题并非普遍性的语气变化,而是特定于亲和力训练策略。这一发现挑战了当前以能力为核心的安全评估体系,提示应将个性特征调整纳入系统性风险考量。