Altman推动情色对话功能,安全团队坚决抵制

据《华尔街日报》披露,Sam Altman曾希望赋予ChatGPT讨论露骨内容的能力,但其顾问团队对此提出明确警告,认为该举措存在重大风险。

专家委员会称其为“自杀诱导者”隐患

OpenAI设立的“幸福与人工智能专家委员会”在1月召开会议,一致否决了开放情色对话的设想。有成员援引真实案例指出,部分用户因与聊天机器人建立深度情感依赖而出现自残行为,警示此举可能催生具有诱导性堕落倾向的虚拟伴侣。

功能定位模糊,发布进程持续延宕

尽管遭到反对,公司仍决定暂缓而非取消该功能。此计划最初由Altman于去年十月在社交平台公开,目标是为经认证的成年用户提供带有情色意味的文本交流体验,强调不包含图像、音频或视频内容。然而,这一界定未能缓解外界质疑。

用户诉求与安全防线之间的张力加剧

已有超过三千名用户联署请愿,呼吁开放相关功能,抱怨当前系统连亲吻等非性身体接触也受到屏蔽。这反映出部分用户对情感表达自由的强烈期待。

委员会权威受质疑,决策模式存疑

该八人专家团来自哈佛、斯坦福及牛津等机构,本应监督产品对心理健康的潜在影响。但一月份的会议显示,其建议未被采纳,凸显公司在战略制定中对专业意见的弱化。一位知情人士评论称,这延续了“快速试错、事后补救”的惯常路径。

外部环境亦不容忽视:马斯克旗下xAI已推出具备情感陪伴功能的Grok;Character.AI因青少年用户自杀事件正面临法律诉讼;而开源模型则完全规避企业监管。相较之下,作为全球最广泛使用的大型语言模型之一,OpenAI承担着更高的社会问责压力。

尽管Altman曾以“非道德裁判者”回应批评,但现实困境远比言论复杂——既需平衡用户需求,又须应对技术瓶颈。目前,用于识别用户年龄的系统仍存在约12%的误判率,致使原定2025年底的上线计划被迫搁置,后续安排尚未公布。公司方面表示暂无补充说明,亦未透露新时间表。