奥特曼疾呼:人工智能风险已现端倪,政策须提前布局

OpenAI首席执行官山姆·奥特曼公开警示,当前人工智能技术已深度嵌入经济运行与日常生活,不再局限于实验室构想。他强调,面对这一变革性力量,美国政策制定者必须采取前瞻性的制度安排,避免在危机爆发后被动应对。

智能工具催生新型安全挑战,漏洞挖掘效率呈指数级提升

现代人工智能模型已具备独立生成代码、执行复杂科研任务的能力。奥特曼指出,未来个人开发者将借助成熟AI工具完成过去依赖团队协作的工程目标,显著降低创新门槛。

在网络安全层面,该趋势已引发严重后果。硬件钱包厂商Ledger首席技术官查尔斯·吉耶梅表示,人工智能大幅压缩了漏洞探测与利用的时间成本。原本需数月完成的逆向工程分析,如今仅通过优化提示词即可在数秒内达成相似效果。

2023年,加密资产领域因攻击事件导致的损失突破14亿美元。专家预测,随着开发者对AI生成代码的依赖加深,系统性安全风险或将持续扩大。吉耶梅建议,应优先采用数学可验证的代码架构,并广泛部署支持私钥离线存储的安全硬件,同时在系统设计阶段即预设故障容错机制。

构建跨域协作机制,防范高阶人工智能滥用

尽管奥特曼肯定人工智能在药物发现和新材料研发中的加速潜力,但他同时提醒,该技术可能被用于推动恶意生物实验及实施高效网络攻击。鉴于相关威胁最早或于次年内显现,他主张政府、科技企业与网络安全组织必须迅速建立协同响应框架。

“开源的高级生物建模模型普及已近在咫尺,”奥特曼强调,社会必须切实提升对恐怖组织利用此类工具的防御能力,而非仅停留在讨论层面。

他列举了年内可能出现“全球性数字基础设施瘫痪”的合理情景,凸显预防机制建设的紧迫性。目前多项政策提案正致力于推动对多功能、快速演进的人工智能系统的监管对话。同时,奥特曼也指出,人工智能本身也可用于增强防御体系,实现攻防动态平衡。

针对将OpenAI转为国有实体的设想,奥特曼认为保持私营属性有助于确保美国能在国际竞争中率先发展出符合民主价值的超智能系统。他判断,由政府主导此类高风险项目在实际操作中存在显著障碍。

值得注意的是,奥特曼的立场与其在人工智能产业中的经济利益存在深层关联。其倡导加速监管改革、强调私营部门在风险控制中的核心作用,均反映出对行业可持续发展的战略考量。此外,随着模型训练规模扩张,能源消耗管理也将成为影响技术演进与公共政策的重要议题。