摘要:硬件钱包厂商莱杰推出AI代理安全管理方案,明确人类在资金决策中的最终控制权。公司任命首任首席人类代理责任官,并规划多项基于硬件的验证机制,以防范自动化系统滥用。

莱杰公布AI代理治理框架:人类监督为不可逾越的底线
近期,硬件钱包领军企业莱杰正式发布面向人工智能代理经济的安全治理路径,强调所有涉及资产操作的决策流程中,人类干预必须作为最终环节不可替代。
设立首位人类责任官,强化战略统筹机制
为系统推进AI应用伦理与风险管控,莱杰任命伊恩·罗杰斯担任首任“首席人类代理责任官”。该职位将全面主导公司在人工智能治理方面的战略部署。罗杰斯曾长期任职于公司高管层,兼具首席体验官及董事会成员背景。
硬件设备充当交易终审屏障,已有真实场景落地
莱杰指出,其物理设备可作为AI代理执行任务的最终确认节点。当前已有第三方平台实现集成,采用AI生成交易建议,由用户通过硬件钱包完成人工确认的闭环模式。
2026年布局三大技术支柱,构建可信人机协作体系
根据未来三年规划,公司将重点推进三项关键技术:专为AI代理设计的硬件身份认证体系、依托设备执行的支出与合约权限控制策略,以及用于识别真实操作者的“人类证明”验证机制。上述设计旨在有效遏制自动化机器人与多账户欺诈行为。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
