莱杰公布AI代理治理框架:强化人类终审机制

硬件钱包品牌莱杰近日发布面向人工智能代理生态的安全架构蓝图,强调所有涉及资产操作的决策流程中,人类必须保留最终确认权限。

设立首任人类责任官,统筹智能系统伦理与执行边界

为落实其战略方向,莱杰正式任命伊恩·罗杰斯担任首任“首席人类代理责任官”。该职位将主导公司在人工智能应用中的责任框架设计,罗杰斯此前曾任职于公司首席体验官及董事会要职。

硬件层作为信任锚点,支撑AI交易全流程可信确认

莱杰指出,其物理设备可充当AI代理行为的最终验证节点。已有第三方平台采用该模式——由AI提出交易建议,用户通过实体硬件钱包完成授权,实现人机协同决策。

2026年目标:构建多维身份与行为验证体系

根据未来三年规划,公司将推进三项关键技术部署:专为AI代理设计的硬件级身份认证、基于设备执行的支出与合约权限控制策略,以及用于识别真实操作者的“人类证明”机制。上述措施旨在有效遏制机器人账户泛滥与多重账号滥用现象。