摘要:硬件钱包厂商莱杰推出AI代理安全管理方案,明确人类在资金决策中的最终控制权。公司任命首位首席人类代理责任官,并规划多项基于硬件的验证机制,以防范自动化滥用风险。

莱杰公布AI代理治理框架:强化人类终审机制
硬件钱包品牌莱杰近日发布面向人工智能代理生态的安全架构蓝图,强调所有涉及资产操作的决策流程中,人类必须保留最终确认权限。
设立首任人类责任官,统筹智能系统伦理与执行边界
为落实其战略方向,莱杰正式任命伊恩·罗杰斯担任首任“首席人类代理责任官”。该职位将主导公司在人工智能应用中的责任框架设计,罗杰斯此前曾任职于公司首席体验官及董事会要职。
硬件层作为信任锚点,支撑AI交易全流程可信确认
莱杰指出,其物理设备可充当AI代理行为的最终验证节点。已有第三方平台采用该模式——由AI提出交易建议,用户通过实体硬件钱包完成授权,实现人机协同决策。
2026年目标:构建多维身份与行为验证体系
根据未来三年规划,公司将推进三项关键技术部署:专为AI代理设计的硬件级身份认证、基于设备执行的支出与合约权限控制策略,以及用于识别真实操作者的“人类证明”机制。上述措施旨在有效遏制机器人账户泛滥与多重账号滥用现象。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
