币圈界报道:

AI对话能否作证?美国律所加速构建法律防火墙

两个月前,纽约南区联邦法官杰德·拉科夫在‘美国诉赫普纳案’中作出关键裁决,允许检方调取被告与Anthropic旗下Claude人工智能的私密对话。该决定打破了长期以来对客户向聊天机器人咨询法律问题的默认豁免预期,迅速推动法律实务界展开系统性应对。

律所集体升级协议条款,防范权利丧失风险

自判决公布以来,十余家大型律师事务所已向客户发出正式警示,明确指出:在处理法律事务时,与ChatGPT、Claude等消费级人工智能平台的交流不构成受保护的保密通信。部分律所更将风险提示直接写入委托协议,使客户在签约阶段即承担知情义务。

封闭系统成首选,操作指引同步出台

为降低证据暴露风险,欧华等律所建议客户仅使用企业专属的封闭式人工智能系统。尽管此类工具在数据隔离方面更具优势,但其在法律证据领域的适用性仍缺乏充分判例支撑。德普律师事务所则提出具体操作方案:若律师指导客户使用AI,应在提示语中注明‘本研究系依据律师关于X案件的指示执行’,以期援引科维尔原则,将人工智能视为律师代理角色而获得保密保护。

首份司法意见划定核心边界

此案源于破产公司GWG控股前董事长布拉德利·赫普纳被控五项联邦罪名。他在收到传票后,自行利用Claude制定辩护策略,生成31份文件后被联邦调查局查获。拉科夫法官驳回其保密主张,理由包括:人工智能非律师身份;平台隐私政策允许向监管机构披露用户数据;且行为属个人自主决策,未接受律师指导。判决明确否定‘人机之间可建立律师-当事人关系’的可能性。

司法分歧显现,民事与刑事路径分化

当前判例尚未统一。在‘沃纳诉吉尔巴科案’中,法院认为原告与ChatGPT的互动属于‘工具使用’,受工作成果特权保护。科罗拉多州法院在‘摩根诉V2X案’中进一步确认此立场,但要求披露所用AI类型,并禁止将敏感材料输入可能用于训练的数据平台。

由此形成清晰分野:在刑事案件中,若被告未经律师指导擅自使用通用型AI,其对话极可能被强制开示;而在民事自诉案件中,自我代理者或能获得更高程度保护。这一差异正成为美国证据法领域的重要议题。

莫洛兰肯律师事务所律师贾斯汀·埃利斯指出,未来更多裁决将厘清人工智能内容作为证据的适用条件。在规则明朗前,行业正通过修订合同、发布客户指南乃至建议‘每句话都需谨慎输入’来应对不确定性。与此同时,洛杉矶高等法院正试点为法官配备AI辅助文书生成工具,技术双面性凸显——同一工具既在审判端提升效率,也在客户端催生前所未有的合规挑战。