摘要:Chrome 148版本移除关于数据本地处理的隐私声明,同时被曝静默下载4GB AI模型文件,引发用户对数据监控与法律合规性的广泛质疑。

币圈界报道:
Chrome设置页隐去数据本地化承诺,引发用户信任危机
在Chrome 147版本中,系统设置界面曾明确标注:为实现诈骗检测等安全功能,浏览器可调用本地运行的AI模型,无需将用户数据上传至谷歌服务器。该说明曾被视为保障用户隐私的重要承诺。
新版本删除关键隐私声明,功能逻辑模糊化
随着Chrome 148.0.7778.97版本逐步推送,原有关于“数据不外传”的表述已从“系统”>“设备端AI”选项中彻底消失。取而代之的是更笼统的提示:‘可使用本地运行的AI模型,关闭后部分功能可能受限’,未再提及数据安全边界。
用户社区掀起隐私担忧风暴
这一变更由Chrome主题论坛用户率先发现,并迅速在技术社群中发酵。相关讨论热度飙升,超过250次关注。有用户直言:‘若还相信谷歌,那才是真正的风险。’另有评论指出:‘这本质上是隐藏式数据采集机制,以本地运行为名,实则为云端分析铺路,成本却由用户承担电费。’
后台静默下载行为曝光,文件无法清除
据最新调查,满足最低硬件标准的设备在更新后会自动接收约4GB的Gemini Nano模型权重包。整个过程无用户授权提示,也无明确通知。该文件存储于Chrome用户数据目录下的特定路径,即便手动删除,重启后仍会被重新下载。
研究者已在macOS、Windows 11及Ubuntu系统上通过日志确认此行为,证实其跨平台普遍性。
原有承诺失效,逻辑自相矛盾凸显
此前宣称的‘本地处理即保障隐私’曾是谷歌解释静默安装的依据。然而,实际功能显示,当用户启用地址栏中的‘AI模式’时,所有查询仍被发送至谷歌云端,而非调用本地模型。这意味着,所谓‘本地运行’仅限于部分模型加载,核心交互仍依赖远程服务。
删除原声明并未解决这一矛盾,反而使产品逻辑更加模糊,削弱了其可信度。
潜在法律风险未消除,欧盟法规成焦点
针对静默下载行为,媒体未获谷歌官方回应。早期揭露者指出,该操作可能触犯欧盟电子隐私指令(ePrivacy Directive),该法规要求在设备上存储数据前必须取得用户明示同意。
尽管谷歌已撤回原始隐私承诺,但其未经许可的数据获取行为本身仍构成合规隐患。当前,148版本正在分批推送,旧版用户仍可见原说明,新用户则面临信息缺失的困境。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
