快讯蜂巢
快讯蜂巢

谷歌 Chrome 被指“偷硬盘”,未授权下载 AI 模型,用户空间狂掉,隐私警报拉响

快讯蜂巢 0

Chrome 浏览器后台静默下载 AI 模型文件,用户需引起重视

近日,科技界出现了一则引发关注的安全动态。知名安全专家亚历山大·汉夫发布报告指出,Chrome 浏览器正在后台自动下载并运行谷歌端侧 AI 模型"Gemini Nano"所需的文件。这一操作通常不会向用户发出明确通知,引发了关于浏览器后台行为透明度的讨论。

文件详情与藏身位置

经过深入调查,汉夫发现 Chrome 在设备内部创建了一个名为"weights.bin"的文件。该文件体积庞大,容量约为 4GB,这对于移动设备或存储有限的用户来说是一个显著的数据消耗。

更值得注意的是,这个文件位于macOS 系统 Library 目录下的 Chrome 文件夹中。该目录默认是隐藏状态的,设计初衷是防止普通用户误删系统重要文件。这种隐蔽性意味着,除非用户主动开启显示隐藏文件并进行查找,否则很难察觉到这一后台活动。

这一现象带来的影响与思考

这一事件揭示了当前 AI 技术与浏览器融合过程中的几个关键点:

1. 存储空间占用:4GB 的文件会直接占用用户设备的本地存储空间,可能影响系统性能。

2. 后台活动不可见:用户往往无法在任务管理器或设置中直观看到此类文件的下载来源,操作缺乏透明度。

3. 隐私与知情权:在 AI 功能普及的背景下,本地文件的自动管理权限需要用户更加清晰的了解,以便做出选择。

总的来说,浏览器作为数字生活的入口,其后台行为的透明度至关重要。虽然端侧 AI 能提升效率,但如何在优化体验与保护用户知情权之间取得平衡,仍是谷歌及整个行业需要面对的问题。对于普通用户而言,了解这些技术细节有助于更好地管理自己的设备环境,避免不必要的资源消耗

谷歌Chrome浏览器

一、风波起因:隐私与同意的缺失

此次谷歌Chrome浏览器风波的焦点,直指一个老生常谈但至关重要的问题——用户知情同意机制的缺位。简单来说,就是谷歌在用户毫不知情的情况下,擅自行动了。有分析人士汉夫一针见血地指出,Chrome在未告知用户的情况下,下载了运行Gemini Nano所必需的文件。这一行为引发了关于隐私边界和系统自主权的激烈讨论。对于普通用户而言,浏览器更新通常意味着修复漏洞或增加功能,而非在后台静默安装数GB的AI模型组件。

二、谷歌回应:安全优先与本地化处理

面对质疑,谷歌给出了明确的官方回应。公司表示,自2024年起,Gemini Nano已作为轻量级端侧模型正式接入Chrome。这一设计并非为了消耗资源,而是为了增强核心安全功能,包括欺诈检测以及开发者API的支持。谷歌强调,该模型的一个关键特性是无需将数据传输至云端,所有计算均在本地完成,这在一定程度上回应了隐私泄露的担忧。公司同时说明,运行AI模型确实需要占用一定存储空间,但当设备资源不足时,模型会被自动删除。不过,谷歌也承认,用户若想彻底关闭,需自行操作。

三、现实测试:顽固的隐藏文件

尽管官方声称用户可以管理这些文件,但外媒的实测结果却并不乐观。测试证实,当Chrome更新至版本148.0.7778.97后,系统会立即自动生成隐藏目录及庞大的weights.bin文件。最令人担忧的是,即便用户手动删除该目录,几分钟后约4GB的文件便会自动重建。这一现象在Windows环境下同样存在,显示出文件生成机制具有很强的顽固性。测试人员表示,用户删除文件,Chrome重新下载;再删除,又再次生成。这种循环机制让用户感到十分被动。

四、用户困境:难以彻底关闭

要真正阻止这一过程并非易事。目前,完全阻止该行为的手段十分有限。用户若想规避,必须在chrome://flags中关闭AI功能,或者使用企业级策略工具进行管控。对于普通消费者而言,最彻底但代价最大的方法,是直接使用卸载Chrome浏览器。这反映出普通用户在面对大型厂商的自动化策略时,往往处于被动地位,缺乏有效的干预手段。

五、行业反思:便利与权利的平衡

此次事件再次敲响了警钟。随着本地AI模型的普及,存储空间占用用户知情权之间的平衡将变得愈发重要。谷歌虽然表示运行AI模型需要占用空间,且在资源不足时会自动删除,但未事先告知即自动下载的行为,显然挑战了用户的信任底线。未来,如何在享受技术红利的同时,确保用户对数据和管理策略的绝对掌控,将是浏览器厂商必须正视的课题。