快讯蜂巢
快讯蜂巢

谷歌回应 Chrome 静默安装 Gemini Nano,避谈核心隐私,用户数据谁负责

快讯蜂巢 0

5 月 7 日,科技圈的关注点再次聚焦于谷歌 Chrome 浏览器,起因是外界对于其静默下载 AI 模型行为的质疑声浪越来越高。

面对这一舆论压力,谷歌 Chrome 副总裁兼总经理帕里萨·塔布里兹做出了正式回应。然而,这场对话似乎并未完全消除用户的顾虑,反而引发了一些新的思考。

塔布里兹在回应中极力强调了设备端 AI的战略价值,她将其视为浏览器安全体系与开发者生态的核心组成部分。言下之意,这种技术整合是为了构建更安全、更高效的未来网络环境。

但值得注意的是,在核心争议点上,回应显得有所保留:

第一,关于用户知情权,她并未直接表态。 在涉及设备资源占用和个人隐私的敏感操作前,是否必须获得用户的明确同意,依然是个未解的问号。

第二,关于模型管理机制,她也没有给出合理解释。 特别是当用户手动删除 AI 模型后,为何系统会自动重新下载?这种“去而不复”的现象,极易引发用户对控制权丧失的担忧。

这起事件不仅仅是一次技术公关,更是一次人机信任关系的测试

当技术演进的速度超过了透明度的建设,用户感受到的不再是便利,而是被动的接受。谷歌需要在创新推进用户信任之间找到平衡点。

毕竟,沉默的下载如果失去了监督,可能会演变成数字服务中不可忽视的隐患。

谷歌Chrome

最近,谷歌 Chrome 浏览器又成了舆论的焦点,不过这次的原因,可能让你觉得有点“细思极恐”。

事情的起因,源于隐私研究员亚历山大·汉夫的一次深度调查。

他在仔细梳理 Chrome 的运行记录时发现了一个令人不安的细节:浏览器正在后台自动下载一个大约 4GB 大小的 Gemini Nano 模型。

更关键的是,这个过程完全绕开了用户的知情权。你没有收到任何提示,也找不到明确关闭它的选项。

如果你以为删除了这个文件就万事大吉?那可就低估了它的执念。

哪怕你手动删掉了,只要下次重启 Chrome,它又会把文件重新下载回来。

这一行为背后,其实暴露了当前 AI 时代下软件设计的几个核心争议点:

1. 用户控制权的丧失:你的硬盘空间由谁来决定?如果浏览器可以随意占空间,那用户的安全感从何而来?

2. 隐私边界的模糊:这个模型下载了什么?它是否上传了什么?在“黑盒”操作下,隐私风险被无限放大。

3. 默认设置的陷阱:许多用户为了省事接受默认设置,但 Chrome 这次的默认行为,是否已经超出了“智能辅助”的范畴,变成了“强制安装”?

这次争议给整个科技行业敲了一记警钟。

技术进步固然重要,但在追求功能强大之前,企业首先应该学会尊重用户的设备掌控权和知情同意权。否则,再先进的 AI 功能,如果建立在侵犯用户利益的基础上,也很难获得长久的信任。

谷歌回应Chrome静默安装Gemini Nano 却避谈核心问题

Chrome AI 功能之争:本地模型到底是真是假?

最近科技圈有个挺热闹的话题,围绕在 Chrome 浏览器的 AI 模式上。不少用户都在讨论一个核心问题:这个 AI 功能到底是用本地的算力争夺,还是偷偷把数据发到了云端? 这场争论背后,其实是关于隐私、存储空间和功能真实性的博弈。

用户质疑:本地模型成了“占位符”?

一位名叫亚历山大的用户指出了一个关键矛盾。他明确表示,Chrome 地址栏里那个最显眼的"AI 模式”,实际上并没有调用本地模型。这意味着,当你在里面输入查询时,数据会被直接发送至谷歌的云端服务器进行处理

这带来了一个有趣的算账问题:用户得自己承担 4GB 文件的存储空间和带宽成本,可这个文件跟浏览器最核心的 AI 功能却没啥关系。说白了,用户花了空间,却好像没用到对应的功能,这体验确实让人挠头。

官方回应:Gemini Nano 另有使命

针对这些质疑,谷歌高管塔布里兹在社交媒体上做出了回应。他特别强调,谷歌从 2024 年开始就在 Chrome 里部署了 Gemini Nano 这一设备端模型。虽然它可能没出现在"AI 模式”的显眼位置,但它是Chrome 开发者 API 和安全功能的核心支撑

具体来说,该模型的作用主要体现在以下几个方面:

诈骗检测:利用本地算力快速识别可疑操作。

核心安全功能:保障用户数据不轻易外泄。

塔布里兹还特意澄清了数据流向,该模型是在本地处理数据的,并不是把数据传给谷歌服务器。他还补充了一个技术细节:如果设备存储空间不足,这个模型会自动卸载,确保不影响设备运行。

未解之谜:为何删了又会回来?

不过,塔布里兹的回应并没有完全解答所有疑问。他未直接回应为何删除后会自动重新安装的问题,这显然是个用户体验的痛点。

随后,谷歌补发了一份声明试图澄清。声明中称,用户可以通过 Chrome 设置彻底禁用并移除该模型。谷歌保证,一旦禁用,模型就不会再重新下载。这相当于给了用户一个明确的控制开关,至于后台是否真的不再“悄悄复活”,还得看后续实测。

总结:AI 功能的透明化很重要

这场风波给咱们提了个醒:在 AI 功能遍地开花的时候,明确数据是在本地还是云端处理,对用户体验至关重要。无论是本地模型的安装体积,还是自动重新安装的行为,用户都应当有知情权和选择权。只有透明,才能建立信任。