
檢查你的 Chrome 使用者資料夾。很有可能裡面正躺著一個 4GB 的 AI 模型——一個你從未同意安裝的模型。這個檔案名為 weights.bin,深埋在名為 OptGuideOnDeviceModel 的資料夾中。它是 Gemini Nano 的權重檔,Google 的裝置端語言模型。
如果你刪除它,Chrome 會再次下載。
隱私研究員 Alexander Hanff 在對一個全新的 Chrome 設定檔進行自動化稽核時,發現了這一行為。他利用 macOS 核心檔案系統日誌追蹤到 Chrome 建立了一個臨時目錄,下載模型組件,然後將完成的檔案放置到磁碟上。整個過程大約耗時 15 分鐘。沒有通知。沒有提示。這個設定檔在任何時候都沒有收到任何人工輸入。
同樣的模式已在 Windows 11、Apple Silicon Mac 和 Ubuntu 上得到證實。一年多來一直發現不明儲存空間飆升的用戶,現在找到了元兇。
Gemini Nano 驅動著 Chrome 的裝置端 AI 功能:例如「幫我寫一封電子郵件」、詐騙偵測、智慧貼上、頁面摘要和 AI 輔助分頁群組。在 Windows 上,該檔案位於 %LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel\weights.bin。在 Mac 和 Linux 上,它位於對應的 Chrome 設定檔目錄中。
刪除該資料夾無法提供永久性的解決方案。除非你停用該功能——透過 chrome://flags、設定 > 系統中的「裝置端 AI」開關,或者在 Windows 上,透過登錄檔編輯將 OptimizationGuideModelDownloading 設定為停用——否則 Chrome 會在下次重啟時恢復它。
Chrome 最近在位址列中增加了一個顯眼的「AI 模式」膠囊按鈕。一個合理的用戶在看到這個按鈕——並且他們的磁碟上已經有一個 4GB 的本地模型——會認為他們的查詢會保留在裝置端。但事實並非如此。AI 模式將所有查詢導向 Google 的雲端伺服器。本地的 Gemini Nano 模型根本沒有為其提供動力。
你正在為一個你實際上沒有私密使用的功能,支付儲存和頻寬費用。
Hanff 認為 Google 正在違反歐盟的隱私法。他的論點集中在 ePrivacy 指令的第 5(3) 條——與 Cookie 同意橫幅背後的條款相同——該條款要求在用戶裝置上儲存任何內容之前,必須獲得「事先、自由給予、明確、知情且無歧義的同意」。他還引用了 GDPR 的第 5(1) 條和第 25 條,涵蓋了透明度和設計上的隱私。
他還直接提及了兩週前發布的一個案例:Anthropic 的 Claude Desktop 在未經明確同意的情況下,靜默地預授權了約三百萬用戶機器的瀏覽器自動化。他認為,這是一種相同的模式,只是規模小得多。
然而,Google 在 Chrome 中偷偷地植入 Gemini Nano 已有一段時間。人們只是沒有注意到。「為了提供更佳的瀏覽體驗,Chrome 使用裝置端 AI 模型來協助驅動網路和瀏覽器功能,」Google 在其支援網站上表示。「Chrome 可能會在背景下載裝置端生成式 AI 模型,以便依賴這些裝置端模型的功能隨時可用。如果您刪除裝置端 AI 模型,則只有依賴它們的功能將無法使用。」
該公司告訴 Android Authority:「在二月,我們開始推出讓用戶可以直接在 Chrome 設定中輕鬆關閉和移除模型的功能。一旦停用,模型將不再下載或更新。」
該公司指出,如果儲存空間不足,模型會自動刪除。但 Google 沒有回應的是,為什麼沒有先徵求用戶的同意。
Google 自己的 Chrome 開發者文件告訴第三方開發者,最佳做法是「提醒用戶執行這些下載所需的時間」。這次 Google 沒有遵循自己的建議。