最近有消息称,谷歌的 Gemini AI 可能会访问和汇总存储在 Google Drive 中的私人文件,这引发了用户的担忧。
情况在 凯文·班克斯顿著名科技政策专家在社交媒体上分享了自己的经历。班克斯顿报道称 双子座 有 自动总结他的纳税申报单,他在没有明确请求或许可的情况下在 Google Docs 中打开了该文件。
刚刚拿到了我的纳税申报单 @谷歌 Docs——Gemini 主动总结了这一切。所以……Gemini 甚至会自动提取我在 Google Docs 中打开的私人文档?伙计们,我怎么了。我可没要求这样做。现在我必须去寻找从未被告知过的新设置来关闭这个垃圾。
— 凯文·班克斯顿 (@KevinBankston) 2024 年 7 月 10 日
随着人工智能系统越来越多地融入日常工具和服务中,了解它们如何与 我们的个人数据。Gemini 最近的事件提醒我们,在云存储和文档管理平台的人工智能功能方面,透明度和用户控制的重要性。
人工智能在这里,人工智能在那里
Gemini 事件揭示了人工智能系统与云平台上的用户数据交互的多层复杂性。Bankston 的经历中出现的关键问题之一是 缺乏明确的设置或控制 管理 Gemini 对个人文件的访问。
Bankston 表示,很难找到合适的设置来禁用 Gemini 的自动摘要功能。当他向 Gemini 本身寻求指导时,人工智能提供的指示并不准确或根本不存在。
进一步的调查显示,Gemini 的行为可能与“粘性”设置有关。如果用户针对某一特定类型的文档(例如 PDF)激活 Gemini,AI 可能会继续 自动处理该类型的所有文档,直到明确禁用。如果用户不知道该功能的工作原理,这种默认行为可能会导致意外处理敏感文件。
数据保留 这是另一个问题。即使 Gemini 的摘要不用于训练 AI 模型,它们 可能仍存储在聊天记录中如果这些日志被泄露或未经授权访问,则会产生潜在的隐私风险。
Bankston 对这个问题的探索发现了更多令人费解的地方。他发现,他的账户中已经关闭了禁用 Gemini 与 Google Workspace 集成的设置,但人工智能仍在继续汇总文档。声明的设置与系统的实际行为之间的这种差异引发了人们对用户控制的有效性以及谷歌生态系统内人工智能操作的透明度的严重质疑。
此外,Bankston 发现不同类型的内容(YouTube 音乐, YouTube视频、航班、酒店和地图)对于 Gemini 集成有不同的默认设置。这些默认设置背后的逻辑并不明显,这增加了人们对 Gemini 如何与 Google 服务中不同类型的用户数据进行交互的整体困惑。
之前 Gemini 在他人 Gmail 上作弊被抓 也。
人工智能增强服务中的隐私悖论
双子座事件凸显了人工智能增强型云服务开发和部署中的一个根本矛盾: 隐私悖论。
一方面,这些AI功能在生产力和易用性方面具有显著优势,自动摘要、内容分析和智能建议可以大大提升用户体验并节省时间。
另一方面,这些功能需要以普通用户可能无法立即察觉或完全理解的方式访问用户数据。人工智能系统能够访问的数据越多,它就越有可能提供帮助。然而,这也增加了 侵犯隐私, 数据滥用, 或者 意外信息泄露。
Bankston 的经历凸显了谨慎 功能与隐私之间的平衡。这也引发了关于 服务提供商选择的默认设置。
AI 功能是否应默认选择启用,要求用户针对每种类型的内容明确启用它们?还是可以默认启用它们,让用户自行发现并修改这些设置?
此次事件也凸显了精细控制的重要性。用户应该能够轻松、清晰地指定他们愿意让人工智能处理哪些类型的文档或数据,以及在什么情况下处理。正如 Bankston 所描述的,目前的实施似乎缺乏这种细致入微的控制。
如何对双子座说‘不’?
要阻止 Gemini 自动处理您的文档,您可以采取以下步骤:
关闭 Gemini 集成
- 前往您的 Google 帐户设置。
- 导航到“数据和隐私”部分。
- 寻找“Gemini 应用和服务”。
- 关闭不同 Google 服务(如 Drive、Docs 等)的开关。
禁用粘性行为
在文档中使用 Gemini 后,关闭 Gemini 侧边栏。
这会阻止它自动激活类似的文档。
查看隐私设置
检查您的 Google Workspace 设置。
- 如果您不需要 AI 功能,请确保将其禁用。
- 寻找与“AI辅助”或“智能功能”相关的选项。
使用隐身模式
打开敏感文件时,请使用浏览器的隐身/私人模式。
这可能会阻止一些自动 AI 处理。
检查各个应用程序的设置
- 在 Google Drive、Docs 等中查找与 AI 相关的设置。
- 禁用自动摘要或 AI 辅助的选项。
选择退出数据收集
- 在您的 Google 帐号中,找到 数据收集设置。
- 选择退出允许 Google 使用您的数据来改进服务的选项。
所以现在怎么办?
Gemini 事件的一个关键启示是,人工智能增强型云服务迫切需要透明度。用户应该清楚地了解哪些人工智能功能处于活动状态、它们正在处理哪些数据以及如何控制这些功能。
Bankston 在尝试定位和理解相关设置时所经历的困惑表明用户沟通和界面设计存在很大差距。
像谷歌这样的服务提供商需要优先提供有关人工智能功能的清晰、可访问和准确的信息。
这包括:
- 当 AI 功能被激活或修改时发出明确通知。
- 清晰、易于查找的设置,用于控制 AI 对不同类型数据的访问。
- 有关 AI 特性及其含义的准确且最新的文档。
- 定期审核以确保 AI 行为符合既定政策和用户设置。
此外,用户应该拥有工具来理解和控制人工智能如何与他们的数据交互。
这可能包括以下特点:
- 人工智能与用户数据交互的详细日志。
- 能够轻松审查和删除 AI 生成的摘要或分析。
- 用于暂时或永久禁用特定文档或文档类型的 AI 功能的选项。
- 定期的隐私检查,帮助用户审查和更新他们的人工智能相关设置。
随着人工智能不断发展并与云服务更加深入地融合, 此类事件可能会变得更加普遍通过学习这些经验并优先考虑用户隐私和控制,我们可以努力实现人工智能增强我们数字生活的未来 不会损害我们的隐私或自主权。
特色图片来源: 埃姆雷·恰塔克/Bing 图片创建器