LinkedIn 悄悄地选择让用户训练生成式 AI 模型,而没有明确征求用户同意,这引发了人们对该平台数据隐私的担忧。根据一份报告 404媒体,LinkedIn 修改了其隐私政策,称用户数据可用于训练 AI 模型。该平台此后更新了政策,现在允许用户选择退出这种做法。
LinkedIn 更新政策揭露人工智能训练中的个人数据使用情况
这 更新政策 声明称,LinkedIn 可能会使用个人数据来“改进、开发和提供产品和服务”,以及训练 AI 模型。生成式 AI 用于写作助手等功能,但 LinkedIn 声称它采用隐私增强技术来编辑个人信息。不想参与的用户可以通过导航到“数据隐私” 在他们的帐户设置选项卡中,关闭“生成式人工智能改进的数据” 切换。
但是,选择退出只会阻止 LinkedIn 使用您的数据进行未来的模型训练。已经使用的数据不受影响。此外,LinkedIn 澄清说,欧盟、欧洲经济区或瑞士的用户不包括在 AI 模型训练中。
如果你担心其他用于个性化和审核的机器学习工具,LinkedIn 要求用户填写“数据处理异议表” 选择退出这些用途。
LinkedIn 的默许加入举动与 Meta 的类似行动如出一辙,Meta 最近承认自 2007 年以来一直在抓取非私人用户数据用于人工智能训练。
LinkedIn 采取这一举措的时机正值其他主要科技公司纷纷采取行动之际,比如 OpenAI等公司也因类似做法而面临强烈反对。这种在没有明确和突出通知的情况下悄悄让用户参与人工智能培训的模式让人感到不安。
OpenAI 首席技术官 Mira Murati 表示 Sora 接受了公开和授权数据的训练 pic.twitter.com/rf7pZ0ZX00
— Tsarathustra (@tsarnick) 2024 年 3 月 13 日
这不仅仅是关于数据用于人工智能的问题,还关乎谁来做决定以及这个决定是否明智。长期以来,科技行业一直因在数据收集方面暗中运作而受到批评,而对生成人工智能的日益推动只会加剧这些担忧。
机器会忘记你的个人数据吗?
另一个关键问题是,选择退出只会影响个人数据的未来使用。任何已经输入到人工智能模型的数据仍会留在系统中,缺乏追溯控制可能会让许多用户感到无能为力。该行业也在谈论“机器反学习”为了防止这种情况发生,删除输入AI模型的数据。
LinkedIn 使用“隐私增强技术”来匿名化数据,这一事实在某种程度上让人放心,但它并没有解决更深层次的问题: 需要更加积极主动、以用户为中心的隐私标准。
最终,这种情况凸显了制定更强大、更明确的法规的必要性,以便将控制权交还给用户。在隐私越来越宝贵的时代,科技公司可以在未经明确同意的情况下使用我们的个人数据的想法并不合适。
特色图片来源: 凯雷姆·葛兰/表意文字