Dataconomy CN
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy CN
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy CN
No Result
View All Result

幻觉引发的隐私问题引发了欧盟对 ChatGPT 的另一起投诉

Emre ÇıtakbyEmre Çıtak
29 4 月, 2024
in 未分类

ChatGPT 由于容易泄露错误信息,在欧盟 (EU) 再次陷入困境。 这一次,问题围绕隐私权,有人对人工智能提出投诉,因为它无法纠正它生成的有关个人的错误信息。

ChatGPT 于 2022 年 11 月推出,在人工智能世界引发了一场兴奋的风暴。 人们涌向聊天机器人寻求从研究帮助到随意交谈的各种帮助。 然而,一个关键的细节隐藏在表面之下:ChatGPT 背后的开发者 OpenAI 坦率地承认,该程序只是预测提示后最有可能出现的单词。 这意味着,尽管有大量的训练数据,但无法保证 ChatGPT 提供真实的信息。 事实上,像 ChatGPT 这样的生成式人工智能工具因“产生幻觉”而臭名昭著,本质上是捏造答案。

虽然当学生使用时,不准确的信息可能是可以容忍的 ChatGPT 做作业 帮助,在处理个人数据时这成为一个严重的问题。 欧盟法律,于 1995 年制定,并由 GDPR 第 5 条 (《通用数据保护条例》)规定个人数据必须准确。 此外,个人有权纠正(GDPR 第 16 条) 如果信息有误,可以要求删除。 此外,“访问权” GDPR 第 15 条 迫使公司披露其持有的个人数据及其来源。

noyb 的数据保护律师 Maartje de Graaf 强调了情况的严重性:“捏造信息本身就有问题。 但当涉及到个人数据时,后果可能会很严重。 显然,当前的聊天机器人技术(例如 ChatGPT)在处理个人信息时很难遵守欧盟法律。 如果系统无法提供准确和透明的结果,则不应将其用于生成有关个人的数据。 法律决定技术的发展,而不是相反”。

对 ChatGPT 幻觉的投诉
ChatGPT 于 2022 年推出,引起了巨大的炒作,但其根据提示预测可能单词的底层机制引发了对其生成信息准确性的质疑 (图片来源)

noyb 调查 ChatGPT 的幻觉

最新的申诉来自 诺伊布,一个专注于隐私权的欧洲非营利组织。 他们代表一位未透露姓名的公众人物,他发现 ChatGPT 为他们提供了错误的出生日期。 这凸显了这些生成式人工智能工具与欧盟通用数据保护条例(GDPR)之间的潜在冲突。

GDPR 授予欧盟公民“更正权”,允许他们要求更正组织持有的不准确的个人信息。 在人工智能生成内容的背景下,这提出了一个关键问题:像 ChatGPT 这样的大型语言模型能否对其产生的信息负责,尤其是当该信息明显错误时?

@NOYBeu on X 在 X 上分享了以下有关情况的帖子:

🚨 noyb 已对 ChatGPT 创建者 OpenAI 提出投诉

OpenAI 公开承认它无法纠正 ChatGPT 上有关人员的虚假信息。 该公司甚至无法透露数据来自哪里。

在这里阅读所有相关内容 👇https://t.co/gvn9CnGKOb

— noyb (@NOYBeu) 2024 年 4 月 29 日

ChatGPT 的幻觉是一种错误信息吗?

这不是 ChatGPT 第一次“幻觉问题”引起了人们的关注。 人工智能伪造信息的倾向已被充分记录,这引发了人们对其作为事实来源的可靠性的质疑。

这是 2023 年的闪回:在人们对其提供的信息的准确性表示担忧后,意大利数据保护机构强制暂时关闭了 ChatGPT。

这些事件凸显了使用大型语言模型的固有挑战。 这些人工智能系统经过大量文本和代码数据集的训练,很难区分事实信息和虚构信息。 这可能会导致他们自信地生成不正确或误导性的内容,并以事实的形式呈现。


新闻媒体 vs OpenAI:AI版权战已经打响


当处理个人信息时,问题变得更加复杂。 如果用户与 ChatGPT 交互,并且 AI 生成有关该用户的不准确详细信息,那么确保纠正这些错误即使不是不可能,也可能很困难。 这令人担忧,尤其是对于可能依赖在线信息来维护声誉的公众人物而言。

简单地编造数据不是一个选择

这个问题深深植根于生成式人工智能的结构中。 根据最近的一份 纽约时报报道,聊天机器人“至少有 3% 的时间发明信息,最高可达 27%”。

为了说明这一点,请考虑参与 noyb 对 OpenAI 投诉的公众人物,如 博客文章。 当被问及他的生日时,ChatGPT 始终提供不正确的信息,而不是承认缺乏数据。

ChatGPT 捕获的个人没有 GDPR 权利吗?

尽管 ChatGPT 生成的出生日期明显错误,但 OpenAI 拒绝了投诉人纠正或删除数据的请求,声称这是 技术上不可能。 虽然 OpenAI 可以根据特定提示(例如投诉人的姓名)过滤或阻止数据,但这种方法会阻止 ChatGPT 过滤有关个人的所有信息。 OpenAI 也未能充分回应投诉人的访问请求。 GDPR 授予用户索取所有个人数据副本的权利,但 OpenAI 没有披露有关处理数据、其来源或接收者的任何信息。

Maartje de Graaf 重申:“遵守访问请求的义务适用于所有公司。 当然可以保留训练数据的记录,至少提供一些对信息源的洞察。 似乎每一项所谓的“创新”,公司都相信他们的产品不受法律合规性的约束”。

对 ChatGPT 幻觉的投诉
尽管有监管干预和审查,ChatGPT 开发商 OpenAI 等公司仍难以确保 GDPR 合规性 (图片来源)

迄今为止,当局的努力并未成功

ChatGPT 的崛起引起了欧洲隐私监管机构的密切关注。 意大利数据保护局 (DPA) 于 2023 年 3 月解决了聊天机器人的不准确问题,通过实施 数据处理的临时限制。 此后不久,欧洲数据保护委员会 (EDPB) 专门针对 ChatGPT 成立了一个工作组来协调各国的工作。

然而,最终结果仍不清楚。 目前,OpenAI 似乎并不关心欧盟内部的 GDPR 合规性。

一个潜在的里程碑

noyb 对 ChatGPT 的投诉让人们关注人工智能和数据隐私法规之间不断变化的关系。 GDPR 于 2018 年实施,早于大型语言模型的广泛使用。 随着人工智能的不断发展,监管机构正在努力解决如何将现有框架应用于这些新技术。

noyb 投诉的结果可能为欧盟如何处理生成人工智能工具的隐私影响开创先例。 如果奥地利数据保护局做出有利于投诉人的裁决,它可能会迫使 OpenAI 实施更改,以确保用户对 ChatGPT 生成的有关他们的信息拥有更大的控制权。

这个案例对人工智能的整体发展具有更广泛的影响。 随着人工智能系统变得更加复杂并融入我们的日常生活,确保负责任的开发和部署至关重要。 noyb 的投诉提醒人们,构建优先考虑准确性和尊重用户隐私的人工智能工具的重要性。


特色图片来源: Levart_摄影师/未飞溅

Please login to join discussion

Recent Posts

  • Chrome部署本地AI来检测新的新兴网络骗局
  • 基于模型的机器学习(MBML)
  • ML性能跟踪
  • 苹果为AI智能眼镜和Mac开发了新的芯片
  • Skymizer推出了智能边缘设备的超思考AI IP

Recent Comments

您尚未收到任何评论。
Dataconomy CN

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.