Dataconomy CN
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy CN
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy CN
No Result
View All Result

人工智能伦理专家呼吁对死亡机器人进行监管

Emre ÇıtakbyEmre Çıtak
9 5 月, 2024
in 未分类

与已故亲人互动的概念长期以来一直吸引着我们的想象力。 从古埃及人在精致的坟墓中保存法老到现代人对濒死体验的迷恋,人类一直在努力解决与死者保持联系的问题。

现在,随着人工智能 (AI) 的快速发展,出现了一个新领域:创建已故个体的数字复制品。

这些数字娱乐有时被称为“死亡机器人”,是使用死者的文本、音频和视频数据的组合构建的。 这些数据可以包括社交媒体帖子、电子邮件、录音,甚至家庭视频。 然后,人工智能算法分析这些数据,创建一个人的虚拟代表,可以进行对话、回答问题,甚至生成与他们相似的新内容。 最流行的工具是 我的遗产人工智能。

虽然与失去亲人的数字版本进行对话的前景似乎很有吸引力,但人工智能伦理学家对这项技术的潜在负面影响表示担忧。 他们认为,需要紧急制定法规来解决与这些数字化身互动的道德和心理影响。

关于死亡机器人的人工智能伦理
古埃及人建造了精致的坟墓来保存他们的法老,相信他们可以在来世与法老互动 (图片来源)

死亡机器人的心理影响正在显微镜下观察

人们对死亡机器人的主要担忧之一是它们可能会对与之互动的人造成心理伤害。 悲伤的过程是复杂且高度个体化的。 一些用户可能会在与亲人的数字复制品互动时感到舒适,尤其是在失去亲人之后。 然而,其他人可能会觉得这种经历令人不安,甚至 迷失方向的。

死亡机器人模仿死者​​的个性和沟通方式的能力可能会产生一种虚假的亲密感。 这可能会阻碍用户充分面对失去亲人的现实,从而阻碍悲伤的过程。 此外,死亡机器人可能会对悲伤和康复的本质产生不切实际的期望。

此外,死机器人被用来传播错误信息或操纵用户的可能性也是一个重大问题。 生成与死者相似的新内容的能力引发了关于深度假货和其他形式的数字欺骗的可能性的道德问题。

数字娱乐的法律和道德考虑

死亡机器人的出现还提出了一系列法律和道德考虑。 用于创建死亡机器人的数据的所有权是一个复杂的问题。 控制这些数据的权利属于死者的遗产,还是应该由其亲人自行决定? 此外,人们还担心死亡机器人是否有可能侵犯死者的隐私,甚至造成声誉损害。

操纵和改变死亡机器人性格的能力引发了关于真实性和同意的问题。 如果用户正在与数字复制品而不是死者的真实记录进行交互,是否应该告知用户?

死亡机器人被用于商业目的的可能性令人担忧。

关于死亡机器人的人工智能伦理
人工智能伦理学家担心死亡机器人对用户的心理影响 (图片来源)

关于死机器人的规定

死者数字娱乐的发展带来了一系列独特的挑战,需要仔细考虑。 虽然该技术可能会带来一些潜在的好处,但造成心理伤害、错误信息和剥削的可能性也很大。

人工智能伦理学家呼吁制定明确的法规来管理死亡机器人的创建和使用。 这些法规应解决数据所有权、用户同意和商业利用潜力等问题。

死亡机器人的发展提醒人们,人工智能领域需要负责任的创新。 随着技术不断进步,就潜在的道德影响进行公开和诚实的对话至关重要。


特色图片来源: 六子山/手绘

Please login to join discussion

Recent Posts

  • 布拉德·史密斯(Brad Smith
  • Chrome部署本地AI来检测新的新兴网络骗局
  • 基于模型的机器学习(MBML)
  • ML性能跟踪
  • 苹果为AI智能眼镜和Mac开发了新的芯片

Recent Comments

您尚未收到任何评论。
Dataconomy CN

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.