查尔斯·达尔文大学(Charles Darwin University)领导的一项研究发现,人工智能正在威胁全球范围内的人类尊严。研究表明,AI正在迅速重塑法律和道德景观,同时破坏民主价值观并加深了整个西方社会的系统性偏见。该研究的主要作者,CDU法学院的学者玛丽亚·兰德佐(Maria Randazzo)博士报告说,当前的法规未能优先考虑基本人权和自由。该研究将隐私,反歧视,用户自主权和知识产权确定为保护不足的领域。这种故障主要归因于人工智能系统中使用的许多算法模型的不可追踪性。 Randazzo博士认为缺乏透明度是“黑匣子问题”。她解释说,通过深度学习或机器学习过程做出的决定是不可能追踪的。这种不透明度使用户难以确定AI模型是否以及为什么侵犯其权利和尊严,这反过来妨碍了他们在必要时寻求正义的能力。 Randazzo博士说:“这是一个非常重要的问题,只有没有足够的法规就会变得更糟。”该研究认为,在人类意义上,AI不聪明。 Randazzo博士说:“这是工程学的胜利,而不是认知行为。” “它不知道它在做什么或为什么 – 没有人类的思考过程会理解它,只是剥夺了体现,记忆,同理心或智慧的模式识别。”这种区别强调了AI操作的机械性质,在没有人类认知中固有的上下文理解的情况下起作用。目前,世界上三个主要的数字大国正在采取不同的监管道路。美国遵循以市场为中心的模式,中国采用了以国家为中心的模式,欧盟采用了一种以人为中心的方法。 Randazzo博士将欧盟的模式确定为保护人类尊严的首选途径。但是,她警告说,如果没有全球对同一目标的承诺,即使那种先进的方法也没有提供全面的保护。该研究的核心警告是需要将AI发展锚定为人类价值观。她说:“在全球范围内,如果我们不将人工智能发展纳入使我们人性化的原因(我们选择,感觉,推理,同情和同情心的能力),我们冒着创造贬值和使人类贬值的系统的风险,而不是改善人类的状况。”兰德佐(Randazzo)博士进一步强调了道德当务之急,他说:“不得将人类视为达到目的的手段。”该论文题为“人工智能时代的人类尊严:法律问题和监管制度的概述”,发表在《澳大利亚人权杂志》上。这项研究是Randazzo博士在该主题的计划的三部曲中的第一部分。