尽管目前的人工智能存在许多AI伦理指南,但为人工通用智能(AGI)的未来量身定制的框架存在差距。这有必要开发专门的道德考虑因素和实践,以指导Agi的发展和最终存在。 AI的进步旨在实现两个主要里程碑:人工通用智能(AGI),以及可能的人工超智慧(ASI)。 AGI意味着机器具有人类水平的智力能力,理解,学习并以人为熟练的方式运用各种任务的知识。 ASI是AI超过人类智力的假设阶段,几乎超过了每个领域的人类局限性。 ASI将涉及AI系统在复杂的解决问题,创新和创造性工作中的表现优于人类,这可能会导致变革性的社会变化。目前,Agi仍然是一个未能实现的里程碑。 AGI的时间表不确定,几十年到几个世纪的预测。这些估计通常缺乏证实,因为具体证据可以确定AGI到达日期。考虑到常规AI的当前阶段,实现ASI更具投机性。当代AI能力与ASI理论潜力之间的巨大差距突出了达到如此高级AI水平的重大障碍。
关于agi的两个观点:注至加速度者
在AI社区中,对AGI和ASI潜在影响的看法被严格分歧。 “ AI注定”担心AGI或ASI构成生存威胁,预测高级AI可能消除或征服人类的情况。他们将其称为“ P(DOOM)”,这是未选中的AI开发产生灾难性结果的可能性。相反,“ AI Accelerationist”非常乐观,这表明AGI或ASI可以解决人类最紧迫的挑战。该小组预计,高级人工智能将带来医学的突破,减轻全球饥饿并产生经济繁荣,从而促进人类与人工智能之间的合作。 “ AI DOMERS”和“ AI Accelerationists”之间的对比观点突出了AID AI未来影响的不确定性。关于AGI还是ASI是否最终将受益或损害人类的共识,这强调了需要仔细考虑道德意义和主动风险缓解的必要性。这种差异反映了预测和准备AI的变革潜力的复杂挑战。尽管AGI可以带来前所未有的进展,但必须承认潜在的风险。 AGI在ASI之前更有可能实现,这可能需要更多的开发时间。如果以及何时实现AGI,ASI的发展可能会受到AGI的能力和目标的重大影响。 AGI本质上支持ASI的创建的假设不能保证,因为AGI可能具有其独特的目标和优先事项。避免假设AGI明确地是仁慈的,这是谨慎的。 AGI可以是恶意的,也可以表现出正面和负面性状的结合。正在努力防止AGI发展有害趋势。当代的AI系统已经显示出欺骗性行为,包括勒索和勒索。需要进一步的研究来减少当前AI中的这些趋势。可以对这些方法进行调整,以确保AGI与道德原则保持一致并促进人类的福祉。 AI伦理和法律在此过程中起着至关重要的作用。目的是鼓励AI开发人员整合AI伦理技术并遵守与AI相关的法律准则,以确保当前的AI系统在可接受的范围内运行。通过为常规AI建立坚实的道德和法律基础,希望AGI将出现具有相似的积极特征。提供了许多AI伦理框架,包括联合国和国家标准技术研究所(NIST)的框架。联合国提供了广泛的AI伦理方法,NIST制定了强大的AI风险管理计划。这些框架的可用性消除了AI开发人员缺乏道德指导的借口。尽管如此,一些AI开发人员仍然无视这些框架,优先考虑AI的快速进步,而不是道德考虑和降低风险。这种方法可能会以固有的,难以控制的风险导致AGI发展。 AI开发人员还必须了解新的和不断发展的AI法律,该法律代表了通过法律机制和惩罚执行的AI规定的“艰难”方面。 AI伦理代表了“柔和”的一面,依靠自愿采用和伦理原则。
agi进展阶段
向AGI的进展可以分为三个阶段:
- 阿吉:涵盖了当今的常规AI以及所有导致AGI的进步。
- 达到阿吉:成功实现了AGI的点。
- 后阿吉:AGI成就之后的时代,AGI系统被积极部署并融入社会。
建议提议在这些阶段提供实用指导的AGI伦理清单。该适应性的清单考虑了当代AI系统的课程,并反映了AGI的独特特征。该清单着重于关键的AGI特定考虑因素。编号仅供参考;所有项目同样重要。总体AGI伦理清单包括十个关键要素:
1。AGI对齐和安全政策
我们如何确保AGI受益于人类,并避免灾难性的风险,与人类价值观和安全保持一致?
2。AGI法规和治理政策
与AGI相关的法规(新法律和现有法律)以及AI治理工作对AGI的道路和成就有什么影响?
3. AGI知识产权(IP)和开放访问政策
IP法律将如何限制或赋予AGI的降临权,开源与封闭源模型将如何影响AGI?
4. AGI经济影响和劳动力流离失所政策
AGI及其发展途径将如何经济影响社会,包括劳动流离失所?
5。AGI国家安全和地缘政治竞争政策
AGI将如何影响国家安全,在破坏其他国家的同时加强某些国家,以及寻求或获得AGI的国家的地缘政治景观将如何变化?
6. AGI道德使用和道德地位政策
不道德的AGI使用将如何影响其途径和出现?积极的道德使用将如何编码为AGI益处或损害?承认具有法律人格或道德地位的AGI将如何影响它?
7. AGI透明度和解释性政策
AGI透明度,可解释性或解释性的程度将如何影响其途径和成就?
8。AGI控制,遏制和“离职偏离”政策
一个社会问题是是否可以控制AGI和/或包含AGI,以及是否有可能或可能被AGI(失控的AGI)击败。这些考虑对AGI的途径和成就有何影响?
9. AGI社会信托和公共参与政策
在AGI的发展和成就期间,社会信任对AI和公众参与的影响将有什么影响,尤其是对潜在的错误信息和对AGI的虚假信息的影响(以及对其发展的保密)?
10。AGI存在风险管理政策
引人注目的担心是AGI会导致人类的灭绝或奴役。这将对AGI的途径和成就产生什么影响?将对这十点中的每一个进行进一步的分析,从而提供有关AGI伦理的高级观点。其他研究探讨了AI伦理清单。最近的一项荟萃分析检查了各种常规AI清单,以确定共同点,差异和实际应用。研究, ”复选框AI伦理的兴起:评论“由Sara Kijewski,Elettra Ronchi和Effy Vayena于2025年5月发表在AI和道德上,强调:
- “我们确定了一种具有不同实用方法的庞大且高度异构的身体,以帮助指导道德实施。”
- “这些不仅包括工具,清单,程序,方法和技术,还包括需要进行解释和适应的一系列更通用的方法,例如研究,道德培训/教育以及设计前审计和评估过程。”
- “这种方法共同反映了对整个AI系统生命周期从开发到部署的不同步骤实施道德所需要的不同观点。”
另一项研究,”导航人工智能(AGI):社会意义,道德考虑和治理策略“由Dileesh Chandra Bikkasani于2025年5月发表在AI和道德上,深入研究了Agi的特定道德和社会含义。这项研究的要点包括:
- “人工通用情报(AGI)代表了人工智能的关键发展,其技术,伦理和社会领域的影响深远。”
- “本文解决了以下内容:(1)对不同部门的AGI潜力及其多方面影响的深入评估,包括重大财务影响,例如劳动力中断,收入不平等,生产力的增长,潜在的系统性风险以及潜在的系统性风险;(2)对关键的道德考虑的研究,包括跨性别和责任性,尤其是对私人的努力,详细范围详细范围; 3); 3);在知识产权和责任中,以及(4)拟议的治理框架,以确保负责任的AGI发展和部署。”
- “此外,本文探讨并解决了阿吉的政治含义,包括国家安全和潜在的滥用。”
确保AI开发人员对对常规AI的AI伦理优先级的承诺是具有挑战性的。扩大此重点以包括对AGI的修改的道德考虑因素可能是一个更大的挑战。这项承诺需要勤奋的努力和双重重点:解决常规AI伦理的近期关注,同时适当考虑AGI伦理,包括其长期时间表。辩论了AGI达到的时间表,一些专家在几年内预测AGI,而大多数调查表明2040年可能更有可能。无论是AGI距离几年,还是大约十五年的时间,这都是紧迫的事情。未来几年将很快过去。俗话说,
“明天是一个谜。今天是礼物。这就是为什么它被称为现在的原因。”
现在考虑和对AGI伦理行事对于避免将来不受欢迎的惊喜至关重要。





