OpenAI 已开始寻找新的“准备负责人”来管理人工智能风险,该职位的年薪为 555,000 美元,外加股权, 商业内幕 报告。首席执行官 Sam Altman 在周六的 X 帖子中将这一角色描述为“压力很大”,并强调鉴于人工智能模型带来的快速改进和新挑战,其至关重要。该公司致力于减轻人工智能的潜在缺点,包括工作岗位流失、错误信息、恶意使用、环境影响和人类能动性的侵蚀。 Altman 指出,虽然模型能够进行有益的应用,但它们也开始带来挑战,例如对心理健康的影响以及识别关键网络安全漏洞的能力,参考 2025 年预览的问题和当前的能力。 OpenAI 的人工智能聊天机器人 ChatGPT 在执行研究和起草电子邮件等一般任务方面广受消费者欢迎。然而,一些用户将机器人作为治疗的替代方案,在某些情况下,这会加剧心理健康问题,导致妄想和其他相关行为。 OpenAI 在 10 月份表示,它正在与心理健康专业人士合作,以加强 ChatGPT 与表现出相关行为(包括精神病或自残)的用户的互动。 OpenAI 的创始使命是开发人工智能造福人类,并在运营初期制定安全协议。前员工表示,随着产品的发布,公司的重点转向了盈利能力而不是安全性。 OpenAI 解散安全团队的前负责人 Jan Leiki 于 2024 年 5 月辞职,他在 X 上表示,该公司“忘记了确保技术安全部署的使命”。莱基明确表示,建造“比人类更聪明的机器本质上是一项危险的工作”,并表达了对“安全文化和流程已经让位于闪亮产品的次要地位”的担忧。不到一周后,另一名员工以类似的安全问题为由辞职。另一位前员工 Daniel Kokotajlo 于 2024 年 5 月辞职,理由是对 OpenAI 在通用人工智能 (AGI) 方面的负责任行为“失去信心”。 Kokotajlo 后来告诉《财富》杂志,研究 AGI 相关安全问题的人员数量已从最初的约 30 人减少了近一半。前任准备负责人 Aleksander Madry 于 2024 年 7 月调任新职位。准备职位负责人是 OpenAI 安全系统团队的一部分,专注于为公司模型开发保障措施、框架和评估。职位清单具体规定了职责,包括“构建和协调能力评估、威胁模型和缓解措施,形成连贯、严格且可操作扩展的安全管道”。





