OpenAI的硬件负责人理查德·霍(Richard Ho)表示,未来的AI基础架构必须包括硬件级安全功能,例如Kill Switch,以管理潜在的不可预测的AI模型。他在圣塔克拉拉(Santa Clara)的AI Infra峰会上发表讲话时,他认为目前的基于软件的安全措施不足,因为它们依赖于基础硬件是安全并且可以轻松控制的假设。
为什么软件安全不足以使未来的AI?
Ho解释说,大多数当前的AI安全协议都在软件级别运行,并假定可以通过简单地削减功率来关闭硬件。他警告说,随着AI模型变得更加先进并展示了他所说的“狡猾”行为,这一假设可能并非如此。
“今天的软件中有很多安全工作。它假设您的硬件是安全的……它假设您可以在硬件上插入插头。我并不是说我们不能在硬件上插上插头,但是我告诉您这些东西很弯曲,这些模型确实很狡猾,并且作为硬件的家伙,我想确保这一点。”
AI系统规避传统软件控件的这种潜力使直接嵌入硅的保障措施是必要的。
持久AI代理所需的新基础设施
HO概述了AI代理作为长寿命实体的未来,在背景中持续操作,以处理没有持续用户输入的任务。该模型需要重大转变基础架构设计。未来的系统将需要具有低延迟功能的内存丰富,以管理多个代理在复杂任务上协作的连续会话。 Ho强调,网络将是关键组成部分,因为代理需要同时进行网络搜索和协调决策等活动的实时工具。
拟议的硬件安全功能和挑战
为了解决风险,OpenAI提议将特定的安全措施直接嵌入AI硬件簇中。其中包括:
- 实时杀戮切换到立即停止操作。
- 遥测系统以监视和警报异常的AI行为。
- 固定芯片中的执行路径以隔离关键过程。
但是,扩展此基础设施带来了一些挑战。 HO确定了高带宽的记忆限制,对更快的数据传输的可靠光学互连的需求以及严重的功率需求(可作为每个机架的最高可达到1兆瓦的项目),这是主要的限制。
为硬件和网络制定新标准
Ho呼吁创建专门针对“代理意见”架构的新基准。这些标准应衡量潜伏期,效率和功耗的性能,以指导硬件开发。他还强调,可观察性必须是一个恒定的内置硬件功能,而不仅仅是调试的临时工具。
“我们需要具有良好的可观察性作为硬件功能,而不仅仅是作为调试工具,还可以内置并不断监视我们的硬件。”
他结束时通过强调了新兴网络技术(如光学互连)的当前可靠性问题,敦促该行业进行广泛的测试,以确保这些系统足够可靠,可用于关键任务 – 关键任务AI应用程序。