中国科学院的中国研究人员揭幕了Spikingbrain1.0,被描述为世界上第一个“大脑”大语模型(LLM)。该模型旨在消耗较少的功率,独立于NVIDIA GPU,解决常规AI技术的局限性。
现有模型,包括 chatgpt 和 元的骆驼,依靠“注意”,该过程将句子中的每个单词与其他所有单词进行比较以预测下一个单词。尽管有效,但这种方法会消耗大量的能量,并放慢文本(例如书籍)的处理。
传统模型还在很大程度上取决于NVIDIA GPU,从而创建了用于缩放的硬件瓶颈。
受脑为灵感的方法
Spikingbrain1.0使用局部注意机制,重点关注附近的单词,而不是分析整个文本。这模仿了人类大脑在对话中专注于最近背景的能力。研究人员声称,这种方法使该模型的运行速度比常规LLM快25至100倍,同时保持了可比的精度。
该模型在中国本土的Metax芯片平台上运行,从而消除了对Nvidia GPU的依赖。它有选择地响应输入,减少功耗并实现不到主流开源模型所需数据的2%的持续预训练。研究人员指出,在特定情况下,Spikingbrain1.0可以实现传统AI模型速度的100倍以上。
Spikingbrain1.0的开发是在美国技术出口限制的情况下,限制了中国对AI和服务器应用所需的高级芯片的访问。这些限制加速了国内AI创新,Spikingbrain1.0代表了朝着更自给自足的AI生态系统迈出的一步。