人工智能已经掌握了许多事情 – 写作诗,驾驶汽车,甚至预测您的下一个狂欢。但是它仍然在努力:知道何时成长,何时忘记以及如何随着时间的流逝而发展。换句话说,AI不做神经可塑性。然而。
这就是一群研究人员正在做出新的论点 纸 这直接来自人类生物学。他们提出了对神经网络学习方式的根本性重新思考,而不是仅仅通过微调其重量或扩大参数,而是通过借用大脑自身的借用技巧:通过神经发生(增长的新神经元),神经尾topisisosis(神经phi)(策略性地杀死了他人)和可塑性(同时杀死)。而且,如果他们的想法抓住了,下一代AI的行为可能不像计算器,更像是,您。
为什么现在很重要?
现代的神经网络,尤其是大型语言模型,比以往任何时候都更强大,但也很严格。一旦受过培训,他们的架构就保持固定。可以添加新数据,但是模型的骨架保持不变。相比之下,人的大脑不断自我更新。我们种植新的神经元,修剪无助的神经元,并根据经验加强联系。这就是我们在不忘记旧技能的情况下学习新技能并从挫折中恢复的方式。
研究人员认为,这种生物学灵活性可能正是AI所需的,尤其是对于现实世界中的长期任务。想象一下,客户服务聊天机器人可以随着新产品线或医疗AI的发展而发展,该聊天机器人在看到的每个患者中变得更加聪明。这些系统不应该只是重新培训,它们应该重新布线。
Dropin Revolution:让AI生长新的神经元
如果您听说过辍学方法(一种流行的正则化方法,在训练过程中随机神经元被停用以防止过度拟合,那么您将欣赏其反向的魅力:“ Dropin”。
Dropin是研究人员创造的术语,以描述人工等效的神经发生。这个想法很简单:当神经网络撞到学习墙时,为什么不赋予它更大的能力呢?正如大脑对刺激的响应而生长的新神经元一样,模型可以在任务挣扎时产生新的神经元和连接。将其视为AI,增长突破。
本文甚至提出了一种算法:如果模型的损失函数停滞(意味着它很少学习),则Dropin会激活,并有选择地添加新鲜的神经元。这些神经元不仅被盲目扔掉。它们放置在模型显示高应力或表现不佳的迹象的位置。从本质上讲,该网络有呼吸和适应的空间。
有时,AI需要忘记
与增长一样至关重要。神经凋亡 – 表现不佳的神经元的大脑的自我毁灭按钮也具有数字类似物。辍学是一个。另一个神经元或连接被永久删除的结构修剪是另一个。
研究人员详细介绍了各种辍学策略如何反映这种选择性遗忘。从自适应辍学(根据神经元的用途改变辍学率)到混凝土或变异辍学等高级形式(哪些在训练过程中要杀死的神经元),AI世界已经在模仿细胞凋亡的一半。
和结构修剪?它更加铁杆。一旦神经元被认为是无用的,它就消失了。这不仅是有效的,还可以减少过度拟合,加快推理并节省能量。但是需要通过手术精度来修剪。过度使用它,您会冒险“层崩溃”,这是一个忘记了太多功能的模型。
这是令人兴奋的地方。真正的大脑不仅要成长或修剪 – 他们一直都在回应学习。那是神经可塑性。 AI可以使用其中的剂量。
研究人员建议将下降和辍学组合在连续的循环中。由于模型收到新的数据或面临新任务,它们会动态扩展或收缩,就像您的大脑适应新语言或从伤害中恢复过来一样。他们甚至提出了一种使用学习率的变化和模型反馈来决定何时成长,何时收缩以及何时保持原状的算法。
这不是科幻小说。类似的想法已经蔓延到AI中:基于适配器的微调,例如LORA,LLMS中的动态层扩展以及持续的学习框架都朝这个方向指向。但是,缺少的是将这些方法与生物学联系起来的统一框架,并系统地适应了何时以及如何适应。
动态网络并不容易管理。在训练过程中添加和删除神经元会使调试复杂化,使错误追踪更难并冒险不稳定。与生物学大脑不同,这些大脑在其身边有数百万年的发展,神经网络只有几行代码和一些启发式方法。
还有衡量成功的问题。什么时候有帮助?什么时候只是噪音?您如何在短期学习与长期记忆之间取得平衡 – 即使人类尚未完全解决的挑战?
适合AI和我们的新蓝图
尽管遇到了障碍,但愿景还是令人信服的。不仅会学习的人工智能发展。知道何时忘记的AI。在受到挑战时,这会扩大。这像生活系统一样适应,而不是冷冻的代码库。
更重要的是,神经科学和AI之间的反馈循环可以双向发展。我们越来越多地构建受大脑启发的模型,我们就会了解自己的思想如何工作。有一天,AI可能会帮助我们解锁认知,记忆和适应的更深层秘密。
因此,下次您忘记离开钥匙或学习新技能的地方时,请记住:您的大脑正在做今天最聪明的AI刚刚开始掌握的事情。而且,如果研究人员的方式,您的健忘,适应能力的塑料大脑可能只是明天机器的金标准。