解决神经网络的百年难题,MIT新模型让模

<

机器之心报道

机器之心编辑部

随着神经元数量的增加,人工智能模型的训练和计算成本都变得非常高昂。有没有一种模型能够既实现类似于人脑的神经模拟,又速度快成本低呢?

在自动驾驶等许多重要应用中,数据都是实时动态的,并且包含一些意外情况。为了高效应对实时数据,去年MIT的研究者受生物神经元启发设计了一种新型「Liquid」神经网络,其不仅能在训练阶段学习,而且还能持续不断地适应。之所以将这种灵活的算法命名为「Liquid」神经网络,是因为其能像「液体」一样改变其底层的数学方程以持续适应新的输入数据。

我们可以将「liquid」神经网络理解为是一类具有灵活性、鲁棒性的机器学习模型,它可以在工作中学习,并适应不断变化的外部条件,可用于驾驶、飞行等安全性至关重要的任务。

所谓灵活性,是指「liquid」神经网络对多种任务都适合:例如对涉及时间序列的任务能够做出更好的决策,其中包括对大脑和心脏的监测、天气和股票价格的预测等。

但随着神经元和突触数量的增加,模型的计算成本剧增,一些复杂的数学问题需要计算大量的步骤才能得到最终的解决方案。高昂的成本成为高性能神经网络面对的重要挑战。

现在,MIT的「liquid」神经网络团队发现了缓解这一瓶颈的方法,即求解两个神经元通过突触相互作用背后的微分方程。基于此,他们提出了一种快速高效的新型人工智能算法CfC(closed-formcontinuous-depthnetworks),其具有与liquid神经网络相同的特征——灵活性、因果性、鲁棒性和可解释性——但速度更快,且可扩展。

论文


转载请注明:http://www.cvwkh.com/jbjs/14762.html