大脑的学习机制和人工智能一样吗?
【川透社编译报道】人工智能领域的先驱杰弗里·辛顿(Geoffrey Hinton)博士推广的反向传播算法为研究大脑如何学习提供了一种有效的研究方向,并且科学家们正在探索关于大脑学习机制的新理论。
在人工智能(AI)领域,杰弗里·辛顿(Geoffrey Hinton)博士因其在人工神经网络的贡献被誉为“AI之父”。他在多伦多大学的研究小组为现今备受瞩目的AI模型奠定了基础,如ChatGPT和LaMDA。这些模型不仅能够撰写连贯的文章、诊断疾病,还能导航自动驾驶汽车。然而,杰弗里·辛顿博士的目标远不止于创造更好的模型,他希望通过开发能解决复杂问题的人工神经网络,来揭示大脑的学习机制。
大脑通过加强某些神经元之间的连接——即突触来学习,同时必须削弱其他连接。但由于大脑拥有数十亿神经元,十分复杂,所以科学家们对于大脑如何知道调整哪些突触以及如何调整感到困惑。而杰弗里·辛顿博士推广了一种名为反向传播的数学算法,用于人工神经网络中调整连接以减少错误,这似乎同样适用于大脑。但长期以来,人们认为这一算法过于复杂,不符合生物学特性。
我们如果要求一个训练有素的AI模型识别图片中是否是鸟类,这个模型将由数千个合成神经元组成,分层排列。当图片被送入网络的第一层,这一层将每个像素的内容信息发送到下一层,通过AI等效的突触连接,在这一层,神经元可以使用这些信息来识别线条或边缘,然后将信号发送到下一层,这一层可能会识别出眼睛或脚。这个过程会一直持续到信号到达做出最终判断的最后层,然后得出结论:“鸟”或“不是鸟”。
如果给了这个AI模型一张鸟类的图片,但它最后得出结论:“不是鸟”,当人工告诉它判断错误后,它就会产生一个错误信号,这个错误信号一层一层地向后通过网络传递,加强或削弱每个连接,以减少发生错误的可能。如果模型再次看到类似的图片,调整过的连接将引导模型正确地得出结论:“鸟”。而这种学习过程的核心就是所谓的反向传播。
尽管神经科学家一直对反向传播能否在大脑中工作持怀疑态度,但在1989年,杰弗里·辛顿博士和他的同事们展示该算法可以用来训练层状神经网络后,激发了他们研究反向传播可能在大脑中以某种形式发生的兴趣。并且有一项发表于2023年11月的研究发现,老鼠大脑中的单个神经元似乎确实对独特的错误信号做出了反应,这为反向传播在大脑中的可能性提供了新的视角。
此外,科学家们正在探索如何调整反向传播算法,使其更符合生物学特性,实现大脑友好,以及研究其他可能的学习机制。比如在今年早些时候发表在《自然神经科学》杂志上的一篇论文中,牛津大学的宋宇航及其同事提出了一种颠覆传统反向传播的算法。在传统的反向传播中,错误信号导致突触的调整,然后反过来导致神经元活动的变化。他们提出,网络可以先改变神经元的活动,然后再调整突触以适应,称这为前瞻性配置。
艰难的验证之路
目前,这些理论都还没有足够的事实依据,而想要设计实验来证明反向传播或其他算法是否在大脑中起作用是个非常困难的事情。斯坦福大学的阿兰·纳耶比(Aran Nayebi)及其同事提出了一种新方法,使用四种不同的学习算法,通过训练超过一千个神经网络来执行各种任务,并监测不同算法在训练过程中的神经活动和突触连接强度,然后训练另一个监督元模型来推断学习算法,他们发现,这个元模型可以通过在不同学习阶段记录几百个虚拟神经元的活动,来识别出使用了四种算法中的哪一种。研究人员希望这样的元模型能够应用与真实的大脑记录,以识别大脑的学习机制。
确定大脑的学习机制将是神经科学的一大进步,尽管反向传播可能在某些方面优于大脑中的学习机制,但对这些机制的深入理解可能会带来更先进的AI算法。【全文完】
来源:《经济学人》2024年8月17日刊 | 作者:不详
原文标题:Do brains learn like AI?