脑科学突破性理论和技术尚未出现
蒲慕明 中国科学院院士、中国科学院脑科学与智能技术卓越创新中心学术主任
回顾脑科学100年来的发展历史,其最主要的研究目标就是理解大脑神经信息是怎么处理的、各种大脑功能是怎么产生的。过去,科学家主要在大脑元件、神经细胞编码、储存和提取神经信息的机制等方面取得了一定成果,但对于思维产生、抉择、意识、语言等高等脑认知功能的机制理解极为粗浅。
实际上,脑科学发展还处在非常初期的阶段,尚未真正出现具有突破性的理论和技术。
成熟大脑的神经网络仍有可塑性
与脑功能相关的神经环路结构以及这些环路如何产生大脑的各种功能是脑科学重要的研究内容之一。上千亿个、数百种以上神经元通过百万亿个突触联结组成人脑神经网络,以特殊的神经环路实现感知、运动、思维等功能。这个神经网络中有特殊的神经环路和通路,当人类要实现某一特殊功能时,这些通路就会被激活。在具体研究中,我们不仅要分析整个神经网络的结构,还要了解环路、通路的工作原理,这是脑科学目前要努力的方向。
虽然神经元的基本结构很简单,但神经元的种类非常复杂,现在有4种分类法。至于大脑里有多少种细胞、怎样进行分类,我们目前仍没有答案。
复杂的神经网络是在人类出生后便慢慢形成的。神经网络是智力、大脑功能形成的基础。但人的智力、大脑功能并非生下来就有,而是受后天环境、经验等因素影响逐步形成的。刚出生的婴儿,其大多数神经元已经出现,但神经网络还非常简单;到了青春期,大部分的神经网络才趋于成熟。
在神经网络发育的过程中,如果神经元与突触功能和构造的修饰不正常,就会导致各种疾病出现,比如自闭症、精神分裂症等。不过,已经成熟大脑的神经网络仍具有可塑性。人类的运动、认知行为等都会产生相关的电活动,电活动会造成神经元和突触功能的细微变化,这些变化会导致认知行为的改变。
希望未来类脑算法超越深度学习算法
人工智能研究包含很多内容,其中最关键的是机器学习方法。大家目前最关注的深度学习算法,属于多层神经网络,不过它有局限性,需要很强的算力和大量标记好的数据作支撑。
人脑最大的特点是能效更高,人脑只需30瓦的能量就可以运作起来,这种效率是人工智能难以匹敌的。我们希望未来的类脑算法能够超越深度学习算法,这就是人工智能下一步发展的重要突破点。目前ChatGPT尚未解决此问题,因为它仍需要高算力和海量数据。
1950年,图灵提出建立“儿童机器”,研究人员希望模拟儿童通过学习改变神经网络的过程来探究神经网络的奥秘。这可能是类脑人工智能探索新型机器学习算法和研发类脑计算器件架构的一个有益尝试。
我们可以借鉴前人的研究方式。想了解人工神经网络的架构是如何通过学习产生变化的,即其怎么消除无用的联接、建立新的有用的连接,可以借鉴人类大脑网络在学习过程中的修饰方式进行研究。
除此之外,还有一个很值得借鉴的概念是赫伯神经元集群,其主要内容是可以使用嵌套式集群(或浅层网络)组合,让处理不同信息的集群,通过连接、学习建立嵌套式、可处理多模态信息的大集群。每个大集群中的小集群间的连接都要通过神经元或集群的共步(或有固定时序)放电。要有效做到这一点,就需要使用脉冲神经网络。脉冲神经网络目前在人工智能、机器学习算法中还没有受到足够的重视,如果我们研发出有效的脉冲神经网络,就可以做出很多有意义的事。