男同 表情包 万字长文:怎样弥合东说念主工智能和东说念主脑智能的差距?
文 | 追问nextquestion01 东说念主工智能 vs 东说念主脑智能男同 表情包
1. 早期东说念主工智能模子是怎样从对大脑的暴露中赢得灵感的?
东说念主工智能的早期发展收成于对东说念主类大脑的暴露。在20世纪中世,跟着神经科学的进展和对东说念主脑功能的初步暴露,科学家们启动尝试将这些生物学成见期骗于机器智能的开辟中。
1943年,神经生理学家Warren McCulloch和数学家Walter Pitts建议的“McCulloch-Pitts神经元模子”是最早的尝试之一。这一模子采纳数学逻辑刻画神经元的步履,诚然浅薄,但为其后的东说念主工神经收罗奠定了基础。
▷图1:神经元结构与McCulloch-Pitts神经元模子
这一时间,对大脑的商量主要聚焦在神经元如那儿理信息,以及它们怎样通过电信号在复杂收罗中互相作用。这些商量启发了早期东说念主工智能商量者贪图出早期的东说念主工神经收罗。
1950年代,Frank Rosenblatt发明的感知机(Perceptron),是一种受到生物视觉系统的启发而贪图的算法,它模拟视网膜采纳后光的神气处理信息,诚然原始,但鲜艳着机器学习界限上前迈出了弥留的一步。
▷图2:左边为Rosenblatt的物理感知机,右边为感知器系统结构
除了神经科学的影响,早期的认厚交思学商量也对AI的发展有所孝敬。认厚交思学家试图暴露东说念主类怎样感知、牵挂、念念考和惩办问题,这些商量为东说念主工智能模拟东说念主类智能行径提供了顺弁言基础。举例,Allen Newell和Herbert A. Simon开辟的逻辑表面机[1-3],大概对数学定理进行解释,这一门径不仅模拟了东说念主类的惩办问题的经过,也在某种进程上效法了东说念主类念念维的逻辑推理经过。
这些早期的模子诚然浅薄,但它们的开辟经过和贪图理念深受(那时东说念主们)对东说念主脑的暴露神气的影响,为后续更复杂系统的开辟奠定了表面和推行基础。通过这么的探索,科学家们平静构建出能在特定任务上效法或超越东说念主类推崇的智能系统,鼓励了东说念主工智能工夫的演进和翻新。
2. 东说念主工智能的发展
自那以后,东说念主工智能界限阅历了一轮又一轮“酷寒”和“复苏”。20世纪七八十年代,算力的提升和算法的创新,如反向传播算法(back propagation)的引入,使得锤真金不怕火更深档次的神经收罗成为可能。这一时间,东说念主工智能诚然在某些界限如民众系统(expert system)中赢得了买卖到手,但由于工夫的局限性和过高的期许值,最终导致了第一次AI酷寒的到来。
参预21世纪,衰退是自2010年以后,东说念主工智能界限再次得到了前所未有的发展。数据量的指数级增长,高性能筹备资源(如GPU)的普及和算法的进一步优化,使得深度学习工夫连忙成为鼓励东说念主工智能发展的主要能源。
深度学习的中枢仍旧是模拟东说念主脑神经元的信息处理神气,但其期骗已经远远超越了起先的设计,涵盖了图像识别、、自动驾驶车辆、医疗会诊等繁密界限。这些冲破性的进展,不仅鼓励了工夫的跨越,也促进了新的买卖模式的出现和产业的快速发展。
▷Giordano Poloni
3. 现在东说念主工智能和东说念主脑智能的分歧
3.1 功能推崇方面的分歧
尽管东说念主工智能在特定界限(如棋类游戏、特定图像和语音识别任务)已能超越东说念主类,但它频繁清贫跨界限的适宜智力。
诚然某些AI系统(如深度学习模子)在大数据环境中推崇出色,但它们频繁需要大量的象征数据与模子锤真金不怕火,况兼当任务或环境发生变化时,AI的搬动学习智力也较为有限,频繁需要为之贪图特定的算法。而东说念主脑则具有刚劲的学习和适宜智力,大概在一丝数据和多种环境条目放学习新任务,还大概进行搬动学习,即不错将在一个界限中学到的学问期骗到另一个看似无关的界限。
在处理复杂问题的无邪性方面,AI在处理界说了了、结构化精采的问题时,如棋类游戏、讲话翻译等,遵循最好;但在处理缺乏不清、非结构化的问题时,遵循较低,易受到搅扰。东说念主脑在处理蒙眬不清、复杂的环境信息时,自满出极高的无邪性和遵循。举例,东说念主脑大概在嘈杂的环境中识别声息、在清贫齐备信息的情况下作念出决议等。
在暴露和阐明方面,现时的AI系统清贫真的的暴露和脸色,它们的“决议”只是是基于算法和数据的输出,莫得主不雅体验或脸色的波及。东说念主类不仅不错处理信息,还领有暴露、脸色和主不雅体验,这些齐是东说念主脑智能的弥留构成部分。
在多任务处理方面,诚然某些AI系统大概同期处理多种任务,但这频繁需要复杂的针对性贪图。大多数AI系统针对单一任务贪图出身,其进行多任务处理时的遵循和遵循频繁不如东说念主脑。东说念主脑在同期处理多重负务时具有极大的无邪性,大概在不同任务之间连忙切换并保持高效。
在能耗和遵循方面,高档AI系统,尤其是大型机器学习模子,常常需要大量的筹备资源和能源,能耗远超东说念主脑。东说念主脑仅需约20瓦特即可运行,具有极高的信息处理遵循。
总体来说,尽管东说念主工智能在特定界限已展示出越过的性能,但它仍然无法全面模拟东说念主脑,衰退是在无邪性、学习遵循和多任务处理等方面。以前的AI商量可能会连接缩小这些各别,但东说念主脑的复杂性和高效性仍是其难以超越的标杆。
▷Spooky Pooka ltd
3.2 底层机制方面的分歧
在基础结构方面,当代AI系统,衰退是神经收罗,诚然受到生物神经收罗的启发,但“神经元”(频繁是筹备单元)颠倒互相集结均依靠数值模拟。这些东说念主工神经收罗的集结和处理频繁齐是预设的、静态的,清贫生物神经收罗的动态可塑性。东说念主脑由毛糙860亿个神经元构成,每个神经元通过数千到数万个突触集结与其他神经元衔接[6-8],这种结构撑持复杂的并行处理和高度动态的信拒却换。
在信号传递方面,AI系统中的信号传递频繁是通过数值筹备完结的,举例在神经收罗中,神经元的输出是输入加权和的函数,这些加权和频繁通过浅薄的数学函数(如Sigmoid或ReLU)处理。神经信号传导依赖于电化学经过,神经元之间的信拒却通达过突触开释神经递质进行,并受到多种死活一火学经过的调控。
在学习机制方面,AI的学习频繁通过算法诊治参数(如权重)来完结,举例通过反向传播算法。诚然这种纪律在工夫上有用,但它需要大量的数据,针对新的数据集需要再行锤真金不怕火或显耀诊治模子参数,与东说念主脑的持续和无监督学习神气比拟存在差距。东说念主脑的学习依赖于突触可塑性,即神经集结的强度字据训戒和步履而蜕变,这种可塑性撑持持续的学习和牵挂酿成。
4. 模拟东说念主类智能的永恒指标——通用东说念主工智能的配景和界说
通用东说念主工智能(AGI)的成见建议,源于对狭义东说念主工智能(AI)的局限性的暴露。狭义AI频繁专注于惩办特定的、收场范围的问题,举例棋类游戏或讲话翻译,但清贫跨任务和界限的无邪性。跟着科技的跨越和对东说念主类智能更深切的暴露,科学家们启动设计一种雷同东说念主类的具备多界限阐明智力、自主暴露、创造力和逻辑推明智力的智能系统。
AGI旨在创建一种智能系统,大概像东说念主类相同暴露和惩办多界限问题,况兼大概进行自我学习和适宜。这种系统将不单是是器具,更是动作智能实体参与到东说念主类的社会经济、文化步履中。AGI的建议,代表了东说念主工智能发展的理想景况,期许最终大概在全面性和无邪性方面达到并超越东说念主类智能。
02 完结通用东说念主工智能的旅途
各类化的神经元模拟和收罗结构自满出不同级别的复杂性。具有更丰富动态刻画的神经元的里面复杂性较高,而具有更宽和更深集结的收罗的外部复杂性较高。从复杂性的角度来看,现在频繁合计,有望完结通用东说念主工智能的旅途有两条,一种是外部复杂性大模子纪律,举例通过加多模子的宽度和深度;另一种是里面复杂性小模子纪律,举例通过向模子添加离子通说念或将其更动为多区室模子。
▷图3:神经元和收罗的里面复杂性和外部复杂性
1. 外部复杂性大模子纪律
在东说念主工智能(AI)界限,为了惩办更粗鄙和更复杂的问题,商量者们越来越依赖于大型AI模子的开辟。这些模子频繁具有更深、更大、更宽的收罗结构,可称之为“外部复杂性大模子纪律”。这种纪律的中枢,在于通过推广模子的限制,来增强其处理信息(尤其是在处理大量数据)和学习的智力。
1.1. 大型讲话模子的期骗
大型讲话模子,如GPT(Generative Pre-trained Transformer)和BERT(Bidirectional Encoder Representations from Transformers)等,是现时AI商量中的热门。这些模子通过深层神经收罗学习大限制文本数据,掌捏讲话的深层语义和结构,大概在多种讲话处理任务中展示出色的性能。举例,GPT-3通过锤真金不怕火大限制的文本数据集,不仅大概生成高质料的文本,还能进行问答、摘录、翻译等任务。
这些大型讲话模子的主要期骗,包括当然讲话暴露、文本生成、脸色分析等,因而可粗鄙期骗于搜索引擎、外交媒体分析、客户业绩自动化等界限。
1.2. 为什么要推广模子的限制?
字据Jason Wei、Yi Tay、William Fedus等东说念主在Emergent Abilities of Large Language Models中的商量,跟着模子限制的增大,模子的智力会出现“涌现”气候,即某些先前未彰着的智力会顷刻间露馅。这是因为模子在处理更复杂、更各类化的信息时,大概学习到更深档次的模式和关联。
举例,超大限制的讲话模子能在未经特定针对性锤真金不怕火的情况下,出现惩办复杂的推理问题和创造性写稿的智力。这种“智能的涌现”气候标明,通过加多模子的限制,不错完结更接近东说念主类智能的粗鄙阐明和处明智力。
▷图4:大讲话模子的涌现气候
1.3. 挑战
尽管大型模子带来了前所未有的智力,但它们也靠近着首要挑战,尤其是在遵循和老本方面。
起先,这类模子需要精深的筹备资源,包括高性能的GPU和大量的存储空间,这径直加多了商量和部署的老本。其次,大模子的能耗问题也日益杰出,这不仅影响模子的可持续发展,也激发了环保照料。此外,锤真金不怕火这些模子需要大量的数据输入,这可能激发数据阴私和安全性问题,尤其是当波及到明锐或个东说念主信息时。临了,大型模子的复杂性和不透明性可能导致模子决议经过难以解释,这在期骗于医疗、法律等需求高度透明和可解释性的界限时,可能成为一个严重问题。
2. 里面复杂性小模子纪律
提到大讲话模子,东说念主们最直不雅的感受等于其高度“类东说念主”的输出智力。Webb等东说念主考试了ChatGPT的类比推明智力[3],发现它已涌现出了零样本推明智力,大概在莫得明确锤真金不怕火的情况下惩办粗鄙的类比推理问题。一些东说念主合计,要是像ChatGPT这么的LLM如实大概对心思学中的常见测量产生雷同东说念主类的响应(举例对行动的判断、对价值的招供、对社会问题的看法),那么它们在以前可能会取代东说念主类受试者群体。
2.1. 表面基础
神经元是神经系统的基本结构和功能单元,其主要构成部分包括细胞体、轴突、树突和突触。这些部分共同合营,完成信息的采纳、整合和传递。以下将从神经元模子、电信号在神经元突起(树突和轴突)中的传导、突触及突触可塑性模子、带有复杂树突和离子通说念的模子等方面讲起,先容神经元模拟的表面基础。
▷图5:神经元的结构
2.1.1. 神经元模子
离子通说念
神经元的离子通说念和离子泵是调控神经电信号传递的要津膜卵白,它们按捺着离子跨细胞膜的调换,从而影响神经元的电步履和信号传递。这些结构确保了神经元大概保管或调遣静息电位、生成和传递动作电位,是神经系统功能的基础。
离子通说念是嵌在细胞膜中的卵白质通说念,它们不错调控特定离子(如钠、钾、钙和氯)的通过。电压变化、化学信号或机械应力等多种要素,按捺这些离子通说念的开闭景况,从而对神经元的电步履产生影响。
▷图6:神经元的离子通说念和离子泵
等效电路
等效电路模子通过使用电路元件来模拟神经细胞膜的电生感性质,使得复杂的生物电气候不错在物理和工程的框架内得到解释和分析。等效电路模子,频繁包括膜电容、膜电阻、电源这3个基本元件。
神经元的细胞膜推崇出电容性质,这与细胞膜的磷脂双分子层结构考虑。磷脂双层的疏水核阻止离子开脱通过,使得细胞膜具有很高的电绝缘性。当细胞膜两侧的离子浓度不同,衰退是在在离子泵的调遣下,细胞膜两侧会酿成电荷分离。由于细胞膜的绝缘性,这种电荷分离在细胞膜上酿成了一个静电场,使得细胞膜能储存电荷。
电容元件被用来模拟这种储存电荷的智力,其电容值取决于膜的面积和厚度。膜电阻主要通过离子通说念的开闭来调控,它径直影响膜电位的变化速率和细胞对电流输入的响应。电源代表由离子泵产生的离子跨膜浓度差引起的电化学势差,这是保管静息电位和驱动动作电位变化的驱能源。
▷图7:等效电路默示图
melody marks 肛交HH模子
基于等效电路的念念想,Alan Hodgkin和Andrew Huxley在20世纪50年代基于他们对乌贼巨神经元的实验商量建议了HH(Hodgkin-Huxley)模子,模子中包括钠(Na)、钾(K)和走电流(Leak Current)的电导,不错暴露每种离子通说念的开启进程,在模子中离子通说念的开闭进一步通过门控变量刻画,这些变量(m、h、n)具有电压依赖性和时候依赖性。HH模子的方程为:
LIF模子
LIF模子,即泄漏整合披发模子(Leaky Integrate-and-Fire model),是神经科学中一个常用的简化神经元动作电位的数学模子。该模子侧重于刻画膜电位[4-5]随时候的变化情况,而忽略生物神经元里面的复杂离子动态。
科学家们发现,当给神经元施加持续的电流输入[6-7]时,神经元的膜电位会随之飞腾,直到达到某个阈值致使动作电位披发,之后膜电位连忙复位,并叠加这依然过。LIF模子诚然莫得刻画具体的离子通说念动态,但由于其筹备遵循高,粗鄙期骗于神经收罗建模和表面神经科学商量。其基本方程如下:
2.1.2. 电信号在神经元突起(树突和轴突)中的传导:电缆表面
19世纪末至20世纪初,科学家们启动暴露到,神经元中的电信号不错通过轴突、树突等细长的神经纤维进行传播。关联词,跟着距离的加多,信号会发生衰减。科学家们需要一种表面器具来解释电信号在神经纤维中的传播经过,衰退是在长距离上传播时的电位变化限定。
1907年,物理学家赫尔曼(Wilhelm Hermann)建议了一个浅薄的表面框架,将神经纤维比作电缆,以此刻画电信号的扩散经过。这一表面其后在20世纪中世由霍奇金和赫胥黎等东说念主进一步发展,他们通过对神经元的实验测量,阐明了离子流在信号传播中的要津作用,并缔造了与电缆表面关联的数学模子。
电缆表面的中枢念念想是将神经纤维视为一段电缆,通过引入电阻、电容等电学参数,模拟电信号(频繁是动作电位)在神经纤维中的传播经过。神经纤维,如轴突和树突,被视为一维的电缆,电信号沿着纤维长度传播;膜电步履通过电阻和电容来刻画,电流的传导则受到纤维里面电阻和膜走电电阻的影响;信号在纤维中的传播,跟着距离加多,平静衰减。
▷图8.电缆表面默示图
2.1.3. 多区室模子
在早期的神经元建模中,如HH模子和电缆表面模子,神经元被简化为一个点状的“单一区室”,即只接洽膜电位在时候上的变化,而忽略了神经元各个部分的空间溜达。这些模子恰当刻画动作电位的产生机制,但无法充剖判释信号在神经元复杂的时势结构(如树突、轴突等)中的传播特色。
跟着神经科学对神经元结构复杂性的暴露连接加深,科学家们暴露到:不同部分的电位变化会有显耀各别,尤其是在具有长树突的神经元中。树突和轴突中的信号传播不仅受到电信号的空间扩散影响,还会因为结构复杂性而出现不同的响应。因此,需要一种更精好意思的模子来刻画神经元中电信号的空间传播,这就促使了多区室模子(Multi-compartmental model)的建议。
多区室模子的中枢念念想是将神经元的树突、轴突和细胞体分红多个互相集结的区室(compartments),每个区室使用雷同于电缆表面的方程来刻画跨膜电位随时候和空间的变化,通过多个区室的互相集结,模拟电信号在神经元里面的复杂传播旅途,并响应不同区室之间的电位各别。这种处理神气不错精确刻画电信号在神经元复杂时势中的传播,衰退是树突上的电信号衰减和放大气候。
具体来说,神经元被分红多个小区室,每个区室代表神经元的一部分(如树突、轴突或细胞体的一段)。每个区室用电路模子暴露,电阻和电容用以刻画膜的电学特色,跨膜电位由电流注入、扩散和走电等要素决定。临近区室通过电阻集结,电信号通过这些集结在区室间传播。跨膜电位Vi在第i个区室中苦守雷同于电缆表面的微分方程:
在多区室模子中,某些区室(如细胞体或肇始区)可产生动作电位,而其他区室(如树突或轴突)则主要讲求电信号的传播和衰减。信号通过不同区室之间的集结传递,树突区的输入信号最终不错整合到细胞体并激发动作电位,动作电位再沿着轴突传播。
与单一区室模子比拟,多区室模子大概响应神经元时势结构的复杂性,尤其是在树突和轴突等结构中的电信号传播经过。由于波及多个区室之间的耦合微分方程,多区室模子常需通过数值纪律(如欧拉法或Runge-Kutta纪律)进行求解。
2.2. 为什么要进行生物神经元的复杂动态模拟?
Beniaguev等东说念主的实验商量标明,由于大脑不同类型神经元的复杂树突结构和离子通说念,单个神经元具有与5-8层深度学习收罗相比好意思的超卓筹备智力[8]。
▷图9:包含AMPA和NMDA突触的L5皮层锥体神经元模子,不错通过包含七个覆盖层的TCN(时候卷积收罗)来精确模拟,每个覆盖层有128个特征图,历史时长为153毫秒。
He等东说念主的使命照料不同里面动态和里面复杂性的神经元模子之间的考虑[9]。他们建议了一种将外部复杂性更动为里面复杂性的纪律,这种里面动态更为丰富的模子具有一定的筹备上风。具体来说,他们在表面上解释了LIF模子和 HH模子存在能源学特色上的等效性,HH神经元不错与四个具有特定集结结构的时变参数 LIF神经元(tv-LIF)能源学特色等效。
▷图10:一种从tv-LIF模子更动到HH模子的纪律
在此基础上,他们通过实验考证了HH收罗在处理复杂任务时的有用性和可靠性,并发现与简化的tv-LIF收罗(s-LIF2HH收罗)比拟,HH收罗的筹备遵循显耀更高。这解释了将外部复杂性周折为里面复杂性,不错提精粹度学习模子的筹备遵循;也领导,受生物神经元复杂动态启发的里面复杂性小模子纪律,有但愿完结更刚劲和更高效的AI系统。
▷图11:LIF模子、HH模子、s-LIF2HH的筹备资源分析
此外,由于结构和筹备机制的戒指,现存东说念主工神经收罗与真的大脑差距较大,无法径直用于暴露真的大脑学习以及处理感知任务的机理。比拟东说念主工神经收罗,具有丰富里面动态的神经元模子,更接近真的的生物,对暴露真的大脑的学习经过和东说念主类智能的机制有弥留作用。
3. 挑战性
尽管里面复杂性小模子纪律在多个方面推崇出色,但它也靠近着一系列挑战。神经元的电生理步履频繁通过复杂的非线性微分方程来刻画,这使得模子的求解分析极具挑战。由于神经元模子的非线性和不一语气特色,使用传统的梯度下落纪律进行学习变得复杂和低效。此外,如HH模子等里面复杂性的加多,减少了硬件并行性,降速了信息处理速率,因此需要硬件方面相应的创新和纠正。
为了搪塞这些挑战,商量者们开辟了多种纠正的学习算法。举例,使用近似梯度,惩办不一语气特色的问题;使用二阶优化算法,愈加精确地捕捉亏本函数的曲率信息加快不停。溜达式学习和并行筹备的引入,使得复杂神经元收罗的锤真金不怕火经过不错在大限制筹备资源下更高效地进行。
此外,生物启发式学习机制受到一些学者的照料。生物神经元的学习经过与现在的深度学习纪律有很大不同。举例,生物神经元依赖于突触的可塑性来完结学习,这种机制包括了突触强度的增强和松开,称为万古程增强(LTP)和万古程遏制(LTD)。这种机制不仅愈加高效,还大概减少模子对一语气信号处理的依赖,从而裁汰筹备包袱。
▷MJ
03 弥合东说念主工智能和东说念主脑智能的差距
He等东说念主通过表面考证和模拟解释了更小、里面复杂的收罗不错复制更大、更浅薄的收罗的功能。这种纪律不仅不错保持性能,还不错提升筹备遵循,将内存使用量减少四倍,并将处理速率提升一倍,这也标明提升里面复杂性可能是提升 AI 性能和遵循的有用门道。
Zhu和Eshraghian对He等东说念主的著作Network model with internal complexity bridges artificial intelligence and neuroscience作念出了驳斥[5]。他们合计,“AI 中里面复杂性和外部复杂性之间的争论仍然悬而未决,这两种纪律齐可能在以前的跨越中阐述作用。通过再行注目和加深神经科学和 AI 之间的考虑,咱们可能会发现构建更高效、更刚劲、以至更雷同大脑的东说念主工智能系统的新纪律。”
当咱们站在 AI 发展的十字街头时,该界限靠近着一个要津问题:咱们能否通过更精确地模拟生物神经元的能源学来完结 AI 智力的下一次飞跃,如故会赓续用更大的模子和更刚劲的硬件铺平前进的说念路?Zhu和Eshraghian合计,谜底可能在于两种纪律的概述,这也将跟着咱们对神经科学暴露的加深而连接优化纠正。
尽管生物神经元动态的引入在一定进程上增强了AI的功能,但现在仍远未达到对东说念主类暴露的模拟的工夫水平。起先,表面的完备性依然不及。咱们对暴露的骨子清贫满盈的暴露,尚未酿成一个大概解释和斟酌暴露气候的齐备表面。其次,暴露的模拟可能需要高性能的筹备模拟框架,现在的硬件和算法遵循仍无法撑持如斯复杂的模拟。此外,大脑模子的高效锤真金不怕火算法依旧是一个难题。复杂神经元的非线性行径加多了模子锤真金不怕火的难度,这需要新的优化纪律来处理。大脑的很多复杂功能,举例万古候的牵挂保持、脸色处理和创造力,其具体神经机制和底层分子机制仍有待深切探索。如安在东说念主工神经收罗中进一步模拟这些行径颠倒分子机制,依然是洞开的问题。以前的商量需要在这些问题上取得冲破,才能真的走向对东说念主类暴露和智能的模拟。
跨学科合作,关于东说念主类暴露和智能的模拟至关弥留。数学、神经科学、阐明科学、玄学、筹备机科学等界限的协同商量,将有助于更深切地暴露和模拟东说念主类暴露和东说念主类智能。只好通过不同学科的合作,才能酿成愈加全面的表面框架,鼓励这项极具挑战的任务上前发展。
参考文件
[1] David Beniaguev, Idan Segev and Michael London. \"Single cortical neurons as deep artificial neural networks.\" Neuron. 2021; 109: 2727-2739.e3 doi: https://doi.org/10.1016/j.neuron.2021.07.002
[2] Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E.H., Hashimoto, T., Vinyals, O., Liang, P., Dean, J., & Fedus, W. (2022). Emergent Abilities of Large Language Models. ArXiv, abs/2206.07682.
[3] 王超名, 陈啸宁, 张秋, 吴念念 (2023). 神经筹备建模实战:基于BrainPy. 电子工业出书社.
[4] He, L., Xu, Y., He, W., Lin, Y., Tian, Y., Wu, Y., Wang, W., Zhang, Z., Han, J., Tian, Y., Xu, B., & Li, G. (2024). Network model with internal complexity bridges artificial intelligence and neuroscience. Nature computational science, 4(8), 584–599. https://doi.org/10.1038/s43588-024-00674-9
[5] Zhu, R. J., Gunasekaran, S., & Eshraghian, J. (2024). Bridging the gap between artificial intelligence and natural intelligence. Nature computational science, 4(8), 559–560. https://doi.org/10.1038/s43588-024-00677-6
[6] Hindley, N., Sanchez Avila, A., & Henstridge, C.M. (2023). Bringing synapses into focus: Recent advances in synaptic imaging and mass-spectrometry for studying synaptopathy. Frontiers in Synaptic Neuroscience, 15.
[7] Azevedo, F., Carvalho, L., Grinberg, L., Farfel, J., Ferretti, R., Leite, R., et al. (2009). Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain. J. Comp. Neurol. 513, 532–541. doi: 10.1002/cne.21974
[8] Obi-Nagata, K., Temma, Y., and Hayashi-Takagi, A. (2019). Synaptic functions and their disruption in schizophrenia: From clinical evidence to synaptic optogenetics in an animal model. Proc. Jpn. Acad. Ser. B Phys. Biol. Sci. 95, 179–197. doi: 10.2183/pjab.95.014