人工智能的本质(人工智能与人类智能)

人工智能的本质(人工智能与人类智能)(1)

计算机为何能够表现出智能计算机智能人类智能有何异同与联系?当我们说到智能的时候,其内涵是指什么?人工智能是否可以模拟出人类智能智能的本质到底又是什么?

本文,首先将会从算力、逻辑、结构、数据、概率等诸多层面,深入浅出地揭示智能的来源与运作,然后会结合生物演化物理规律,给出一个从宏观到微观的洞见,很好地解释了智能的本质,最后还会从几个不同的层面,去看待智能与我们、及演化之间的关系。

相信本文的观点和视角,将会让我们更加清晰地理解智能,以及更加深入地理解我们自身的智能。

主题目录如下:

  • 智能与算力
  • 智能与逻辑
  • 智能与结构
  • 智能与数据
  • 智能与概率
  • 智能的本质
  • 不同的视角
  • 结语
  • 后记1:智能的定义
  • 后记2:通用智能的产生
  • 后记3:图灵测试
  • 后记4:连接与规模缩放
智能与算力

算力,并不是产生智能的本质原因所在。

人脑的算力有限,却可以进行逻辑推理自主学习,而目前计算机的算力,已经远远超过了人脑“无数”倍,却依然无法进行类似人脑的逻辑推理自主学习。

而在另一方面,虽然人类中的少数天才,相较于普通人,拥有极其强悍的心算记忆能力,但如果和计算机的计算存储能力相比,少数天才也必然是望尘莫及的。

那么在人类之间,虽然每个人的智能存在个体差异性,但显然我们并不会,只使用计算能力这个单一指标,来衡量一个人的智能高低。

因为,虽然高智能,会表现出高算力(如冯诺依曼、拉马努金),但也有很多其它情况,例如:

  • 算力正常,表现出高智能(如政治家和艺术家),
  • 智能正常,表现出高算力(如计算相关从业者),
  • 智能偏低,表现出高算力(如异常基因携带者)。

可见,智能算力有相关性,但绝不是计算能力产生了人类智能,或是计算能力的高低,决定了人类智能的高低。

不过,有趣的是:

在很多场景下,计算机不仅可以表现出智能,甚至可以显得比人类更有智能,而在另外一些场景,对于人类智能轻而易举的任务(如闲聊、说谎、幽默感、道德判断等),但对计算机来说,却是异常困难

这是为什么呢?

对此,我们需要从两个角度来看:首先为什么计算机会表现出智能,其次是计算机智能人类智能有什么区别。

不过这两个视角,最终可能会指向同一个问题,即:智能的本质是什么?

智能与逻辑

虽然计算机,不能够进行逻辑推理自主学习,但却可以进行逻辑运算(又称布尔运算)。

其基本原理就在于:计算机通过逻辑门,来进行逻辑运算,从而就拥有了映射逻辑关系的能力。

所谓逻辑门,就是一组基本的逻辑运算,包括了:

  • 0——是假。
  • 1——是真。
  • 非——真假互换。
  • 与——有一个假就是假。
  • 或——有一个真就是真。
  • 异或——有异为真,有同为假,类似连连看找到不同为真,否则为假。
  • 大于、等于、小于、大于等于、小于等于、不等于——成立为真,否则为假。

比特位的加法就会用到——异或,如:1 0 = 1,0 0 = 0,1 1 = 0进位1。

以上就是最基本的逻辑门计算,通过组合它们,就可以实现任意复杂度的逻辑运算,而组合它们的方式,就是逻辑电路

所谓逻辑电路,简单来说就是指完成逻辑运算的电路。具体一些,就是指一种以二进制(0和1)为基础,来实现(离散)数字信号逻辑运算的电路。

那么,在物理现实中,逻辑门晶体管实现,逻辑电路集成电路实现。

其基本原理就在于:晶体管可以(通过物理元件的属性)实现开关控制,使得通过它们的电平信号,产生或高或低的结果,以此来代表逻辑上的“真”与“假”(即二进制当中的1和0),从而实现逻辑门的计算,进而集成电路就可以组合晶体管,实现任意复杂的逻辑电路

于是,计算机通过晶体管集成电路,就拥有了逻辑关系的映射能力——这可以看成是,把抽象的逻辑关系,转换到了物理的逻辑电路上。

其处理过程就是:接受数据、分析数据(利用逻辑关系)、得出结果,也就是经典的「输入-处理-输出」模型。

需要指出的是,逻辑电路不仅可以分析数据,还可以通过执行逻辑来进行数据的存取,包括指令、地址、程序等等。

例如,通过组合逻辑门构造一个锁存器(Latch)——它可以保持一个比特位的数值(即0或1)不变,也可以让一个比特位的数值改变——而组合锁存器就可以构造寄存器内存(RAM)——所以,内存也有运行频率,这是控制逻辑门的速度,即时钟速度(Clock Speed)。

事实上,计算机的算力,就是来自于数百亿的晶体管,进行超高速控制逻辑门的结果,显然物理电路的物理属性,决定了高算力的必然。

那么相比计算机,人脑的算力“弱鸡”,是因为逻辑判断的速度不够快,其根本原因在于:

生物电路控制逻辑门的速度,远远不如物理电路,这可以理解为——电化学反应的速度落后于电物理反应,即:脑细胞构建的逻辑门结构(电突触与化学突触),其反应速度远不如物理元件构建的逻辑门结构。

具体来说,有三个方面:

  • 第一,神经元放电依赖(钠钾钙)离子通道的开闭,这个过程速度缓慢,导致其放电频率大约只有每秒400次,而计算机物理元件的放电频率可高达每秒40亿次
  • 第二,神经元的导电性差、绝缘性差、又容易漏电,所以电信号传递速度缓慢,大约只有每秒100米,而计算机设备的电信号,其传递速度可以接近光速,达到每秒3亿米
  • 第三,神经元之间的信息传递,依赖化学突触,但电位差抵达化学突触,并不一定就会激发神经递质的释放(因素众多、机制复杂),其平均释放概率只有30%左右,而计算机结构的数据传递是100%确定的。

但重要的是,逻辑推理与逻辑判断的速度无关,只与结构和数据有关。

也就是说,逻辑门计算的快慢,并不影响逻辑推理的过程和结果,这个过程——就是数据经过逻辑门结构时的逻辑运算,这个结果——就是经过计算后的数据。

对应地来看:

  • 计算机的结构——就是物理硬件结构,人脑的结构——就是神经网络结构,这两种结构均实现了逻辑门计算
  • 前者的计算数据——是物理电信号,后者的计算数据——是生物电信号,这两种电信号均转化自环境数据与信息的输入;
  • 前者的输入数据——是来自物理设备(如键盘鼠标传感器),后者的输入信息——是来自生物设备(如眼睛鼻子耳朵)。

需要指出的是,能被人脑处理的数据,就是信息,不能被处理的数据,就是无法感知,所以对人脑来说,环境数据就是环境信息输入数据就是输入信息

那么,人脑的逻辑门计算,在宏观上就是使用「如果怎么样,就怎么样,否则怎么样」的条件判断——这个「如果」的真假,就是进行「与、或、非」等等的逻辑运算(可任意组合),那么在微观上就是——从输入信息、到脑细胞激活、到电化学反应、到兴奋电位(代表1)或抑制电位(代表0)。

而脑细胞的连接方式——多个胞体的轴突(输出信息),可以连接到一个胞体的多个树突(接收信息)——就可以形成各种“神经逻辑门”,与物理逻辑门的原理一致,即:多个轴突的输入信息组合(抑制与兴奋的叠加),抵达某个阈值,才能激活某个胞体的信息处理及传递。

例如,人脑的视觉系统,并不处理光点信息,而是处理光几何信息(如各种角度的长条、长方形等),其实现方式就是:多个感知光点的视觉细胞(轴突),连接到同一个脑细胞(树突),当这些“光点细胞”同时输入信息时(即感知到多个光点),对应脑细胞才有反应,而这些“光点细胞”的排列形状,就是视觉系统可以处理的光几何形状。

需要指出的是,数学运算 = 逻辑运算 读写操作——而读写并没有逻辑(只有运动),如果没有逻辑运算,就会是没有逻辑的(大概率错误的)读写。

例如,实现二进制加法的抽象过程是:读取数字,比较数字(逻辑运算)——如果是0,写入1,即完成了加法计算——如果是1,写入0,移动高位,写入1,即完成了进位计算——而有了加法基础,就可以实现其它的数学运算。

可见,计算机可以同人脑一样,进行无差别的逻辑门计算,其底层支撑在于:如果说“0是关1是开”,那么计算机(CPU)与人脑,就都可以抽象地看成是一个复杂的——“开关网络”(Switching Network)。

这个开关网络,即是逻辑门计算的物理模型(物理模型体现结构,数学模型体现关系),它可以由不同的介质来承载实现——这正是让计算机可以表现出智能的根本原因所在。

计算机智能明显受制于人类智能的原因,就在于:

  • 第一,逻辑推理中的数据,计算机需要依赖人类提供输入。
  • 第二,数据中的逻辑关系,计算机需要依赖人类分析描述。
  • 第三,逻辑门计算的过程,计算机需要依赖人类编程控制。

那么,计算机可以抛弃人类的帮助,自行分析数据中的逻辑关系,并自动控制逻辑门计算的过程吗?

换言之,计算机可以在逻辑门计算之上,构建出类似人类智能的智能吗?再换言之,人类智能逻辑门计算之上,所具有的根本性的“质变”是什么呢?

智能与结构

如前所述,逻辑推理取决于逻辑门结构数据,算力只是逻辑门结构的特性,推理过程逻辑门结构数据的计算,推理结果是计算后的数据——其与计算前的数据具有逻辑关系

而计算机虽然拥有逻辑门结构,但推理过程需要人类智能提供——数据与算法,其中算法负责控制逻辑门结构,去完成对数据的计算,并得到结果。

具体来说,算法由程序描述,程序被转化成指令,指令被硬件(逻辑门结构)执行,这就实现了数据的逻辑运算,而人类智能通过编程,就可以控制计算机完成逻辑推理

当然,算法(Algorithm)可以是一个更抽象的概念(与计算机无关),即是指解决问题的完整描述,由一系列准确可执行的步骤组成,其代表着解决问题的策略。

在此我们会发现,人类智能可以构造算法,但计算机却不行,而算法才是逻辑推理的关键,那么这其中的奥秘是什么呢?

答案就是,结构——事实上,人脑的结构是逻辑门结构的超集,在此基础之上,相比计算机物理硬件结构的简单固定,人脑结构具有极大的复杂性和极强的可塑性

对于复杂性,计算机的存储结构传输结构计算结构是独立分离的,但人脑神经网络结构,既是存储结构,也是计算结构,甚至还是传输结构

因此,数据与算法,会存在于同一个脑结构之中。

具体来说,就是神经元细胞之间的几何关系、密度、数量,膜内外的成分、浓度、电位,以及电化学反应的过程,等等——都是一种信息的记录和计算,从而信息的形成、传递与处理就是共用神经元细胞的,于是信息在脑结构中,自然就会相互关联与影响。

换言之,环境信息被人脑捕获之后,其“运动”的某种模式——如带电离子的流动、神经递质的扩散——就对应了算法,而这种物理意义上的“运动算法”,是意识运作的底层,不受意识的控制,其结果就包含了直觉潜意识,而直觉可以看成是潜意识的计算。

这里需要指出的是,信息与数据之间的关系,即:信息是从数据中提取的关系,同样的数据看到不同的关系,就是不同的理解,就会有不同的信息,可见信息是数据的简化抽象,即过滤了很多不同维度的关系——类比来看「数据-信息」就像「质量-能量」。

那么显然,计算机结构并没有“运动”的特性,也没有数据存储处理“一体化”的特性,相反计算机的数据,是独立于其结构的——结构的改变(如规模、架构)不会影响数据,数据的改变(如数量、关联)不会影响结构——所以,计算机的数据可以无损复制到另一台计算机上,但人脑的信息就无法复制,除非重建相同的脑结构

最为关键的是,计算机的结构无法产生算法,也就是无法从数据中提取逻辑关系,也就是无法从数据中提取信息,因此计算机要求输入数据“自带信息”——这是如何做到的呢?

  • 首先,需要数据结构,它是一种描述数据关系的结构化数据,即关于数据的数据,称之为元数据。
  • 其次,需要代码算法,它是一种可执行的数据,用于控制硬件结构完成计算,包括逻辑运算和读写操作,这两者可以实现数学运算。
  • 最后,代码算法的执行,将会把数据映射到数据结构,从而实现数据中逻辑关系的提取,也就是信息的提取。

由此可见,计算机要求输入数据(含有数据结构和代码算法),既要有逻辑关系,也要有逻辑处理,而这些都被转移到了由人类智能来提供。

对于可塑性,输入信息可以改变人脑神经网络结构本身(包括生物逻辑门),从而改变对输入信息的获取和处理,于是结构和信息之间就形成了「结构吸收信息,信息塑造结构」的相互作用,这就如同——河床(是结构)约束引导河流(信息),河流(是信息)冲刷塑造河床(结构)。

事实上,抽象地来看,逻辑即是结构所固有的关系,不同的结构(或同样结构不同角度)有不同的关系就有不同的逻辑,而结构的改变即是逻辑的改变。

例如,人在梦境中的想法逻辑,会与清醒时有很大的不同,这就是因为人脑神经网络在睡眠时的激活结构不同,这种结构的不同,就会产生不同的想法逻辑。

因此,人脑可以捕获环境信息,接着分析学习其中的逻辑关系,然后(将逻辑)存储进动态的人脑神经网络(结构)中(比如经验与常识),并参与后续(环境信息)的逻辑处理,这即是自主学习的能力。

那么对比人脑,计算机的结构固定,完全没有动态性自组织性,转而只能依赖人类智能提供——数据结构与算法(数据结构 算法 = 程序),于是计算机智能也就无法进行——自主学习自主推理了。

简而言之,人类智能是因为人脑的结构非常复杂,而计算机的结构如此简单,其“智能表现”是把复杂算法都转移到了程序设计之上,也就是让人类智能来思考产生。

综上可见,我们“自诩”的智能,其实就是来自于——复杂结构的动态性与自组织性,其功能就在于——从环境信息建模映射真实世界的逻辑关系,继而可以准确地预测未来

当然,人脑结构中存储的都是——简化模型,而对这些颅内模型计算建模,就是由智能所主导的——认知计算认知建模

有趣的是,人脑的认知模型不仅简化,其认知模式还偏好简化,但它(模型和模式)可以复杂——这是一种演化冗余的结果。

而通俗地说,人脑结构——决定了晶体智力(取决于学习,如技能和技艺,不受衰老影响),神经运作——决定了流体智力(取决于基因,如记忆力和算力,随衰老减退),智能——则建立在晶体智力流体智力之上。

那么,计算机智能有没有办法,突破固定结构的局限性,从不同的演化路径去“模拟”出人类智能呢?

智能与数据

如前所述,能够创造出算法是智能的关键所在,而在编程领域,《Unix编程艺术》一书中有这样一个实践性的洞见——算法数据结构有一个关系,即:

数据结构越复杂(如哈希表),算法就可以越简单,数据结构越简单(如数组),那么算法就需要越复杂。

例如,编程语言越是动态化(如Python、JS、Lua),就越容易构建复杂结构,用其编写算法也就越容易,相反编程语言越是静态化(如C、C 、Java),就越难以构建复杂结构,用其编写算法就困难,而编程语言的演化是越来越动态化(如C#)。

其原理就在于,算法实现——是逻辑关系的“计算映射”,即动态地进行逻辑关系的转化;数据结构——是逻辑关系的“固化映射”,即将已经计算好的逻辑关系,存储在了结构之中。

可见,算法数据结构多出了计算的过程——前者需要根据逻辑关系进行逻辑运算,后者仅需要根据结构的逻辑关系直接读写——所以应用数据结构进行逻辑关系的转化,会更加高效。

而人脑可以从环境信息中,提取数据结构习得算法,最终将两者存储到脑结构之中——可见,「神经结构、数据结构、算法」三者之间可以互相转化,或说互相表征。

表征——是指用信息描述某一事物的状态,即:信息符号可以代替某一事物本身。

换言之,如果数据结构足够强大,它就可以充当复杂算法的功能,甚至可以替代复杂的神经结构

因此,计算机智能“拟人”的一个途径,就是通过强化数据结构来模拟神经结构,以及弱化人类智能所提供的代码算法,转而使用结构去生成算法,而这就是目前人工智能的发展方向——以下使用“人工智能”来替代“计算机智能”

那么,问题就回到了,人工智能的数据结构从何而来呢?

显然,“人工”二字已经说明,依然由人类智能来提供,只不过这不是一个针对具体问题的数据结构,而是一个模拟人脑神经网络的通用数据结构——它是对人脑结构的简化抽象,并由程序语言编程实现的数学模型(以矩阵为基础,想象黑客帝国的母体)可称之为“类脑数据结构”,更形象的描述是“类脑神经网络”

接下来,人类智能继续提供一种算法——机器学习算法(如深度学习、强化学习等等,每种又有不同的具体实现),这种算法可以通过拟合计算,试图在海量的大数据中找到各种各样的算法——从而把特定的输入问题输出结果对应起来——这相当于实现了一种可以创造算法“算法”

大数据——是指拥有多维度信息的大量数据,也就是说,不仅数据量大,信息量也大,而“大量数据”,仅仅是数据量大,信息量却不大,甚至可能很少。概括来看,大数据有4个明显的特征,即:数据量大、多维度、完备性、和实时性。

大数据中的“薄数据”——是那些可量化、可测量,但未必重要数据。大数据中的“厚数据”——是那些不可量化、不可测量,但重要的数据。

而将类脑数据结构机器学习算法结合起来,就可以动态地自组织类脑数据结构(通过结构连接关系的权重),以存储算法创造的算法——于是人工智能就表现出了自主学习自主推理

有趣的是,有一种机器学习算法(强化学习,Reinforcement Learning)与人脑多巴胺强化学习的机制是相一致的,即:

概率来自权重(历史权重决定了算法的概率计算),权重来自奖励,奖励来自行为,行为来自决策,决策来自奖励,奖励来自概率(现实概率决定了奖励的最终获取)——这说明机器可以使用人脑相同的学习机制进行“自我学习”。

那么,这里算法习得的权重(也称权值),其实就相当于人脑神经元之间的连接强度,通过数据反复地训练与调整,无论是机器还是人脑,最终都可以把输出结果逼近正确答案

事实上,早在1950年,图灵就阐述了这样的观点——沃尔特·艾萨克森在《创新者》中指出,为了反驳“洛夫莱斯夫人的异议”(即埃达·洛夫莱斯认为分析机无法像人脑一样工作),图灵在论文中提出了一个极具独创性的观点,即:

“机器也许可以进行学习,从而逐渐发展出自己的主动性,并掌握产生新想法的能力。……图灵提出了一种奖励和惩罚机制,它可以促使机器重复或者避免某些行为,最终这台机器将会培养出自己对于思考的概念。”

由上可见,人工智能是在通过「输入数据、数据结构、学习算法」之间的相互转化,来形成“拟人智能”的——也就是从数据中找到结构,再从结构中产生算法,最后将算法存入结构

值得一提的是,实践表明,人工智能模型可以通过数据训练,获得非常精准的预测能力,但这种预测能力不具有可解释性,即无法解释预测结果的形成路径。

换言之,类脑数据结构(或说类脑神经网络)是一个——“黑盒模型”,如同人脑一样

那么,从此也可以看出,结构涌现智能的规律与力量——就如同化学中结构决定性质,物理中结构决定激发,程序中结构决定功能,语言中结构决定语义,等等——或许结构决定了一切,这被称为“结构主义”

按此视角,“听不懂”、“不明白”、“搞不清”、“难理解”——其本质都是无法重现相同(或相似)的结构,即脑神经网络结构,如:动物听不懂人话,学渣不明白公式,平民搞不清政治,男人不理解女人。

换个角度来看,一个人哪怕经验再丰富,与“大数据”相比也只是“小数据”,但“小数据”并不影响人脑具有强大的预测能力——其原因就在于,从有限的数据中获得(或说提取存储)有效有意义的结构,而“结构”可以预测未来。

那么,如果拥有了足够大的“大数据”,这就像拥有了一张分辨率足够高的“照片”,任意放大“照片”的某个局部,都可以看到足够多的信息与连接,这就有更多的可能性,从这张“照片”里发现某些规律,即结构——这就是人工智能的路径与意义,即连接了数据与结构

然而除了数据结构,在拟人智能的道路上,仍有一个显著的问题,即是人脑的模糊性与计算机的精确性,它们之间的差异性应该如何解决?

智能与概率

事实上,计算机一直是基于精确逻辑的工作模式,任何微小的逻辑错误,都会在计算积累中不断地被放大,直到逻辑崩塌程序崩溃,最终导致任务失败。

人脑的逻辑处理则完全不同,人脑基于“贝叶斯算法”使用概率模型,通过统计的结果来得出可能性,从而创造出各种假设,并随着接收到的新信息而不断调整模型,同时又会根据最新模型连续地计算,不断逼近最真实准确的答案,所以人脑可以忽略不具有规模的异常和错误。

贝叶斯算法——是根据先验概率,进行概率计算,结合客观信息,调整先验概率,以此迭代循环,从而让后期预测,不断逼近准确的客观现实。通俗地说,就是预测随着新信息而不断改变,或结论随着新证据而不断改变。

例如,人脑处理语言,就是概率模型的最佳体现,显然人类语言具有很强的容错性纠错性——什么语法错误、二意性、口音语调、反讽幽默等等,都可以在电光石火之间被人脑大概率的正确处理,这是计算机和编程语言所望尘莫及的,因为编程语言错一个分号,程序就会“满盘皆输”——并且在人类语言之上,人脑还可以支撑精确的推理模型

人类智能可以运用的推理,主要有四种

  • 第一,演绎推理,又称逻辑推理,由一般到特殊
  • 第二,归纳推理,由特殊到一般
  • 第三,类比推理,由特殊到特殊,可以理解为:抽象的外推,有抽象才有类比,抽象接近本质,本质通用可以外推,通才的“学习迁移”即是运用类比。
  • 第四,溯因推理,又称反绎推理(或反向演绎),由特殊到解释,可以理解为:大脑遥远区域的长连接,以及潜意识的计算,即直觉。

其中,演绎与归纳,(在数学上)是基于精确逻辑的(在人脑中是相对精确的),类比与溯因,则是基于概率统计的,而推理的根本作用就是——捕获因果,预测未来。

事实上,直觉、闪念、灵感、顿悟所带来的洞见,往往就是运用类比与溯因的推理结果,其过程看似没有逻辑,实则背后是神经网络“遥远连接”所激发的信息的“自由”排列组合——显然,概率会让这种“洞见”,有时是灵光乍现(即蕴含着深刻本质的逻辑),有时则是胡说八道(即类比错误、溯因荒谬)。

类比——是形式不同,但逻辑相同的连接。溯因——是根据现象,寻找最可能的解释。

可见,人类智能在结构与计算之上,必须要引入概率统计的工作模式,才能够展现出其强大的推理预测能力。

那么,基于精确逻辑的计算机,能够基于概率统计来工作吗?

在经典奠基性教材《深度学习》(Deep Learning)一书中,作者指出:

“在人工智能领域,概率论主要有两种用途:首先,概率法则告诉我们,人工智能系统如何推理;其次,可以用概率和统计,从理论上分析人工智能系统的行为。……概率论,使我们能够提出不确定性的声明,以及针对不确定性的情景进行推理;而信息论,则使我们能够量化概率分布不确定性的总量。”

是的,从某种角度来看:人工智能 = 计算机 概率论 信息论 大数据,其中概率论就是能够让算法创造算法的机制——就如同人脑中概率模型的运作。

对此,作者在《深度学习》中,这样说道:

“学习理论表明,机器学习算法能够在有限个训练集样本中,很好地泛化——这似乎违背一些基本的逻辑原则。通常,归纳推理(即从一组有限的样本中推理出一般性的规则),在逻辑上不是很有效。因为,为了逻辑推理出一个规则去描述集合中的元素,我们必须具有集合中每个元素的信息——这是很难做到的。但在一定程度上,机器学习仅通过概率法则,就可以避免这个问题,而无须使用纯逻辑推理整个确定性的法则。最终,机器学习可以保证找到一个,在所关注的大多数样本上可能正确的规则。”

那么,应用了概率,就需要接受概率模糊性不确定性

没有免费午餐定理(No Free Lunch Theorem)已经清楚地表明,没有最优的学习算法,特别是没有最优的正则化形式。

正则化(Regularization)——是指向模型中加入某些先验的规则(如正则项,或称规则项),以减小模型的求解误差。通俗地说,就是把人类的知识,以数学的形式告诉模型。那么,没有最优正则化形式,意思就是人类的知识,没法用完美的数学形式告诉模型。

因此,机器学习研究的目标,不是找一个通用学习算法,或是绝对最好的学习算法,而是理解什么样的概率分布,与人工智能获取数据的“真实世界”有关,以及什么样的学习算法,在我们所关注的数据分布上,效果最好。

事实上,我们应该彻底放弃,用人类智能去寻找“算法”“更新”人工智能,而是用人脑源源不断产生的数据,去“喂养”人工智能,然后让它从简单结构开始,向着复杂结构不断地“自我演化”——就像当初的人脑一样。

例如,历史上的天才,他们对世界的认知和理解,可能还不如今天一个普通人,就是因为天才缺少了当今世界的「数据-信息」,可见——平庸 信息 > 天才,机器 数据 > 人才。

那么在应用中,大多数机器学习算法都有“超参数”,它是在开始学习过程之前设置值的参数,而不是通过训练得到的参数,设置它可以控制算法的行为,通常情况下,需要人工超参数进行优化,即给出一组最优超参数,以提高学习的性能和效果。

换言之,我们应该是设计一个循环嵌套的学习过程,让一个学习算法为另一个学习算法,学习出“最优超参数”,而不是人工提供这个“最优超参数”

更为重要的是,机器学习缺少一种内在的驱动力,即是痛苦与压力,而对生物体来说,一个环境信息的“好坏”,就关联着痛苦与压力,即是生存。

因此,我们需要让机器“感受”到痛苦与压力,或说是给机器植入痛苦与压力,即想办法给机器编码出“痛苦与压力”,这样机器学习才能在数据流中,自发地进行学习,自动地推理因果,从而获得自我演化。

最后可见,正确的预测(或说预测的正确率),取决于信息量(信息可以消除不确定性),而信息来源于数据,没有更多的数据,就是没有更准确的预测,那么在迭代计算中,用结构去捕获数据,进而掌控预测的概率——这就是人工智能人类智能的“同构演化”。

智能的本质

前文讨论了智能的诸多层面,现在我们将从生物演化物理规律的视角,来解释智能的本质到底是什么。

首先,从生物演化角度。

演化压力要求,生物体构建出趋利避害的功能,否则就会被淘汰,那么如何才能趋利避害?——首当其冲的就是,准确地预测利与害。那么如何才能准确地预测利与害?——自然是,通过智能的推理能力(即演绎、归纳、类比、溯因)。

事实上,基因本来是利用神经元,来控制运动和反射的,其存在的目的仅仅是控制肌肉的运动,所以植物不需要神经元,动物才需要。

而显然,运动的时机与环境信息密切相关,于是后来神经元就开始对信息进行记忆分析预测、最终是模拟(模拟是为了更好的预测)——这个过程,也是从神经元到大脑、到人脑、再到产生智能的演化过程。

换言之,是环境在促成神经系统环境信息的模拟和预测,从而逐渐把神经系统演化成了智能系统,所以大脑是由神经元构成的神经网络。

而最终,基因设定了一套基础规则,即本能,然后就放手让大脑去接管几乎所有的决策与选择行为,即智能。

由此可见,智能来源于对运动控制的迭代升级——它是根据环境信息制定“运动算法”的算法,或说为了应对环境,智能提高了运动对环境的反应策略——它是(凭借推理能力)对环境信息的理解(即捕获了因果关系)。

一个有趣的类比是:程序环境中的——数据与行为(行为具体是指函数或方法的实现),对应了自然环境中的——信息和运动

所以,OOP(Object Oriented Programming,面向对象编程)把数据与行为“打包”,其实是符合演化模型的,从某种角度说,OOP具有分形递归的特性,即:整体可以由局部递归组合而成,且整体与局部具有自相似性——这让它可以模拟生物体的演化特性。

而更宏观地看,智能是生物体在演化压力之下,不断升级的必然产物,也是无数次随机试错的偶然产物

例如,有个物种,由于基因突变获得了一个演化优势,但在一段时间后,它的”竞争者“也会演化出新的优势,来抵消它的优势,所以演化出比基因突变,更具趋利避害优势的”智能系统“,就是一种被迫”军备竞赛“般的”随机必然“

或许有人会说,基因构建的本能,也能够预测未来,动物也可以针对环境信息,做出预测性的行动反馈——但事实上,本能并没有推理,而只是做出有限模式的“套路化”反馈,即:应激反应条件反射

因此,我们可以将智能看成是——通过推理的预测能力,即:推理能力越强,预测能力就越强,智能就越强,反之智能越弱,预测能力就越弱,推理能力也就越弱。

那么,生物体通过智能最大化趋利避害之后,会怎么样呢?

当然就是,高效地吃喝、不停地繁衍、长久地生存,最后还会发展出越来越先进的科技——这显然会消耗更多的能量,制造更多的熵增。

其次,从物理规律角度。

一个层面,熵增定律要求,局部自组织有序熵减,以推动整体更加的无序熵增,因为维持局部有序,需要注入能量,而消耗能量的过程,会在整体产生更多的无序。

另一个层面,系统能量足够,就可以保持对称性(无序),能量不足就会对称性破缺(有序),如:水的能量高于冰,水的(旋转)对称性高于冰,水比冰更无序。

那么,结合以上两个层面来看:

熵增会驱使局部有序,维持有序需要注入能量,于是有序就会演化出,越来越高效的耗能系统来获取能量,而拥有足够的能量,就可以保持相关系统(即耗能系统所能够影响的系统)的对称性

那么,对称性意味着演化的可选择性可选择性则可以通过选择权不对称性,让系统局部相关系统中受益,进而获得更多的能量,这又会推动局部更加的有序和耗能,最终令系统整体走向不断熵增的演化过程。

选择权——简单来说,就是具有选择的权利,可以放弃这个权利。可选择性——简单来说,就是具有选择的选项,选项可以是选择权。

类比来看:

  • 局部有序就是——人体,
  • 耗能系统就是——人脑,
  • 相关系统就是——生存环境,
  • 有对称性就是——具有智能,
  • 可选择性就是——表现智能,
  • 局部受益就是——趋利避害。

合起来即:人脑通过智能获得趋利避害,以让人越来越善于消耗能量,从而顺应宇宙熵增的演化。

对称性破缺产生有序,就是使用智能的过程,也就是行使选择权的过程,具体如下:

智能选择之后,系统就会进入不对称模式,此时继续向系统注入能量,系统内部就会开始结构的排列组合远近连接,并以内部协调的方式产生新结构,从而形成更大的对称性,拥有更大的可选择性,同时也需要更多的能量,才能维持在这个状态,而这个状态就是更强大的智能——或说可以表现出更强大的智能

类比来看,使用智能可以使人脑产生新结构,而人脑的可塑性可以协调新结构,使得人脑结构具有更大的对称性,这相当于人脑神经网络拥有更多的最短连接路径,以及更多的发展可选择性(因为对称性带来更多耗能相同的选项),结果在相同耗能下,前者可以激活更多的思路,后者可以应对更多的情况,这即是增强了人类智能。

而更强的智能,又可以使人脑从生存环境中获得更多的可选择性,这体现在可以看到环境中更多的可选择性(因为识别更多的对称性),以及让环境具有更多的发展可选择性(因为对环境有更多的操作),这即是趋利避害的演化最优解。

可见,智能的本质,就是通过耗能维持系统对称性的能力。

那么结合前文,人类智能是人脑结构复杂性的涌现,现在来看会有更进一步的理解,即:结构的复杂性在于——规模性动态性,前者可以通过能量产生增长,后者可以通过能量产生对称,两者的结合就可以产生——复杂系统的对称性,这即是人类智能

而在构建复杂智能的过程中,最为关键的地方在于——新结构是有序,但结构的对称可以产生无序,就像圆形比三角形更加的对称(旋转对称性)、更加的无序、也拥有更多的最短连接路径。

需要指出的是,结构对称,虽然在整体产生无序,但在局部会产生更多有序——这是一个通过耗能熵减的过程,刚好与熵增(整体无序,局部有序)相反。

按此理解,“智熵”——就是通过智能,在环境提高非对称无序熵(整体熵增),在系统提高对称无序熵(局部熵减),最终推动熵增的编码能力

对称性的意义,就在于提供了——可选择性,即:可以利用更多的路径选项,来对抗环境压力的驱使,从而维持自身状态的不变,或向着自身有利状态的改变。

显然,拥有可选择性,就可以表现出智能——就像有一个开关、多个开关、感应开关、语音开关、自定义开关、可编程开关等等,可选择性越多,就越表现出智能。

可选择性的意义,就在于选择权的不对称性,即:能量不对称,我有的选,你没的选;信息不对称,我知道怎么选,你不知道怎么选——这意味着,拥有趋利避害的生存优势。

值得指出的是,随机性也可以带来可选择性,如继承与运气——所以随机性可以创造智能,也可以在某个层面超越智能,即:随机试错具有超越迭代试错的概率。

事实上,任何耗能系统,都可以因为注入能量而保持结构的对称性,从而具有可选择性,进而表现出某种智能,只不过人脑是自然界演化出的,最复杂的耗能系统,所以人类智能是自然界中,最强大的智能

例如,宇宙奇点具有对称性(高温无序),接着大爆炸之后,由于空间膨胀(的环境压力),宇宙的对称性破缺(低温有序),然后又向着无序熵增的方向演化——可见宇宙本身,就具有某种智能,它在试图维持自身处在“无序对称具有可选择性”的状态。

那么归根究底,可选择性带来适应性,这是演化对智能的要求,而对称性(无序)需要注入能量,这是熵增对演化的要求。

可见,适应性(演化)= 可选择性(表现智能)= 对称性(具有智能)= 有序(信息不对称) 能量(能量不对称)——信息可以消除不确定性,有序即确定,意味着具有更多的信息。

而如果没有适应性(或适应性不足),就说明缺少对称性,也就是「有序 能量」中的能量不够,此时有序,就会被环境压力分解为「无序 能量」,其能量会被用来支撑其它「有序 能量」的演化,只剩下无序熵增

换言之:

  • 能量不足——会促使「有序到无序」并释放能量(即淘汰),
  • 能量足够——会促使吸收「有序到无序」释放的能量(即留存),
  • 结果永远——是「有序到无序」的熵增(即方向)。

因此,智能可以看成是,熵增驱动演化的结果,而熵增就可以看成是,演化压力的压力,或说是宇宙演化的“终极压力”

最后,更抽象地看——智能只是能量流动中的一种模式,更简单地看——智能只是趋利避害中的一种模式(本能与智能是两种模式),更一般地看——智能就是获得可选择性的能力。

不同的视角

人工智能,虽然来源于对人类智能的模拟,但如果模拟到了演化算法,它就会有自己的发展,并且开还会反作用于人类智能本身,比如从机器学习的有效算法,去反思人类学习的神经模式。

事实上,人工智能人类智能的智能竞赛,可以倒逼我们找到自身智能奥秘的底层逻辑,因为越高级复杂的智能,其演化路径就越是狭窄的,就像人类眼睛与章鱼眼睛,是独立演化出的两种相似结构,所以人工智能人类智能,在智能演化的道路上,最终也可能会“殊途同归”。

那么,从这个角度来看,人工智能目前还不及人类智能的事情,一方面是它的智能演化才刚刚开始,另一方面则是因为人类还不够了解自己,还无法提供人工智能加速演化的关键技术。

然而,如果仅从复杂结构的「连接性、动态性、随机性」来标度智能,我们会发现整个互联网就像一个人脑。

其中,互联的计算网络就像是人脑的神经网络,连入网络的每台计算设备,就像是一个神经元细胞——不,其实是每个使用设备的人,才是一个神经元细胞——每个人都在贡献着数据与结构,人与人之间的连接和关系,以及数据交互的动态性和自由意志的随机性,就构成了一个“类脑”的复杂结构。

换个角度来看,为什么说互联网是我们大脑的延伸,而不是“眼耳手腿”,就是因为互联网连接的是我们大脑。

这样,整个互联网会演化出自己的智能吗?

同理类似,一个超大规模的城市,通过其不断变化极其繁复交通网络基础设施,将其中数以千万的“人类神经元”连接起来,进行信息的传递和交换,从而构成了一个“类脑”的复杂结构。

这样,整个城市会演化出自己的智能吗?

答案是否定的,即互联网与城市都无法产生智能,其关键原因有两点:

  • 其一,人类自身的演化,限制了人与人之间的连接——150定律(即邓巴数)表明,人类拥有稳定的社交网络人数大约是150人——而在人脑神经网络中,一个神经元与其它神经元的连接数,平均是7000~10000个。
  • 其二,人脑神经元总数大约有860亿个,而全球人类总数大约只有70多亿。

神经元的连接数:Do we have brain to spare神经元的总个数:The human brain in numbers

可见,用“人类神经元”去构建一个“类脑结构”,不考虑别的,仅在标度上就有数量级的差距,而量变显然决定了结构的质变与涌现

由此看来,智能不仅在于结构和能量,还在于规模和尺度,也就是关乎于时间和空间——规模取决于结构的存在时间,尺度取决于结构的活动空间。

结语

生命是化学的一种形式,智能是生命的一种形式(生命可以没有智能),而智能也是生命了解其自身的一种形式。

但有智能并不一定就有意识,按照智能的定义(耗能、推理、预测、可选择性),人工智能已经拥有了智能,但它还不具有意识

本文的主旨是“结构主义”,即结构决定了一切,因此结构是智能的具体实现(就像程序是算法的具体实现),而这也是人工智能(或许)可以实现人类智能的根本所在。

那么按此理解,意识就是结构在涌现智能之后的另一个涌现产物,可能是在于某种特殊的“回路结构”,其承载的是有关“计算的计算”——这是回路结构的结构特点。

事实上,计算驱动了演化过程中的状态改变,计算的本质是用一个系统去模拟另一个系统的演化——就如颅内模拟是人脑的计算,程序模拟是机器的计算,前者是生物系统的模拟预测,后者是物理系统的模拟预测——显然,计算也是依赖于结构的,而这就是人工智能人类智能,可以“同源计算”的演化。

回到算法,从某种角度看,基因的算法是本能,人脑的算法是智能——前者源于基因结构,后者源于人脑结构,区别在于后者是一种通用算法,它可以创造其它算法,而人工智能通过数据结构与算法的相互转化,也做到了这一点。

不得不说,“结构主义”为人工智能的“拟人”,扫清了障碍,铺平了道路——甚至说,就算我们无法完全理解“智能结构黑盒”的原理,也没有关系,我们只需要将“黑盒”整体打包成一个算法,然后注入计算,任其演化——剩下的只要交给时间即可。

那么,就目前而言,人工智能还只是人类智能的一种工具(或说玩具),就像数学和物理是一种工具一样,但从演化视角来看,人类又何尝不是基因的工具(或说奴隶)呢?

而我们都知道,智能如果超越了某个系统,系统的规则就无法再束缚住这个智能的演化——这就是人类智能自然系统的历史关系。

因此,对于人工智能的未来,或许“结构主义”演化出的结果,是一种全新的“智能”“祂”不仅仅是“拟人”的强人工智能,而是超越人类智能系统之上的——“机器智能”,这条演化之路,或许可以被称之为——“机器主义”。

后记1:智能的定义

前文,一共对智能有哪些定义:

  • 智能是——通过推理的预测能力。
  • 智能是——通过耗能维持系统对称性的能力。
  • 智能是——获得可选择性的能力。
  • 智能是——趋利避害中的一种模式。
  • 智能是——能量流动中的一种模式。
  • 智能是——动态结构的动态计算。
  • 智能是——在整体提高非对称无序熵,在局部提高对称无序熵,最终推动熵增的编码能力。

那么,关于智能的未来,只有一个重要的问题,即:全能又“随机所欲”的宇宙,会不会通过“人类基因结构”“机器模因结构”注入通用智能呢?

后记2:通用智能的产生

非常简化地看,智能就是——预测未来的能力,要是智能不能预测未来,要它有何用?

显然,预测未来带来了生存优势,生存(更好的生存)就是智能演化的选择压力,而为了更好地预测未来,智能可以从数据中构建模型,然后用模型来预测未来。

所以,智能行为总是围绕着模型来展开的——如抽象、分类是在创建模型,如对比、识别是在训练模型,如判断、选择是在测试模型——有了成熟准确的概率模型,就可以推理预测、决策未来。

而模型,其实是一种结构,即模型结构,并且构建模型,依然需要结构,即大脑结构

事实上,智能预测,不仅需要结构(模型结构与大脑结构),也需要数据,如果没有环境数据中的有效信息,就很难进行有效的预测,甚至都不知道该预测什么——因为预测目标,就是以「数据-信息」的形式,进入智能系统的。

那么,从物理角度看,数据就是结构,结构就是数据,进入智能系统的数据,与其来源的结构,是一个不可分割的整体,拥有密切的“逻辑关系”

为什么特定数据,训练特定的模型,不能通用?

因为,预测来自于数据之间的逻辑关系,所以数据训练的模型结构,可以预测特定类型的数据及其变化。

为什么人类智能可以通用?

因为,人脑可以不断学习,使用各种数据训练各种模型,而显然人脑如果不学习某些知识,就无法在这个领域进行有效的预测,即不具备这个领域的智能。

为什么动物的智能上限远不及人类?

因为,动物的大脑缺少强大的“学习网络”,即:新皮质不够发达——要么不存在、要么不够复杂、要么不够动态。

如果说,智能在于预测,预测在于模型,模型在于结构,那么通用智能的关键就在于:利用学习来塑造结构形成模型——而学习需要奖励,奖励来自环境。

换言之,通用智能 = 动态结构 学习塑造 奖励目标。

那么,对人工智能来说:

  • 动态结构——可以使用数据结构来模拟。
  • 学习塑造——可以使用学习算法来模拟。
  • 奖励目标——可以使用编程驱动来模拟。

最后,关于智能预测,我们都知道,微观系统是不可预测的,复杂系统也是不可预测的——但微观的不确定性可以在宏观相互抵消,复杂的不确定性可以被超高算力求解

那么,通用智能的终极目的就是:精确地预测未来——或说是精确地模拟这个世界,演化出一个确定的未来(包括“三体问题”的运动轨迹)。

后记3:图灵测试

以下史实内容,来自沃尔特·艾萨克森的《创新者》一书

在1950年10月的哲学期刊《心灵》(Mind)上,图灵发表了论文《计算机器与智能》,其中提出了一个概念——“图灵测试”(Turing Test),它为人工智能模仿人类智能,提供了一个基线测试,即:

“如果一台机器输出的内容和人类大脑别无二致的话,那么我们就没有理由坚持认为这台机器不是在「思考」。”

图灵测试,也就是图灵所说的——“模仿游戏”(The Imitation Game),其操作很简单,即:

“一位询问者将自己的问题写下来,发给处于另外一个房间之中的一个人和一台机器,然后根据他们给出的答案确定哪个是真人。”

对于图灵测试的异议,哲学家——约翰·希尔勒(John Searle)在1980年,提出了一个叫作“中文房间”(Chinese Room)的思想实验,即:

“在一个房间里面有一个以英语为母语,而且对中文一窍不通的人,他手上有一本详细列出所有中文搭配规则的手册。他会从房间外收到一些以中文写成的问题,然后根据这本手册写出中文的回答。只要有一本足够好的指导手册,房间里的回答者就可以让房间外的询问者相信他的母语是中文。尽管如此,他不会理解自己给出的任何一个回答,也不会表现出任何的意向性。”

“按照埃达·洛夫莱斯的话来说,他不会主动地创造任何东西,只是根据得到的任何指令完成任务。同样地,对于参加图灵测试的机器来说,无论它可以如何成功地模仿人类,也不会理解或者意识到自己所说的东西。我们不能因此认为这台机器可以「思考」,正如我们不能认为使用一本大型指导手册的人,可以理解中文一样。”

当然,对于希尔勒提出的“中文房间”的异议,有人提出了反驳,即:

“虽然房间中的人本身不是真正理解中文,但是这个房间包含的完整系统——人(处理器)、指导手册(程序)、以及写满中文的文件(数据),这三者作为一个整体是确实能够理解中文的。”

对此,我的看法是:

如果说,人脑作为一个整体,是可以“理解”中文的,这是人类智能的体现,那么对于人脑中的每个局部,是否能够“理解”中文,并具有人类智能呢?——显然,局部到一个神经细胞,是一定没有人类智能的。

可见,我们需要搞清楚,所谓人类智能的“理解”到底是什么?

从前文论述可知,“理解”——其实是来自数据结构内在的逻辑关系,即:人脑的神经结构,捕获模拟(或说记忆存储)了数据结构逻辑关系,就是人类智能的“理解”

例如,一个人真正的“理解”,即是在大脑中有对应的“结构”,而假装“理解”,则是大脑中没有对应的“结构”,只是在语言上试图“插值”,所以也无法解释清楚——让别人理解(即在别人大脑里重建结构)。

那么,在结构映射关系的过程中,就会有不同尺度层级的视角——在“中文房间”中,不会中文的人脑并没有形成“理解”的结构,但不会中文的人脑加上指导手册,就形成了“理解”的结构。

所以,群体智能 = 个体结构 个体结构 个体结构 > 个体智能——这是结构上的扩展,也是智能上的增强。

当然,考虑到“乌合之众”,人类群体的智能不一定就高于人类个体,这是基因算法局限性的又一种体现。

最后,从图灵测试的描述来看,貌似“智能尺度”是——房间,但在现实中,“房间”的背后,我们并不知道其连接着什么与哪里,即有了网络,智能可以变得无形与无限。

但在结构视角下,智能的限制会来自“连接”,而“连接”的上限,即“光速”。

所以,宇宙中的智能演化,会存在一个上限,即最大智能。

后记4:连接与规模缩放

杰弗里·韦斯特(Geoffrey West)在《规模》一书中指出:

“公司(收入)的规模缩放指数约为0.9,而城市(基础设施)的规模缩放指数为0.85,生物体(代谢率)的规模缩放指数则为0.75。”

换言之,公司规模增加一倍,其收入增加2^0.9 = 1.87倍;城市规模增加一倍,其基础设施增加2^0.85 = 1.8倍,生物体规模增加一倍,其代谢率增加2^0.75 = 1.68倍。

可以看到,规模缩放指数越小,其增长率就越低,反过来看就是效率越高。

例如,生物体重增加一倍,代谢率只需要增加1.68倍;城市大小增加一倍,基础设施只需要增加1.8倍;公司人数增加一倍,收入只需要增加1.87倍(更少的钱养活了更多的人,用人效率提高)。

那为什么会出现,这样不同指数的规模效应呢?

可能的原因就在于——“连接密度”,因为从连接角度来看:

生物体内(代谢运作)的连接密度 > 城市内(设施使用)的连接密度 > 公司内(人员交流)的连接密度。

显然,连接密度越大,效率通常就会越高,但其改变、适应、重塑,就会变得越难以实现——容易产生“结构僵化”,因为连接之间会相互作用,产生限制与约束。

例如,在大脑的神经网络中,连接密度越大,信息的连接路径就越多,记忆就越持久(也更容易提取),但这样的信息也不容易改变——需要新证据建立新连接才能改变,但新证据通常都会被已有信息的大量“连接信息”给否定。

例如,改变记忆中一个字词的意思是容易的,但改变记忆中一个观念的对错是非常困难的,因为这个观念会有很多的连接——代表着其本身的记忆强度,以及与其它信息的交互。

事实上,效率性与可塑性,往往不可兼得。

例如,婴儿的大脑:连接少、效率低、可塑强;成人的大脑:连接多、效率高、可塑低。

可见,人脑在连接密度可塑性之间,会出现此消彼长——在此别忘了,人脑细胞数量在抵达上限之后,就会随着年龄增长不断下降——这说明脑细胞的数量远不及它们的连接重要,并且用可塑性换取连接密度,是人脑的学习过程。

例如,就算损失了很多脑细胞,但凭借可塑性构建的大量新连接,剩余的脑细胞依然可以支撑正常的脑功能。

然而,随着连接密度远远超过连接可塑时,结构僵化就会不可避免的发生。

例如,经验会压制对新知的获取,专业会压制对认知的改变,效率性超过可塑性就会出现“思维定势”——这是“思维快捷方式”带来的副作用。

再从演化角度来看,可塑性下降,适应性就会下降(即学习能力下降),最终就会因为僵化而被淘汰——可见,要想在演化的选择压力中脱颖而出,大脑不仅要有效率性(即本能与智能的快捷方式),还要有可塑性

因此,并不是脑容量越大、脑细胞越多、连接密度越高,智能就会越高——而是在于连接密度连接可塑之间的平衡——前者依赖后者(连接来自可塑),又会限制后者(连接抑制可塑)。

事实上,从自然界普适的规模缩放规律,我们可以看出:通过增加连接密度,来提高运作效率,是一条比较宽泛的演化道路,但通过增加连接可塑,并与连接密度达成微妙的动态平衡,来获得“通用智能”,就是一条比较狭窄的演化道路,而这就是人类智能的演化路径。

其道路狭窄的原因,可能在于:

  • 第一,连接密度需要达到一个阈值,即颅内限制。
  • 第二,连接可塑需要一个动态结构,即神经元结构。
  • 第三,连接密度连接可塑的动态平衡,需要动态控制,即神经递质。

那么,对应到机器智能上,连接密度连接可塑,都可以通过数据结构来构建达成,至于它们之间微妙的动态平衡与控制,则可以交给迭代试错的学习过程来“拟合”。

最后,更抽象地来看,连接密度取决于不同结构(如颅内),连接可塑取决于动态结构(如神经元),两者的动态平衡取决于控制结构(如突触与递质),可见智能最底层的基石,即是——结构与连接,而推动结构与连接变化的,就是——相互作用

简而言之,结构会通过连接关系相互作用改变结构本身,而长连接则会带来结构的涌现质变

因此,我们需要带着「第一原理」的视角,去重新认识与思考:结构、连接、长连接与相互作用

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页