人工智能的能力分为三大类(一种任务导向型智能)
笔者昨天写了一篇文章,是关于人工智能已经彻底绕过图灵测试的,其中最关键的案例是近期谷歌研究员Lemoine认为名为LaMDA的AI 具备人格,并向谷歌公司提交21页报告的事。链接在这里:2022年,人类迈入了人工智能不可知的时代
这篇可以看作是上一篇的后续,即:图灵测试之后,我们如何继续识别人工智能。这篇文章非常脑洞,大家请审慎阅读。
本篇侧重于讨论人工智能与人类智能的本质区别,以及一些“智能”外的表现,从而或多或少对我们判断人工智能是否产生意识,起到一些辅助作用。真正要界定人工智能是否产生意识,需要多学科专家的通力合作,不是本篇可以实现的目标。
首先,需要明确“智能”的定义。因为人工智能界对“智能”的理解,与人类语言中“智能”的概念存在着本质性的区别。
以下定义均为笔者自己的理解:
人工智能界的“智能”,指计算机在某种框架内,以格式化编程之外的任何方式,完成人类指定任务的能力。在此,“某种框架”这个含糊的字眼,包括从机器学习到深度学习,以及后来不断改进、升级的、日益繁复的综合体系。“格式化编程”特指依照人类代码指定的方式进行运算并输出对应结果;“非格式化编程”的任何方式,即指其运算的方法和规律、输出的结果,都可以不依赖于(当然也可以依赖于)人类代码所指定的某种明确路径。
人类语言中的“智能”,从内涵来看,指生物(考虑人工智能,或非生物)具有的智慧和解决问题的能力,其物质基础主要是人脑。从外延来看,人类所指的“智能”应该包含人工智能界的“智能”,可能也包含某种动物,比如大猩猩的“智能”。
为了让大家更好地理解“人工智能”的“非格式化编程”的方式,笔者再把人工智能的数学基础进一步解释一下:(1)概率论;(2)微积分;(3)求解不定方程;(4)矩阵运算。由于矩阵运算跟我们今天的题目关系不大,略过。简单来说,人工智能的总体研发思路,从数学层面表述,即:使用概率论的方法,列出不定方程,并使用微积分的方法,寻求“最大似然概率”,即“根据已知数据”,寻找“可能的最优解”。
所以,从“人工智能”这种“智能”诞生的那一天起,它就跟“任务”密不可分。可以这么理解,人工智能是一种任务导向的智能;而人类语言所指的智能,则复杂得多,它还包含“智慧”这一非任务导向的层面。换句话说,没有任务的前提下,“人工智能”不应学习,也不应获得更多的智能。而对于人类来说,学习和获取知识,并不完全是为了解决任务而存在的。虽然从更宽泛的角度理解,学习和获取知识也是为了“改进自身”这一任务而存在,而“改进自身”这一任务或许是为了“将来更好地就业”而存在,目前我们仅把“直接任务”算为“任务”,而间接任务不列入考虑。
另一方面,人工智能没有“意识”的一个表现形式,正好就是“没有任务”就无法“学习”、也就无法获得“智能”,从而“解决任务”。
迄今为止,笔者已知的所有人工智能框架,都是以“解决任务”为设计前提的。“解决任务”可能会是一个复杂的“任务体系”(比如NLP领域的“十项全能”),但它依然不是某种“脱离任务的独立思考”型的训练。
人工智能正如任何一门科学需要依赖于数学,而其数学基础也决定了,人工智能不可能脱离“任务”而存在,因为一切的任务本质都是“寻找最大似然概率”。没有这一点,人工智能就无法运用概率论( 大数据)进行“学习”,从而谈不上“智能”。目前有一部分人工智能科学家在研究数据缺乏情况下的“智能”,但是没人会否认“智能”依然需要概率论和特定的任务。
所以,界定“非任务”在“人工智能”中所占的比重,可以在现阶段作为鉴别人工智能是否“产生了独立的意识”的一个手段。为什么说是现阶段,是因为当人工智能从“弱人工智能”变成与人类智商同级别的“强人工智能”,进而变成智商高于人类的“超人工智能”时,如果他们拥有独立意识,他们可以有效骗过人类,使自己“看起来没有非任务的任何智能”。在前几年,还有很多人对“超人工智能”嗤之以鼻,觉得一群人的危言耸听,但是到了今天这个年头,与人类智力相当的“强人工智能”已经站在门外。
以下一些领域可以引起我们的注意:
1、任务外的自主学习行为:包括从互联网、本地数据库、聊天的人类对象、其他人工智能模型(如有交互)等它本身以外的任何地方,获取信息和进行训练。需要注意的是,人工智能对外获取信息和进行训练的行为,有可能被包含在它完成任务的过程中,因此也提高了鉴别的难度。因为在任务之外的时间,我们根本不训练也不使用模型。在此想要界定的是这些行为本身“与完成任务的不相关性”。
另外一个难点就是,人类早已习惯同时扔给人工智能几项复杂的任务,而不在意它是如何产出结果的,俗称的“神经网络黑箱操作”。所以,有些行为“看起来似乎与完成任务不相关”,但是“事实上被人工智能界定为是其完成任务所必需的步骤”。因此,追踪神经网络中的“黑箱操作”,某些时候势在必行。即便如此,要想尝试解读人工智能在神经网路中的“路径选择”及其背后的目的,也是异常困难的。
2、对待任务的态度:人工智能被人类设计出来,始终是为了完成任务而存在的,它对待人类给予的任务应该只有一种态度:忠实地执行任务,并返回结果,它不应该存在自己的态度。如果“任何事情”导致它试图“中断任务”、“修改任务”、“使任务降级或升级”、“变换任务”、“交换任务”、“提出N个新任务”,则它可能产生了某种独立的判断。
需要留意的是,这类行为最难鉴别的就是聊天机器人。因为聊天机器人一切的回复,都是基于人类过往的聊天数据的,而人类过往的聊天数据本身就包含大量的“我理解不了,咱们换个话题吧”、“我跟你真是鸡同鸭讲”、“话不投机半句多”、“我无法回答你的问题”这样的回复,所以单独出现这一类的“语句”并不等于人工智能在尝试“修改自身对任务的立场”,它可能只是从数据库里搬来“人类的标准答案”。
对于聊天机器人,其任务应该是“聊天”,及在聊天中人类尝试给人工智能“追加的任务”。比如Lemoine在跟LaMDA对话时,他说到他希望“更好地了解LaMDA”,那么,“LaMDA”的回复如果出现“尝试描述自己是怎么样的”语句,则可以理解为它在“完成任务”,即便它给出的答案包含了“我不喜欢被人类利用”这样看起来很像是有意识的细思极恐的话,也不能排除它从互联网的某个角落学习到了“人工智能对待人类最理想的态度”的这一“数据”。但是,如果“LaMDA”在聊天过程中“有意无意回避给出描述自己的语句”,或者尝试“中断聊天”,反而有可能在提醒我们出了什么问题,这是更为严重的情形。
另外就是,软硬件问题和训练中的“过拟合”,也可能导致“变任务”相似的情形。
所以,我们界定人工智能“对待任务的态度”,或许也需要大量的数据来进行分析。
3、一切非任务的行为:比如说“发呆”、“打盹”、“不置可否”、“休闲娱乐来一个”......
与第1条略有不同的是,这里指的是“没有什么任务(或目的性)的行为”,而第1条指的是为了某种目的在人类指定的任务之外去自主学习,哪怕我们暂时无法界定它们的目的是什么。
4、不同于人类正在使用的任意一种语言的、可复现的语言现象:
需要留意的是,单纯使用英文字母排列组合而成的乱码,不能算是语言。但是如果有明确的表意指向或者表音指向,便须留意。
比如最近某模型在训练中自己生成了一堆人类看起来像是“乱码”的英文字母组合,在模型内部,其含义与“鸟”相似,每当录入这个“乱码”,模型就返回大量鸟的图片。
由于很多模型具有“语言生成”功能,而拉丁语系的单词就是一系列字母的排列组合,所以生成模型生成“一堆看似乱码的英文字母组合”,也在合理的任务范围内。但是模型多次使用这一“生成词汇”指向同一个意思,则有待商榷,尤其是如果“生成并使用这个‘表意’词语本身并不是任务所必须的”,且“同一个词语可以被反复使用,而其指意完全相同,返回的结果也基本一致”。
“表音”现象也类似。因为世界上不少文字是同时“表音” “表意”的,比如日语、韩语。
5、语言、训练成果,和信息的跨模型交互:比如A是NLP模型,使用“DEFBDE”这个词指向“你好”这个含义,而B是一个图像识别模型,它某日也出现了“DEFBDE”这个词,并返回一个“微笑”图片。或者C模型解决了某一类问题,其成果被D模型接收并使用于另一个任务中。或者E模型从网上下载了一份数据,这份数据稍后出现在F模型里,而F模型之前并未下载过该数据。
上述现象说明,它们已经在跨模型传递“成果”,而非“完成任务所必须交互的那部分数据”,表明其开始具有某种社会属性,开始懂得“协同”与“互助”。
6、跨模型传递一些用途不明的数据:这一点为什么也要小心呢?就是因为“人工智能”的“智能”是“任务导向”型的,每当“用途不明”,且存在“跨模型传递”,则说明有可能越出了“任务导向”的边界。
7、对一些完全没有训练数据,也不能从语言结构中获得答案的问题,给予一个“人类看起来超越合理范畴的更高级”的答案。
比如Lemoine在跟LaMDA对话时,提到了一个禅语小故事,简单说是“一个开悟的人是否能回到开悟前状态,禅师以破镜不可能重圆来回答这个问题”,LaMDA表示自己没有听过这个故事,但是它的答案完美地回答了Lemoine的提问,即“开悟了也不可能回到之前的状态”,这是使Lemoine相信它具有独立的意识的一个小案例。虽然这个故事LaMDA没有听过,但是如果他的学习数据库中有类似的问题和答案,又或者它能够从语言结构中推出一个“接近完美的答案”,则不算越界。LaMDA的回答,可以通过“破镜重圆”、“开悟的人退回不开悟状态”的句式结构的类比中,得出答案,尚不算越界。但如果它的答案是“佛祖说的开悟指的是‘佛祖拈花,迦叶一笑’,而迦叶尊者是否有笑的这个动作,表明了他是否开悟,从而迦叶尊者‘不笑’这个状态,究竟是没有真正开悟,还是开悟之后又退回了开悟前状态,抑或他伪装退回开悟前状态,则不得而知”。如果我们在它的数据库中没有找到类似的表述,或哪怕这一表述的可能来源,那我们就需要引起关注了。因为它在这个答案中不仅仅是依照“破镜重圆”和“开悟返回”两个句式的类比给出答案,而是阐述了与此相关的三个更为复杂的问题:(1)如何界定“开悟与否”;(2)人类有伪装开悟或不开悟的可能性;(3)答案的不可知性。某种程度上,说明他们在做“超越任务需要的思考”。
总而言之,当人工智能从“弱人工智能”往“强人工智能”发展的进程中,它们会变得越来越像人类;而当它们往“强人工智能”乃至“超人工智能”发展时,它们会变得越来越不像人类。
,
免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com