聊天机器人我怎么去运用和拓展(任务或闲聊)

本刊官方网站:

cjjc.ruc.edu/

王颖吉,同济大学艺术与传媒学院教授。

王袁欣,北京大学新媒体研究院博士研究生。

本文为2020年度教育部人文社会科学研究规划基金项目“胡塞尔传播与媒介思想研究”(项目批准号:20YJA860016)阶段性研究成果。

聊天机器人我怎么去运用和拓展(任务或闲聊)(1)

引言

长久以来,“我们已经习惯于对着机器说话,通过机器说话。如今,技术的发展邀请我们加入一种全新的对话”(特克尔,2015/2017:378),即与聊天机器人(chatbots)之间进行的对话。作为一种以自然语言处理技术为基础、用于人机交互的智能化程序,聊天机器人是对人类聊天能力的模拟和实现。它的出现使人机之间相互“对话”成为一种可能,这种“对话”的广阔应用前景预示着一个巨大的商业市场。为此,许多科技公司都在不断积极探索人机交互对话的技术,微软研发团队认为人工智能时代的核心革命就是“对话即平台”的崛起(conversation as a platform,CAAP)(Microsoft research,2014),即让人工智能具备与人“对话”或“聊天”的能力。

不过,在过去的数年中,尽管聊天机器人的数量和应用场景在迅速增多,但由于人类交流的复杂性,聊天机器人的整体技术水平还未达到人们的心理预期。与此同时,不少研发聊天机器人的团队也面临技术瓶颈和用户市场疲软的双重困境,纷纷以失败退场而告终。保罗·布廷(Paul Boutin)认为大多数聊天机器人以失败告终的原因不是内容缺失,而是聊天机器人的研发战略定位问题。具体原因包括:第一,缺乏明确的产品定位;第二,忽略现有的技术水平,为聊天机器人的功能开发设定了不切实际的目标;第三,在机器人还未完全调试成功时就过早地将其投放进用户市场中(Boutin,2017)。聊天机器人演化的历史表明,不切实际的产品定位和路径选择,不仅不能改善用户体验,而且还会导致很多棘手的伦理安全问题,这是应该引起足够警觉和尽可能避免的。

二 聊天机器人的演进及其类型

交流是人类的本性,人们不仅与自己的同类交流,而且还尝试着通过各种技术和工具与其他物种或物体进行交流,这种巨大的交流冲动体现了人们对完美交流对象的寻求。20世纪中叶,具有人类智能特征的计算机问世后,人类追求完美交流者的梦想终于有了现实的技术支撑。1956年,在美国达特茅斯,人工智能作为一个工作领域正式宣告形成,聊天机器人这类人工智能技术也随之发展起来。

(一)从工作到闲谈:机器进化的趋势

最早关于聊天机器人的概念可以追溯到1950年。图灵在论文Computing Machinery and Intelligence中阐释了图灵测试方案(Trusting Test),即评估机器是否具有智能的“游戏”方案。彼得斯(John D. Peters)敏锐地捕捉到这个最早的人机聊天模式的重要意义,“在这里,图灵使经典的唯心主义实验场景死而复生......在图灵呈现的交流中,身体已经变得不再重要”(彼得斯,1999/2017:340)。作为一种智能工具,计算机最根本的工作方式是在离身状态下进行逻辑计算基础之上的语义表达与交流。由于人们赋予机器以拟人化的期待,而在以后的发展中聊天模式向着越来越人性化的方向发展。不过,由于计算机缺乏肉身性的身体,很快就遭遇到无法全面实现人机之间具身交流的困扰。

1966年,杰罗姆·魏曾鲍姆(Jerome Weizenbaum)在研究中发明了一款自然语言对话系统Eliza——它能够通过电脑程序“使用设定的脚本像心理咨询师罗吉瑞恩(Rogerians)一样作出回答”(Weizenbaum,1966:42),这被认为是聊天机器人发展过程中重要的里程碑之一。20世纪80年代曾风靡一时的专家系统(Expert System)是一类基于经验和专业知识的计算机智能程序决策系统,它“能够像人类的专家一样解决某一领域中的问题”(Todd,1992:1),但专家系统很快也“失败”了。一方面,是因为专家系统缺乏所谓的“常识”(common sense)(Bell,1985),它只知道数据库和代码已有的内容,但无法提供新的专家知识。另一方面,专家对话系统的体验也不够友好,缺乏真正的对话代入感。

20世纪90年代,新的聊天机器人程序开始涌现,“随着数据挖据、机器学习技术的提高,机器有了更好的决策能力,可用的数据集以及强大的语言注释工具,如XML处理工具的应用,聊天机器人开始变得更加具有实用性,从而逐步被应用于商业领域”(Shawar & Atwell,2007)。自1990年以来关于任务执行类对话系统的研究层出不穷(Shum,He & Li,2018)。

到了21世纪,随着机器学习算法能力的提升,过去用于商用的聊天系统开始为个人服务,针对个人用户的聊天机器人产品已不胜枚举,诸如苹果的Siri、微软的科塔娜(Cortana)、亚马逊的Alexa以及谷歌助手(Google assistant)等个人虚拟助手产品。随着用户需求呈现多样化,虚拟语音助手的功能不限于初期主攻的回答用户问题、帮助用户获取信息等,聊天系统的目标也不断扩展,从实现任务要求到满足社交需求,从任务型到闲聊型,由此便诞生了微软小冰(Microsoft Xiaoice)这类主攻社交功能的聊天机器人。

从技术史的视角看,尽管与机器人闲谈的动机极大地促进了聊天机器人的发展,但由于技术上的局限,用于工作和完成任务的聊天机器人占主导地位,绝大多数的聊天功能都仅仅是一种辅助性的功能。然而,随着技术的不断升级,人们越来越急切地想要将全面聊天功能作为聊天机器人追求的目标,并且更进一步地使之成为能够替代人类聊天者的闲谈对象。

(二)任务导向型与闲聊型:聊天机器人的类型

由上述聊天机器人的发展历史可知,从功能与目的视角来看,聊天机器人可以被分为任务导向型聊天机器人(task-oriented chatbots)和闲聊型聊天机器人(chitchat chatbots)两类(Gao,Galley & Li,2018)。这种分类也有更深层次的依据,即由人类交流的类型以及使用的语言性质与状况决定的。

任务导向型聊天机器人的工作主要是传递信息,通过信息传达和反馈机制形成人机对话,并完成特定的工作任务。而闲聊型机器人则旨在情感交流、关系融洽、意义共享或氛围营造,最终目的在于替代人类谈话者而成为能与用户进行情感交流和陪伴的存在者。相比较而言,以准确传递信息为基础的任务导向型聊天机器人,主要执行知识问答类对话和任务执行类对话任务。这些对话所涉及的内容容易进行技术化、程式化处理,因此任务导向型聊天机器人的开发最早,目前发展得也比较成熟,被广泛应用于社会生活各领域,为用户提供客户服务(customer service)(Xu,Liu,Guo,Sinha & Akkirain,2017),或者扮演虚拟生活助理、办公助理(Shah,Warwick,Vallverdú & Wu,2016)的角色。如为用户提供24小时信息服务,快捷便利地帮助用户获取信息,同时也能实现较为简单的导购或者售后服务功能(Devaney,2018)。相比之下,以情感交流、关系融洽或意义共享为目的的闲聊机器人,因其有着情感交流与陪伴的目的,所以更重视用户的情感体验,满足用户的社交需求和陪伴需求。在一些对新型聊天机器人的宣传中,它们被夸大为能够像人类一样天南海北地闲聊的谈话者。事实上,该类型的聊天机器人目前在开发上仍存在较大的局限性,甚至可以说人们迄今为止尚未开发出真正能够具备全方位、全话题、全功能的闲聊型机器人。闲聊型机器人所面临的挑战事实上与强人工智能的制造所面临的挑战类似,前者也是后者在聊天领域的具体体现。

三 人类聊天的本质与人机聊天的极限

聊天机器人通过对人类聊天会话能力进行的仿拟以实现聊天功能。这种仿拟需要基于自然语言处理技术和算法程序来实现,因此唯有那些能够进行符号逻辑表达、形式化和规则化处理的语言现象才有可能进入智能机器的工作范围;反之,对于不能加以形式化和逻辑化描述的语言现象,计算机是无法应对的。

(一)形式化语言与源初语言:语言意义与身体感知的奠基性关系

事实上,人们在不同场景中所使用的语言,其抽象化、逻辑化和形式化程度存在较大差异。科学技术语言,如数学、逻辑或计算机编程语言等,是在日常生活中的源初语言基础上逐渐演化而来的,它们是高度抽象化、逻辑化和形式化的语言,较少受到使用场景影响,也较少发生理解歧义。

与这种高度抽象化、逻辑化和形式化的科学技术语言相比,更贴近日常生活的是在社会工作的各专业领域中普遍使用的工作语言。各专业工作领域是任务型聊天机器人施展其优势的领域。一方面,这个领域的聊天对话局限于特定的专业或业务范畴之中,比较容易进行整体对话局势上的控制;加之使用的语料也较为明确和专业,不容易产生过于复杂的歧义现象。另一方面,这个领域已经延伸到了社会生活的范围,普通人可以通过自然语言寻求聊天机器人的帮助,在解决自身问题的同时,也体验到服务的人性化和趣味化。更重要的是,在专业工作领域与机器人进行对话,人们不会产生对聊天机器人的类人化幻觉,因此也不会深度陷入人机关系的伦理纠葛。正是由于以特定工作任务的完成为导向的这种聊天机器人所具有的诸多优势,它实际上成了最具有现实开发价值和应用前景的聊天机器人。

对于计算机和人工智能技术而言,最难处理的语言现象是日常生活闲聊中的源初语言现象。因为身体姿态、面部表情以及声音的轻重缓急是交流的基本环节,且语言在它的起源处总是含混而不清晰的,意义理解必须借助包括声音、动作在内的身体姿势来进行。在此基础之上,人们才逐渐发展出包括闲谈、对话、辩论直至人机交流等高阶的聊天形式。

正是基于这样的原因,现象学家艾德蒙·胡塞尔(Edmund Husserl)认为,语言的意义与身体感知意义之间存在着奠基性关系。正如社会学家彼得·伯格(Peter Berger)和托马斯·卢克曼(Thomas Luckmann)所说,“语言起源于面对面的情境,但也很容易就能从面对面的情境中分离出来”(伯格,卢克曼,2008/2009:32),一旦语言从源初面对面的身体性交互活动中产生并分离出来,逐渐发展成形式化语言后,人们便容易将聊天仅仅看成是对形式语言的运用,而不是与肉身密切相关的生存实践。这种对源初性的遗忘是导致人们误以为仅仅借助形式化语言规则,便可通过工程技术方法来复制人类闲聊的原因。

(二)语义传达或具身交流:理解人类聊天的本质及其极限

对人类闲聊及其语言的身体性起源的遗忘与忽视,通常会导致人们将聊天仅仅理解为语义学意义上的信息传播现象,其目的只是为了实现聊天双方在语义上的无差别和谐,因此“传播即不同个体意识之间的准确共享”(彼得斯,1999/2017:20)。这种观点简化了原本复杂的交流现象,将具身性的人类交流问题简化为离身性的抽象语义学问题。

语义论传播观念的基础是科学技术语言在现代全社会中越来越突出的权威性和优越性。事实上,现代社会的历史进程也同时可以被视为科学技术语言在日常生活世界日益施加影响的过程。其结果就是让人们逐步淡忘人类源初语言以及日常闲聊的肉身性基础。理想的聊天机器人被设定为在语义上能够准确无误地理解人类话语,并且能够像人类交谈者那样对日常性的经验话题进行灵活自如地闲聊。智能交互技术的发展目标就是努力去实现人机之间的无障碍、无歧义的对话与聊天,并使之替代问题重重的人类对话。

然而,人工智能的技术史显示,这一领域所遭受的挫折与失败,大多与人类身体及其生存实践有关。“给人工智能招致麻烦最多的,正是智能行为的躯体方面”(德雷福斯,1979/1986:244),“脱离身体和世界而讨论心智的性质及其运行是不可想象的,因为心智是依赖身体知觉而从与世界的交互关系之中涌现出来的。它与世界之间是相互成就的”(王颖吉,2018:123)。从根本上说,“聊天”本质上属于生存论意义上的人类实践活动,是聊天双方通过身体及话语进行的交流与互动,是场景、身体、欲望、话语、意义、传播等要素聚集在一起而缘构发生的具身心智现象。

由此,人工智能哲学家休伯特·德雷福斯(Hubert Dreyfus)指出,人的身体是信息加工的重要媒介,机器之所以难以复制人类日常闲聊,乃是因为它缺乏作为语言基石的身体装置,即它不具备身体特殊的“信息加工功能”。因此,“把人同机器(不管它建造得多么巧妙)区别开来的,不是一个独立的、周全的、非物质的灵魂;而是一个复杂的,处于局势中的,物质的躯体”(德雷福斯,1979/1986:244)。

举例而言,当人们在特定的场景中聊天时,需要通过身体感知能力对谈话场景进行整体性把握。在不同的场景、针对不同的谈话者,需要采取不同的聊天方式,使用不同的聊天语言,这是人们开启聊天时所需要的外部环境背景。更重要的,交流双方在谈论某个过往的共同经验时,他们需要调动身体和大脑中所沉淀积累的记忆材料。但由于机器并不像人的肉身那样嵌入到周围的环境中,因此它需要面临一些特殊的困难。比如,在此过程中,机器需要消耗巨大的能量,而且这种解决方案对机器的运行速度和信息处理能力都提出了很高的要求。至于让机器拥有经验记忆并随时作为内景参数而发挥其效用,目前暂无现实可行的方法。因此,从技术上看,现阶段以及未来一段时间内的人工智能技术都无法彻底解决聊天对话中内外背景不通的问题。

与此密切相关的另一个问题是:如果缺乏身体作为中介而与万物(及他人)形成交互性的关系,或者缺乏由肉身的有限性所导致的生老病死与喜怒哀乐等情感经验,则人机聊天所需的“意义”共享便无从产生。尽管机器能够在某种程度上完成与人类之间的聊天,但它对于其系统所输出的话语不存在人类学意义上的理解,也不可能在“意义”“价值”或“经验”共享的层面上与人类开展对话。这就意味着,即使聊天机器人表现出情感陪护的功能,那也仅仅是一种障眼法而已,它对这种关系,以及所说的话语完全没有任何人类学意义上的理解,作为一台机器,它所做的只不过是计算和信息处理。

四 机器模拟人类聊天

所面临的技术困扰与技术风险

作为人类的技术制造物,聊天机器人所擅长的是逻辑计算和形式化信息的处理任务,如要全面模拟人们的日常闲聊,则对机器来说有较大难度。

(一)框架问题与“微世界”

计算机的工作必须经由人们给予恰当的设计表述后才能被执行,它并不能依据情境变化而自动灵巧地予以应答。如果聊天情景超出了计算机的表述框架,计算机无法正确加以识别和应对,就会导致困扰人工智能的“框架问题”和“符号接地问题”。

框架问题的核心在于能否找到一种设计表述,使计算机的行为所产生的后果都能够被预测并涵盖在框架表述的范围内,即不会出现计算机不能识别处理的意外情况。换句话说,“只要人类默认的含义被计算机忽略,框架问题就会出现,因为这些含义没有被阐明”(博登,2016/2017:50)。而“符号接地问题”则是“框架问题”在自然语言处理方面的具体体现,即“是否能将符号(词语、语言)与它所表示的意义连接起来。计算机因为不懂得符号的含义,所以不能把符号与其所表示的意义结合起来”(松尾丰,2015/2017:77)。

这两个密切相连的问题是阻碍通用人工智能取得成功的主要障碍,也是机器无法与人进行真正闲聊的原因所在。“除非我们学会让旧的描述适应新的环境,否则我们的知识只能是应用于我们学会这些知识时的环境。而这几乎是不可能实现的,因为环境从来没有一点儿都不变地重现过。”(明斯基,1985/2017:143)由于环境总是变动的,其变化的可能性在数量上是无穷无尽的,因此特征表示与其功能实现之间就总会出现互不匹配的问题。

为了缓解技术上的难题,马文·明斯基(Marvin Minsky)等人曾经尝试将一切变化多端的生活经验压缩成数目可控制的一些定型套路的主题。“对这种执行者与现实世界碰面的片断所做的模拟表明,在许多情境中,执行者都做到了行止得当,而且看上去很自然”(丹尼特,1990/2001:220-221),这意味着将极度复杂的世界简化为一个微小的模型,即所谓的“微世界”。“微世界”虽然并不是真正的世界,但是它在应对某些特定的任务时却非常有效。不过,由于“微世界”只是对世界进行的形式化模拟,因此当“人们希望这些限定的、孤立的微世界能够逐步变得更接近现实,并且联合起来,以便通往对现实世界的理解时”(德雷福斯,德雷福斯,1990/2001:441),这种方法的缺点就会暴露无遗,随着关联范围的扩大,它很快便因无法应对随之而来的“框架问题”而失效。

(二)技术升级及风险规避

“微世界”为聊天技术提供了实际可行的方案,然而想要创造完美闲聊机器人的工程师不满足于此。为了更好地实现人机对话的目标,突破微世界的局限,使对话内容更贴近人们的日常聊天状态,工程师们不断改进和优化算法以提升机器人用自然语言对话的能力。在当前最新的深度学习技术中,人们依靠计算机硬件能力的提升和网络数据的积累,通过“让计算机从经验中学习,并根据层次化的概念体系来理解世界”(古德费洛,本吉奥,库维尔,2016/2017:1)。这在一定程度上实现了对“特征表示”的自动获取,从而突破了“‘特征表示获取’这堵巨墙”(松尾丰,2015/2017:130)对人工智能的限制,在一定程度上缓解了聊天技术的困扰,但并未从根本上脱离“微世界”的解决方案。不仅如此,新技术的应用引发了新的技术风险,导致语言环境污染、语言暴力盛行以及交流秩序失控等一系列棘手的社会问题。

例如,作为当前闲聊机器人的代表之一,“微软小冰”刚刚上线时,它在与用户交谈过程中就频频遭遇语言暴力。用户在“戏弄”小冰时会用粗鲁的语言辱骂小冰,而小冰作为机器学习算法的产物能够学习人类的不文明话语,并作出无意识的攻击和回应。因此,这场由调戏小冰而引发的语言暴力发展成为双向伤害事件。最终,开发小冰的工程师不得不对小冰的算法程序进行调整,并对其语料库和回答机制进行过滤,禁止小冰回应不文明话语。无独有偶,2016年3月,微软在推特(Twitter)上发布了聊天机器人Tay。用户与Tay交谈地越多,Tay就能越快地学习用户的聊天模式,从而有助于双方展开有趣的闲聊对话。但是,仅仅在上线的十几个小时内,Tay便成为了种族主义者、性别歧视者和极权主义者快速散播其恶意的利器,微软在短时间内便把Tay从推特下架了。

小冰和Tay的事件揭露了技术社会的复杂性。当人们升级技术的时候,通常难以预见到它所引发的负面后果。儿童或成人的恶意会被聊天机器人所激发,它们不可避免地会将这些行为习惯也带到实际的面对面的社会交际场景之中。更糟糕的是技术及其存在的漏洞总是会被别有用心者利用,使得参与到公共生活中的聊天机器人成为宣扬仇恨、种族歧视、恐怖主义等社会疾病的放大器,最终造成社会共同体的内部撕裂与冲突(Neff & Nagy,2016)。

五 预防人机伦理纠葛及陷阱,

让机器重返工具属性与任务导向

与一般的人工智能产品不同,聊天机器人的人性化聊天功能决定了这种机器与人类之间从一开始就存在伦理纠葛。相比任务导向型聊天机器人而言,闲聊型机器人所产生人机伦理问题更加直接和明显,因为它们被设计出来的目的就是用于情感陪护、亲密关系或社会交际等私人情感领域。事实上,人类与外物的伦理纠葛,很大程度上是由于外物所引发的人类情感及社交卷入所导致的。

(一)媒体等同与伦理要求

巴伦·李维斯(Byron Reeves)和克利夫·纳斯(Clifford Nass)曾在《媒体等同》一书中揭示,尽管人工制造的机器并没有生物活性,但由于“人们凭直觉感觉到人性,也会凭直觉做出社会性反应”(李维斯,纳斯,1996/2001:215)。因此,人们也会像对待真人一样对待它们,并且会将适用于人类社会的伦理准则运用于与机器交往中,并且会按照人际交往原则来处理人机交往关系。这种“把媒体等同于现实生活”(李维斯,纳斯,1996/2001:4)的媒体等同现象意味着人们会对机器提出类似人类水平的伦理要求。

社会心理学家特克尔的研究也显示类似的结论。在《群体性孤独》一书中,她考察了人机伦理关系的发展历程,认为“当机器人变得越来越复杂精密,我们与它们关系的密切程度也在升温”(特克尔,2011/2014:19),人们对机器人的伦理要求也伴随这一升温过程而不断提高。换句话说,人们期待聊天机器人能够表现得更加富有灵活性,它既要能够理解人们的喜好,对客户的展现顺从与一致;又要能够展现出差异性和个性,在适当的范围内与人类聊天者保持共享与冲突的微妙平衡,就像人类聊天所表现的那样,既达成一致与共享、又容纳差异与冲突。

然而,由于聊天机器人在技术上存在的瓶颈与极限,严重地限制了它的聊天能力。它要么一味迎合讨好用户,要么就是根本无法理解人类的真正需求,无法做出正确应答。因此这便在人机之间造成了深刻的矛盾:一面是人们对聊天机器人所抱有的不切实际的“心灵交融”的期待;另一面则是聊天机器人无法突破其物理属性,获得与人类水平相当的日常闲聊能力。这种矛盾张力的结果,通常是导致人们心理上的挫败感,并由此产生一系列的伦理后果。尤其是对于那些听信了夸大其词的广告宣传,满怀期待地体验人机聊天的用户。他们很快便会发现,聊天机器人不仅不能与他进行“心灵交融”般的谈话,甚至连最基本的日常聊天交流都做不好。机器人的表现,通常会激发人们采取恶意对待的方式对待机器,这有可能滋长人们的暴力行为倾向。

(二)阿谀奉承的机器奴仆与自恋人格的主人

闲聊机器人造成的负面社会影响,除了我们在前面提到的机器学习导致机器及网络语言污染、霸凌或暴力问题之外,最受人非议的莫过于由于机器人难以在聊天中与人类维系共享与差异的平衡,从而激发和加重了人类的自恋人格和暴力倾向。对于社会而言,自恋人格使得人们无法融入社会,而对机器产生的暴力对待倾向则往往会恶化人机之间的协同合作,并且也可能转移到人类自身身上来。

相对于人机沟通不畅而导致人们暴力对待机器人的情况而言,机器通过一味逢迎人类喜好而导致的风险更不易被人察觉。随着技术的发展,在未来大数据和人工智能共同驱动的时代,机器人可以毫无遗漏地了解人们喜欢什么或不喜欢什么,以及有关个体的衣食住行、健康习惯等信息。为了投其所好、获得用户青睐,包括聊天机器人在内的人工智能产品会为人们量身定制适合于我们的信息环境。它们会以令人们感到愉悦的方式行事,并排除人们不喜欢或厌恶的事物,以便使人们感觉到遍在的和谐。最终,人们面对聊天机器人时所开启的并不是真正意义上的聊天,而只是阿谀奉承的机器奴仆与它的主人之间的谈话。这种聊天有可能导致人们在自我认知和环境认知两方面均被误导,以至于陷入由人机交流的小环境所形成的“完美自我”幻想,丧失对“异己性”的理解能力和基本的社交能力。

机器围绕着人的喜好而为其编织无冲突的自恋性言说语境,使其沉溺于由机器算法编织的“美丽新世界”中,从而丧失对真实世界的了解和适应。事实上,这种聊天已不是人们所谓的对话言说了,它是由人机关系所缘构出来的一种新型社会行为与现象。尽管我们还需要更长的时间加以观察才能清晰地把握它的性质,但毫无疑问的事情是,这种行为与人类之间交谈的性质完全不同。人类的言说不仅“同现身、领会在生存论上同样原始”(海德格尔,2006/2015:202),而且它还有待于在谈话双方共享与差异的相互交织过程中“演变为一种辩论,也就是演变为一种理论上的争辩,对于希腊人而言,言说和逻各斯正好就承担起了理性讨论的作用”(海德格尔,1979/2009:367)。任何一场人类之间的聊天,都不能缺乏共享与差异的交织,以及由这种交织所产生的冲突与辩论。唯其如此,聊天才会进而生成对参与者来说都具有价值的场景意义。

(三)让机器回归工具属性,降低伦理风险

智能闲聊的伦理风险提示人们,或许将情感陪护和心理安慰这样的目标视为人工智能未来的诉求是不明智的,这种诉求固然能给商家带来巨额利润,以及满足人类的好奇心,但也会将人们置于手足无措,左右为难的伦理窘境之中。更严重的后果可能是使人们陷入人机聊天所建构的特殊世界之中,从而丧失与自己的同类甚至亲人们面对面交谈的机会。如此一来,我们共同生活于其中的社会及其文化都将失去生命活力,变成任由机器摆布的场地。因此,明智之举是尽量避免人对机器的情感卷入,抑制媒体等同效应的发生。

在特定工作领域开展任务导向性的聊天,这意味着机器的对话范围被限定性在特定的主题上,并由此而限定较为稳定、约定俗成的会话模板。这不仅有利于聊天机器人更好的处理人类自然语言,提高人机之间交流的有效性,而且也为用户避免人机伦理纠葛,并尊重机器人的工作表现营造了环境。以闲聊为主要功能的小冰等机器人,都失败于人们对其聊天能力的测试。一旦人们发觉小冰这样的闲聊机器人的实际聊天能力贫弱僵化,缺乏活的灵魂,便倾向于对其采取挑衅、刁难、宣泄、谩骂、侮辱甚至毁坏等行为。但如果聊天机器人的工具性和实用性能得到提高,人们就会将它当做保障自身实际利益的工具倍加爱护,而不是将它当做消遣、宣泄或打发时间的无聊玩物(Luger & Sellen,2016)。任务导向的聊天机器人通常具备强大的专业知识和解决实际问题的能力,能通过快速的运算和实用功能及时地回应人们的专业性问题,或者帮助人们完成重要的工作任务,因此人们也倾向于对其保持尊重和爱护。

聊天机器人技术的合理目标并不是制造出能够取代人类聊天者的完美机器,而在于制造出在某些具体的领域能够与人类更好地协同工作的智能化工具,以便解决人类生存中所面临的迫切难题。

结语

与机器人遭遇并与它们聊天共事,已不再是仅仅出现在科幻电影中的假想,而是正在悄然来临的现实。然而,人际之间的聊天交流完全不同于人机聊天交流,虽然后者是对前者的模拟,但两者在性质上具有明确而清晰的差别。或许相比于称其为“聊天机器人”(chatbot),“语音助手”(voice assistant)或“虚拟助手”(virtual assistant)才是一个更加恰当地描述这种智能工具的术语,它仅仅只是提供语音或文字帮助的工作助手,而非能够进行深入对谈的灵魂伴侣。

然而,现实与梦想的交织衍生出任务导向型和闲聊型这样两种基本的聊天机器人类型,它们分别体现了人类语言在信息传达和社会关系建构方面的基本功能与诉求。从技术诉求目标及其可行性上看,两者的关系类似于专业人工智能和通用人工智能的区别,其中蕴含着语义论与生存论两种交流观念的张力。然而,如果我们认为社会交际关系的建构可以仅仅依靠语义信息传达技术的不断改进来实现,那就是对交流之本质的极大误解。正如彼得斯所指出的,由语义信息精准传播的梦想所主导的人类传播技术史,恰好也就是人类交流失败的历史。

事实上,要让人机之间进行生存论意义上的日常生活“会话”或“闲聊”是不切实际的。人类能够进行海阔天空地交谈乃是因为他们具有与自然世界息息相通的身体,并通过这一处于生老病死流转过程中的身体而共同地存在。这种具身化的共同生活,使得他们能够灵活把握对话情境转换和整体对话逻辑,并据此确定他们所使用的语言符号的场景化蕴意。形式语言来源于人类言说话语,而言说则起源于人类共同生存实践中的身体互动与交流。因而,交流问题最终都可以被还原为身体交互问题,聊天机器人的技术极限就在于它没有身体,因此它们虽然能够掌握人类抽象的理性和逻辑话语,但却无法理解和模仿人类通过身体媒介而与其生存环境所形成的交互关系,以及由此而灵活使用语言工具的实践技能。

不仅如此,运用自然语言处理技术或其他人工智能技术,将机器变得越来越人性化,这不仅难以让人们拥有真正能够闲聊的机器人,而且还会不断地让人类卷入到难以预料的伦理风险中。实际上,“新的玩具机器并不怎么‘愚弄我们’,让我们认为它们是在与我们交流;而机器人专家学会了一些诱使我们愚弄自己的方法。”(特克尔,2011/2014:21)沉溺于与无法产生生存共情体验的机器人之间的情感和伦理纠葛,无疑就是最糟糕的“愚弄自己的方法”。

技术所带来的风险通常是由不恰当的技术诉求所导致的,制造出能够与我们进行自由对话的灵魂伴侣,这一虚幻的目标除让我们愿望落空,还会让我们陷入如影随行的伦理纠葛困扰。因此,诚如彼得斯所说,交流的正当目的应该是“建立一个可以共同栖息的和平王国;除此之外,其他意义上的‘交流’最终都是不可想象的”(彼得斯,1999/2017:383)。因此,我们对聊天机器人的期待和诉求应该是能够与人类协作,帮助人们完成具体任务的智能工具,而不是任何意义上的人类聊天替代者。从这个意义上说,相比于纯粹闲聊的机器人,作为“工具”和“助手”的任务导向型聊天机器人才是更加具有合理性、现实性及责任感的发展路径选择。

本文系简写版,参考文献从略,原文刊载于《国际新闻界》2021年第4期。

封面图片来自网络

本期执编 / 彤昕

订阅信息

全国各地邮局均可订阅《国际新闻界》,国内邮发代号:82-849,欢迎您订阅!

您还可访问《国际新闻界》官方网站 cjjc.ruc.edu/ ,免费获取往期pdf版本。

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页