【摘要】在传统的传播结构中,技术、机器均被视为用来完成传播行为的工具或中介。基于人工智能越来越智能化和自主化的事实,传统的“工具论”范式已不能形成对人工智能的全面观照,人工智能伦理研究出现了“非人类中心主义”转向,将人工智能视为“传播主体”,并基于此考察人机互动关系。然而,相关研究未能完成“非人类中心主义”的视野转换,在一些具体问题上仍存在“以人为中心”的思维定式,将人工智能打造成人类“副本”。然而,人工智能之于人类不是“副本”,而是具有相异性的“他者”。人工智能伦理研究应沿着“共在”的视域,发掘并尊重人工智能作为他者的“他性”,避免他者的相异性沦为主体的附庸。人机之间应尝试建立一种独立而健全的他异关系。
【关键词】人工智能;传播主体;传播即共在;他者;他异关系
一、人工智能伦理研究的“非人类中心主义”转向
近年来,人工智能(Artificial Intelligence,AI)的发展引起了社会各界的瞩目。技术发展的不确定性带来了新的问题和风险,尤其是奇点理论(Singularity Theory)的提出,引发了更多对人工智能伦理的关注,学界和业界都试图为未来人工智能的发展奠定道德性根基。
鉴于目前人工智能技术在传播场景中的深度应用,人工智能伦理在传播学界也引发了广泛关注。基于传播学特定的学科视角,该领域的人工智能伦理研究更加关注人工智能在传播过程中的角色定位、人工智能与人的传播过程及其后果。其中,人工智能在传播过程中的角色定位被认为是一个基础性问题,对于这个问题的不同回答决定了我们如何看待人机传播的过程及其影响。基于此,近年来传播学领域的人工智能伦理研究基本分为“技术工具”和“传播主体”两种取向。
(一)“技术工具”视野下的人工智能伦理研究
较早的相关研究对智能传播伦理的考察,集中于人工智能技术在参与信息的采集、生产、分发以及核查过程中,可能引发的公众社会认知、价值判断、行为决策方面的问题以及社会权力问题,主要包括以下三个方面。
首先,人工智能技术的可信度。具体包括:智能算法的不确定数据导致不正确的行动,误导性的数据导致偏见,不公正的结果导致歧视,算法在数据抓取以及分发过程中对信息隐私的挑战。
其次,人工智能技术的透明度。智能技术本身的不透明性和技术商业化一起,将信息线索发掘、信息文本生产、信息分发渠道等诸多流程推向了“黑箱”——信息生产的幕后的幕后,致使普通公众对信息的真实度、可信度难以判断[1]。
最后,人工智能技术对信息环境多样性的挑战。基于用户兴趣偏好和个人特征的个性化推荐算法被广泛应用,引发学者对信息环境多样性的担忧。研究认为,推送算法具有将信息个人化的技术倾向,窄化用户信息获取的范围,形成“过滤气泡”或“信息茧房”,由此可能带来偏见与歧视的强化、政治环境极化、公共辩论削弱等社会公共领域危机[2]。
总体上,上述研究将人工智能视为信息传递过程中的高效辅助工具,以替代和辅助人类在传播活动中的部分工作。但由于机器与人类对信息不同的处理逻辑,伦理问题就此产生。相关研究通过优化算法逻辑、加强人类对于人工智能技术监管的方式来寻求解决方案。
(二)“传播主体”视野下的人工智能伦理研究
当前,随着数据的爆发式增长、深度学习算法的迭代和人类的决策让渡,机器从被动工具向能动体转变,发展出不需要人类介入的“感知—思考—行动”自主能力。传播不仅是信息的传递和接受过程,更是符号化的互动过程。技术的演进让人工智能体与人类的符号交流能力突飞猛进。基于这样的现状,越来越多的研究提出,人工智能应被视为“传播主体”而非中介工具。显然,这一观点挑战了传播研究的边界,提出传播不再是为人类所独享的过程和经验。从这样的视野出发,这类研究的议题主要集中在以下几个方面。
首先,传播主体的迁移。当前的传播环境中,机器的自主性、智能化、情感化被重新审视。早在2006年露西尔·苏奇曼就提出用“人机传播”来指代真实人类与智能体之间的传播交流活动。[3]2016年,国际传播学会(ICA)第一次正式承认了“人机传播”这个领域。这一领域随着人工智能形态的发展衍生出“人类—人工智能交互”的范式,许多研究对于传播的考察开始突破人类中心主义的边界,将智能体作为一个“传播者”,探讨人与智能技术的交互。
其次,人机关系的建构。如果机器是传播者,那么人类是否有可能与这样的传播者建立互动关系,又如何建立和谐的互动关系?多数研究认为,让智能体模仿人类的行为模式是实现人机和谐共处的有效路径。为了使人类更好地接纳这一全新的交流对象,嵌入人类社会的智能体正在扮演传统意义上人类的角色[4],智能体的拟人化趋势促进了人与机器之间的交流沟通,并进一步在人机之间建立社会关系[5]。
最后,人机之间的本体边界冲击。智能体的拟人化趋势同时也引发了部分研究关于人机本体边界混淆的担忧:一方面,机器越来越像人。例如社交机器人,其算法设计以人类交流数据为训练语料,在与人类交往中越来越接近真实人类的交流模式。另一方面,人也越来越像机器。人们在变革媒介技术的同时也被悬置于媒介技术营建的环境之中,其观念和行为不可避免地受到了人类自身创造的媒介化环境的影响,受到来自媒介技术的“反向驯化”。“人机互训”的机制下,人与计算机的主体界限日益模糊,由此引发了人类的“主体性危机”,例如智能体对人类工作的替代和人类权力的争夺。
上述研究承认人工智能“传播主体”的身份,在传播过程中,机器扮演了过去由人类承担的社会角色,并基于不同的角色与人类建立交往关系。这类研究近年来不断涌现,不少学者认为,目前有关人工智能伦理的研究已经完成了“非人类中心主义”的转向[6]。
二、未完成的“非人类中心主义”转向
在传统的传播结构中,技术被视为用来完成传播行为的工具或中介,传播理论当然“以人为中心”。但基于人工智能技术日益自主化的事实,研究者们已经意识到传统的“工具论”范式并不能形成对人工智能的全面观照。于是,越来越多的研究开始跳出人类中心主义的既定视野,用更为开放的思维去思考智能机器的定位以及人与机器的关系。
将人工智能视为传播者,是迈向“非人类中心主义”的重要一步,但本文并不认为目前的研究已经完成了“非人类中心主义”的视野转换,在一些具体问题上依然能看到“以人为中心”的思维定式:在进一步定义“作为传播者的人工智能的行为模式”,以及回答“作为传播者的人工智能如何与人类和谐共存”这样的问题时,多数研究对于人工智能这个全新传播者的想象依然以“人”为样本——大部分研究仍然以人类的交流和行为模式为标准来衡量人工智能是否是一个“合格”的传播者,以及能否与人类和谐共存。
以“人”为样本去想象作为传播者的人工智能,是一个无须多加思索的方向,似乎也符合人工智能的设计初衷。1950年,著名的“图灵测试”将智能的标准定义为能与人类正常沟通而不被发现。多数研究认为,这意味着设计者从一开始就将计算机的演进方向指向了“拟人”。不能忽略的事实是,在智能技术研发初期,机器的拟人程度尚未发展至威胁人类控制权的水平。在这样的背景下,人们对机器拟人化的演化方向充满期待,相关研究也将“拟人化”作为人机信任与和谐互动的前提条件。
近年来,机器的拟人化水平达到了令人惊叹的程度。与技术发展初期的预想不同的是,人们对拟人化机器的态度发生了明显转变。机器人设计领域的“恐怖谷效应”描述了当人类看到类人物体时的反应:人类对非人之物的喜爱程度随着后者的外形拟人程度先增加而后骤降,而且对会移动的非人之物具有更加剧烈的喜爱程度起伏。[7]随着技术的演进,“恐怖谷效应”已经不局限于机器人的外表层面,在语言层面、行为模式层面,机器人的“高拟人度”均能引发人类的恐惧心理。因此,对抗式的人机关系在近年来获得了更多关注,相关研究已经证明“恐怖谷效应”真正产生影响的地方在于现代人类如何与机器人互动,这种影响会改变人类对类人机器人的信任度和看法[8]。如此,以“人”为样本的人工智能想象带来了两种相互矛盾的结果:一类研究认为“拟人化”促使人类对人工智能产生信任并与之建立良好的互动关系,且拟人化程度与信任度、关系和谐程度成正比。另一类研究者则看到了“高拟人度”引发的人类“主体性恐慌”,并证明了这样的恐慌对人机互动的负面影响。面对这样的矛盾,解决办法似乎只有摸索出一条分界线或一个临界值——人工智能的拟人化达到何种程度时,既能激发互动又不至于引起人类的抵触?
这样精细而微妙的临界值真的存在吗?首先,机器的拟人化方向十分多元,涉及外表、语言、肢体行为等多个层面,如果将机器代入具体的人类社会角色,其拟人化路径就更为复杂,涉及性别、职业等社会建构层面。其次,人类个体对拟人化的接受程度除了与技术有关,也与人类自身的审美偏好、技术素养以及所处的文化环境等因素有关。要找到这个临界值,本研究对此并不乐观。尽管都采用人机传播这一研究范式,将人工智能视为传播者,但相关研究在一些关键问题上还远未达成共识,其结论甚至相互排斥和矛盾。本文认为,这种矛盾一定程度上也与不彻底的视野转换有关:上述研究的底层逻辑依然是“人类中心主义”的伦理取向,我们似乎无法想象除“人”以外的传播者的样貌。
三、“共在”视域下的人机传播伦理取向
本文认为,要解决人机传播中人工智能“拟人化”的两难困境,在研究中采取更彻底的“非人类中心主义”视角是一条可行的路径。这意味着在研究中不仅将人工智能视为传播者,而且需要更进一步,不以“人”为样本来想象或衡量人工智能的传播行为,允许并重视人工智能与人类的差异,从而在“拟人化”这个单一路径之外探索人机传播更为丰富的样态和可能。换言之,人工智能与人的“差异性”比“同一性”更有价值,甚至是人机关系可持续的重要条件。
(一)人机差异:“机器像机器一样思考”
如果回到人工智能设计的起点,可以发现机器的“拟人化”并非人工智能进化的唯一路径,人工智能之父阿兰·图灵从一开始就强调了人机差异。与人的“差异”是图灵在定义所谓人工智能本质时非常重视的品质,甚至早在《计算机与智能》这篇奠基性的论文中,他就排除了生产智能机器人的可能性。他阐述道:“我希望并相信,人们不会用大量的精力来制造极像人却没有智能特征的机器,比如形体上像人体的机器。”和人体同形的情感也应该在禁止之列。他试图证明,机器和人的行为模式是没有必然联系的:“我们不会因为机器不能在选美比赛中大放异彩而惩罚机器,也不会因为人和飞机赛跑败下阵来就惩罚人。”[9]我们允许人有千差万别,自然也不能否认这些由铜、电线和铁构成的大脑。客观事实上,机器和人是必然不同的。因此,允许“机器就像机器”更符合人工智能的设计初衷。
如果智能机器表现得不像人,那么人类是否可能与之产生互动?答案是肯定的。在对媒体与行为规范、媒体与人格特性、媒体与情感、媒体与社会角色以及媒体与外在形态等各个方面展开多项研究之后,巴伦·李维斯和克利夫·纳斯两位学者提出了“媒体等同”理论,即媒体等同于真实生命,人们会把人工机器作为社会角色来对待[10]。在此之后,李维斯和纳斯提出了“计算机作为社交对象”的范式(Computers Are Social Actor sparadigm,CASA),并影响了许坤等学者在该领域的研究,他和马修·隆巴德在2016年提出“媒体作为社交对象”的范式:每一种人造技术都至少具有一些激发人类社交反应的潜力,社交线索及它们与个人因素、环境因素的组合会导致人把媒体当作社交对象[11]。
上述理论将目光从审视技术的发展水平转向审视人类心智,认为技术在传播过程中的角色不仅取决于其本身的发展状态,很大程度上也取决于参与互动的人们如何看待它们。实际上,每个人或多或少地具有把媒体当作社交对象的趋势。因此,当机器就只是机器时,依然可以引发人类的互动反应。
(二)“他者”而非“副本”:以差异为前提的人机互动
人类社会中的人工智能应是什么样的角色?在以“人”为样本的人工智能想象中,人工智能更像是人类社会角色的“副本”,如此一来,人机互动只需要重复和模拟人际互动的常见过程。这一模式似乎能够消除人类对于新事物的抵触,让人工智能更好地融入人类社会。但实际上,这些机器“副本”却在近几年引发了越来越多的担忧,比如社交替代、职业替代等。以聊天机器人为例,这些硅基“副本”拥有超强的信息处理能力和不知疲倦的“身体”,对人类来说它们是有问必答、24小时在线、绝对以用户为中心的“完美社交对象”。且随着互动的深入,社交机器人对用户的了解也与日俱增。人们一边享受着这种量身定制的互动体验,一边却又担心这种“完美社交”是一个陷阱,让自己越来越无法“忍受”与真实的人类相处。而对人工智能职业替代的担忧,从AlphaGo击败人类顶尖棋手的那一刻便开始酝酿了。
如果我们更加重视人工智能与人的差异,而非执着于消除这些差异,上述担忧或许就能大大缓解。人工智能之于我们不是更好或更差的“副本”,而是“他者”,与“我”不同的“他者”。参照马丁·布伯的定义,他者“是非我之物,肯定不与我相类,明显的是他者”[12]。他者以其“他性”(与主体的不同规定性)或“相异性”成为在“我”之外并异于“我”的存在者。现代哲学提出的“他者”概念本身便蕴含着对差异性、外在性的强调。
本文认为,将人工智能视为“他者”,对于消除或至少缓解当前人类普遍的“主体性危机”是必要的。人类对机器“副本”的忧虑,反射出的依然是人类对于自身主体性的质疑。主体性的问题就是“我是谁”或“我们是谁”的问题,人们依靠占据世界中的一个独一无二的位置来确证自己的主体性。若这个位置是可以被机器取代的,那么人类的位置又该在哪里?而“他者”不同,他者以“相异性”为必要条件,若追求与主体的“同一性”,他者便不复为他者。因此,他者意味着多元而非替代。
(三)“共在”的视域:人机“他异关系”
差异并不意味着对立,也并非传播的阻碍,相反,传播需要差异,需要他者。
社会如何形成,社会又如何存在,是传播的母题。格奥尔格·齐美尔认为,不是诸多人类个体集聚在一起就会构成社会。社会之形成,必须由诸多人类个体彼此之间产生相互关系[13]。而“关系”正是传播的产物,同时“关系”之于社会又具有如此基础性的意义,因此在杜威看来,“社会因传播而存在,并且就存在于传播之中”。而布伯认为,真正的关系呼唤“他者”的存在。
首先,没有“他者”,“我”无以为“我”。布伯认为,一切存在总是处在关系之中,没有任何主客体可以独立存在,关系就是本体。现实的人只能存在于与他者的相关性之中,并在此关系中力图获得存在的真实性。符号互动论的核心论点与之类似:自我并不能先于他人产生,只有当他人的存在进入自我的经验时,自我才能产生自己的经验,自我只有在与他人的交流中才能产生社会的意义。
其次,没有他者,“关系”也无以为“关系”。布伯将关系分为“我—你”关系和“我—它”关系,并将主客二分世界观之下的关系归结为“我—它”关系,一切相对于主体的客体—主体所能认知、操作、利用之对象,都是“它”。然而布伯强调“我—它”关系并不是真正的关系。人与他者的关系即“我—你”关系,才是世界的本真形态。他者并非相对于“我”的客体,而是与“我”共在的主体。他者并不存在于对象性的认识与工具性的利用关系之中,我们必须承认和尊重他者与“我”的差异,即布伯所强调的“相异性”,放弃自我对他者的“占有”,否则他者就会沦为“它”,真正的关系也就不复存在。
布伯说:“人类世界之特征首先就是:某事是发生在此存在与另一存在之间……它扎根于一个转向另一特殊存在的存在者,以与另一个存在在一个二者所共有但又超出各自特殊范围的领域相交流。我把这一领域称为之间(between)的领域。”[14]“之间”的领域就是“共在”的领域,具有各自特殊性的存在者使得这一“共在”呈现为多样性的面貌。布伯以“共在”作为人之在世的本质结构,这就要求人始终以“共在”的视域,发现他者,承认他者。如此,我们才能进入真正的关系。在关系的意义上,我们可以说,传播即“共在”。
布伯所讨论的虽是人与人的范畴,当这个范畴扩大到人与世间万物时,当我们试图与其他存在者构建真正和谐的关系时,以“共在”的视域关照他者,正视且尊重“他性”,依然是不变的准则。本文认为,对于人机关系及其伦理问题的研究,应采纳人机“共在”的基本视野。在这样的视域下,人机之间应建立怎样的关系?唐·伊德将人与技术的关系分成三类:第一类是具身关系,技术成为我们身体的一部分,以至于我们不会注意到它。比如近视者佩戴的眼镜,已然成为使用者身体的一部分。第二类是诠释关系,技术介于人与世界之间,成为我们观察世界、理解世界、进而操纵世界的工具,属于布伯所描述的“我—它”关系。最后一类是他异关系,技术作为他者与我们相遇,也即“共在”视域下的“我—你”关系。[15]
在本文看来,他异关系是人机关系的理想形态:在与人类的互动中,人工智能不只是“一样东西”,也并非人类角色的“副本”,而是一个可以与我们发生关系的他者。这样的关系,并没有暗示一个自我的互惠关系,也并不执着于超越差异的同一性。如同我们无须将自我投射在其他类型的他者身上一样,我们也无须将智能机器具化在我们的认知里,智能机器只是不同于我们每个个体的他者,与人类的他者无异。
四、结语
传统哲学的弊病是过度追求思想与存在的“同一”,以自我“占有”他者。这样的思想脉络长久潜伏于人们的认知中,以至于当人工智能以一种全新的传播者之姿崛起时,我们依然无法摆脱“人类中心主义”的思维定式,试图用技术的手段不断缩小和弱化人机之间的差异,将人工智能打造成人类的“副本”。
唯我论哲学与主客二元的认知模式所导向的工具理性,造成了一系列现代性危机。同样的,这一根深蒂固的认知也已在人机关系中,引发了人类自身的“主体性危机”。为了解决这一弊病,现代哲学开始从主体性哲学转向主体间性哲学,最重要的转向就是“发现他者”。布伯的“关系哲学”既提供了“共在”的视域,又突出了“他者”之维,将理想的在世结构描述为“共他者之在”。沿着“共在”的视域,我们应更加珍视人工智能作为他者的“他性”,避免他者的相异性沦为主体的附庸,同时才能避免主体自身的异化。人机之间应尝试建立一种独立而健全的“他异关系”。
彼得斯感叹交流的无奈时,就已发出了忠告:“与我们分享这个世界的一切生灵都具有美好的他者特性,不必悲叹我们无力去发掘他们的内心世界。我们的任务是去认识这些生灵的他者特性,而不是按照我们的喜好和形象去改造他们。”[16]从自我的角度来分析和衡量他者,便不能发现真正的“他者”。面对正在崛起的“硅基生命”,跳出“人类中心主义”的桎梏,允许并尊重“差异”的存在,或许更加有助于构建人机和谐“共在”的前景。
[本文为上海大学“智能传播与老龄社会治理”重点创新团队项目的阶段性成果;2024年度上海市哲学社会科学规划课题青年项目“超大城市老龄群体数字融入困境与社区空间治理研究”(项目编号:2024EXW002)的研究成果]
参考文献:
[1]仇筠茜,陈昌凤.黑箱:人工智能技术与新闻生产格局嬗变[J].新闻界,2018(1):28-34.
[2]陈昌凤,仇筠茜.“信息茧房”在西方:似是而非的概念与算法的“破茧”求解[J].新闻大学,2020(1):1-14+124.
[3]Suchman,L.Human-Machine Reconfigurations:Plans and Situated Actions[M].Cambridge,MA:Cambridge University Press,2006:125.
[4]孙伟平.智能机器人的主体地位、权利、责任和义务问题[J].华东师范大学学报(哲学社会科学版),2024,56(1):1-8+175.
[5]刘力铭.人机共生中的拟人化:概念溯源、谱系重建与议题拓展[J].新闻与传播评论,2024,77(2):82-92.
[6]李恒威,王昊晟.后人类社会图景与人工智能[J].华东师范大学学报(哲学社会科学版),2020,52(05):80-89+185-186.
[7]Mathur M B,Reichling D B.Navigating a Social World with Robot Partners:A Quantitative Cartography of the Uncanny Valley[J].Cognition,2016,146:22-32.
[8]Kugler L.Crossing the Uncanny Valley The “Uncanny Valley Effect” May Be Holding Back the Field of Robotics[J].Communications of the ACM,2022.
[9]Turing A M.Computing Machinery and Intelligence[J].Mind,1950,59(236):433-460.
[10]Reeves B,Nass C.The Media Equation:How People Treat Computers,Television,and New Media Like Real People and Places[M].Stanford,CA:CSLI,1996.
[11]Xu K,Lombard M.Media are Social Actors: Expanding the CASA Paradigm in the 21st Century[C]//The 2016 International Communication Association.2016.
[12]马丁·布伯.人与人[M].张健,韦海英,译.北京:作家出版社,1992:36.
[13]格奥尔格·齐美尔.社会是如何可能的[M].林远荣,译.桂林:广西师范大学出版社,2002.
[14]马丁·布伯.人与人[M].张健,韦海英,译.北京:作家出版社,1992:275.
[15]Ihde D.Technology and the Lifeworld[M].Bloomington,MN:Indiana Uni¬versity Press,1990.
[16]约翰·彼得斯.对空言说[M].邓建国,译.上海:上海译文出版社,2016:47.
作者简介:周怡靓,上海大学新闻传播学院助理研究员、博士后(上海 200444)。
编校:赵 亮