【摘要】我国人工智能治理虽有不少研究,但也遇到不少问题,如何突破?先运用人工智能进行文献分析厘清了问题,再通过路径创新和反向研究两方面,深入探讨人工智能治理研究的未来发展方向,即研究范式的创新。
【关键词】人工智能;治理研究;范式创新
近年来,我国人工智能有了很大的发展,随之而来也显露出不少问题,甚至出现弊端和乱象,因此人工智能的治理日显重要,相关的研究也应运而生。然而,无论是治理还是研究都存在滞后和不足,因此,有必要深入分析人工智能治理研究存在的主要问题,进而找到解决问题的思路和办法。
一、研究现状与问题提出
依托人工智能进行科学研究已逐步成为新趋势,本研究也尝试使用AI对这一研究进行文献综述。本研究在对国内人工智能治理核心文献进行AIGC主题分析的基础上,再对文献进行分析。为此,本文设计了我国人工智能治理研究热点主题分析框架(如图1)。我们选用四种AIGC模型进行研究问题输入和数据输入,初步提取和分析了我国人工智能治理的研究主题,该过程包括设计AI提示词、模型选择、数据输入、主题析出等主要步骤。由于AIGC在处理复杂语义时仍然存在一定的缺陷,仅用AIGC进行主题挖掘和解读,尚存局限。因此,本研究在其基础上,构建CiteSpace分析框架,架设从主题选择到关键词聚类的分析路径,对核心文献进行聚类分析。最后,通过对两者的文献内容进行分析,凝练、归纳、廓清、荟萃热点主题的观点图景。
本研究依据图1分析框架,借助四款人工智能工具,选择“直接提问”和“数据输入+提问”的输入策略,让AIGC分析“我国人工智能治理”的研究主题。主要步骤:第一步,选择适合的AI提问框架,本文根据现有的提问框架,设计了较为简易的“RAE”提问框架,即角色、行动和期望。第二步,将知网导出的文献数据进行转换格式后,“喂”入大模型;然后,由AI总结分析给定数据的研究主题。其中针对同一问题,KIMI和ChatGPT响应时间最快,但质量输出较好的是文心一言。较为欣喜的是,ChatGPT、讯飞星火和文心一言对外部数据的读取和识别较好,生成了与直接问题基本一致的主题,且ChatGPT在读取和响应方面效率最高,而KIMI因字数限制只读取了28%的内容。各平台研究主题结果详见表1。
我们发现人工智能治理研究热点主要集中在六个方面:数智治理、国家治理、社会治理、法律治理、伦理治理和治理模式(详见表2),这些研究为我国人工智能治理的进一步研究提供了一定的借鉴价值。但已有研究皆以理论研究、框架构建、路径分析等为主,缺乏有效的实证研究与评价工具,且学科领域较为单一,以文科类为主,而理工科研究却较少涉及人工智能治理。其实,这也是传统文科研究的通病,通过跨学科研究的协同创新会对此有所改进。另一个制约研究的障碍恐怕在路径依赖、研究方法等方面,甚至我们对现有的研究范式是否适配人工智能治理研究的发展存疑。
二、摆脱路径依赖,实现治理创新
人工智能技术发展很快,其应用中出现的问题并不是一下子能显露出来,致使相对应的治理便显得滞后了。但人工智能治理不能采用“先发展后治理”的模式,这样会后患无穷,学者们纷纷提出治理的新思路和新原则,“推进生成式人工智能治理安全与发展的平衡。生成式人工智能发展的治理取向,应在发展中保护、在保护中发展,在坚守技术安全秩序的同时调动市场活力。一方面,应联合科技企业、高校和专家学者对生成式人工智能进行系统性研究和监管,制定公共政策分类保护数据,确保技术创新在获取数据的同时不侵犯个人权利或损害国家安全。另一方面,应构建社会多主体参与的分级治理框架。”[1]“基于敏捷治理的全面性、适应性与灵活性,我国生成式人工智能治理应秉持包容审慎的监管理念,依据模型产业架构,形成基础模型—专业模型—服务应用的全面性治理格局;划分已知与未知风险,构建事前预防与事后应对相结合的适应性治理机制;综合运用技术、法律等灵活性治理工具,实现生成式人工智能治理范式革新,促进科技向上向善发展。”[2]还有专家采用后视镜、社会实验等方法对人工智能治理提出种种解决方案。
有学者基于人工智能的内容生态提出治理建设和伦理框架。“基于人工智能生成内容的生态构成,经过对数据来源、算法嵌入、平台集成、用户反馈四个维度风险派生路径的分析,发现存在着披露未许可、虚假、偏见放大、偏差隐藏、被恶意使用、不道德取利、理性致瘾、小概率惊恐八类风险;进一步对AI嵌入内容生成的产生原理及作用机理进行解构与深化,提取出风险治理的隐私保护、说明责任、公平无歧视性、透明可解释性、防第三方侵害、政府责任、人类控制、增进人类价值八项原则;并推演出了开展AI数据的镜像审查治理、促进算法和内容的同步治理、推动生成内容的对象治理转向智能平台的生态治理、实施内容生成和渠道推广的风险共担治理四方面的建议,建构起人工智能生成内容的系统伦理框架。”[3]问题是这些框架和建议能否落地,成效如何?还需要实践检验。
近年来,荷兰技术哲学界涌现出了一种预判性技术伦理思潮,将目光聚焦于技术生命发展过程的早期阶段,强调将伦理治理前置,在新技术诞生前的基础知识积累和技术研发阶段就通过了解技术的内在机制和工作原理,前瞻性地识别和阐释该技术应用后可能产生的伦理问题,从而及时调整技术设计或采取其他应对措施。[4]预判性技术伦理突破了传统上将机器和技术视为无伦理属性工具的观点,认为机器和技术不仅是我们实现目的的手段,而且是能够影响社会关系和伦理关系的重要行动者。[5]也就是说,把算法、大语言模型、生成式AIGC等机器和技术作为治理的主体。
借鉴预判性技术伦理思想,我国学者对AIGC的伦理问题提出相应的治理策略,即“从组建多元化技术评估团队结合国情确定伦理分析框架研发期设定价值观与反馈机制厘清责任主体与协同治理这四个维度,提出了治理AIGC内生性和外源性伦理风险的一些可操作性建议和方法”[6]。
由此可见,针对我国人工智能治理在治理建设、治理范式、治理主体以及治理策略上都形成一定的路径依赖,治理研究要通过路径创新来实现理论突破和治理创新。过去,我们的治理策略从“先发展后治理”转向“边发展边治理”,现在我们还要进行预判性的技术治理,力求做到边发展边预研边治理,在人工智能伦理治理上先走一步,即不谋全局,不足以谋一域;不谋一世,不足以谋一时。
传统的社会治理和研究范式是建立在人类中心主义之上的,即“以人为本”。但如今我们还要考虑能否把机器和技术看作新的治理主体。最近十年,新媒介领域最为深刻的变化便是AI进入并形成新的传播秩序。那么,我们就要考虑一个问题:AI是传播主体吗?学者别君华认为:“AI与人实际构成他异关系,成为新传播秩序中的传播主体。人机传播为传播研究突破人类中心主义的本体论限度提供了可能的进路,亦为传播观念的间性论转向提供了有力的起点。”[7]由此可推断出,在新的人类中心主义本体论中“人机合一与共生”的双主体正成为人工智能治理的新主体。
面对新的治理主体,我们恐怕需要拓展研究新视角新思路。
三、以人工智能治理人工智能
近年来,美国学者凯瑟琳·海勒以信息论和控制论为理论基础,对信息媒介、计算机网络、人工智能、虚拟现实等引发的问题进行了深入研究,其后人类传播观念深刻地影响着这一领域的研究。海勒认为,“后人类的主体作为一种物质与信息相混合的独立实体,重构了身体的边界,导致电子人作为后人类传播新主体的出现,并重新界定了传播研究中的虚拟性与物质性问题。海勒的后人类理论中所蕴含的传播观念,为智能时代的传播研究开拓了一种新视角”[8]。基于ChatGPT、AIGC的智能传播引发了更多社会治理问题,需要传播学与哲学、伦理学、社会学等相关学科协作的跨学科研究,同时需要拓展新的研究视角和研究维度。
人工智能发展虽然带来许多问题和弊端,需要不断治理,但我们更要看到人工智能本身所具有的技术优势和巨大潜能。能否反过来用人工智能进行人工智能治理呢?即“以其人之道,还治其人之身”?这里的“人”是指人工智能,事实证明反向治理是可行的。其实,本文的文献分析就是用人工智能来研究人工智能治理研究。
抗日战争时期,日军使用莫比乌斯函数对电文进行加密,这是一种极其难破译的加密方法。但我国著名数学家华罗庚用高超的数学思维找到了破译密钥,他用莫比乌斯反函数成功破译了日军密码,由此为抗战胜利作出了杰出贡献。
在互联网上,网络语言规范治理是互联网内容生态治理的重要一环。谭天和司峥鸣在《基于深度学习的网络语言规范智能把关模式》一文中对人工智能用于治理研究进行了深入探讨。“应用人工智能技术建立智能规范模式的探索,为网络语言规范治理提供一种新的思路与手段。基于深度学习的网络语言规范智能把关模式能够更好地为互联网治理和网络语言规范服务。”[9]人工智能治理再难也能找到治理它的办法,把人工智能广泛应用在其治理上应该大有可为。
在算法治理方面,研究主要从算法技术、算法向善、算法监督进行展开。算法技术涉及人工智能、大数据、机器学习等技术,逐步从早期的“程序驱动”走向“数据驱动”,其自动化学习型、生成型特征给人类带来了期待与不确定性。为此,算法治理模型的构建需覆盖从设计、应用到评估的全流程,即形成技术生产、算法嵌入、系统运转、风险评估和治理路径的体系[10]。而且,还需从社会科学的源头来驾驭算法使其向善[11],优化算法在治理目标、主体、对象、手段和模式上的异化[12],建立合理的算法问责、治理平台、行业规范和提高主体的认知能力[13],从算法治理的“力度—精度—深度—广度”聚合中国特色的算法监管政策[14],最大程度发挥算法的正面效应。然而,目前算法治理还存在一些问题,如平台算法的不公开,这也让我们对人工智能应用的黑箱难以展开反向治理,因此,有些还需要立法来解决,也就是技术治理与法律治理并举。有鉴于此,基于逆向思维的反向治理、基于系统思维的综合治理、基于非线性思维的混沌治理,都是人工智能治理所探索出来的新的技术手段和治理方式。算法治理、伦理治理和国家治理如何综合应用,这就需要系统研究。
此外,还有一个技术治理的时机问题。英国技术哲学家大卫·科林格里奇在《技术的社会控制》(1980)中指出,一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发;但是,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。[15]这种技术控制的两难困境,就是所谓的科林格里奇困境(Collingridges Dilemma)。走出困境的路径就在于找到治理的平衡点,有学者认为时机的把握应在探索“先发展,再治理”和“边发展,边管理”两种节奏的灵活组合。[16]我们认为治理研究,还必须从技术开发自主权、意识形态主导权、国际传播主动权等方面进行综合考量。
人工智能治理研究的思路和方法的改变,实际上涉及研究范式的改变,需要研究范式的创新。
四、新问题多学科研究需要范式创新
近年来,以ChatGPT为代表的生成式人工智能迅速发展,给人工智能治理带来新问题和新挑战。“生成式人工智能改变了数字社会的生产架构,向既有的技术治理体系提出挑战。”[17]
2023年5月14日,由北京师范大学新闻传播学院主办,清华大学新闻与传播学院新媒体研究中心、《国际新闻界》杂志协办的“ChatGPT启示会”,汇集来自清华大学、北京大学、中国人民大学、北京师范大学等知名院校的二十余名专家学者,围绕“大语言模型下信息生产与流通领域的问题”“大语言模型下伦理法规领域的问题”“大语言模型下文化领域的问题”三个议题展开了深入广泛的研讨。会后,北京师范大学新媒体研究中心团队将会议中所提到的66个研究问题进行了归纳、整理,并按照李克特五分量表制成问卷发放到参与讨论的学者群和计算传播学者群打分。[18]
我们高兴地看到,专家学者通过集体攻关给人工智能研究提出了问题清单,但我们也看到这些专家学者均来自新闻传播学,而在当今研究生成式人工智能治理的研究者来自各个学科,尤以法学为甚。其实对于人工智能治理这项社会治理,除了新闻传播学、社会学、管理学和伦理学的研究外,法学研究举足轻重。因为,人工智能治理既需要法理层面的研判,也需要法律层面的执行。例如针对生成式人工智能的法律定位与分层治理,中国政法大学的张凌寒教授就提出这样的解决方案:“应构建基础模型—专业模型—服务应用的分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。”[19]这种分层治理方式既有契合底层逻辑的基础治理,又有灵活敏捷的应用治理。
推而论之,生成式人工智能治理研究光靠新闻传播学界单打独斗是不行的,它需要学科支援和多学科的协同作战。当今,“在全球人工智能治理的主流范式中,欧盟形成了基于风险的治理范式,我国构建了基于主体的治理范式,美国采用了基于应用的治理范式。三种治理范式均形成于传统人工智能的1.0时代,与展现通用潜能的新一代人工智能难以充分适配,并在不同维度凸显治理局限”[20]。因此,要把人工智能治理研究范式推进到“2.0时代”,我们需要从路径创新、思维创新以及多学科协同创新等多方面进行治理研究的创新,而这些创新构建了新的研究范式。对于新闻传播学而言,能否取得更大的研究成果,就取决于它的学科整合能力和问题引导能力。
托马斯·库恩在他的《科学革命的结构》一书中提出了科学发展过程中的范式理论。他认为科学发展的模式是由一个常规科学传统转变到另一个常规科学传统,两个传统之间的变化即是范式(paradigm)的转换。这种范式转换也只可以叫作“范式创新”。当人工智能治理研究遇到新问题,需要多个相关学科支援的时候,那么原来的单一学科的研究范式,比如传统的新闻传播学研究范式恐怕就不能适应了。因此,需要进行范式转换,比如我们应用新闻传播学和计算机科学来进行交叉研究,那么就要把这两个学科的研究范式进行融合和转换,形成一种新的研究范式,这就是范式创新。只有采用新的范式,人工智能治理的研究才能打开新的思路,找到新的方向和方法,从而找到一条更好的研究路径,获得更大的理论突破和研究成果。
参考文献:
[1]方彪.审慎应对生成式人工智能新发展[N].中国社会科学报,2023-08-21(004).
[2]张凌寒,于琳.从传统治理到敏捷治理:生成式人工智能的治理范式革新[J].电子政务,2023(9):2-13.
[3]谢梅,王世龙.ChatGPT出圈后人工智能生成内容的风险类型及其治理[J].新闻界,2023(8):51-60.
[4]胡兵,钟思悦.荷兰预判性技术伦理思潮对AIGC治理的启示[J].青年记者,2024(2):48-54.
[5]黄阳坤,陈昌凤.“众智连接”的愿景与“硅基寡头”的隐忧:ChatGPT的知识功能与人类的知识危机[J].现代出版,2023(12):20.
[6]胡兵,钟思悦.荷兰预判性技术伦理思潮对AIGC治理的启示[J].青年记者,2024(2):48-54.
[7]别君华.AI是传播主体吗?人机传播的兴起及超越传播本体论的限度[J].全球传媒学刊,2024(3):57-73.
[8]郑奕,连水兴.智能时代的信息控制、电子人与媒介物质性:论凯瑟琳·海勒的后人类传播观念[J].福建师范大学学报(哲学社会科学版),2022(4):111-117.
[9]谭天,司峥鸣.基于深度学习的网络语言规范智能把关模式[J].青年记者,2021(15):19-21.
[10]邝岩,许晓东.算法治理研究述评:演进脉络分析与理论体系构建[J].情报杂志,2023,42(3):158-166.
[11]周旅军,吕鹏.“向善”且“为善”:人工智能时代的算法治理与社会科学的源头参与[J].求索,2022(1):135-142.
[12]曾雄,梁正,张辉.欧美算法治理实践的新发展与我国算法综合治理框架的构建[J].电子政务,2022(7):67-75.
[13]陈思.算法治理:智能社会技术异化的风险及应对[J].湖北大学学报(哲学社会科学版),2020,47(1):158-165.
[14]张涛,韦晓霞.我国算法治理政策法规内容及框架分析[J].现代情报,2023,43(9):98-110.
[15]Collingridge,D.Thesocialcontroloftechnology[M].London:FrancesPinter,1980.
[16]钟祥铭,方兴东,顾烨烨.ChatGPT的治理挑战与对策研究:智能传播的“科林格里奇困境”与突破路径[J].传媒观察,2023(3):25-35.
[17]张凌寒.生成式人工智能的法律定位与分层治理[J].现代法学,2023(4):126-141.
[18]张尔坤,张一潇.ChatGPT启示:大语言模型时代传播学研究新问题[J].国际新闻界,2023(6):174-176.
[19]张凌寒.生成式人工智能的法律定位与分层治理[J].现代法学,2023(4):126-141.
[20]张欣.生成式人工智能的算法治理挑战与治理型监管[J].现代法学,2023(3):108-123.
作者简介:谭天,广州华商学院未来媒体研究院院长(广州 511300),暨南大学新闻与传播学院教授(广州 510632);刘树林,广州华商学院传播与传媒学院讲师(广州 511300)。
编校:王 谦