论智能技术发展的伦理向度与规制框架

known 发布于 2025-08-11 阅读(212)

【摘要】近年来,智能技术的创新与应用已经渗透进公共生活、国际传播、区域冲突等诸多领域,随之而来的权益冲突、利益纠葛,信息生产与消费关系的动态平衡,物理体与生命体的重新界定与再阐释,生产方式转型与文明形态转化中的伦理风险、政策与法律规制需求越发凸显。为此,正视智能技术创新发展应用的现实,揭示其应有的伦理向度,慎思既有的或可能的道德、法律、技术规制,无疑是新时代我国经济、社会高质量发展,智能化社会建设,现代化实现过程中实践与研究的双重命题,其现实意义和理论价值不言而喻。

【关键词】人工智能;伦理向度;就业冲击;隐私泄露;算法偏见;法律规制

人工智能(AI)作为新一轮科技革命和产业变革的重要驱动力量,正逐步向人类社会各个领域渗透,对经济发展、社会进步、国际政治格局等诸多方面产生重大而深远的影响[1],成为这个时代最重要的技术,正在彻底改变每一个科学领域和行业。早在2017年7月20日,我国就发布了《新一代人工智能发展规划》[2],把“新一代人工智能发展提高到国家战略层面”,提出了未来30年我国由初级智能社会到高级智能社会的战略发展目标。[3]现阶段,AI越来越多地接管人类任务并取代人类决策,带来生产力的极大提升,智能社会已经、正在或即将成为未来社会的新形态。但是,“媒介的全时空化,带来了无限的希望和机遇,同时也产生了焦虑甚至错乱和幻象”[4]。人们在惊喜于数字化、智能化社会带来的兴奋与快感的同时,也对AI技术对人的主体性挑战深感忧虑,已经、正在或预设了其发展向度的伦理悖论。对AI伦理道德和政策法律的规制既是智能传媒技术创新发展的保障,也是各种利益主体权益安全的需要。无论是对数智媒体的技术创新,还是对新质生产力的发展,乃至我国的现代化建设,都具有无可估量的重要意义。

本文旨在通过对智能技术发展中的表象、悖论,以及对目前全球人工智能伦理治理举措的分析梳理,以求最大程度上让读者理解人工智能伦理治理的必要性,拓宽对技术治理路径的思考。

一、智能技术发展的表象与向度

2024年,智能技术场域热闹非凡,先是新能源车的自动驾驶技术软件的推陈出新,接着是“萝卜快跑”自动驾驶在某市的大量投放,各种机器狗、无人机的轮番登场,智能化已开始从工业生产的自动化走入寻常百姓家,从日常生活关涉区域战争冲突。这种原本属于文学想象领域的智能化命题,已变成了科技领域、国家安全领域乃至生命科学领域、文明转型领域的前沿命题。人类已经不得不考虑智能科技创新带来的伦理和法治悖论。

(一)从文学命题向技术命题转向

毫无疑问,从自然生命体向物理体、生物体、智能体的转化,实现人类生活时空的无差异转化,本是一个人类想象中的文学创作命题。因此,在影视剧中,各种各样的智能体大受欢迎,既包括生命体如超能力者,也包括像变形金刚、蝙蝠侠这样的机械体。神话传说、宗教故事、科幻作品为当下AI技术的创新开发利用提供了人类想象的样本。因此,虽然是影视作品、科幻作品,但作品中常常隐藏着对人性深层次的探索和哲学思考。这些作品通过描绘不同的文明、生命形态和未来世界,挑战读者对自我、社会和宇宙的认知。随着技术的发展,AI从弱人工智能进化到目前的强人工智能,从一个科幻概念变成了我们日常生活中不可或缺的一部分。现有的该类影视剧也为数智技术的开发,特别是人工智能与生命智能的研发,提出了一个绕不过去的伦理命题,预警其中蕴含的风险。譬如《计算中的上帝》和《2001:太空奥德赛》等科幻作品就探讨了生命的本质、文明的意义以及人与机器的关系。虽然我们不能将影视作品等同于必然会发生的现实,科幻也不等于科技,但是科幻为技术的发展方向提供了警示,贡献了更多面向未来的人类预测、想象和思考。

(二)从工业技术向区域冲突转向

人类对生产力提质增效的追求,驱使工业自动化领域不断进行创新发展。除了各种形态的工业自动化技术之外,又创新出各种智能软件,如自然语言的信息化处理、自动双向翻译软件、语音模仿生成软件、机器伴侣,以及各种各样具有智能的机器人、机器狗等。这些人工智能软件、系统乃至实物,不仅被用于人们的日常生活,也被应用到工业生产、农业生产甚至是战争领域。如此一来,本来用于造福人类的技术革命,给人类带来的恐怕不仅是福祉,还可能是灾难。比如在至今已持续三年多的俄乌冲突中,无人机、星链系统等智能化产品,就被用于人员、武器定位及武装侦察和武装打击。利用光学图像、合成孔径雷达图像和火力热图像等信息,获取指定区域的相关作战数据。通过对这些数据的整合和分析,智能算法生成高质量的战场情报数据,并结合历史战例和当前态势,生成预判[5],帮助军方决策。各种类型的作战机器人被投入使用,在战场上自主执行任务,战争的形态正由信息化向智能化演进,传统作战方法正在被重构。这种AI发展的向度,正在把以前文学艺术、影视作品中对智能世界战争的忧虑变成现实,使AI技术不止于工业技术应用场景,而是向战争转向。

(三)从科研命题向国家战略转向

AI技术的发展,已经不再限于某一个领域、某一类技术的创新问题,而是上升到了国家科研计划乃至国家战略的层面。以往的机器翻译软件已被渗透进了国际通信系统,进行机密信息的窃取。太空飞船与太空舱之间的手动对接,已经变成了智能化的快速自动对接。汽车自动语音识别,现在已经升级为自动驾驶。可以说,AI技术已经由个别的企业行为、研究机构的研发行为,发展成了国家战略。包括中国、美国、俄罗斯、法国和英国在内的几个主要国家已经制定了全面的国家人工智能战略,并正在实施中。未来的数智化,将不再是个别生活领域、工业生产领域乃至区域冲突领域的事,而是上升到了国家战略层面。

(四)从社会发展向文明形态转向

人类对物理体的智能化开发,预示着人类社会形态的根本性转化,预示着人类文明形态的根本转向。人类未来正在实现从碳基生命向硅基生命的转向。首先是人工智能体向生命体—物理体、半生命体—物理体、生命体与物理体的全面融合,再到彻底转化。当下的人工智能技术的认知核心依然是对自然生命体大脑的神经性、生理性解构,这种探究的方向大概率是,人类彻底探明人脑的工作机制,特别是神经网络以及蛋白质构成,接下来就是仿制自然生命体的人脑;抑或突破既有的人类克隆的伦理底线,直接进行人脑的克隆,产生出物理体与生命体的结合体。到那时,人类将面临一个困扰自己的根本命题——什么是人。那将是人类文明发展的极致。

当下的人工智能技术在多维度、多行业场景拓展应用。从人手一个的智能手机到人形智能体、脑机链接,从语音影像的模仿变幻到大数据的自动抓取,从ChatGPT到无人驾驶汽车,从日常生活到工业生产、区域战争,从地表空间到近地空间,无不存在人工智能的影子。人工智能已经或正在向世界预示着人类文明样态的多种发展维度,正在向人类提出一系列的伦理悖论。

二、智能技术发展中的双重悖论

虽然尼尔·波兹曼说过,每一种技术既是包袱也是恩赐,不是非此即彼的结果,而是利弊同在的产物,但不同于之前其他技术伦理问题,AI对人类社会有着颠覆性改变,对现有社会秩序造成极大影响,和其他技术有着根本的差异。传统科技的行为和结果具有可预测性,依赖人类操作,即使自动化技术也只能替代人的一部分劳动,且能被人类控制。但目前AI已经暴露出更多风险隐患,威胁到人的主体性地位,如接管人类工作、替代人类决策、个人隐私泄露、算法偏见歧视、网络安全问题等;又因为其技术的不可控性和复杂性,以及目前已经造成的各种不良结果,引起人类更大的警惕和抵触,引发社会各界对人工智能伦理(AI Ethics)的广泛关注。

(一)劳动生产率提高和就业率下降

AI技术的快速发展,无疑是对现有劳动力市场的一种巨大冲击。2019年,麦肯锡全球研究院发布的《工作的新未来》报告显示,在2030—2060年间,将会有50%的现有职业被AI取代,中点为2045年,而且与之前同类型评估相比,加速了大约10年。[6]例如,目前的无人机技术已经可以实现高速自动化的耕作、喷灌、施肥、采摘乃至出售,减轻了农民的劳作辛苦,但同时由于机械化、智能化而节省下来的农村劳动力的去向就成了棘手的问题;再如“萝卜快跑”出租车在某些城市大量投放,已经有许多顾客在尝试,但与之相对的是出租车司机、滴滴打车司机面临失业的隐忧。待到智能驾驶汽车大面积投放成功,我国的出租车行业必然会面临彻底洗牌的风险,大量的人力将失去赖以为生的岗位。另外,批发零售业的传统销售和客服人员,制造业从事基础体力和基础技能类的工作人员,金融行业的传统柜员、行政管理人员,高科技领域的一些软件开发和研发领域的工作人员,传统教育、初级咨询人员等都面临着被取代的风险。

虽然技术进步对就业的影响从工业革命开始就是社会的焦点和研究的关注点,但AI技术带来的岗位冲击不同于以往历次因技术带来的部分职业的消失,历史上发生过的类似“卢德主义”①性质的运动和思潮,曾经在新技术替代旧技术时以各种面貌反复出现,但只波及某一行业或某一职业,最终会在艰难中实现转型升级。但AI技术几乎能替代所有的人类劳动,其影响的范围和深度、广度与之前任何一次技术发展带来的岗位消失都不同,是一种全面的、无差别的冲击,简单的、复杂的、体力的、智力的,无论何种岗位无一幸免。就业空间被AI强力压缩,失业人群即使想转型也面临着无处可去的巨大风险。

最关键的是,人工智能经济要扩张,需要更多具有人工智能技能的工人。虽然中国新增“人工智能”专业高校数量在逐年增加,但预计2030年AI人才缺口多达400万人。②AI技术的发展速度远超过普通人类的学习速度,从事基础体力、基础技能的职业人群不再被需要;部分目前从事高智职业的人群还没有足够时间去适应或学习到新知识来应对新的工作环境,无法妥善处理因AI技术带来的新兴行业场景和问题;寄望于AI带来新岗位的人因新岗位的创造速度跟不上旧岗位的破坏速度被无限期搁置,由此产生的大规模、大面积的失业必然会引发社会秩序的混乱,甚至暴乱。因此,如何解决大部分人群的就业、生存问题是目前讨论AI技术伦理的首要之义。

(二)AI自主决策和决策的不可解释性

AI算法决策在弱人工智能时期就开始介入甚至主导越来越多的人类社会事务。现在人们已经习惯在互联网上获取新闻、视频、广告、社交动态、购买商品,这些基本是经过推荐引擎个性化推荐给用户的。[7]发展到如今通过机器深度学习,利用卷积神经网络生成内容的大模型,其自主决策系统更成熟便利,能够广泛辅助人类快速处理各种问题。但是又因为技术复杂的结构和高度非线性,造成AI决策过程不透明,用户甚至开发者自己都无法了解到其生成的结论如何得来,决策依据是什么,无中生有的现象时有发生,这种“黑箱”特性造成多方面后果。

一是大众对深度伪造(deepfake)的虚假新闻、名人言论或行为,以及高度逼真的虚假视频和音频难以辨别真假,导致人们对媒体信源不信任,影响新闻媒体的权威性,引发认知混乱。如果涉及政治、意识形态领域,造成的危害则更大。二是由于数据集本身存在的偏差,AI算法可能放大某些偏见,使决策存在歧视性,加剧社会不平等。三是当算法规模化运作应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,影响面可能扩大至类似情况的一群人的利益,违反市场规律,关系大众福祉。四是当人工智能在某些应用场景中自主作出错误决策时,缺乏可追溯性,难以定位问题的根源,也无法确定责任归属,更遑论针对性地纠错。AI自主决策的不可解释性在对现有的法律框架提出严峻挑战的同时,也增加了社会的不稳定因素。五是AI决策的来源是数据,而目前占据主导地位的AI平台数据来源是基于欧美国家的语料库,在决策中有大量基于欧美政治、文化、意识形态生成的内容,造成其他国家、文化或民族价值观的混乱。

(三)大量数据共享与个人隐私保护

人工智能体的学习依赖信息的投喂,需要大量的数据支撑。由此引发的在物理和网络空间内对个人数据的大量收集成为隐私泄露的源头。在许多情况下,例如在健康数据方面,学术界、政府机构和私营部门都可以从共享数据中获益,以开发新药、降低成本和获得新见解。与之相对的是数据收集的乱象。个人用户在注册平台时会被要求填写同意平台的数据利用协议,大多数人为了使用平台不得不签署,但对其中的详细条例未加深究,个人隐私被窃取但一无所知。技术后台对数据赋予不同意义后另做他用,譬如信息买卖后衍生的网络诈骗、深度伪造、钓鱼攻击等。此种案例比比皆是,例如,图像及语音生成技术本可以惠及虚拟主持与播音,但是有人利用这一点,进行“换头像”和声音模拟,用来欺骗受害者的亲友,诈骗钱财;再如,生成式AI技术还涉及知识产权的保护问题,其大数据库的建构,会关涉许多现有的著述,但是著作权人很难维权。AI生成的虚假内容传播、不合理的用户协议导致个人隐私泄露、换脸技术应用于诈骗、自动驾驶事故频发等,机构用户如医疗机构、金融机构的敏感数据如果在AI技术应用时被收集,无疑会涉及人身、资产等安全问题。凡此种种,都显示了数据的边界在扩张、数据的应用在异化。

(四)AI不平等扩散危及公平正义

人工智能在世界范围内的不平等扩散会不可避免地造成国际范围内的公平正义问题,进而引发全球区域冲突。从国家层面上讲,由于不同国家在智能化应用方面的差距,人工智能带来的便利将较多惠及发达国家,而造成的负面影响较多殃及发展中国家。也就是说,如果一个国家或群体的数据没有在用于训练人工智能系统的数据集中被吸收利用,那么该系统就不会考虑该国家、该群体的需求,依赖该系统的产品和服务的好处只会流向一些人,而不会是所有人。全球面临的地缘政治冲突将急剧上升,数字秩序将日益分裂。在一些公开的社交媒体中,出现了智能跟帖、智能删帖、智能谣言等,对公共舆论进行操控,煽动颜色革命,带来了许多不安定因素。当人工智能被直接应用到军事领域时,AI武器的开发和应用,无疑会带来更大的杀伤力。2024年9月兰德公司发布的报告《人工智能军事应用的新风险和机遇》明确指出,部署军事人工智能可能会重塑不同国家之间以及国家与各类非国家行为体之间的力量平衡。[8]最终导致国家之间的不平等进一步加剧。就个人层面讲,所处环境中AI基础设施、软硬件设备条件上的差异,个人自身认知及能力差异,以及主流人工智能系统中的数据可能将某些个人或人群排除在外或代表性不足,使其无法充分享受人工智能提供的便利,从而加大数字贫困,形成数字鸿沟,引发所涉所有权利的不公平,进而上升至阶层矛盾。

(五)脑机接口应用威胁生命体安全

目前,数智技术的开发已经进入脑机衔接领域,这一方面有益于增加人类福祉,为脑病患者带来福音,比如由智能机器人做微创手术、开颅手术,对脑神经损伤以及智力消退等进行治疗。随着智能技术的发展,人类很可能会突破既有的医学伦理和法律规制,对人脑进行基因改造,实施脑机控制,甚至生产出生命体与物理体的结合产品,或者直接利用数智技术进行脑生物体的研发,并用于对自然人进行脑控制,窃取自然人的人脑机密信息。这在很大程度上并非危言耸听,已有先例。2024年1月,兰德公司的《瘟疫、半机械人和超级士兵:人类战争领域》报告阐述了脑机接口技术作为进攻性和防御性武器应用于作战的整体可行性,并给出了两个目前可实现的应用案例,其中一个就是某政府雇员通过白内障手术安装了一个含有微型摄像头的人造晶状体,并在太阳穴皮下植入电极设备,隐秘地实现对政府设施和敏感文件的泄露传输。另一个则是某80多岁的国家领导人因健康状况不佳、认知能力下降的传言面临艰难的连任竞选,因此通过大脑植入先进的脑机接口来加速移动和说话,从而伪装正常的生活和政治活动。[9]这意味着,脑机接口技术的应用可能成为未来网络攻击的新目标,包括向大脑发送错误指令或进行情绪操纵,在军事领域应用可能使机密情报被窃取或篡改等。人类有必要防患于未然,对此类行为加以生命伦理、数智伦理以及法律上的规制。

三、智能技术创新向度的规制

社会进步、国家安全、区域冲突、资本增值、文明转型等,一直是人类技术发展中的基本动因。且技术本身一旦出现就几乎无法回卷,只能引导不能绝对禁止,否则必然会转入地下,安全风险只会更高。技术革新、进步、发展的历程,也是逐渐从无序走向有序,从道德自律走向政策和法律规制的历程。人工智能伦理治理也不例外,需要各相关主体以伦理原则为指导,需要全人类,至少国家决策者、技术投资者、技术开发者、法律法规制定者达成共识,深刻理解人类命运共同体的内涵,才可能制定出真正有实效的伦理规制,解决科技发展面临的伦理与社会问题,其核心是促进人工智能朝向有益人类福祉和社会安康的方向发展。这包括三个方面的努力:道德层面、政策层面、技术层面。

(一)道德层面

此前有观点认为,未来人类媒介发展的极致就是破译自然人脑的秘密,生物基因技术与媒介技术融合,可实现对自然人智能的模拟和再造,实现人脑实体之间超时空的信息传输。[10]当下智媒技术发展的态势也表明,智能由物理体向生命体的转换正在实现。人类传媒文明发展的进程,正基于刻画文明→语言文明→书写文明→印刷文明→电子文明→数字文明[11]基础,向光子文明、智能文明迈进。在目前的数智技术开发中,人们已经逐渐认识到其已显现的或潜在的冲突与风险,但是,对其治理和规制多数还停留在学术讨论环节。就像一辆高速行驶的列车,在控制和刹车系统基本不存在的情况下不停地狂奔,危险系数不断增大。因此,制定一定的技术开发与应用的伦理规约十分必要。

资本主体、技术开发主体,是对数智伦理风险给予把控的第一主体,如何协调各方利益,制定合理的道德规约是重中之重。传统的伦理规约制定路径有规范伦理、实践伦理两种。前者关涉组织伦理、学者伦理等,由数智行业的伦理组织主导制定,后者则从属于相关的伦理学说,比如康德的三大道德原则、罗尔斯的无知之幕原则等。其中,罗尔斯的“无知之幕”主张,当消除了一切社会差异之后正义才能出现。就数智技术而言,当数智技术的开发与应用消除了一切社会差异时,其就具有了普适性。比如脑机接口技术的开发及应用,如果可以适用于所有的生命体,那它就具有道德上的可行性。但是,事实上,如果有人在利用脑机接口对其他人实施思想控制或进行信息窃取时,也就冲破了道德防线。社会差异在人工智能技术的推动下只会加大很难缩小。基于此,全球协会、组织对人工智能伦理的关注度在不断上升。

截至2024年8月,全球范围内多达106个国家、国际组织与地区推出了人工智能的相关治理规则,全球合作广泛展开。[12]2018年12月,欧盟人工智能高级专家组发布《可信人工智能伦理指南草案》,这也是全球首个专门针对伦理的规则范本。指南中提出,人工智能未来应满足7大原则,包括保障人类充分的自主权、技术的稳定性和安全性、数据安全和隐私、模型和算法的透明度和可解释性、公平和无歧视、自然生态和社会福祉的可持续性、可追责。[13]2023年3月,联合国教科文组织号召各国立即执行其于2021年11月发布的《人工智能伦理问题建议书》[14],其核心价值同样集中在人权和人的尊严、和平公正互联的社会、多样性和包容性等。2024年5月17日,英国政府发布了由来自30多个国家和地区的75位人工智能专家共同完成的《关于先进人工智能安全的国际科学报告(中期报告)》。报告重点关注了通用人工智能的能力和风险,并评估了缓解这些风险的技术方法。[15]2024年7月4日,世界人工智能大会暨人工智能全球治理高级别会议发表《人工智能全球治理上海宣言》,呼吁推动制定和采纳具有广泛国际共识的人工智能的伦理指南与规范,引导人工智能技术健康发展,防止其被滥用。[16]

(二)政策层面

根据最新的统计数据,全球AI市场规模已经超过5000亿美元,未来数年将以超过30%的年增长率迅猛发展。[17]巨大的商业利益让该领域研究者一边忧虑,一边冲刺,对伦理反思的动机、动力不足。如果没有国家主导的外部监管机关进行审查和约束,靠行业协会进行伦理自治大概率会流于形式,对规避风险和危害的作用较小。在全球范围内,AI伦理治理也由AI技术发展大国来主导。

中国自2021年以来制定了一系列关于AI的法律,《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件,明确提出八项原则,强调将伦理道德融入人工智能全生命周期。[18]在特定领域如内容生成和算法推荐方面制定了法规,如《互联网信息服务算法推荐管理规定》旨在保护移动应用中的用户权利,禁止假账户和操纵流量数字;《互联网信息服务深度合成管理规定》对AI生成的内容进行监管,对生成合成类算法进行规制。

美国的AI法规更倾向于分散和特定行业的法规,强调自愿遵守,确保美国在人工智能研发方面的领导地位,有原则和指导方针,但缺少细化的法规。白宫、国会和联邦机构提出了一系列与AI相关的倡议、法律和政策,但强调的是如何将现有法律应用于AI技术,而不是应用新的、专门针对AI的法律。在州级政府层面上指向相对明确,如新罕布什尔州通过了禁止使用深度伪造的法律,并建立了欺诈性使用深度伪造的犯罪行为和处罚。

欧盟自2021年4月21日首次提出《人工智能法案》以来,便积极推动该法案落地,历时3年,于2024年5月推出《欧洲人工智能法案》,此法案采用“基于风险”的方法,风险越高,对社会伤害越大,规则就越严格。相较来说,欧盟的AI法案涉及面较为广泛,是全球首部人工智能领域的全面监管法规,有可能成为全球AI监管的基准。

可以看到,目前全球各国都在积极寻求应对AI伦理风险的路径和规范,以保证人工智能的良性发展,有研究基于数据集统计不同类型人工智能治理文本的发布情况,发现对人工智能治理的相关文件具有不同阶段的特点。2016—2020年间,以促进发展为目的的政策原则在全球范围内普遍展开,与之同步的是伦理宣言、共识文件的密集签署与发布。2020年后,具有强制力的法律法规和产业界执行落实的标准化文件推出密度增大,在2021年达到历史性的新高。这说明,对人工智能伦理问题的治理,相对于早期只看利益的无序发展,目前全球在一定程度上达成了共识。但人工智能伦理领域所涉及的内容和概念非常广泛,涉及研发、应用的全环节,解决AI伦理问题的手段方法大多还处于探索性研究阶段。

(三)技术层面

由于AI深度参与社会的各个领域,与传统伦理约束相比,AI技术创新的规制还需要技术的强势参与来实现。所谓以子之矛攻子之盾,以技术反制技术,可能是人工智能伦理治理的最快捷、最有实效的方案。政府可以敦促技术开发者推进各种智能技术与其他治理技术相互融合,发挥智能技术强大的感知能力、传输能力和计算能力,做到精准治理。[19]目前已经通过技术所做出的规制方法包括但不限于:(1)伦理原则的技术化。将伦理原则转化为工程问题,用技术工具推动伦理原则落地。例如,通过数据筛选、算法设计、模型优化等技术手段,将伦理原则嵌入人工智能应用与产品中。[20](2)积极发展AI产品伦理风险评估监测工具,推动应对AI偏见歧视、隐私泄露、不可解释等伦理风险的技术工具研发。(3)加强算法的安全性、可解释性、公平性的人工智能算法研发,以及数据集异常检测、训练样本评估等技术研究。(4)利用类似于网络安全漏洞赏金的技术众包方式,如算法歧视赏金等,发现、识别、解决AI伦理问题,开发AI审计工具。(5)采用自动检测系统来检测偏差、漂移、性能和异常,并设置当模型偏离其预定义的性能参数时发出警报。(6)建立可信AI的架构,将伦理和法律纳入设计,保证系统的可解释性,加强对系统的测试和验证。[21]

上述技术方法只是AI治理技术框架的一部分,随着AI的不断进步和演化,需要进一步加强对建立可信人工智能的要求及技术治理方法实操性,使技术层面的规制越来越符合人类对于AI伦理治理的要求,确保AI技术的发展符合社会公共利益,最终达到维护社会的稳定安宁、公平公正的目的。

四、结语

技术进步、社会发展、文明转型具有深厚的客观理据和主观动因。目前对于人工智能这一仍在高速发展的技术,各方虽有共识但也有异见,处在一种微妙的平衡与妥协中。一方面,人工智能将带来巨大的经济和军事利益,过于限制可能会造成技术发展的停滞,出于对可能阻碍经济发展、社会进步以及自身国际地位的担忧,政府、资本方、技术开发方都不愿轻易尝试使用强力的法律限制,付出落后、被动的代价;另一方面,各国都清楚地认识到放任技术发展势必会带来各种社会的不安定因素,可能会引起公众的强势反弹,诱发各种犯罪甚至暴乱。

正如学者彭兰所说,通过技术发现、弥补人的能力局限,通过人的力量来纠正机器的偏狭与误区,才是人工智能的要义。[22]人工智能本质上的工具属性要求人工智能的发展应确保不损害人作为人的基本尊严,并以增进社会福祉为根本目的。[23]智能化社会的未来,急需思想的解放和技术创新的胆识,但同时也需要人文情怀以及法治思维,从而降低科技生产力发展与社会安全、国家安全、文明安全产生冲突的风险。令人欣慰的是,对AI伦理的研究在不断深化和拓展,有学者借鉴经济学上的索罗悖论,认为当前新技术应用过程暴露的伦理问题是“技术创新伦理周期”的阶段性特征。这一过渡期既是技术的升级更新、监管和约束机制及时补位和调整的过程,也是公众科学素养提高的过程,是技术创新周期与系统性规范体系动态演进过程的正常现象。[24]公众可以辩证地看待生成式人工智能发展,并缓解对技术创新的焦虑。

注 释:

①卢德主义是指对新技术和新事物的一种反抗。卢德分子其实也不反机器与新技术,他们反的是机器与新技术带来的失业。

②数据来源:教育部。

参考文献:

[1]武屹,方小枝.合肥人工智能产业基础研究战略选择探讨[J].赤峰学院学报(自然科学版),2024,40(7):39-43.

[2]国务院关于印发新一代人工智能发展规划的通知[EB/OL].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.

[3]陈芳,余晓洁,胡喆.大智能时代的关键之举:五问AI国家战略[EB/OL].http://news.xinhuanet.com/politics/2017-07/21/c_1121360911.htm.

[4]陈汝东.论国家传播伦理秩序发展的新向度[J].人民论坛·学术前沿,2017(6):86-92.

[5]张峰豪,马建光.人工智能驱动下的新型作战力量[J].军事文摘,2024(13):11-14.

[6][机器人频道大V说]麦肯锡160页报告:2030年8亿人工作将被机器人取代[EB/OL].https://www.sohu.com/a/340870812_99946933.

[7]周至禹.人工智能系统及产品设计的伦理问题探究[J].创意与设计,2019(1):23-30.

[8]兰德公司发布:《人工智能军事应用的新风险和机遇》[EB/OL].https://m.163.com/dy/article/JFMFMUPQ0514R8DE.html.

[9]美国脑机接口军事应用进展及涉我风险[EB/OL].https://www.secrss.com/articles/67720.

[10]陈汝东.未来传媒发展趋势:一种媒介史的视角[J].人民论坛·学术前沿,2017(23):15-20.

[11]陈汝东.未来传媒发展趋势:一种媒介史的视角[J].人民论坛·学术前沿,2017(23):15-20.

[12]方师师,叶梓铭.人工智能伦理治理的全球图景:多维特征与实践要素[J].青年记者,2024(10):107-112.

[13]王恺乐,陈云伟,熊永兰.人工智能监管政策与措施的国际比较及启示[J].世界科技研究与发展,2024,46(4):456-468.

[14]陈戈.类ChatGPT亟需加强监管[J].中国信息界,2023(2):36-37.

[15]《先进人工智能安全国际科学报告》:中期报告[EB/OL].portal.nstl.gov.cn/reportFront/getReportDetailFront.htm?serverId=221amp;uuid=9875509b074c7121c

08e562a1a9925eamp;controlType=openhome.

[16]夏小禾.工信部:让传统产业“老树发新芽”同时构筑未来发展新优势[N].机电商报,2024-07-29(A01).

[17]IDC:中国生成式AI投资增长加速,五年复合增长率达86.2%[EB/OL].https://www.idc.com/getdoc.jsp?containerId=prCHC51997124.

[18]旷视回顾全球十大AI治理事件,技术与伦理安全如何进行落地[EB/OL].https://www.thepaper.cn/newsDetail_forward_5468911.

[19]人工智能的伦理挑战与科学应对[EB/OL].http://theory.people.com.cn/n1/2023/0410/c40531-32660490.html.

[20]多措并举推进我国算法治理[EB/OL].http://www.rmlt.com.cn/2022/0620/649818.shtm.

[21]多措并举推进我国算法治理[EB/OL].http://www.rmlt.com.cn/2022/0620/649818.shtml.

[22]于飞.全球视野下新闻业智能传播的革新与挑战[J].上海广播电视研究,2024(4):115-122.

[23]张平.人工智能伦理治理研究[J].科技与法律(中英文),2024(5):1-12.

[24]雷宏振,刘超,兰娟丽.论生成式人工智能的技术创新伦理周期:以ChatGPT为例[J].陕西师范大学学报(哲学社会科学版),2024,53(1):97-107.

作者简介:陈汝东,北京大学新闻与传播学院教授、博士生导师(北京 100871);李净,《中国传媒科技》编辑部主任(北京 100031)。

编校:董方晓

标签:  人工智能 

免责声明

本文来自网络,不代表本站立场。如有不愿意被转载的情况,请联系我们。

iidomino cuppor