算法推荐新闻的潜在风险及法律规范路径

known 发布于 2025-08-11 阅读(489)

【摘要】算法推荐新闻改变了传统的新闻信息分发模式,实现了对用户需求的精准推送,成为信息过载时代搜索信息的重要工具。从系统架构上看,算法推荐新闻主要分为三个要素:用户、新闻与推荐引擎(算法),包括基于内容的算法推荐和协同过滤的算法推荐两种模式。对于工具理性的过度依赖导致算法推荐新闻存在三个方面的潜在风险,即传统监管理念乏力、侵犯用户信息自决权、民事行政责任承担不明确。在法律规制层面,应当采用事前“穿透式”监管理念、保障用户信息自决权、完善法律责任规范体系,以确保算法推荐新闻价值理性的回归。

【关键词】算法推荐新闻;底层逻辑;潜在风险;规范路径

随着算法推荐技术的快速发展,引发了新闻传播范式的变革,新闻传播进入更加扁平化、精准化阶段。算法推荐在推动新闻传播革命式变革的同时,理论学界也提出一定的质疑。有学者从伦理角度认为,算法推荐技术会导致“信息茧房”,加剧群体极化现象[1];在法律性质上,有学者认为算法推荐行为属于网络服务行为[2],算法推荐技术会对用户隐私权构成挑战。[3]囿于算法技术自身的局限性,算法推荐新闻不仅造成一定的伦理问题,而且也存在部分法律风险。因此,应当对算法推荐新闻中的法律风险进行审视,管窥其中的困境与挑战,同时采用法律规制路径对算法推荐新闻进行治理,以保证算法推荐真正成为新闻传播的有力工具。

一、算法推荐新闻的底层运行逻辑

算法推荐新闻的底层逻辑设计与传统的新闻专业规范完全相反,传统新闻专业规范中,新闻的选择权由专业的编辑行使,由编辑对新闻内容进行价值判断。但在算法推荐新闻机制下,通过对用户行为习惯和社交图谱的构建,实现对用户需求内容的精准化推荐,阅读何种新闻的选择权不再依赖专业新闻工作者的价值判断,新闻选择权逐渐从新闻工作者转移到算法与用户,新闻推荐权利发生了转移。

从系统架构上看,算法推荐新闻主要分为三个要素:用户、新闻与推荐引擎(算法)。目前主要存在两种算法推荐模式:基于内容的算法推荐(Content-based Recommend,CB)与协同过滤的算法推荐模式(Collaborative Filtering,CF)。基于内容的算法推荐模式主要考虑新闻的相似度;协同过滤推荐算法在新闻推荐领域应用更加广泛,其本质是一种依据用户与项目间交互行为数据来执行信息筛选的方法论。该算法细分为用户协同过滤(User-based CF)与项目协同过滤(Item-based CF)两大类别,在用户协同过滤中,主要运用均方误差、皮尔逊相关系数等度量手段来评估用户间的相似程度,随后通过设定阈值或采用Top-N推荐策略来确定社交矩阵的范围,最终依据用户间的相似性来实现新闻信息的交叉推荐,向用户推送其可能感兴趣的新闻内容。基于项目的协同过滤机制一般采用余弦向量方法计算新闻项目之间的相似度,获取不同新闻项目之间的相似关系。但无论是基于内容的算法推荐,还是协同过滤的算法推荐,都无法解决数据稀疏性与冷启动的难题。

随着人工智能技术的进一步发展,深度学习开始逐渐运用到算法新闻推荐中。在新闻推荐中,深度学习技术不仅可以通过非线性网络结构,提取新闻内容和用户兴趣的深层次特征,而且能够融合蕴含用户兴趣的多源异构辅助性信息,从而缓解新闻推荐中的数据稀疏和冷启动问题。在深度学习下,越来越多的权重因素被加入神经元之中,算法推荐新闻更好地拟合、预测用户的行为和心理,分析预测结果的准确性得到大幅度提升。

二、算法推荐新闻的潜在风险审视

(一)算法推荐传统监管理论乏力

在互联网经济迅速发展的浪潮下,为避免企业发展的创新性和法律标准滞后性之间的矛盾,我国始终采用包容审慎的监管原则,互联网企业基于科技创新享受大量的政策红利,监管的部分失位使互联网企业攫取了巨额利润。如从2012年起,我国P2P平台开始迅速扩张,高峰期运营平台达到5000家,但是非法集资、诈骗等现象层出不穷,导致居民财富流失,对我国金融生态造成强烈冲击。在传统监管理论下,算法推荐新闻主要存在以下三方面的问题。

其一,在监督治理节点上注重事后监督。从互联网经济发展至今,“先做后批”成为普遍现象。算法具有准公权力属性,平台操控舆论时常发生,并且算法本身的局限性,算法偏见使用户陷入信息茧房,算法黑箱导致主流价值观缺失。若一味注重算法平台企业的事后监督可能会进一步导致算法损害的弥散化,出现不可控的局势。

其二,重视平台的行为监管,忽视了要素监管。传统监管理论认为,应当以平台的外部行为为直接监管对象,仍然遵循“主体—行为—责任”的传统思路,但是在算法自动化运行的状态下,算法平台常以失去“控制力”等为由进行抗辩。仅以行为和损害后果为监管对象已经不能满足技术发展的实际状况,算法作为平台的生产要素,已经深度嵌入企业的日常运营之中,算法监管的本质应当移位生产要素监管,加强算法审计、算法备案等相关工作。

其三,过度重视企业的内部自律。在互联网监管的早期阶段,平台一直以企业的法律角色出现,政府始终呼吁企业自律,主张平台的监管目标通过企业自律的形式完成,导致平台和监管部门都认为,平台内部的自我监管从效率、正当性上都要优于政府监管。虽然不能否认企业内部监管的优越性,但是过度重视企业的内部自律,缺乏外部监督,极易导致企业为了“利益”铤而走险,造成重大风险。

(二)算法推荐侵犯用户信息自决权

个人信息自决权是指个人依照法律控制自己的个人信息并决定是否被收集和使用的权利。[4]个人信息自决权始于德国“人口普查案”,并通过“IT-Grundrecht案”进一步补充确定。我国在个人信息保护上,一直坚持以个人信息自决为基础,并创建了告知—同意的权利对称机制。但就实际情况而言,我国目前个人信息自决权的基础较为薄弱,无法形成有效代表个人自主意志信息收集和使用的判断,不能体现用户对个人信息的自主意识。对用户信息自觉权的侵犯主要体现在两个方面。

其一,推荐算法侵犯用户个人信息。无论是基于内容的新闻推荐机制,抑或是协同过滤推荐机制,算法均需要访问用户的历史浏览记录以及相关数据,并通过数据进行建模,以实现新闻与用户之间的匹配。在抓取数据过程中,一定程度上不可避免地会侵犯用户的个人信息。在算法技术的介入下,平台侵犯个人信息的方式较为隐蔽,用户无法意识到新闻聚合平台正在收集其个人信息,甚至当新闻聚合平台利用大量的个人信息谋求巨额的商业利益时,用户也毫不知情。对于用户而言,甚至会主动贡献自己的个人信息,以获取搜索的便利。

其二,告知同意规则流于形式。告知同意规则是《个人信息保护法》赋予平台处理个人信息的合法性基础,在告知同意规则体系下,平台应当告知用户信息处理的范围、方式和目的,并征得用户同意,但现阶段大部分平台提供的个人信息保护条款类似于格式条款,用户难以理解其中含义,概括性的授权和同意并不符合个人信息处理规则的相关规定。

(三)民事责任与行政责任承担不明确

从规范角度看,我国《网络安全法》所规定的平台责任并不是严格责任,而是一种过错责任,主观过错是平台承担民事责任或者行政处罚的基本构成要件。在民事责任认定上,当发生损害后果时,用户追究平台的法律责任必然审视平台的过错,但在主观过错的认定机制下,又存在“技术中立”与“主体责任分离”的困境。首先,追究过错责任要面临“技术中立”的抗辩,如“今日头条”张一鸣始终强调算法并没有价值观,“今日头条”不设立总编辑,试图以技术中立、不存在主观过错为缘由避免承担法律责任。国外也有研究学者认为,算法遵循的是预先选择的程序,而不是及时的判断[5]。其次,平台始终主张,要注意区分内容服务提供者和网络服务提供者,算法平台属于网络服务的提供者,仅具有传输介质属性。主观过错认定的障碍导致危害结果发生后对平台追责的效果并不理想。

在行政监管领域,算法责任承担亦不明确。法律法规层面,《算法推荐管理规定》在第三十一、三十二、三十三条中规定了算法推荐服务提供者应当承担的法律责任,但是规定较为粗线条,并不具备实际的可操作性,进而导致在实践中随意执法、执法标准不统一,有的平台被顶格从重处罚,有的平台仅仅被责令限期改正。责任体系的混乱造成平台与监管部门双输的局面,从平台角度看,是否承担法律责任在于是否开展了相关的专项治理活动,互联网企业常担忧不可预测的运动式执法带来的行业寒冬,长期因恐惧而丧失创新动力[6],就监管部门的角度而言,运动式的随意执法并不符合比例原则,丧失了执法的权威性。

三、算法推荐新闻的法律规范路径

(一)采用事前的“穿透式监管”理念

穿透式监管概念来源于互联网金融监管领域,在监管理念上主张由最少监管转变为实质监管,穿透事物表象获取真实信息和事实发现,以此弥补因创新带来的监管漏洞。[7]从算法推荐新闻的底层运行逻辑看,算法技术在新闻推荐应用中具有底层架构地位,如果缺乏对技术运用的节制,技术运用的不规范和对技术的过于倚重,技术的副作用就可能被放大。[8]穿透式监管理念主张采用侵入式的监管措施穿透企业内部技术的外衣,直抵平台的内部算法技术,增强推荐算法的透明度,一定程度打开了算法黑箱。对算法技术穿透式监管的本质要求算法推荐平台将内部生产信息以可视化形式转化为行政监管的决策信息,增强算法平台内部信息披露与内部行为的干预,主要表现为在事前加强算法备案和算法审计。

在算法备案方面,注重核心算法备案。《算法推荐管理规定》第二十四条规定,具有舆论属性的算法推荐服务提供者应当履行备案登记手续,备案信息发生变更的,应当在变更之日起十日内办理变更手续。但算法每年的更新次数能达到成百上千次,苛求算法企业对每一次算法更新进行备案不仅会增加算法平台的生产负担,也会导致行政机关的监管负担过重。因此,应当将备案的重点放在核心算法上,核心算法变更直接影响了算法推荐结果,且变更次数相对有限,例如谷歌在2023年对其算法完成了四次核心更新,2024年进行了三次核心更新,对核心算法更新进行备案更具有针对性和可操作性。

在算法审计方面,建立第三方算法评估审计机制。算法审计是在算法运行前对其合规性、正当性进行考察的活动,世界各国在立法中多次提及算法审计制度,美国纽约州立法明文规定,招聘算法必须进行年度算法审计;广东省印发《广东省首席数据官制度试点工作方案》,组建了由政府副职领导构成的首席数据官,并明确了首席数据官的职责范围等。为此,可以建立由行业协会、公众代表、算法工程师、法律职业人员组成的算法审查委员会,经算法委员会事前审查发现,新闻推荐算法存在侵犯用户信息权益、算法偏见等法律风险时,有权要求算法平台进行改正,拒不改正的将否定性的审计结果上报网信、市场监管等部门,对其依法作出处理。

(二)保障用户信息自决权

作为新时代的一种新型权利,信息自决权在法律上逐渐获得基本权利资格。在信息论视野下,个人信息并不是一组客观的数据,而是一种信息化的能力,它具有封装和支配数据的能力,可以不断把数据转化为信息,并且赋予其时代意义,保护公民个人信息自决权就是保护人的主体资格。用户个人信息具有价值差异,若强调对所有用户信息自决一视同仁,采用同样的规制手段,无疑会极大增加平台成本,降低企业运行效率,遏制产业发展,要采取区分原则,注重加强算法推荐中的用户敏感信息自决权。《个人信息保护法》第二十八条对个人敏感信息作出规定,并将敏感信息类型化,对敏感信息保护提供强有力的制度基础。《互联网信息服务算法推荐管理规定》作为算法推荐的专门行政规章,其中并未对算法推荐领域的敏感信息进行专门界定,因此,应当以《个人信息保护法》为依据,在算法推荐新闻领域对个人敏感信息进行细化,区分算法推荐新闻中的一般信息和敏感信息。在算法设计阶段,将保护用户信息自决的价值理论与计算机代码相结合,以嵌入式的方式将法律保护个人信息的基本理念植入算法设计中。坚持最小必要性原则,其是个人信息保护的重要价值理念,其中包括目的必要性和手段必要性。目的必要性要求算法新闻聚合平台收集个人信息必须具有明确合理的目的,且限于实现目的的最小范围,手段必要性要求新闻聚合平台在收集个人信息的方式上尽可能减少对用户造成的负面影响。通过法律价值理论对算法设计的指引,加强个人信息在技术源头的法律保护。在算法应用阶段,完善告知同意规则,针对个人信息类型,采用不同的告知同意规则。一般个人信息可以采用概括性告知和授权的方式,但是对于个人敏感信息,新闻聚合平台应当履行严格的告知义务,保障用户的知情权。在告知内容上应当包括算法推荐涉及的敏感信息类型,运用该类型敏感信息的目的,以及对公民可能造成的影响。在告知方式上,应当采用显著的告知方式,对相关条款进行标红、加黑等形式提醒用户。

(三)完善法律责任规范体系

曾有多位学者对人工智能技术表示过担忧,认为人工智能可能会对人类的生存空间产生威胁。算法作为人工智能的核心运作机制,如果采用过度苛刻的规制手段,可能会扼杀算法平台的自主创新性,阻碍算法产业的发展,但过度的包容又会导致一系列的法律与伦理问题。因此必须在促进算法产业发展和规制算法之间找到平衡点,而平衡点的关键在于算法是否需要承担法律责任。20世纪90年代,拉图尔在卡龙的基础上提出“行动者—网络理论”,这里的行动者既可以指人,也可以指非人的存在或者力量。弗洛里迪和桑德斯基于行动者互动关系角度,将交互性、自主性、适应性作为智能技术是否应当承担伦理责任的标准[9]。由于目前人工智能技术发展仍然处于弱人工智能阶段,算法虽然满足了交互性标准,但是并未满足自主性和适应性的要求,因此从弗洛里迪和桑德斯的观点看,算法并不能独立承担法律责任。

在民法规范责任体系下,算法不能独立承担法律责任是否意味着算法不需要承担法律责任?答案自然是否定的,算法可以在责任能力内承担有限责任。有学者认为可以赋予算法有限的法律人格,在二元权利结构中创造中间地位,根据代理理论,将算法视为新闻聚合平台的智能代理人,明确智能代理人具有部分权利能力。智能代理人不是人,但是它仍然可以承担与其服务职能相一致的部分权利能力。[10]赋予算法有限的法律人格是要求算法承担法律责任的基础。算法是由一系列的计算机代码所组成,并不具备实体财产,那么算法如何承担侵权责任?可以借鉴机动车交强险相关机制,要求新闻聚合平台为算法购买强制性保险,在发生侵权案件后,由保险赔付算法所应当承担的责任。新闻聚合平台设立赔偿基金进行补充,保险赔付不足以弥补被侵权人损害的,由赔偿基金进行补足。这种设置有效避免了平台所提出的“技术中立”抗辩,无论技术是否中立,新闻聚合平台作为推荐算法的智能代理人都应当承担侵权责任。从举证责任出发,《侵权责任法》第六条、第七条确定了由过错责任和无过错责任组成的侵权责任规则体系。若适用过错责任,被侵权人应当就算法和平台的过错承担举证责任,但是在技术限制下,被侵权人难以在复杂的代码和算法中识别过错,苛求被侵权人承担举证责任困难重重。因此,可以借鉴《个人信息保护法》中过错推定的规定,转移举证责任,由新闻聚合平台对自身行为的无过错承担举证责任,减轻被侵权人的举证责任压力。

在行政法律责任规范体系下,追究平台的责任主要表现为对平台处以何种行政处罚。具体而言,《算法推荐管理规定》中的法律责任较为模糊,存在不确定法律概念。例如《算法推荐管理规定》第三十一条规定,拒不改正或情节严重的,责令暂停信息更新,并处一万元以上十万元以下罚款。行政处罚本质属于行政机关的自我裁量,通常由要件裁量和效果裁量构成,在该条款中,拒不改正和情节严重属于要件裁量,责令暂停信息更新与一万元以上十万元以下罚款属于效果裁量,要件裁量是行政处罚的前提,拒不改正属于明确的法律概念,但是其中的“情节严重”却属于不明确法律概念,应当如何界定?在效果裁量中,一万元以上十万元以下的处罚空间幅度赋予行政机关较大的行政处罚裁量权,极易造成行政处罚畸轻畸重的情形。李强总理在国务院第十一次专题学习中明确指出,要围绕法治政府建设,建立健全行政执法标准规范,落实行政裁量权基准制度,针对基准覆盖不全面的问题,抓紧完善相关领域的裁量权基准。随意执法、运动化执法、行政执法责任体系混乱的本质原因在于缺乏明确的执法依据,对此网信、市场监管等相关部门应当及时在《算法推荐管理规定》的基础上,考虑新闻聚合平台违法行为和可承受能力范围,依据“过罚相当原则”细化处罚限度,针对要件裁量中不确定法律概念进行解释,明确处罚依据,从而建立明确的行政处罚责任规范体系。

四、结语

算法推荐技术引起了新闻传播领域的重要变革,对用户进行赋权,满足了用户的个性化需求,推动了新闻传播向扁平化、精准化阶段发展。尽管目前算法技术在法律层面存在诸多潜在风险,但是人工智能技术与新闻传播深度耦合是未来不可避免的发展趋势。因此在方针政策上对算法推荐新闻应当采取包容、审慎的态度,一方面要积极推动算法推荐新闻发展,另一方面要加强算法推荐新闻的法律规制,采用事前的穿透式监管理念、保障用户的信息自决权、完善民事行政法律责任规范体系,以保证算法推荐新闻在合法的轨道上顺利推进。未来,随着强人工智能时代的来临,算法的交互性、自主性、适应性水平进一步提高,人们接收新闻的途径将更加便捷,法律风险也会更加多元,相应的法律规制措施应当与技术保持一致,进行动态调整。

[本文为2024年新疆维吾尔自治区高校基本科研业务费科研项目“人权保障视角下新疆数字法治政府建设的内涵、价值与路径研究”(XJEDU2024J018)的阶段性研究成果]

参考文献:

[1]杜娟.走向人机协同:算法新闻时代的新闻伦理[J].新闻爱好者,2019(9):21-25.

[2]刘文杰.算法推荐新闻的法律透视[J].新闻记者,2019(2):22-29.

[4]张文祥,杨林.新闻聚合平台的算法规制与隐私保护[J].现代传播(中国传媒大学学报),2020(4):140-144+154.

[4]王利明.论个人信息权在人格权法中的地位[J].苏州大学学报(哲学社会科学版),2012(6):68-75+199-200.

[5]马特·卡尔森,张建中.自动化判断?算法判断、新闻知识与新闻专业主义[J].新闻记者,2018(3):83-96.

[6]张凌寒.网络平台监管的算法问责制构建[J].东方法学,2021(3):22-40.

[7]张凌寒.平台“穿透式监管”的理据及限度[J].法律科学(西北政法大学学报),2022(1):106-114.

[8]刘海明.算法技术对传统新闻理念的解构与涵化[J].南京社会科学,2019(1):117-124.

[9]FLORIDIL,SANDERS JW.On the morality of artificial agents[J].Minds andMachines,2004(3):349-379.

[10]彭诚信.人工智能与法律的对话[M].上海:上海人民出版社,2020:148.

作者简介:申艳红,新疆大学法学院教授、博士生导师(乌鲁木齐 830046);赵宣,新疆大学法学院博士生(乌鲁木齐 830046)

编校:张红玲

标签:  算法 

免责声明

本文来自网络,不代表本站立场。如有不愿意被转载的情况,请联系我们。

iidomino cuppor