权力运行不见阳光,或有选择地见阳光,公信力就无法树立。
另外,从理论上讲,高级人民法院主要的职能还是审判以及通过审判实现层级监督,履行职能的主要形式还应当是裁判文书,而不是制定发布抽象的规范性文件(包括其他的规范性文件),因此,需要将实践中其发布其他的抽象规范性文件纳入视野,才能更好地分析这种现象。[viii]学者称其为地方法院的规范性解释、[ix]规范性文件。
[iii]参见姚魏:《地方两院规范性文件备案审查的困局及纾解---以法律效力为中心的制度建构》,《政治与法律》2018年第11期。2016年发布了《2016年全(G)省法院司法改革工作要点》《G省高级人民法院贯彻落实关于完善人民法院司法责任制的若干意见的实施意见(试行)》《关于做好试点法院法官员额工作的意见》。二、高级人民法院发布抽象规范性文件的现实因素 应该看到,高级人民法院通过发布抽象规范性文件进行治理有其一定现实因素,这主要表现在以下几个方面。不过,笔者注意到,美国等国家最高法院制定抽象规范性文件主要还是程序性的,而非实体性的,这么做的主要考虑是这些规则具有高度的技术性和专业性,由最高法院在总结联邦各级法院的基础上制定这些规则,最为有利,[xiii]但规则需经国会批准后才能可生效。高级法院承担一些行政性职能,落实地方党委的政策和要求是无可厚非的,但如果上下级法院之间的审判业务的监督与被监督关系受到行政化的影响,导致本已存在的行政化倾向更加明显,这就有违司法改革的初衷了。
[xv]按照实务部门的说法,我国的高级人民法院承担了政治功能、法制统一功能、层级监督功能、对行政权的监督功能。无论哪一种形式,审判权的行使都必须与具体的个案相结合,通过只具有个案效力的裁判文书来体现,法院可以在具体的个案中对法律进行理解和解释,在某种意义上甚至还可以扩展法律的内容,但不能够发布抽象的规范性文件,这正是审判权与以发布抽象的规范性文件为主要形式的立法权在根本上的不同。一项对2009年德国联邦选举中推特言论影响的研究也得出了类似的结论。
新兴权力变化影响了言论自由的保护方式。算法社会言论的公共风险,并不只表现为作为结果的言论内容的极端化,而是蕴藏于言论生成的整个过程,包括信息同温层、封闭的言论社群,乃至算法对不同信息的分配权重。同时,算法影响着言论表达的效果,其排斥、涵盖、排名的权力决定着哪些公共印象是永久的,哪些是短暂的,言论表达的最终结果都可转化成数据进入算法的新一轮信息分配过程。即使推崇代码即法律的莱斯格教授也不得不承认,代码组织运行的网络空间同样存在国家权力的影子,政府可以通过直接管理互联网信息服务提供商(ICPs)和互联网接入服务提供商(ISPs)的方式达到间接管理网络的目的。
所以,本质上,被遗忘权是一项具有过程性规制属性的设置,只不过在立法技术上将之设定为一项请求权,以便更好发挥个体主动性,对平台形成有效制约。平台可以直接作用于言论的主体,国家则通过其他主体或政策机制对言论主体施加间接影响。
对言论自由而言,言论主体的身份凝聚了其社会关系和社会地位,这些与主体的思考方式密切相关。伴随信息割据而来的,是言论社群渐加剧的封闭倾向。通过增加算法透明度展现代码程序的价值偏好,防止通过算法进行价值引导并裹挟舆论。同时,它改变了行为主义规制下的个案审查,将规制范围覆盖所有接触相关信息的言论社群,通过打破言论社群的封闭状态,鼓励言论社群内部以及不同言论社群之间的沟通交流,避免社群的极端化倾向。
此外,实体规制本质上是基于言论内容的规制,极易引发合宪性危机。事实上,是否识别身份这一特征的作用范围远远超出民事权利的保护,它通过数据种类划分建立相对隔离的数字空间,主体可以据此决定是否以及如何与社会发生联系。传统言论规制在算法社会的延伸,尽管已经考虑到采用过滤软件等符合网络技术特征的规制工具,但它们仍旧是从行为主义的规制方式出发的,难以回应算法技术的需要。平台作为一种重要的新兴社会组织形态,横亘于政治国家与公民个人之间,一方面对传统公权力形成一定程度上的制衡,缓冲国家对个人权利的直接冲击,为言论自由实现提供相对宽松的空间。
如果说上文信息同温层揭示的是网络言论场的自然状态,那么此处两个典型案例反映的则是对网络言论场的有目的、有计划的干扰与控制。在国家法律强制和有效监管下,主体通过行使被遗忘请求权,平台通过删除数据痕迹使言论主体的数据画像得以更新,言论主体的信息接收和言论表达方能打破言论回声室,进而摆脱陈旧信息。
面对算法带来的公共风险和以平台为代表的社会权力对言论的威胁,国家权力在言论自由领域应变传统的消极角色为积极角色,积极履行规制职责。同时,它们跟随关注叙利亚事件的用户,并在讨论中插入无关信息,扰乱他们对内战的严肃讨论。
因此,国家必须确保言论特别是公共性言论的自由健康表达。其次,信息割据容易造成群体极端化,冲击社会稳定结构。言论主体的数据化人格决定了算法对信息的分配,算法对信息的分类、聚类等必须以数据为基础。平台并不会主动化解言论公共风险,造成风险的技术要素和集聚效应反而可以为平台带来利益。(二)过程性规制可避免技术难题和宪法风险 过程性规制是国家为了规避算法社会言论风险,以平台为主要规制对象,对以数据与算法为主要内容的言论表达与传播过程进行的规制。以社交平台在欧洲的境遇为例,如果不制定禁止仇恨言论的政策或纵容此类言论,不但用户可能会放弃使用脸书,平台还可能因此面临巨额罚款。
过程性规制主要是确保算法价值观的平等和网络空间的开放,过程性规制一方面可降低国家干预的宪法风险,另一方面也能更为有效地破解言论领域的公共风险。平台聆听纠纷各方的主张和申辩、解释并适用平台言论规则,甚至可以做出具有实质意义的裁判结论,包括删除相关言论乃至禁言。
算法技术深入生活各领域,并通过计算不同主体在地域、职业、生活习惯等因素上的重合,实现具有相同信息偏好的主体交叉,在增加了信息来源与信息结构复杂性的同时,将言论与社交、娱乐、消费等诸多社会领域深层融合。而平台的出现,则暗合了近代以来社会组织与政治国家的分化趋势,塑造了一个相对自由和开放的言论空间。
(2)管理用户活动数据,知悉传播主体的行为。(一)网络言论中的国家权力在场 传统上国家权力对言论领域事务的管理主要借助于对信息传播有限资源的配置来进行。
在布朗诉娱乐协会案中,美国联邦最高法院认为视频游戏受宪法第一修正案保护,判决禁止在没有父母同意的情况下向儿童出售暴力电子游戏的法律违宪。过程性保护并不保护特定信息来源,或对某一种言论持有偏见。面对复杂多样的言论类型和内容,对言论自由的个体化理解,不仅容易造成实践中的权利滥用,也丧失了定义国家干预正当性以及权力边界的机会。本文原载于《华东政法大学学报》2019年第6期。
虽然算法技术是中立的,但设计和运用算法技术的平台却有各自的利益考量,平台并不会主动成为言论自由的保护者,在某些情况下,平台甚至会成为言论自由的重要威胁。算法社会言论领域国家规制的不力会导致对国家正当性的质疑。
在个人数据保护制度中,被遗忘权最容易与言论自由联系起来。言论自由包含信息获取自由和言论表达自由两项核心要素,前者用于形成内心确信,后者则用于意见展示,二者构成言论自由的两个基本维度。
另一方面,言论社群内的群情激荡给社群成员造成掌握真理的假象,他们拒绝妥协且难以与其他社群沟通。正是在这个意义上,巴尔金教授把被遗忘权视作国家吸收言论基础设施服务提供者及其治理能力的一个例证。
基于言论技术条件变化要求改变言论自由的保障模式,并不是算法社会的新创。尽管科层式的国家权力与扁平化的社会权力在运行逻辑上各不相同,但二者并非零和竞争。平台基于自身利益(经济的或非经济的)考虑,也乐于或急于满足用户的此类需求以增强用户黏性,借助数据共享形成的数据画像以及算法对信息的编排和过滤,不断强化着以用户为中心的信息分割的形成,就成为其核心价值观和基本作业目标。各国对互联网领域言论的规制实践也证明了这一点。
二、算法社会言论自由保护的模式选择 面对算法社会言论技术条件的变化,有学者认为可以实现言论自由保护从国家权力模式到社会权力模式转型。2016年的美国总统大选,除了有剑桥分析公司通过数据挖掘和数据分析获取用户的行为偏好,并据此制定宣传策略以外,在社交媒体上还出现了众多程序机器人,通过预编程脚本自动发布的机器人账户发布支持特朗普的言论。
过程性规制对公共风险的化解,是通过规制数据和算法进而实现对言论的规制。平台是国家过程性规制的重要凭借,对过程性规制的偏重,将影响到平台在言论保护中的功能发挥:一方面,过程性规制压缩了平台对言论的审查空间,减轻了平台私人言论纠纷裁判和公共利益衡量的双重压力,防止被附加过重法律责任的平台进行较政府审查更为严格的自我审查。
平台在言论自由领域同样存在双刃剑问题。有学者认为,19世纪中期法国取消言论的事前限制后,国家对言论自由的侵害逐渐消失,影响公民言论、新闻自由实现的障碍并非来自国家公权力机关,而是来自作为私人团体的大垄断集团。