学术前沿

首页 > 学术前沿 > 社会法基础理论 > 正文

刘晗 张怡静|反算法歧视与平等观念的重构——群体主义平等观下反屈从原则的启示

来源:刘晗、张怡静
39
2025/1/10

作者简介

刘晗,清华大学法学院长聘副教授

张怡静,清华大学法学院博士研究生,康奈尔大学联合培养博士研究生

文章来源

《东南学术》2024年第6期


摘要:算法歧视的规制范式及时回应了紧迫的现实需求,需进一步在反歧视的理论层面对其深入展开研究。算法加剧身份歧视并纳入社会偏见,打破分类样态固化群体劣势,并隔离数据贫困群体,同时面临技术治理与反歧视法的双重困境。反算法歧视亟须突破工具性应对视角,深入挖掘平等理论的内核指引,特别关注个人主义平等观与群体主义平等观在算法时代的适用。在反歧视法下,“个人主义”的反归类和“群体主义”的反屈从原则提供了认知框架并在算法时代展现出新的内容。目前主流的呼声和应对策略,无论是算法透明化或是用户信息自决权,都建立在个体主义平等观之上,却不足以应对新的挑战。面对算法歧视中的群体劣势、算法权力的支配结构,以及社会结构性偏见,需要引入群体主义的视角。反屈从所确立的群体主义的、实质性的价值纠偏的立场,着眼于评估算法对不同群体的广泛影响,在改善受算法权力支配的消费者、劳动者和弱势群体劣势地位上,为反算法歧视提供了更好的指引。

关键词:算法歧视;算法权力;平等保护;反屈从原则;群体主义


在人工智能领域,算法的失范和滥用引发了广泛关注。例如,电子商务中的“杀熟”定价、智能招聘中的性别偏见、零工经济中的算法控制等,不断挑战传统的法律制度与社会伦理。这些问题催生了“算法歧视”概念,统摄了人工智能法治中的公正性议题。在《新一代人工智能发展规划》的战略指引下,《电子商务法》《个人信息保护法》《互联网信息服务算法推荐管理规定》等法律法规相继出台,逐步建立了应对算法歧视的相关制度。同时,相关技术标准的制定也在积极推进,为算法技术的发展与应用提供了法治保障。

在上述过程中,作为首要指引的反歧视法理论问题并没有得到应有关注。有限的研究也显示出反歧视法在应对算法歧视问题上力所不逮。面对算法歧视特性所带来的问题,传统反歧视法理论体系是否仍具有应用价值?为了回答这个问题,本文试图在平等保护理论的层面思考反算法歧视,从而引入两个关键概念——反归类原则和反屈从原则。既有研究对此有若干讨论或提及,但尚未明确其对于算法歧视的重要意义。当算法嵌入经济社会生活,对私主体产生歧视性对待,诸多争论和方案实际上是在追问“算法社会我们需要何种平等”的问题。代表群体主义平等观的反屈从原则,能够为反算法歧视提供更好指引。

一、算法歧视的表现形式及反歧视困境

针对算法所导致的歧视问题,许多学者秉承传统反歧视理论,将算法歧视界定为“基于算法自动化决策所导致的直接或间接歧视性行为”,或将算法歧视描述为“人工智能自动化决策中,由数据分析引发的对特定群体的,系统性、可重复的不公正对待”。上述定义在展现算法歧视特性的同时,也引发了我们对算法歧视具体表现形式和应对困境的进一步思考。

(一)算法歧视的表现形式

首先,在算法社会中,基于性别等因素的身份歧视尤为突出。例如,2014年亚马逊公司使用过去十年的简历数据训练招聘算法,结果显示女性求职者受到系统性歧视。谷歌的“算法招聘”同样受到诟病,有测试表明其向男性用户推送高薪工作广告的数量是女性用户的6倍以上。在中国,尽管尚无明确的实际案例,但智能招聘网站中的性别偏见问题已引发担忧。算法的特性还使得身份歧视更加隐蔽,尤其是通过偏见代理(如邮政编码等看似客观的数据),可能导致歧视性结果。即使决策者和设计者秉持公平价值观,社会偏见也会经由算法自动化决策而产生和放大。

其次,在算法驱动的商业模式中,用户画像技术重塑了商业价值的创造模式,实现了个性化定制和精准营销。人的存在方式发生了从自然人到“信息人”的转变,经济理性人逐渐转化成可计算的“微粒人”。用户画像打破了传统基于身份的分类,使得个人形象达到“最高分辨率”,因而催生出大数据“杀熟”行为。大数据“杀熟”不再基于供求关系的价格规律,而是在算法定价及算法共谋下试图攫取消费者或用户更多利益。差异化定价利用算法评估消费者的消费意愿和支付能力,并进行区别对待,在消费者不知情的情况下侵犯其权益。除产生个人之间的不公正对待外,平台和商业主体利用技术优势还形成了群体性支配。例如,意大利2020年的“户户送”案判决,确认了外卖平台对骑手可靠性排名的算法构成间接歧视。在我国,算法对外卖骑手配送时速的支配和对生命安全的威胁也屡屡见诸报端。人不再是算法的目的而是工具,这尤其表现在对消费者群体和零工经济劳动者群体的批量性对待。

最后,在平台主体利用大数据进行算法决策时,数据代表性不足是较易被忽略的维度。算法决策通常需进行数据筛选和训练,而数据样本不足会导致结果的不准确,也易产生歧视性后果。近些年,“数据贫困”群体开始出现,其在机会、利益等方面受到不公正对待。特定群体或者缺少互联网终端等数据生产工具,或者难以掌握即时通信工具和短视频等数据生产技能,使得特定群体的数据在数据集中和处理中异常稀疏,从而造成数据暗点乃至盲点。当残疾人、老人等弱势群体以及经济贫困的群体无法通过电子设备被收集到个人数据时,公共和商业算法决策则可能忽视该群体的代表性。无论是公共部门还是商业机构的算法决策,基于数据的歧视将影响公民、人权和经济公平,产生“自动化不平等”。

(二)反算法歧视的双重难题

一方面,技术治理面临难题。算法决策的各个步骤——定义目标变量、标记和收集训练数据、特征选择以及基于生成的模型作出决策等都可能带来歧视性后果。而试图从技术上寻求解决,除识别和矫正难度较高外,耗费成本也极大。更为严重的是,算法歧视已经超越了技术能够自我矫正的范围——算法决策会暴露数据中各个属性的不平等分布,从而导致歧视性结果。算法黑箱和技术自主性,又使得算法歧视超出了可追溯和判断的范畴,进而使得平台和商业机构得以逃避问责。在著名的欧盟比利时消费者协会测试购买案中,算法决策使不同性别的客户关联了不同的保险费率,凸显了认定歧视的困境。除无法归因于个人主观意图还是数据中的历史性的、结构性的社会偏见外,更由于因果链条断裂无法确定算法决策与结果之间的因果关系。

另一方面,法律适用存在困境。既有研究通常认为,由于没有明显的歧视意图,算法歧视是反歧视法中差别影响框架下的问题,即表面中立的做法产生了差别影响的后果。作为一种责任规则,为证明算法决策存在差别影响,须遵循如下证明步骤:原告须初步证明被告对受保护分类的决定产生了不成比例的影响,继而证明其措施没有商业“相关性”和“商业必要性”,最后证明商业决策者未能使用同样有效但歧视性较小的工具。然而,算法决策的不利影响难以衡量。例如,虽然差别定价可能导致消费者之间的不公平对待,但低收入群体或许因此受益,使得其整体影响难以评估。此外,出于技术创新考量,法院强调相关性或商业必要性可以构成算法歧视免责理由,并倾向于接受平台对常见商业做法的合理解释。以我国司法裁判两起“大数据杀熟”案例为例,法院均以“经营行为”及“价格动态浮动符合一般交易惯例和公众认知”为由判决消费者败诉。而且,当前也很难确认是否存在歧视性较低的替代方案。

二、群体主义平等观下的反屈从原则

在反算法歧视的规制实践中,反歧视和平等理论研究均未受到重视,这可能导致规制失误和责任体系建设偏颇,影响反算法歧视的最终成效。深入分析算法歧视需要根植于对歧视本质和平等概念的深刻理解,但平等理念的多元化和内在分歧增加了问题的复杂性。因此,应深入探索平等概念的多样性与矛盾并精准界定,以此有效应对算法带来的新型歧视的挑战。

(一)平等观念:个人抑或群体

平等是现代法律与道德哲学的基石原则,但在诠释上却引发了争议。具体到其实质意涵,除了教科书上常常列举的形式平等和实质平等之分、机会平等和结果平等之别之外,平等理论中有一组区分特别值得在算法时代予以注意,即个人主义平等观与群体主义平等观。

个人主义平等观的核心宗旨在于捍卫每一位社会个体的权利和机会平等,强调个人自主选择的权利,在法律层面坚持每一个人都应享有同等的尊重与公正对待。此观念嵌入现代法律基础,并体现在教育、就业等公共政策中,旨在构建无关身份,仅凭个人努力和能力决定成功的社会公平体系。反对者认为,个人主义平等观未能解决结构不平等,历史遗留的经济差距、文化偏见及深层歧视造成起点不公,使机会平等成为空谈。

群体主义平等观则着重于审视和修正不同社会群体之间的不平等状态,尤其关注历史上曾经遭受(并且继续遭受)歧视和排斥的社群。该理论强调,长期系统性劣势违背平等本质,需纠正不公正的制度和实践以实现实质平等。如高校录取、职场招聘的平权行动,综合考量种族等因素,力求平衡群体差异,体现了群体平等的实际应用。群体主义平等观将平等的主体定义为群体,而非个人——歧视并非A对于B的不合理差别对待,而是对于B所分享的某种群体属性的贬低。当然,群体主义平等观也存在争议。批评者指出,过度补偿可能导致新的不公,基于群体身份而非个人能力作决策,扭曲了个体公平原则,也容易引发新的社会矛盾和不满。寻求个体平等与解决群体不平等间的平衡,是当前社会与法律的重要课题。

(二)反歧视:反归类抑或反屈从

上述两种平等观念直接反映在当代反歧视法一般理论中,即存在两种主要的反歧视原则——反归类(anti-classification)和反屈从(anti-subordination)。这使得两种平等观念在反歧视上的具体识别和应用更为清晰。

反归类原则秉持个人主义的平等观,要求“不得根据受禁止的类别对人进行分类”,只要关涉到种族、性别等受禁止的类别的歧视,就应当禁止并受到严格审查。纯粹的反归类原则意味着禁止所有关涉分类的歧视,不将个体分为特定类别,而要求一视同仁。因而其既不支持歧视,也不支持优待(亦被称为“反向歧视”)。

首先,反归类意在通过禁止分类以实现人人平等。其假设所有基于社群分类的法律和政策都是歧视性的,因此禁止根据社会身份群体对个人进行分类,比如禁止“黑人”“白人”“本地人”等分类的发生,确保法律体系绝对的“价值中立”。其目标是随着时间的推移“盲化”人们区分某些特征的能力,理想情况下最终会形成一个“肤色盲”“性别盲”“基因组盲”的社会。其次,反归类原则禁止任何差别对待,也不支持平权行动。其与相同情况相同对待的形式平等密切相关,旨在通过判断行为的手段与目的是否匹配来避免任何个人基于受保护分类受到差别对待。因此,反归类原则禁止法律、政策乃至社会行为针对特定群体进行差别对待,更反对赋予特定群体特殊待遇的平权行动。自20世纪70年代以来,美国最高法院在平等保护问题上的主流意见采取的即反归类原则。

与之相对的,则是反屈从原则。反屈从原则主张并落实群体主义的平等观,认为在普遍的社会分层条件下,禁止分类而一视同仁无法实现实质的平等,因此主张法律应当对导致历史上受到压迫的群体且使其处于社会次等地位的制度和实践进行改革。因而,这一原则也被称为“群体不利原则”(group disadvantaging principle),主张不得“加剧”或者“延续”特定弱势群体的屈从地位。

首先,反屈从原则主张考虑分类以保护相对劣势群体的权利,只要该分类符合改善群体屈从关系的目标。在反屈从原则看来,歧视并不在于使用种族等分类来区分社群,而在于使特定的劣势群体屈从化,加剧他们的劣势地位;如果没有对特定群体造成伤害,即使进行分类,也不构成非法歧视。因此,反屈从特别主张法律必须考虑种族和妇女等群体的屈从性的社会历史地位,通过纠正不利于历史上受压迫群体的制度和行为来实现平等。

其次,反屈从原则主张考虑历史性和结构性的不平等关系。对于反屈从原则而言,不平等源于对某类群体的分类导致该类群体在历史或现实中受到不公对待。因此反屈从原则在审查任何歧视性的做法时,会纳入事实判断和价值判断,通过正视“过去歧视的永久化”或“事实上的歧视”,考虑是否对由于历史或社会结构导致的劣势地位的群体产生了差别影响。换言之,反屈从并不仅仅考虑手段与目的匹配不当所导致的不公,更强调补偿历史上的压迫,要求考虑到受压迫群体的处境,超越形式平等,支持给予更有利的待遇,来纠正历史和当前机会的不足。

最后,反屈从原则支持优待和平权行动来对抗权力差异。反屈从原则认为要有效解决种族或权力差异问题,必须认识到种族问题的存在以及各群体的屈从关系。要求采取积极举措补偿因历史导致的相对劣势群体的不利地位,支持反向歧视,并支持平权行动以解决历史和社会的结构性歧视。从印度的“种姓预定制度”中可以看到反屈从原则的实例,该制度为历史上处于社会劣势地位的种姓,如贱民(SC)和部落民(ST)以及其他落后阶级(OBC)提供教育和政府工作机会。在1992年的萨韦妮案等案件中,印度最高法院维持了对贱民和部落民的预定制度,但将总预定比例限制在50%。此类预定制度即体现了反歧视中的群体主义的平等观,并且尤其考虑历史问题。

三、反算法歧视中群体主义的立足点

对于算法歧视这一议题,尽管很多研究和对策建议在探讨如何制定规则来约束算法行为、保护消费者等弱势群体,但应基于何种平等理念来对抗算法歧视的深层次讨论仍有待进一步展开。事实上,上文所述的两种观念及其所派生的两种反歧视原则在算法时代仍然适用,并且展现出了新的内容。在反算法歧视上,个人主义平等观侧重于识别和消除算法本身的偏见。其体现为开发透明的可解释决策过程的算法,赋予个人挑战对他们不利的算法决策的权利,例如信息自决权等;以及通过立法和司法手段追究创建者和使用者对歧视性结果的责任。群体主义平等观念则关注算法对不同群体的更广泛影响,但却尚未被重视且缺乏深度讨论。

本文认为,仅仅依赖个体主义的解决方案不足以应对新的挑战,有必要探索群体主义的立场和对策,以期在算法时代实现更加全面深入的公平正义。毕竟,即使是没有偏见的算法,也会延续历史上和社会中业已存在、根深蒂固的不平等现象。如果用于训练算法的数据本身即反映了现存偏见,据此产生的算法及由算法自动决策得到的结果,将不可避免地有利于已经居于优势地位的群体,从而对相对弱势的群体形成歧视。下文将借由反屈从原则的启示和具体指引,探讨反算法歧视中因何需重视确立群体主义平等观。

(一)算法歧视中群体劣势凸显

一般认为,算法歧视是针对特定个人,并不是某个群体,也即算法对同为消费者的A与B,或同为就业者的A与B进行不合理差别对待。因此,反算法歧视的目的在保护个人。在算法社会中,个人主义进路忽视了技术表象背后的群体劣势及救济困境。算法歧视所凸显的是消费者、劳动者和弱势群体被技术支配放大的、持久的、普遍的、实质的劣势,同时因无法寻求有效救济,而逐渐形成结构性固化。消费者、劳动者群体在算法的操纵之下被置于屈从性地位,而被数字鸿沟排斥在外的残疾、贫困弱势群体,在商业机构运用算法的决策中,甚至可能不被纳入考量。例如,在就业类的算法歧视上,劳动者基于性别等受保护属性受到排斥,由于信息不对称,无法知情并获得有效救济。在个性化定制的算法歧视类型上,人则完全被置于支配性地位。算法对个人的数字画像,将作为数据主体的人进行分析、控制、指挥、命令和塑造,进而对整个人群进行分类、选择、理解和决策。在微粒社会中,商业机构通过算法形成了对人的技术支配。用户画像算法可能涉嫌对用户进行秘密操纵,算法偏见与歧视加剧社会结构固化,进而侵蚀基本权利,形成“监视资本主义”。

如果说工业时代的企业与个人之间主要体现为非支配性的市场关系,那么,数字化时代的企业与个人越来越体现为操纵关系。受到歧视的消费者、劳动者、数据弱势群体已然形成劣势地位的身份共同体,面临被更强大的群体所支配的危险。他/她们无法获得准入机会,或者对准入后的稳定性和安全性无法确信。如果没有外部干预,一个群体的现有劣势和未来劣势之间的强势纽带可能导致代际恶性循环。相对于技术“流氓”而言,这类群体是否可以作为技术“文盲”,有必要对群体作出区分。群体主义立场有助于对受到歧视的相对劣势群体进行纠偏式的扶助和救济。这要求反算法歧视应超越身份中立,深刻理解哪些群体在历史上与社会中遭受不公平对待,关注对弱势阶层的保护。因此,在算法时代,反算法歧视的更高目标不仅是保护个人,而且保护群体,即中立的技术表象批量对待的劳动者、被用户画像所支配的用户和消费者及数据鸿沟所区隔的数据弱势群体。

(二)算法权力导致“支配—屈从”格局

在网络空间中,由于技术架构的原因,私主体之间抽象的平等关系被打破,作为私主体的商业组织开始拥有社会权力。经过通信、媒介和社会的去中心化与再中心化的变革,平台基于技术能力和经济优势,具有了“私权力”和“准公共权力”的性质。一方面,基于平台的技术架构、数据收集和分析能力,以及对用户的控制能力,平台能够对网络空间中信息、资源和用户行为进行支配。另一方面,平台还承担了网络空间的准公共职能,不仅通过行使“准立法权”“准行政权”“准司法权”,塑造了有组织的“私人整序”(private ordering),并且在平台治理方面具有明显的单方性与强制性,使得“私治理”的不平等性日益明显。

更进一步,在算法赋能之下,私权力的支配力、控制力和影响力进一步增强,形成平台的“算法权力”。平台和商业机构运用算法权力对人的行为作出引导、对资源予以分配调度,在不充分竞争下对商业社会进行重塑。相较于工业时代商家和雇主相对于消费者和劳动者的优势地位,平台“算法权力”对数字时代的消费者、使用者和劳动者等形成了新的支配。在数字经济进程中,消费者、劳动者以及数据弱势群体在社会群体中的身份不断被析出和固化,已然成为平台及其算法权力所支配的客体,群体劣势被逐渐固化,甚至失去在合法权益上的话语权。平台俨然成了一个新的“利维坦”,甚至未经用户授权,而算法歧视中消费者、劳动者等弱势群体则被完全置于屈从性地位。

面对此局面,寄希望于平台自我规制不甚牢靠。平台权力作为一种私权力,并不能够天然地和公共利益保持一致。尽管其公共性日益明显,但平台经营行为仍属于追求商业利润的市场行为。因此,不应要求其违反经济理性,对可能产生的后果作过分的预防或者修正,这也不符合技术和经济创新的必然趋势。此外,算法时代的问责往往因多重因素的影响而被分散。

再从发展趋势来看,算法权力凭借着计算优势走向思维优势之后,算法对人类的规训将彻底转向算法对人类的控制。关涉算法歧视,或许价值“中立”的平等破坏了创造有意义变革的希望。如果无视平台和商业机构基于算法权力所获得的支配性地位的事实,中立化的平等观念也无济于事。对于遭受支配的群体适用形式化的平等原则,将无法提高相对劣势群体在权利上议价的能力,更无法挑战平台私权力与个人私权利失衡、相对劣势群体正在受到掠夺和剥削的严峻现实。因而,在算法社会中,群体主义平等观无疑可以提供更好的指引,允许平等保护纳入社会不公平的现实,从而实现法律上平等对待的使命。这也正是在回应算法时代所不断追问的如何解决私权力与私权利之间失衡的现实命题。

(三)算法决策隐含历史的、社会的结构性偏见

算法歧视的产生与传统歧视发生的机制有相似之处。个体层面的内隐偏见和社会层面的结构性不平等是当代社会持续生成歧视的主要动力。在算法决策中,人的偏见会经由代码嵌入算法决策的问题建构、数据理解、特征选择等各个环节。尽管程序员通常不会故意利用算法进行歧视,但算法是“设计者或开发者以数学方式或者计算机代码表达的意见”。虽然算法常标榜技术中立,但其实质上总是蕴含着价值判断,甚至与特定价值立场密切相关。

算法歧视的产生多数源于算法模型在自学习状态下拾取数据中隐含的历史偏见和结构性不平等。毕竟,算法模型是在存在歧视的现实世界中训练和操作的。在算法决策中,大数据技术会以直接或者间接的方式纳入隐含的历史文化的偏见,以“偏见进、偏见出”的方式,继承和放大原有歧视。例如,公司招聘中长期存在重男轻女的现象。这种性别偏见寓于训练数据集之中,被计算机习得,就成为算法的一部分。由于数据中隐含社会的歧视,算法决策既可能是“准确的”,也可能是“歧视性的”,因为它拾取了社会中潜在的结构性歧视模式。

与物理世界不同,算法歧视的发生具有系统性和反复性,从而发生个体不公的结构性锁定效应。在算法歧视中,禁止特定数据的使用无济于事。为纠正算法产生的刻板印象和社会偏见,公平机器学习领域提出了一系列技术解决方案,致力于去除“分类器预测”对受保护分类的依赖,并确保不同群体的性能相似,然而,这并不能解决导致歧视的历史性和社会性的不平等,甚至在某些情况下加剧了不平等。反算法歧视所面临的挑战并非怎样剔除数据中的偏见,来实现形式正义;真正的问题是,如果算法决策持续嵌入既有偏见或放任纳入社会结构性不平等,将会使受到歧视对待的群体置于系统性劣势。因此,法律需要考虑的,不仅是算法训练中如何消除既有偏见,而应该是如何通过算法训练和决策来纠正既有偏见。正如有学者所言,如果反算法歧视的目标仅仅是追求和实现身份性的中立,那么此类反算法歧视只不过接受或默认了现存社会制度的合理性,放弃了利用算法来改善社会不公的机会。因此,这将要求法律不但需要设置某种底线不使某些相对劣势群体遭到经由算法决策的不利对待,更是要在对算法有可能对于各类群体带来不利影响进行评估的基础上,主动承担起矫枉的责任,寻求对社会结构性不平等的纠偏。质言之,反算法歧视不仅要反算法中的歧视,更要通过算法来反歧视。

四、反算法歧视的群体主义进路及其建构

无论是算法社会中逐渐凸显并固化的各种相对弱势群体,还是由此产生的算法权力的崛起及其支配性结构,抑或算法决策技术本身蕴含的社会结构化偏见,都清晰地揭示了算法社会内部愈发加剧的不平等现象。反算法歧视需要建立关注群体主义的、进行价值纠偏的、追寻实质正义的观念体系。在反歧视的具体实践中,建立并融入群体主义平等观,关注受到不公正对待而导致劣势地位延续的群体、挑战支配性的算法权力结构,深入审视并纠正算法背后的历史性、结构性歧视,在既定规则的解释、新规则的构建以及国家行动层面上作出更全面的理解和建构。

(一)超越赋权和规制的群体主义进路

1.当前赋权和规制的局限

在算法歧视问题的处理上,目前有赋权和规制两种基本进路。赋权路径基于个人主义平等观念,侧重于赋予个体对抗算法决策的种种法律权利。例如,《个人信息保护法》制定的首要目的是保护个人信息权益(第1条),设定了个人信息处理公开、透明的原则(第7条),并专门赋予个人知情同意权(第13条)、拒绝权(第24条)、删除权(第47条),以及算法解释权(第48条)。赋权机制的意图在于制约个人信息处理主体的行为,调整私人权利与个体权利间的关系,从而切实保护个人信息主体的利益。

然而,在实践中,赋权方式的有效执行面临着多重挑战。知情同意权的行使便是一个突出难题,因为用户往往对冗长复杂的知情同意条款缺乏有效的选择余地和整体的理解能力,加之商业秘密保护等原因,使得知情同意变成形式化并且实效性受到限制。至于算法透明度的追求,以及对自动化决策要求解释的要求,更是遭遇到了强大的算法权力所带来的阻碍,如算法黑箱、技术复杂性及其自主运行特征等问题。这导致在信息处理过程中处于显著弱势地位的个体,实际上很难有效地行使和维护这些权利,与算法权力展开博弈。运用数据权制约算法权力的思路是一种以单个的个体为中心来对抗的思路,忽略了算法权力的技术性和资本性两大基本特性。换言之,赋权虽旨在缓解个人信息保护中不平等的力量对比,但尚不能断言现有的“平衡”设计已经充分洞察并解决了由算法技术所带来的隐性屈从性不平等这一深层问题。

相较对个人赋权,规制有更好的实际效果。《个人信息保护法》明确要求自动化决策的透明度和结果的公平公正并禁止大数据杀熟(第24条),要求影响评估(第55条、第56条),并对履职部门设定评估(第62条)、合规审计(第64条)等具体职责,在问责上要求信息处理主体承担过错推定的侵权责任(第69条)。赋权仅仅为个体提供了对抗歧视行为的法律工具,而规制则是通过国家行为直接限制歧视主体的相关能力。

问题在于,如果缺乏平等理念的指引,规制可能存在产生偏差的隐忧。首先,规制面临着如何平衡政府规制与数字经济创新的问题。“过严的政府规制命令会扼杀社会主体自治合作和市场创新的空间。”面对数字经济主体能够通过技术手段规避责任的情况,想要切实保障算法问题下相对劣势群体的权利,必须有某种平等理念的依托,否则规制无法达到理想的效用。其次,算法解释、算法评估、算法合规审计等规制方案,尽管可以相对被动地改善特定的局面,但无法阻止技术不平等裂痕的扩大,更无法触及算法歧视的产生根源及社会结构。

2.纳入群体主义平等观的具体进路

第一,规制需要在更为精深的平等原则指引下重新出发,在完整的算法规制谱系中以人的主体性而非规制工具的效用为基础完善算法规制的基本图式。从群体主义平等观出发,应对规制方案作出重新理解或解释,即着眼于算法对不同群体的广泛影响,对其进行系统性的评估,并在评估的基础上调整规制的总体方案,而不仅仅是目前更受关注的算法透明化诉求,或禁止使用某些已知具有歧视性影响的数据进行算法训练和算法应用。近些年,《个人信息保护法》《互联网信息服务算法推荐管理规定》等特别禁止了大数据杀熟,并要求提供不针对个人特征的选项,尊重和平等保护消费者合法权益。显然,就我国而言,身份并非导致歧视的直接原因,很多歧视其实源自市场的区分行为(如就业市场中的学历要求),或者过分强调与工作本质关联不大的个人特征来提高企业的竞争力的行为(如一些行业中对员工的身高或相貌要求)。然而,在政府规制与数字市场创新的微妙处理上,可以更为细致。应通过总体分析,评估算法决策是否对消费者整体产生了不利影响,是否固化或加剧了其屈从地位,而不囿于反歧视法上的证明责任,以实现对消费者的实质保护。对于零工经济中劳动者群体的合法权益,《互联网信息服务算法推荐管理规定》第20条要求算法推荐服务提供者建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法。在此基础上,应在公开透明、算法解释和影响评估等方面增加对于算法是否固化加剧特定群体劣势的考量,进行进一步的制度设计。

第二,就算法歧视所产生的群体层面的实质不平等而言,法律和算法本身都应当采取价值纠偏的立场和行动。在算法社会中,法律在社会变迁和发展中应担负更多任务,并承担积极的给付义务。具体而言,对于算法歧视中的数字鸿沟,法律须采取积极的行动保障数据弱势群体平等参与社会活动的机会和权利,特别是通过公共数据开放和利用,对数据财产权益价值发现、分配和促进。此外,应引入公平利用权的概念,建立公共数据开放利用制度中“权利—权力”相互促进和制约的关系结构。与此同时,可以通过塑造具有群体主义精神内核的算法,借助数字平权行动增加处于劣势和边缘群体的代表性,推动社会权力结构变迁,消除滋长歧视的结构性不平等。在算法开发过程中,应当积极融入群体主义的平等观念,使得算法本身成为平权行动的科技手段。分析算法对不同群体的影响,以识别和减轻负面后果,具体包括使用更具代表性的数据集来训练算法,甚至在算法本身中纳入特定群体的调整以实现更公平的结果。

(二)群体主义的法律程序建构

群体主义进路并非意味着要采取某种过于激进的方式,并非鼓励相对劣势群体能够用赋予的权利提起各种不合理的主张,否则将陷入“谁弱谁有理”的困境。在制度设计上,可通过群体主义的方式使消费者保护法律体系发生效用,或者通过产业政策上的调整达到理想的效果。

首先,建立针对弱势群体的倾斜性责任规则。在涉及算法歧视的个人诉讼案件中,面对算法决策导致的歧视性后果因果关系难以证明的现实情况,企业可能援引的商业秘密保护等抗辩理由,这些揭开算法黑箱面纱的艰巨任务,司法实践应当适时考量当事人之间的不平等地位,并对相对处于劣势的一方提供必要的法律援助和支持。具体而言,在恰当的情形下,可以谨慎探讨如何触发消费者权益保护法等相关法律法规,使其在确认特定类型算法歧视的存在时发挥有效作用,从而为遭受潜在歧视影响的个人或群体提供法律救济途径。例如,在判定是否存在算法歧视时,司法机关可以适当减轻相对弱势方的举证责任,并强化对算法决策过程透明度的要求,以确保法律能够切实介入并纠正在算法应用中可能出现的不公平现象。

其次,构建集体诉讼和公益诉讼的权利救济渠道。我国当前已构建了一系列倾向于弱势群体保护的法律体系,包括但不限于消费者权益保护法、劳动者权益保护法以及个人信息保护法等。然而,这些静态法制架构在一定程度上未能充分激发弱势群体的主观能动性和参与互动性,缺失了有效连接弱势群体诉求与实际行动的中介机制,导致其权益保护的实际效果可能存在不彻底性。换言之,现有法律制度虽为弱势群体提供了基础保障,但在如何将法律文本转化为弱势群体自我赋权和积极参与保护自身权益的具体实践方面,有待进一步加强和完善。因此,可以尝试在制度上鼓励公众积极参与反歧视,如可以考虑在算法反歧视领域建立“公益举报”“公益诉讼”机制。此外,可增强相关社会组织对于平台和商业机构进行算法歧视程度的评价作用,探索建立超越企业、对公众开放的真实问责机制。

最后,采用产业政策的集体主义进路。对于普遍由于追求经济理性而发生的算法歧视而言,法律仅仅纠正偏见的意义不大,而必须让用人单位在兼顾效率的基础上对生产力低的群体相对倾斜,或者采取措施消除群体间的生产力差距。平台和企业也需要去承担纠偏的社会责任和成本。对于具有不可预测性的算法决策,应赋予平台和企业一种注意义务,也即对平台和企业纳入对社会现状的认识,将现存的不平等状况纳入决策和算法的考虑之中。要注意的是,算法歧视本质上是社会性的,需要从根本上解决问题,尤其需要考虑数据集中的问题,因此需要重新评估数据控制权,采取创新政策打破数据垄断的现象,激励竞争和创新。这需要进一步从反垄断的角度进行矫正。

结语

人工智能的广泛运用,使算法歧视成为社会可能长期面临的根本挑战。在应对这一问题的过程中,深入探讨反歧视法的一般理论仍然至关重要。特别是在平等保护的理念下,秉持并落实群体主义的反屈从原则,凸显了反歧视法在算法时代的重要理论价值和启示意义。对于算法歧视问题背后的群体劣势、算法权力的不平等结构以及数据中反映的历史性和结构性偏见,必须深刻认识到,仅依靠保护个人权利的方案不足以应对算法时代的新兴挑战。要真正实现全面的公平正义,反算法歧视必须融入对群体主义平等观的认识、理解和建构,因为歧视不仅是个体态度或行为的表现,更深刻体现在社会结构中,对具有共同特征的群体产生长期影响。反算法歧视需要从平等观念的角度重新审视这些结构性问题,才能有效地应对算法时代的复杂挑战。

从更广泛的视角来看,将群体主义平等观纳入反算法歧视的研究和实践,与法律体系背后的核心价值观紧密相连。我国法律体系深深扎根于社会主义核心价值观,致力于推进基于集体福祉和平等发展的公平正义。《中华人民共和国宪法》第4条、第33条、第36条和第48条为保障每个人的基本尊严以及各类群体的平等权利奠定了坚实的法律基础。国家一贯重视解决社会成员之间的差异性问题,不仅通过制定法律法规平衡个人、社会与国家的关系,还积极推动保护性立法,以缩小不同群体间的差距。因此,重新构建反算法歧视的平等观念,不仅是对传统平等理念的创新诠释,也是对法律基本原则的精神回归。


中国人民大学法学院社会法教研中心

责任编辑:林嘉璇

审核编辑:周灵犀


分享到:

在线调查

Online survey
2010年11月28日,全国人大常委会表决通过了《社会保险法》,作为我国社会保险领域的第一部法律层级的规范性文件,您对其实效的预期:
该法的实施将极大的提升公民社会保险权益的保障水平
该法规定过于原则,无法从根本上改变我国社会保险制度的现状
该法的实效,取决于多重因素,有待观察