数字时代 ,算法在劳动管理中的广泛应用,引发了劳动歧视形态向算法化转变。相较于传统劳动歧视,算法劳动歧视在表现形式、作用机制以及社会影响等方面都呈现技术性强化,并因此具备了新的特征。在构造上,算法劳动歧视以雇主权力作用下算法输出歧视性结果为前提要件,以雇主对算法决策存在瑕疵的审查与采纳为行为要件,以处于弱势的劳动者因此受到差别性不利影响为结果要件。在本质上,资本逻辑与技术权力的耦合是算法劳动歧视生成的根本原因。而这一新型歧视形态,为数字时代的劳动者权益保护带来了多元危机,如引发劳动者相关权利危机、深化劳动者主体性危机等。其法律规制可以沿循”内治“与“外制”两大思路,将算法内部治理与算法外部制约相统合,强化雇主数据处理的原则性约束,制定算法劳动管理技术标准,构建算法影响评估制度,联结算法劳动监察与司法救济机制等。
算法;劳动;劳动歧视;雇主;劳动者;法律规制;算法劳动歧视
工业时代与数字时代的交替,伴随着工业机器向人工智能机器的技术迭代。在算法与劳动管理深度结合的现实背景下,雇主对劳动者的直接管理模式逐渐转变为以算法为媒介的间接管理模式,后者被称为“算法劳动管理”。在无雇主现场监督的劳动场所中,算法将劳动过程标准化、流程化、定额化,以智能指导的方式实现对每项任务流程的精密管控。而当劳动行为结束,算法将根据雇主设置的绩效指标评估劳动者的劳动表现与成果产出,并相应地采取奖励或惩罚措施。有学者便将算法的管理实践高度概括为“6R”机制,即限制( restrict)、推荐(recommend)、记录( record)、评分( rate)、替换 (replace)和奖励(reward)。雇主则通过对算法的占有和使用,以最小的成本实现效益最大化,维持劳动过程中由其主导的权力支配关系。而算法劳动管理在提高生产效率的同时,也带来了劳动歧视的风险。例如,互联网企业的简历筛选系统可能存在将女性求职者的排名置于男性求职者之后的性别歧视;互联网平台的派单系统则可能因复现既有歧视而影响从业者用工机会的公平获取。换言之, 劳动管理的算法化,相继引发了劳动歧视的算法化,也即“算法劳动歧视”。当前,算法技术已经渗入企业劳动管理的各个环节,包括人事招聘、任务分配、工作指导、绩效评定、场所秩序维护,等等。与此相应,劳动者在劳动机会的获取上需要服从算法调度,在劳务给付过程中需要遵循算法指令,甚至通过自我规训以使其劳动结果符合算法的评判标准。基于这种双向度、多维度的算法依赖,消解算法劳动管理中存在的歧视风险也成为数字时代劳动者权益保护的重要课题。2019 年,“意大利户户送算法歧视案”便打响了规制算法劳动歧视的 “第一枪”。但不足的是,既有研究成果大都聚焦于对算法或算法歧视的宏观规制,缺乏对算法劳动歧视本身的深入剖析。因此,本文致力于研究算法劳动歧视的具体生成,包括其特征、内在构成与生成逻辑,继而探明算法劳动歧视的直接影响及其引发的相关危机,并在此基础上探索符合我国国情的规制进路,以期为实现数字时代的劳动关系和谐、促进算法技术正向发展提供有效建议。
在本质上,劳动歧视是指雇主在劳动资源分配上对弱势劳动者不合理的利益限制与削减。在工业时代,劳动歧视通常以言辞、书面文件为承载,而直接发生于劳动关系主体之间,主要表现为劳动领域的性别歧视、种族歧视、户籍歧视等。为作区分,本文以“传统劳动歧视”指代该时期的劳动歧视。而进入数字时代,算法在劳动领域的结构化嵌入则使传统劳动歧视强化并升级为算法劳动歧视。它是指雇主以算法为代理,由后者输出对弱势劳动者产生不合理利益限制的决策结果并予以现实化。在逻辑上,算法劳动歧视与传统劳动歧视同属于劳动歧视的下位概念,是平行的更迭与被更迭的关系。在形成上,资本逻辑与雇主权力的复合作用是劳动歧视生成的根本原因,而劳动管理的算法化则是传统劳动歧视演变为算法劳动歧视的直接原因。
(一)算法劳动歧视的特征
作为劳动歧视的阶段性形态 ,算法劳动歧视与传统劳动歧视之间存在共性 ,如二者同样受资本增殖逻辑引导,并需要雇主权力的支撑 ,在行为结果上同样呈现为对弱势劳动者的差别性不利影响。这种共通性实际上也是劳动歧视的根本特性所在。而算法劳动歧视的特殊性则更多与其技术性相关。质言之 ,作为算法应用的伴生风险 ,算法劳动歧视在歧视外观、歧视作用方式与歧视影响等方面都发生了技术性强化 ,从而区别于传统劳动歧视 ,具备了更加显著的规制困难与规制必要。首先,在劳动力吸纳方面,算法将劳动者抽象化为价值运动中可以被衡量、被计算的一组数量 ,加剧了劳动者客体化趋势。在效率至上的原则下,为了准确区分劳动力市场中劳动者的能力类型,算法成为雇主克服人类认知局限、帮助其透视劳动者素质高低的关键工具。在算法强大的数据挖掘能力面前,劳动者无法保留可能影响劳动关系成立或履行的私密信息。基于这种透视性,在劳动关系的预备阶段,雇主可以借助算法分析求职者的特定测试结果,判定其是否具备优势劳动者的特质,从而对求职者进行精准分类与筛选。进入劳动关系后,雇主借助算法对劳动者数字痕迹的捕捉、信息提取与关联应用,则可实时把握劳动者的工作状况与生活动态。即便是优势劳动者,当其丧失与工作内容无涉的优势特质时,例如罹患慢性病、怀孕、个人破产等,亦可能遭受不同以往的不利决策结果。概言之,为了实现对优势劳动者的持续吸纳,以保证劳动产出水平的稳定性,算法通过对劳动者个人数据的深度开发,对其信息动态的瞬息捕捉,即时而精准地评估劳动者劳动状态的优良与否。因此,在前述目标的指引下,算法劳动歧视具备歧视锚定精确化、歧视周期极约化、歧视范畴弹性扩张的新特征。其次,在劳动过程控制方面,算法技术的应用加剧了劳动者的原子化、去中心化趋势。事实上, 为了实现权力支配目的,劳动歧视亦是雇主维持其控制权能的隐形手段。根据二元劳动力市场理论, 劳动力市场分为一级和二级市场 。雇主通过构建生产规则,给予一级市场中的优势劳动者一定的管理权能、地位和责任,由其根据已确立的劳动秩序管理二级市场中的弱势劳动者,进而实现对劳动组织与劳动生产的全面控制。而两类市场间存在的流动壁垒,正是劳动歧视的对象化。更通俗地说,雇主借助劳动歧视,也即通过劳动者内部基于种族、地域、性别等因素造成的地位不平等,一方面将弱势劳动者群体限制在二级劳动力市场,使之在激烈的同质化竞争中自发抑制其权利意识,主动服从雇主管理。另一方面则是放大优势劳动者与弱势劳动者之间的矛盾,固化劳动力市场的层级结构,间接使劳资矛盾“隐形”。进入数字时代,算法管理技术的应用进一步导致劳动者集体力量的分化。在算法“点对点”精益管理模式下,劳动者的工作被拆分至最小的劳动单元并附以操作指引、时间期限以及标准规定。无论是简单劳动还是复杂劳动,任何一个具有一般能力的劳动者都能以最小的努力独自完成生产任务,劳动协作显著减少。因此,算法对劳动时空的全面渗透以及对劳动生产的全盘把控还导致劳动者之间的意识联络被削弱、被阻隔。而原子化的劳动状态极大地消解了劳动者的集体意识,进而削弱了其与雇主集体协商和谈判的能力。与此同时,在算法塑造的“信息孤岛”中, 弱势劳动者也更加难以知晓自己与他人相比在劳动条件上遭受的不利益,而难以产生被歧视下的维权意识。在直面算法歧视性决策时,其甚至会出于对技术中立性的信赖,默认算法决策结果的正当性,自愿放弃权利保障和救济。因此,算法劳动歧视的高度隐蔽性还使其具备了歧视外观中立化的新特征。
最后,基于算法对雇主权力的技术深化,算法劳动歧视还存在辐射范围上的扩张。当劳动关系结束时,雇主仍存在出具离职证明、为劳动者办理档案和社会保险关系转移的法定附随义务。若劳资双方存在履行离职竞业限制约定、企业需支付补充养老保险等情形,雇主还可以继续收集、处理前员工的个人数据,对举报雇主不法行径或具备某些组织团体成员身份的员工进行特别标记,形成所谓“职场黑名单”,并将这种歧视性影响向其他雇佣情境扩张而影响离职劳动者的再就业。因此,算法劳动歧视的高度关联性进一步加剧了其影响的深度,使歧视范围呈现出纵深化的特征。
(二)算法劳动歧视的内在构造
技术理性的存在赋予了算法劳动歧视以异质性。这种技术色彩不仅体现在算法劳动歧视的特征上,还渗透于其内在构成。算法劳动歧视可解构为:算法自动或半自动输出具有歧视倾向的计算结果,雇主将该结果转化为人事或管理决策,从而对弱势劳动者产生利益限制或削减等不利影响。“算法歧视性计算结果”“雇主转化”“利益限制或削减等不利影响”分别体现了算法劳动歧视生成上的三重递进。因此,判断特定算法劳动管理决策是否构成算法劳动歧视,或可考虑以下三项标准。其一,在雇主权力作用下,算法输出歧视性计算结果是算法劳动歧视生成的必要前提。一方面,雇主权力运转是算法劳动歧视生成并固化的潜在基础。输出歧视性计算结果的算法管理系统应当处于雇主的实际控制之下。而判断雇主对算法的控制力及其权能大小,则可考虑以下因素: (1)雇主是否将算法管理系统引入劳动的核心领域并予以日常化、特定化应用;(2)雇主对算法管理系统是否存在实质性控制,包括对算法运行目标的设定、对算法运行参数的选取、对算法运行故障的检修、对算法技术方案的定期或不定期调试等;(3)劳动者与算法管理系统是否形成稳定的、超过一定时长的生产协作关系;(4)劳动者是否必须执行算法程序指令,而无拒绝的自由或其他选择;(5)算法计算结果与最终决策结果的同一性, 即考察雇主权力与算法权力结合的紧密程度,雇主是否对算法管理系统形成了隐形的“委托代理关系”;(6)算法是否涉及劳动者的重大利益;等等。另一方面,在发生算法劳动歧视的场合中,算法劳动管理系统必须足以影响劳动者的利益。这意味着,算法实际上承继了雇主全部或绝大部分的劳动管理权利,也即算法劳动管理的内容范围需要涉及劳动者的劳动条件、劳动内容、劳动方式、劳动成果评估等与劳动者切身利益相关的重要事项,而非仅作为劳动辅助工具,以电子信息考勤打卡、远程定位等非核心生产功能为主要功能。其二 ,算法歧视性结果的实施,必须经过雇主的采纳和许可。当前我国人工智能发展尚处于弱人工智能阶段,算法决策的本质仍是一种“人机交互决策”的过程,基本需要在算法控制者的监管下运行。正因如此,尽管算法可能因技术瑕疵或设计缺陷而输出具有歧视性的建议或结论,但这仅构成歧视的潜在源头。算法劳动歧视的最终生成,直接原因在于雇主将其采纳并转化为实际决策。因此,雇主将算法输出的歧视性结果转化为现实决策,却未履行合理的审查义务,是构成算法劳动歧视的行为要件。而考虑到企业日常管理活动的庞杂性,由雇主逐一确认算法决策结果的合理性并不现实。因此,对雇主审查义务的考察,应当前移至雇主在算法部署阶段的评估是否充分。而相应地,若雇主在部署特定算法管理系统或采纳某一算法决策时,已进行充分、合理、正当的评估,并尽可能降低对劳动者权益的影响,则可能阻却算法劳动歧视的发生。
其三,算法劳动歧视的行为结果是对弱势劳动者的差别性不利影响。也即对劳动能力、工作表现等核心特质相同的一组劳动者进行算法分析,具有弱势特征的劳动者与对照组劳动者相比遭受了更加不利的计算结果,继而在劳动实际中受到相应的利益限制。值得强调的是,这种不利益主要表现为被歧视劳动者现实利益的应得而未得,如劳动机会、晋升机会等。这是一种预期利益的减损,区别于侵权法上作为损害结果的既得利益的扣减。法律禁止劳动歧视的目的在于实现劳动者平等劳动与雇主雇佣自由之间的平衡,但也需要尊重市场规律在劳动力遴选中的重要作用,不得以禁止歧视之名强迫雇主接受不能胜任的劳动者或某些不合理的负担。因此,即便算法将劳动者的某些不利特征作为筛选条件,雇主同样可以主张已有的抗辩事由,通常包括真实职业资格、正当经营所需、实质变更与业务负担、平权措施等 。
(三)算法劳动歧视的生成逻辑
马克思在《资本论》中提出:“资本只有一种生活本能,这就是增殖自身,创造剩余价值,用自己的不变部分即生产资料吮吸尽可能多的剩余劳动。”追求价值增殖是资本最基础的逻辑,也是其根本特性。而资本在生产出货币利益的同时,也生产出以雇主权力为介质的支配关系。换言之,资本运动是推动价值增殖和产生权力关系的双重运动。工业时代的劳动歧视是资本在追求价值增殖与维持权力支配过程中的风险产物,而至数字时代,通过控制算法,资本将其增殖逻辑包装为数字化逻辑渗入劳动力再生产过程,不仅强化了其增殖能力与权力能力,也在无形中使劳动歧视得到强化,进而衍生出“算法劳动歧视”的新形态,并反映在算法劳动管理的实践中。因此,从本质上来说,算法劳动歧视是资本逻辑、雇主权力与算法技术相互作用的结果。
首先,在资本增殖逻辑下,算法劳动管理秉持的是一种“效率至上”的价值观。因为效率最容易被量化为没有争议的数字变量,以符合利益计算的要求。那么 ,在效率逻辑下 ,算法在集中处理劳动者数据时,会自动将一些特征不太明显的数据直接认定为错误( 或噪声)数据 ,从而导致少量却非无用的数据在往后的算法决策中消失不见。而这种逻辑缺陷恰好契合了劳动歧视的发生路径。原因在于,在传统劳动歧视的影响下,弱势劳动者群体在企业内部劳动力市场中往往占比偏低,数据痕迹较少。而当弱势劳动者群体的数据在训练集中分布过于稀疏时,人工智能只能从中提取到该群体的零星特征,算法模型无法精准匹配,便会在应用层面产生厚此薄彼的歧视效果。例如,我国信息业中女性劳动者占比始终偏低,那么以互联网企业员工数据库为训练基础生成的算法则难免存在性别歧视的隐患。再者,为了降低计算成本、提升归类效率,算法运行还是一种动态循环的过程,受算法决策影响的个体所产生的行为数据随时会转化为另一轮算法学习的资源与基础。这意味着,一旦某个个体或群体具有了非正向的算法身份,就会一直被带入下一轮运算中而不断强化对该群体的负面成见,并最终承受算法在劣势累积下作出的歧视性推断与相应决策结果,如限制或排除某些劳动权利或机会。
其次,技术理性与资本权力逻辑的结合,使雇主权力深化为“雇主算法权力”。这种新型权力是雇主权力在劳动关系领域向更广泛、更隐蔽空间的技术延伸,构成了雇主维护企业秩序的技术工具和管控劳动者的新型权力基础。算法劳动管理的同义表达便是“雇主算法管理”,即雇主以算法为代理所进行的劳动管理活动,其是雇主行使算法权力的重要方式和体现。而算法劳动歧视则是在雇主算法权力崛起过程中表现出来的对劳动者个体权利的漠视。在马克思关于价值运动的论述中,资本主义劳动过程的最终目标是生产剩余价值。作为劳动过程中的主观要素,劳动者存在剩余价值产出的不确定性。因此,在购买劳动力时,雇主将倾向于选择生产力较高的劳动者, 以提升投入产出的效益率。在资本主义工业化时代,“生产力”简单直观地表现为男性、青壮年、身体健康等与人类体能相关之特质。究其原因,在性别、年龄、健康状况等身体条件上存在优势的劳动者能更好地满足雇主对劳动者剩余价值的需求,更好地服务于资本的增殖目的。这部分劳动者在劳动资源分配中占据有利地位,从而构成“优势劳动者”群体。与之相对,不具备上述特质的劳动者因剩余价值弹性空间较小,难以满足资本增殖的需要,更易在就业与雇佣关系中遭受不合理的利益限制与排斥,成为“弱势劳动者”。概言之,在雇佣劳动中,雇主评判劳动者的优劣主要取决于后者对资本增殖目的的实现潜能大小。而在数字时代,算法凭借高精尖的数据挖掘与关联推演功能,实现了对抽象概念的具象计算,并成为雇主衡量劳动者生产力的“标尺”。结合算法的技术特性,算法的开发和运行大致分为五个步骤:问题建构、数据处理、模型选择、模型训练、模型应用。问题建构是指算法控制者将其所欲解决的问题或所欲解决的问题或所欲达成的目标转译为计算机可理解、可测量的标准,这一具体标准被称为结果变量或效果变量。例如,在就业竞争中,雇主希望借助算法选拔出“优质”劳动者,首先就需要将这一目标转译为劳动者的技能水平、受教育程度、从业年限等相关性较强的定量标准。因此,问题建构实际上是以价值判断的形式展现算法控制者的认知水平与逻辑思维能力。但在现实中,为了实现对企业人力成本的最大化节约,雇主在“优质”劳动者特征的选取上往往掺杂着歧视性价值判断,例如在变量中加入“年龄”“婚恋情况”“生育情况”等弱相关标准,而使“优质”却不“优势”的劳动者遭受就业排斥,无法获得平等发展的权利。且更加隐蔽的是,在算法的技术中介下,对违法成本敏感的雇主还可以通过选择某些虚假中立的代理变量实现相同的歧视目的,例如以邮政编码代替对劳动者民族、种族的判断,甚至以劳动者饮食习惯代替对其健康风险的判断,从而实现对劳动歧视责任的豁免。而雇主掌控下的模型验证环节实则是对不合雇主预期标准的模型进行调适与训练,使其计算结果逐渐符合雇主的价值判断,难以具备应有的校验功能。总而言之,在资本增殖逻辑与雇主算法权力的复合作用下,算法在劳动资源分配过程中难以避免地展露出对优势劳动者的偏好、对弱势劳动者的排斥,而在无形中加剧了劳动领域资源分配的“马太效应”。但当算法所青睐之特质与工作岗位、工作内容并无实质联系时,算法对优势劳动者的利益倾斜、对弱势劳动者的利益限制就变成了一种没有正当理由的差别性对待,由此产生算法劳动歧视。需要强调的是,从传统劳动歧视到算法劳动歧视的演变,是资本增殖逻辑在技术赋权下对弱势劳动者的进一步排斥。这一风险虽根植于资本主义生产方式 ,却因全球经济一体化而呈现外溢效应。当前 ,我国正处于社会主义初级阶段 ,在坚持公有制为主体、多种所有制经济共同发展的过程中 ,部分经济形式可能受到算法劳动歧视等资本消极作用的影响。为维护社会公平和经济可持续发展 ,必须对此保持警惕 ,并予以有效规制和引导。在我国企业与劳动者根本利益一致的基本立场下 ,规制算法劳动歧视 ,关键在于规范企业借助算法管理系统进行的劳动资源分配模式与机制 ,推动算法在劳动资料、机会与利益的分配中实现公平 ,使劳动者整体达至事实上的平等状态。
直观地看 ,算法劳动歧视导致了劳动资源在优势与弱势劳动者之间的分配不公 ,侵害了弱势劳动者同样享有的发展乃至生存的权利。然而, 算法劳动歧视对数字时代劳动者权益保护带来的危机却不止于此。从整体意义来说 ,算法劳动歧视在横向上引发了劳动者隐私权、休息权等相关劳动权利危机 ,在纵向上则反映出劳动者主体性危机的进一步深化。而传统的劳动歧视审查制度却存在无法有效规制的适用危机。
(一)劳动者隐私权、休息权等劳动权利危机
与算法劳动歧视相伴而生的是劳动者隐私权、休息权等劳动权利危机。一方面,为了实现对劳动力的有效筛选,雇主必须充分掌握劳动者的个人信息,由此引发劳动者的隐私泄露危机。鉴于互联网生态具有数据高度流通的特性,在劳动关系成立以前,算法可以通过扒取劳动者在交易领域留下的数据痕迹进行联想、标记、分类,并用于就业市场的歧视性筛选,实施劳动领域的“大数据杀熟”。在劳动关系成立后,雇主则可在劳动者的计算机或移动设备上安装监控软件以记录和监视劳动者在这些信息设备上的操作行为,包括其浏览的网站地址、收发的文档邮件、网络聊天内容、社交媒体动态等,并借助算法进一步解析劳动者原本合法保留的个人信息,实质架空劳动法对劳动者非工作相关隐私的保护功能。
另一方面,算法劳动歧视所隐含的效率逻辑也是数字时代劳动者存在过劳危机的直接原因。上文已经论证 ,算法秉持的是以效率为核心的技术理性逻辑。这种效率追求在技术层面导致算法运行过程中存在数据代表性不足或代表性过度的数据偏差,进而引发现实中对弱势劳动者的不公正待遇。而算法在生产层面的效率追求,则体现为算法劳动管理所创造的“算法最优劳动时间”的概念。在传统劳动领域中,决定劳动消耗能否得到全部补偿以及决定其盈利水平的始终是“社会必要劳动时间”。它切实而凝练地反映了现实生产力与生产关系,是一种没有扭曲的对社会现实的抽象概括,其促使劳动者不断输出体能极值,使劳动者的身心面临不同以往的巨大压力,继而遭受更高的职业安全风险,乃至影响其生命健康。此者也违反了国际劳工组织所倡导的“体面劳动”理念。该理念崇尚劳动者在自由、公平、安全和人格尊严的条件下从事生产性工作,主张充分保护各类劳动者的各项权益,为广大社会劳动者营造优质的就业与劳动环境。因此,在算法劳动歧视的生成过程中,算法对数据的依赖、对效率的追求也间接诱发了劳动者的隐私泄漏和过度劳动危机。二者属于算法劳动歧视的共生危机。基于这种生成上的紧密联系,对算法劳动歧视的规制,自然也伴随着对劳动者相关权利危机的化解,以保障数字时代的劳动者亦能享有“体面劳动”的权利。
(二)劳动者主体性危机
更深入地说,算法劳动歧视还折射出劳动者主体性危机的进一步深化。事实上,算法劳动歧视的底层逻辑与劳动者主体性危机近乎重合,二者都暗含着劳动者的主体客体化趋势,即算法将劳动者视为可解析的数据集合体、劳动过程中可计算的客观因素。但从本质上来说,劳动是劳动者主导下的有意识、有目的的活动,而不是机器的客观生产过程,劳动者也并非机器性能的延伸或雇主的生产工具。劳动者的主体性便是指劳动者在劳动过程中作为人所具备的能动性、创造性、主导性、意识性,集中体现为劳动者对劳动过程的控制。历史证明,从工业时代以来,雇主便借助机器化生产和专业化分工,试图将劳动者与生产过程的核心分离。然而,无论工业机器如何将劳动者边缘化,其本质上也只是人类体力和主观劳动经验的对象化,还无法对人们在实践过程中构建的复杂多元状况进行独立的逻辑推理和因果分析,不具备任何的自主性。但在数字时代,算法突破性地具备了人类认知方面的功能。其通过对大数据的自动化感知和高精度处理来模拟人的视觉、听觉、语言、行为,甚至是人的思维逻辑,从而具备了“类主体性”。这意味着,在算法的辅助下,雇主的劳动管理实践可以从劳动者的外在行为控制深入至其内在思维诱导。例如,借助算法,雇主可以通过对劳动者数字痕迹的深度解析来掌握其个性、心理与偏好,并在此基础上投放定制化内容以引导其思维走向,由内消解劳动主体意识,加速劳动者的主体客体化。而基于对工具理性的信任,以及在节约思维成本的行为习惯下,劳动者也倾向于将劳动过程中的问题交由算法解决,而非进行创造性的思考,由此引发二者的主体性颠倒。久而久之,当劳动者停止创造,当劳动过程的一切都可以被清晰精准地计算和解释时,既有的技术也将停止更新,最终对社会发展带来巨大的负面影响。因此,劳动者主体性危机是深入人类社会制度层面的根源性危机。其预示着构成人类生存根基的劳动本质力量正处于消减之中。算法劳动歧视的强化,无疑预示着劳动者主体地位的弱化、劳动者主体性危机的深化。而规制算法劳动歧视,便是要求算法正向发展,不背离道德伦理与劳动者的基本利益 ,坚持“人是目的而非手段” ,其间接具有维护劳动者主体性的特殊价值。
(三)传统劳动歧视审查制度的适用危机
算法劳动歧视为数字时代劳动者权益保护带来的另一重危机 ,还体现为传统劳动歧视审查制度在应对这一新型歧视时的适用性不足。目前, 我国尚未制定专门的反歧视法 ,故缺乏对算法劳动歧视进行一般性规制的原则指引。若将算法劳动歧视视为劳动歧视的特殊类型予以宏观规制, 目前的劳动歧视审查标准又存在界定模糊的问题。以《劳动法》与《就业促进法》为依据,司法实践中逐渐形成了以行为、事由、后果、关系四要素为核心的侵权认定模式。在算法劳动管理的语境下 ,行为要素是指雇主通过算法决策在劳动者中形成分类效应 ,使部分劳动者得到了利益倾斜 ,而某一部分劳动者却受到了利益限制。事由要素是指算法对劳动者差别对待的事由必须是法定区分事由 ,即《劳动法》第12条 ,《就业促进法》第29、30、31条规定的性别、民族、残障、户籍、携带传染病病原等传统且典型的弱势特征。后果要素是指被歧视劳动者遭受物质或精神上的不利后果。关系事由则强调区分事由与不利后果之间存在因果关系。然而,结合上文中算法劳动歧视的特征,传统审查模式在适用中呈现明显的不适应, 主要体现在:
第一 ,在事由要素上,基于非法定区分事由的算法劳动歧视争议将无法通过法院的诉前审查,例如劳动者因罹患慢性非传染病、存在较高健康风险而遭致歧视等。并且,在算法使用虚假中立标签的场合中,劳动者若不具备一定的技术背景知识与逻辑思维能力,也难以识别并证明中立信息与法定区分事由之间的代理关系,进而无法寻求司法救济。第二,在后果要素上,算法劳动歧视的侵权后果通常是劳动者预期利益的不当减损,而预期利益往往难以证明,即便证明也难以得到支持。第三,在关系要素上,既有审查经验并未明确劳动者的弱势特征与侵害结果间的因果关系是否具有排他性。换言之,在雇主存在混合动机的情况下,法院往往难以有效干预此类歧视行为,而这也为以多变量关联计算为技术特征的算法劳动歧视创造了司法豁免的可能。就雇主是否必须具备歧视故意的议题,各地法院暂未达成共识,但主观故意的缺失的确会让法官倾向于得出非歧视的结论。在过往的审判实践中,大多数法院都要求原告劳动者提供雇主过错的直接证据,尤其是涉及歧视性言论的记录等。因此“证明难”一直是此类诉讼的主要障碍,而在算法的中介下,劳动歧视还被技术中立的外观所掩盖,进一步加剧了劳动者的举证难度。
尽管算法劳动管理存在歧视性风险,但算法在公平性上的衡量可能仍优于它所取代的人类决策者。欧盟立法者便鼓励雇主采用这样的管理工具来促进多样性和平等。作为时代的风口,算法与劳动管理的结合将是大势所趋,但这并不影响算法劳动歧视是劳动数字化进程中的必克难关。事实上,规制算法劳动歧视,并非抵制劳动领域内算法的使用,而是要确保使用的规范性与严谨性,以使算法更好地服务于劳动生产。这种法律规制则可围绕“内治”与“外制”两大思路:一方面,从算法本身入手,强调在算法研发阶段,雇主及相关设计主体必须妥善处理作为算法运行基础的劳动者个人数据,保证其所研发的算法模型符合算法劳动管理技术标准。另一方面,着眼于算法之外,通过构建算法影响评估制度,联结算法劳动监察与算法劳动歧视的司法救济,对雇主算法劳动管理形成层层相扣的制约体系,从而倒逼雇主妥善使用算法,主动防范并化解算法劳动歧视的风险。
(一)算法劳动歧视的内在之治
算法劳动歧视的内在治理,核心在于对算法本身的形塑,其主要包括算法的计算基础与算法的计算模型两个部分。具体而言,在算法研发阶段,雇主必须保证对劳动者个人数据使用的合法性与正当性,同时保证拟部署的算法符合相关技术标准,从而在源头上构建可信、可控的良性算法。如前述 ,数据是算法的演进基础与计算依据。鉴于这种根源性的依赖关系,加强对劳动者数据隐私的保护,正是从源头治理算法劳动歧视的关键所在。以《个人信息保护法》《数据安全法》为依据,目前我国对公民信息安全保障采取的是赋权与赋责双轨并行的立法思路。但在劳动领域,对劳动者进行数据赋权实际上存在较大的虚化风险,未必能够起到保障劳动者数据自决的目的。其一,劳资双方存在力量上的结构性失衡,面对雇主的数据收集请求,劳动者的自愿往往不具备有效性。其二,立法赋予劳动者的防御性权利多针对完全自动化决策,但实践中即使雇主以算法为决策代理,也可谎称算法只是起到了决策辅助作用,自己保留了最后决策权。在此情境下劳动者必将陷入不能证明的困境。其三,当下一部分数据权利的法律效果还有待厘清。例如,当雇主借助招聘算法进行招聘时,因算法歧视而遭遇就业排斥的劳动者主张拒绝权的后果为何?在立法尚未明朗的情况下,权利的保障路径往往要经历从习惯、审判,到最终被立法接纳的阶段,这将是自下而上的漫长过程。因此,赋予劳动者数据权利在短期或中期内难以实现保护目的,治理效果相对迟滞。我们更赞同赋责路径,即规制算法劳动歧视的重点应当在于强化雇主的算法使用义务与责任。且从本质上说,劳动关系作为典型的关系型契约,已经超越了以服务换取报酬的交换,并发展成基于信任、承诺和共同团结的复杂关系。对雇主妥善处理劳动者个人数据的要求还源于从劳动关系从属性延伸出来的信赖义务。根据《个人信息保护法》第4条规定,雇主的数据处理活动包括对劳动者个人数据的收集、存储、使用、加工、传输、提供、公开、删除等。但事实上,雇主进行数据处理并不像审阅一份具有可读性的文书资料。管理人员无法仅凭借语言能力与逻辑思维能力就实现对数字信息的价值挖掘。在数据的处理过程中,雇主可以实质性参与,主要是对数据收集与处理目的的设定,真实意义上的数据处理则由算法代为完成。因此,对雇主数据处理的规制更多集中在雇主如何收集劳动者数据以及如何选择应用算法两个方面。对于前者,尽管《民法典》第1035 条及《个人信息保护法》第13 条均以数据主体的同意作为数据处理的合法性基础 ,但雇主可轻易制造“告知—同意”的合法表象,或通过强调管理权行使的正当性绕道而行。我们认为,当雇主仅以劳动者同意作为数据处理基础时,或可借助算法影响评估来辅助判断同意的有效性,以此为知情同意原则之补强。德国2017 年《联邦数据保护法》第26 条第2 款规定,若雇主的数据处理是基于雇员同意而展开的,那么应当考虑劳动关系中雇员的依赖程度以及作出同意时所处的环境,以评估该同意是否自由作出。如果该同意和雇员在法律上或经济上的获益相关 ,或者雇主和雇员追求相同的利益 ,该同意便可成为雇 主信息处理的基础。概言之 ,德国判断劳动者同意的效力性的关键在于审查该同意是否为劳动者带来法律或经济上的利益。考虑到我国劳动力市场发展的不均衡性, 可以将效力性标准适度放宽 ,只要劳动者作出的同意不会对其造成显著的不利影响 ,即可作为雇主数据处理的合法依据。后者则可以欧美相关司法实践为鉴。欧盟法庭认为,算法的使用相当于一种规定、标准或习惯。如果求职者或劳动者能够证明他们已经或即将因使用该算法而处于不利地位,那么就可以推定存在间接歧视,继而将证明歧视未发生的责任转嫁至雇主。为此,雇主需要证明算法应用目的的合法性。如果合法性被验证,证明的重点就会转向适当性,内容包括算法与目标间的相关性、使用必要性、偏差最小化选择、劳资利益平衡四个要素。仅就前二者而言,国外学者认为,在算法已被验证的预测范围内,其有效性可能会超过任何人工方法,但却无法规避存在“弱势积累”而沉淀为歧视的可能性。相较之下,选择偏差最小的算法意味着雇主为确保算法公正性作出了合理的努力,应当是雇主主张责任豁免的关键因素。如若雇主使用的是偏差最小的算法,那么证明时应该关注算法程序是否显著且可验证地减少了与其他类型(包括非算法)决策程序相比的偏差。2023年5月,美国平等就业机会委员会(EEOC)也发布了一份技术援助指南,讨论《民权法案》第七章如何适用于评估就业筛选智能工具的不利影响。在算法部署与歧视检验上,指南认为,雇主首先需要检查使用特定算法是否导致某一群体的选择率显著高于或低于另一个群体的选择率,以评估该算法是否对特定受保护群体产生不利影响。如是,雇主则需要证明使用算法对于安全高效地完成工作内容是有必要的,也即算法程序评估的是个人与特定工作相关的技能 ,以及该程序符合商业必要、歧视最小化的要求。借鉴上述治理经验 ,我国人力社保部门或可通过补充监察条例或出台新的管理规则 ,要求雇主在算法部署环节充分衡量算法与目标间的相关性、使用必要性 , 并在不违背法律、商业道德、社会伦理的前提下 , 确保其选择使用的算法是对劳动者权益侵害最小者 ,以此强化雇主的应注意义务。而宏观地说 ,无论技术条件如何变动不居、难以预料 ,人的尊严都应当是永恒而中心的规制性伦理要素。作为算法进入劳动领域的重要前提 ,算法劳动管理必须承认并坚持劳动者的劳动主体地位 ,以保护劳动者人格尊严为底线 ,而不能成为限制劳动者、操控劳动者的自动手段。
关于如何辅助雇主判断其所使用算法的偏差程度 ,人力社保部门可以就此制定算法劳动管理的技术性标准。其规制意义在于:第一,技术标准可以在算法生命周期的早期阶段将伦理和可信价值量化为产品要素,将法律和道德观念转化为代码设计标准,进而规范算法研发流程,弱化雇主不断将设计复杂化、黑箱化的不良激励,引导算法“向上”“向善”;第二,技术标准具有政策法令无法比拟的灵敏性与专业性,对技术迭代能够作出及时、动态的预测、研判和跟踪。这意味其能够及时捕捉算法在部署或更新前后的性能变化,并进行切实而微妙的调适,也为算法影响评估制度的有效开展奠定基础;第三,在算法侵权事故发生后,技术标准可以作为认定技术损害和缺陷的重要依据,在宏观上也有利于人工智能产品责任制度的构建。
从域外实践来看,设立技术标准已然是各国实现人工智能治理愿景的重要途径。例如, 2019 年美国商务部国家标准与技术研究院发布一项计划草案,为制定推动经济发展和保证国家安全的人工智能标准而征求公众意见。草案指出:“阐明技术要求、规格、准则或特征的人工智能标准有助于确保人工智能技术和系统符合功能性、可操作性和可信度等关键目标,并被准确、可靠和安全地执行。”因此,草案建议联邦政府“致力于更深入、一致、长期地参与人工智能标准制定活动,以帮助美国加快可靠、稳健和值得信赖的人工智能技术开发的步伐”。考虑到专业所限,本文难以对计算机科学领域具体的技术标准设计展开深入分析。但总体而言,或可以下述三方面作为算法劳动管理技术标准培育的着眼点。
首先 ,对于技术标准的制定工作 ,人力社保部门应起统筹作用而非具体执行。考虑到订立技术标准需要凝聚大量专家学者在技术论证与认知方面的关键共识 ,因此 ,不宜将标准的制定工作全程置于行政部门内部 ,而应与国内知名技术机构、科研院校展开专项合作 ,必要时亦可引入域外权威机构作为临时顾问 ,就标准的科学性、适用张力、应用范围进行讨论与反复验证。人力社保部门则更多发挥监督与统筹职能 ,同时要构建合理的利益代表参与机制 ,赋予工会组织一定的话语权 ,提高标准制定的多元性与代表性。
其次,在标准时效上,必须保证技术标准供给与技术迭代的“同频共振”,以确保标准供给对实践需求的高度响应。必须在保证技术标准严谨性的前提下,尽可能缩短其制定周期,以及时弥补已暴露的技术缺口。借鉴国际标准化组织和国际电工委员会成立的第一联合技术委员会在制定人工智能技术标准时的分级思路 ,我们认为,对有特殊制定需求的技术标准应当适度简化工作流程,如平台用工中涉及劳动者休息权、健康权等生存权利的算法系统的技术标准。因为此类算法系统具有较高风险性,一旦出现技术缺陷,不仅会对劳动者的生命造成重大威胁,甚至可能将风险外溢至公共安全领域,故必须定期按照最新标准进行技术调适。而对于常规类型的技术标准,如针对人事考勤之类的低风险算法的技术标准,应当尽量省去不必要的审查程序,在标准制定的规范性与时效性之间达成平衡。
最后,在标准内容方面,欧盟委员会AI 专家小组认为,可信赖的AI 包含三个组成部分:(1)合法性,确保遵守所有适用的法律和法规;(2)符合道德伦理,表明尊重并遵守道德原则和价值观;(3)稳健性,因为即使出于善意,人工智能系统也可能造成无意的伤害。值得信赖的人工智能不仅涉及人工智能系统本身的可信度,还包括系统生命周期内的所有参与者的可信度。以此为参考,人力社保部门亦可将算法劳动管理技术标准分为法律政策标准、道德伦理标准、生产风险标准三大模块,进而凝聚多方力量进行精细设计与系统建设。
(二)算法劳动歧视的外在之制
算法劳动歧视的外在规制强调第三方主体对算法劳动歧视的制约作用。例如,在算法运行的各个阶段,由算法审查委员会予以及时的风险评估,由劳动监察部门予以合规性检查。而当雇主不当使用算法而构成劳动歧视时,则由司法机关追究相应责任,并对被歧视劳动者予以救济。
从概念上来说,算法影响评估制度是在算法设计、部署与运行期间,要求算法治理的相关利益主体对算法可能造成的风险及其对社会的影响进行充分评估的赋责性机制。2019年,华盛顿州提出的S.B.5527和H.B.1655法案明确规定,政府和公共机构在公共事业场景中应用自动化决策系统时应当评估算法影响。2023年7月5日,纽约市消费者和工人保护部出台的《第144号法规》更将算法规制延伸至劳动领域。其要求雇主必须提前一年将计划在招聘和晋升决策中使用的算法提交至独立审计员,以接受后者的偏差审计。并且,雇主必须公布最近一次偏差审计的结果摘要,提前至少十个工作日告知被决策劳动者算法选择的资格和特征。由此可见,完善的算法影响评估制度将是治理算法劳动歧视的有力工具,其功能在于前置性地将雇主算法管理对劳动者或其他利益主体可能造成的不利影响降至可控的合理水平。即使算法无意承载了雇主的歧视性价值判断,通过构建系统化、场景化、精细化的算法影响评估制度,不论是算法劳动歧视,还是其尚不显著的关联风险,都可以得到有效化解。因此,未来人力社保部门可以出台关于组织开展算法影响评估的具体规则,并围绕以下几点进行构建。
在评估方式上,我国算法影响评估可采取企业评估与行政审查相结合的方式。鉴于非技术性企业通常只能是算法系统的受让者,那么在算法设计者与应用者分离的情况下,评估义务的具体承担可以通过采购合同进行协定。但必须确保的是,算法系统在正式部署时已经通过相应的评估环节,其安全性能已然得到一定的权威认证。而在行政审查的制度设计上,为了提升评估的专业性与全面性, 实现权力能力与技术能力的平衡,除了社保部门、企业协会、行业工会传统三方以外,还必须邀请一定比例的权威技术人员,与前三者共同组成算法审查委员会。另外,从现实出发,未来随着算法技术的成本优化与应用泛化,对任何类型的算法系统都进行双边评估是无法实现的。更加切实可行的做法是建立差异化评估机制,即不同算法风险等级对应不同评估流程,不同评估结果对应不同监管强度。对于初步判定为低风险的算法系统,算法影响评估则以企业评估为主,算法审查委员会负责形式审查与技术备案工作。对于中高风险算法,算法审查委员会将进一步承担实质审查的复审工作,由此提高评估效率与评估精度。
(2)建立综合性评估指标体系
在评估内容方面 ,除了上文提及的技术标准可以作为评估指标之一 ,以美国历次算法问责法案包括草案为参考 ,算法审查委员会对算法的审查还可以围绕算法应用目的、劳动者同意的真实性、数据使用特性、敏感程度、是否符合最小化要求、系统执行任务类型及对劳动者人身或财产权益的潜在危害程度、劳动者是否切实享有参与权、异议权与拒绝权、是否对公共利益造成影响、雇主的技术性和物力性防治措施是否充分等方面 ,构建综合性技术评估指标体系 ,并设置兜底条款 ,将雇主可能进行的任何与算法公正性相关的研究活动纳入审查范围。而为了指导企业评估的有效完成 ,算法审查会亦可出台关于上述算法评估指标的自检清单 ,以详细问卷的形式对数据处理、敏感程度、结果变量、相关关系、公众影响等术语作出引导式规定,并设定一定数量的与自动化决策系统流程、数据和设计逻辑相关的问题,雇主通过依次回答问题便可以计分卡形式得出初始评估结论,随后可进一步就分值较低项构思改良方案,以提高行政审查通过率。
需要强调的是,雇主还必须事先将算法技术方案告知并听取工会意见。算法技术方案应当属于《劳动合同法》第 4 条规定的“涉及劳动者切身利益的规章制度或重大事项”范围。因此,单位工会或职工代表有权听取雇主关于算法系统运行逻辑、功能的详细解释,并提出质询,就具体方案所隐含的歧视风险与雇主展开集体协商。另外,由于算法的运行过程也是各式风险的动态演变过程,源源不断的数据收集以及算法与其他技术或社会系统的关联互动,可能使算法应用影响脱离雇主与监管者的预设。因此,对算法的影响评估不应仅局限于事前阶段,而应贯穿算法的全生命周期。事中定期与不定期评估的加入可以帮助确认算法运行是否偏离设计意图、是否仍在技术安全范围内,以免出现意外不可控的结果。尽管作此类影响评估在短期内会增加企业的运营成本,令企业承受更大的社会责任,但从长远来看,自我审查有助于企业维持劳动者信心及促进劳动力市场的健康发展,具备充分的必要性与可行性。
2.联结算法劳动监察与劳动歧视的司法救济
由于算法并不具备法律上的人格属性,算法劳动歧视的责任承担仍要落实到作为算法管控主体的雇主身上。当雇主表现出歧视性用工倾向时,劳动监察部门有义务通过合规性检查予以纠正。而一旦当雇主的违规管理行为构成算法劳动歧视,则交由司法机关追究相应责任。基于这种业务上的隐形联络,在算法劳动监察机制的构建上,可以考虑将劳动监察与司法救济相联结。首先,在行政审查结束后,算法审查委员会可以根据评估结果对算法系统进行风险等级标注,并对应不同等级的劳动监察强度,包括后续定期自检与不定期抽检的频率、检测范围的全面性等。雇主不仅需要定期公布一定范围内的技术方案,还需要在其企业季报、年报中更新技术合规情况。对于所部署算法不符合相关技术标准的雇主,劳动监察部门可予以警告并责令限期改正。若雇主拒不修改或改正不合格,将会被进一步予以较高金额的行政罚款,以倒逼其妥善使用算法,充分履行管理责任。另外,针对同一雇主的历次检查结果也将汇总为专门的电子档案留存,以备未来司法机关调取。
其次,当劳动者遭受雇主算法管理的负面影响而起诉维权时,由于现阶段劳动歧视的司法审查模式尚不成熟,更现实的路径是将算法劳动歧视或算法歧视这一大类认定为特殊的侵权事由。考虑到传统侵权责任强调原告对行为结果间的因果关系与过错责任证明,而难以发挥对劳动者的救济功能,我们认为还应当就雇主算法管理的归责原则作出特殊安排。例如,对中高风险算法的行政审查与使用批准实质上属于行政许可,其隐含侵权风险较为显著,对应严格责任,但同时可鼓励雇主购买一定份额的保险或设立基金以分摊风险。低风险算法则采取过错责任推定与举证责任倒置规则。但无论是何种类型的算法侵权,劳动者都只需要证明侵权结果的实际发生,以保证劳资举证责任分配的实质公平。而鉴于算法劳动歧视具有高度隐蔽性,一种可行的取证方案是将传统的横向对照扩张到纵向对照,即劳动者可以选择以自身过往经历为对照,证明其因某项事由的改变而遭受不同以往的不利决策结果,例如雇主因劳动者残障或突发恶疾而以其他借口不正当解除劳动关系。此外,由于某些具有人身依附性的特征难以改变也不可虚拟,劳动者也可以通过假想对照,证明其一旦消除或取得某种特性便可以获得更加有利的对待,进而证明算法管理决策中歧视的存在。雇主若主张责任豁免,则需要围绕目的正当性、必要性、是否满足歧视最小化要求等方面进行举证。
最后,未来若算法基于自主学习而自成规则, 做出独立决策致使劳动者遭受歧视,算法设计者无过错便可免责,雇主则需为部署该类不稳定算法承担类似于民法上的担保责任。数字时代,算法即规则,而规则即治理。当算法作为基础设施嵌入数字社会,并逐渐承担起主导资源分配的权力性角色时,如何保证其公正性就成为关键议题。然而事实上,算法很难保持中立和客观 ,其设计逻辑和运行过程,始终负载着一定程度的社会价值选择。特别在劳动领域,雇主权力与算法劳动管理的结合,使算法成为雇主意志的新型载体,继而孕育并生成了算法劳动歧视。本文以算法劳动歧视为研究对象,探究其特征、内在构成与生成逻辑,并从宏观视角阐明其可能导致的多重危机。在此基础上,提出具体的治理路径:一方面,可联合社保部门与社会各方力量,制定算法劳动管理技术标准,推行算法影响评估制度,将歧视风险控制在最低范围;另一方面,需强化雇主算法使用中的义务,包括确保劳动者数据处理同意的真实有效、审慎选择对劳动者权益侵害可能性最小的算法方案等。总之,面对算法决策与劳动歧视交织的新挑战,只有通过伦理引导、制度约束和技术治理的多维协同,才能从根源上缓解乃至消除算法劳动歧视,构建更加公平、可信的算法生态体系,真正保障数字时代劳动者实现“体面劳动”。