欢迎访问中南财经政法大学社会法学研究网!
教师学术园地
你当前的位置: 首页 学术园地 教师学术园地
徐智华、解彩霞:平台经济算法用工的挑战与规制研究
发布时间:2022-12-13 编辑: 浏览: 1556次

  摘要:算法技术嵌入平台经济的用工领域,改变了就业方式与工作环境,重新定义了用工方与劳动者的权利边界。平台用工方将经济利益与价值选择内隐性地嵌入平台用工的算法系统,在用工决策、用工筛选与用工管理中穿透劳动者保护法律制度屏障,从而诱发劳动者的权利危机。面对算法时代用工方侵权行为更加隐蔽且广泛的特征,传统的劳动者法律保护制度难以满足算法用工规制的需求,亟须法律制度进行相应的调适。建立以法律为主导的算法用工法律制度体系,赋能劳动者新型算法权利,明确算法用工侵权的责任承担以及配套算法用工监管机制等,以平抑算法用工对劳动者的负面影响,推动平台经济增长与劳动者权益保护的协同发展。

  关键词:平台经济;算法用工;劳动者保护;新型权利

  一、问题的提出

  平台经济在全球兴起并快速发展,成为全球经济的重要组成部分。平台经济是以网络、智能终端等为依托发展起来的一种数字经济形态。同时算法、大数据等人工智能技术的发展促进了平台经济的数字化与智能化,带动了数字经济与实体经济的深度融合,在平台用工领域的融合表现更加明显。平台的数字化发展提供灵活且众多的就业岗位,促进就业与实体经济的繁荣,而经济发展的数字化范式推动就业模式向数字化范式转型,意味着原有的人力资源投入格局被打破,新的用工模式兴起并逐渐演化出新的市场势力与用工形态。平台用工方运用算法通知、算法安排、算法过滤、算法评估等对劳动者进行技术性的管理与控制,在理论上以“技术中立”为支撑,在形式上采取意思自治下的外包、劳动派遣等雇佣分离模式。在双重外壳的遮蔽下,平台用工方逃避本该为劳动者提供的福利与保障的法律责任,劳动者的权益被不断侵蚀与挤压,并在算法的“数字控制”下陷入行业的内卷之中。现有的劳动保护法律制度对于新生的平台算法用工关系存在规制不敷,劳动者的合法权利陷入易被侵犯且得不到保障的境地,因而平台劳动者权益保护成为国内外关注的焦点。美国学者安基贝克对从事平台用工的劳动者进行定义并从组织行为学的角度描述平台工作的复杂性与协作性,重点分析在线工作的流程并指出平台就业可能陷入专注于成本的最低化以及剥削廉价劳动力的劳动管理模式风险;美国学者杰里米亚斯以优步司机群体为研究平台用工的样本,提出平台、服务用户以及劳动者三方共同承担雇主责任的解决方案;欧盟的研究报告指出,欧洲非标准用工和自我雇佣一直在增加,而从事非标准用工的劳动者在获得基于保险的社会福利方面一直处于不安全与不稳定的境况;爱尔兰学者詹姆斯研究算法管理在人力资源管理中的重要作用并剖析了算法在平台用工中进行人力资源管理的过程,指出平台通过算法来匹配市场供求,调配和秘密监控劳动者所执行的任务,同时算法管理成为企业降低成本、侵蚀就业标准的手段;澳大利亚学者安德鲁等通过研究澳大利亚平台用工的特点以及其对标准用工与劳动监管等方面的挑战,提出应加强并扩大劳动监管的框架以应对挑战。国内学者王全兴教授指出,在新经济灵活用工模式下更要关注网约劳动者权益的保护,深入研究网约工与平台关系属性;谢增毅教授认为,传统劳动关系的概念和判定标准具有较强的弹性和适应性,并非完全过时仍可包容网络平台用工关系;陈龙博士以美团外卖骑手为范例深入研究数字控制下平台劳动者的劳动过程,并指出其实质是资本对劳动者的控制与权利的掠夺。综上可见,国内外学者聚焦平台劳动者劳动关系认定,并就相关法律的调适进行了研究,但在中国语境下,算法嵌入平台用工对劳动者保护制度影响的具体场景化研究相对较少。当前,面对劳动内容管理的算法化趋势与劳动者保护制度时代变动的国际动向,刺破平台用工方的技术面纱,构建算法平台劳动者法律保护制度等具体保护路径,成为理论与实务界亟待解决的问题。

  二、算法在平台经济中的具体应用

(一)算法在用工决策中的应用

  算法嵌入平台用工是算法通过平台对人力资源进行跨越地域与空间快速配置与优化的过程,且该过程发端于用工方设置与制定的算法决策。算法决策(Algorithmic Decision)是用工方将用工决策方案镶接于算法系统,并由算法驱动劳动平台自动管理成千上万劳动者和服务接受者之间的交易以实现与完成决策目标。具体表现为:一是用工方选定或定制符合其经济利益与价值选择的算法系统,并利用算法对经营决策中的用工方数量、用工模式等进行执行与完成;二是用工方借助算法在线实时指导、干预劳动者的劳动行为,实现对劳动者强有力的控制。因此,用工方无需再借助传统劳动关系的契约性捆绑对劳动力资源进行控制与管理,而是采取雇佣分离模式,并借助算法实现控制成本的最低化与经济效益的最大化。在此层面上,算法不仅是简单处理数据代码,且决定了不同工作背景下的用工协议框架。算法系统成为用工方实现外在责任主体的弱化而内在控制强化的有力支撑,亦是平台经济雇佣分离模式形成的关键要素,进一步助推用工方在战略决策中采取雇佣分离用工模式逃避社会责任目的。可见,算法在用工战略决策过程中决定了劳动者的劳动地位、改变了用工的范式、影响了劳动者的权益。

(二)算法在用工筛选中的应用

  算法系统的运转需要对平台经济的生产要素进行数据化处理,劳动者的个人信息以及劳动内容等亦被以数字代码0和1予以呈现,而数据的处理与输出被规训为无限接近用工方事先在程序中内置的目标。在筛选劳动者的过程中主要使用决策树算法,操作者选定目标与处理的变量,系统自动按照目标进行搜索与分类。首先,用工方根据其价值、偏好与利益而选定目标,如在线时长、年轻健康等成为衡量优秀劳动者的目标,算法系统根据用工方的目标进行自动筛选、预估劳动者未来的工作表现及完成劳动结果的程度等,并在收集数据时对劳动者进行等级划分、类别标识并加以过滤,避免输入数据出现不完整、不公平、不可靠,最终影响结果的输出。劳动者在算法筛选系统中被标上“类别的标签”,折射出用工方对劳动者性别、民族与健康状况等方面的歧视与偏见,并以数字化的形式掩盖在不透明算法的过程中,无法通过输出结果来预判因果关系或锚到责任主体问题。

(三)算法在用工管理中的应用

  平台用工系统中的算法管理(Algorithmic Management)是一种以自动化的方式来组织与协调劳动者劳动群体,通过缩放与自动化过程产生灵活性并提高效率。用工方利用算法对其行为进行深度掩盖,算法扮演着管理层的角色进行工作内容分配与劳动成果评估等,在管理模式上采取全景式的数字化控制:一是增加监控、加快工作节奏、最小化工作任务之间的差距以不断挖掘劳动者的个人信息,迫使劳动者时刻高效工作。二是制定严苛的奖惩制度,对劳动者的劳动成果进行细致的数字测量与单个劳动者工作表现的综合统计分析,表现不佳的劳动者面临着巨大的监督压力与惩罚机制,如超时罚款、态度不佳罚款、派单不接罚款等。例如,江苏省广播电视总台报道的一位外卖小哥因故超时被罚,大半天收入没了。三是同质化、机械化的评级范式,钳制劳动者的工作创新性与选择性,再加上外在就业环境的逐低竞争与内卷化竞争使劳动者更加依赖平台,内外双重挤压下的劳动者没有议价的能力与空间。可见,基于平台的评级与信誉带来的算法管理,延伸了传统人力管理的范围,提高了管理的强度,同时也不断剥夺了劳动者的个人隐私与工作自主性等权利。

  三、平台算法用工给劳动者法律保护制度带来的挑战

(一)平台算法用工给劳动者法律主体地位带来的挑战

  平台经济的就业呈现去组织化、去单位化与就业灵活化的特点,驱动着雇佣分离式的用工模式多样化产生,对平台劳动者的法律身份认定以及规范用工的最低标准提出了挑战。不同于传统以建立劳动合同关系为基础的劳动者保护制度,当前用工方采取雇佣分离的用工模式使得劳动者与用工方的关系,在理论上存在劳务关系与劳动关系之争。有的学者认为平台用工属于民事合同法律关系,属于《民法典》调整的范畴;有的学者认为属于“隐蔽雇佣关系”,应受劳动法的调整;有学者认为平台劳动者置于雇员与独立承包商之间的灰色地带。我国《劳动合同法》第7条规定:“用人单位自用工之日起即与劳动者建立劳动关系”,第10条规定“建立劳动关系,应当订立书面劳动合同”,在劳动法学理论与司法实践中,劳动关系的认定按照经济的从属性与人格的从属性的表征形式进行判别。然而平台经济的用工方与劳动者签订的分包、发包或者独立承包商等非劳动合同形式,从表征看,劳动者的经济与人格属性独立。因此,在实践中无法精准适用现有的劳动者保护法律制度,出现法律的模糊性。不同国家在处理平台劳动者法律地位时采取不同的方式,在美国优步诉讼案中以判例的形式重新确立劳动者的法律身份。而我国为非判例法国家,在没有相关法律直接进行适用和指引的情况下,劳动者对自身劳动地位的确认无法从外观进行相应的判别。当面临自身权益受损的情况,需通过诉讼的程序进行法律地位的确立,而不同法官对相似的情况出现不同的判决结果。对于劳动者而言,维权的过程是漫长的,且存在不确定的风险。

(二)平台算法用工给《民法典》侵权制度带来的挑战

  1.侵权主体复杂且识别困难

  在传统的劳动合同关系下,劳动者的侵权主体多为签订劳动合同的用人单位,而在算法技术加持下的雇佣分离模式中,在法律关系上,劳动者是自担风险的独立角色,表面上与用工方不存在劳动合同的关系,实际上劳动者受算法系统的控制与支配,而隐藏在算法背后的用工方很难直接认定为侵权主体,特别是在算法进行自主的对数据进行处理和分析的智能运转时,即使用工方参与其中,但是智能算法的整个过程可能已经超越设置的权限,算法能力的应用范围以及产生的后果很难归咎于用工方。

  2.侵害权利范围扩大

  平台用工中雇佣分离的合同关系,游离于劳动者保护法律制度之外,即用工方对劳动者权益的挤压和侵害行为不受法律的约束与规制,导致侵犯劳动者的权利客体范围进一步扩大,不仅包括传统的劳动者基本权利,如休息休假权、获得劳动报酬权、获得社会福利等权利,而且扩展到职场隐私权、删除数据权、算法系统知情权等新型权利,而对于在算法用工系统中的从业人员而言,这些权利直接关乎劳动者作为劳动者的其他权利的实现前提和基础,如果这些权利受到侵害,与之相关的基本权利也受到系统性的侵害。

  3.侵权损害事实认定困难

  随着算法智能化和自动化的发展,在自动调整和程序设计时,产生的对劳动者权利侵害,一是举证困难,二是难以将责任都归责于用工方。传统的劳动合同关系,用人单位有保障劳动者基本权利的义务,违反《劳动法》的规定须依法承担责任。雇佣分离模式的合同在侵权关系上按照《民法典》规定适用过错责任与过错推定的一般原则,须证明行为主体主观存在过错且其行为与损害事实存在法律上的因果关系,而作为非生命体的算法系统目前并未获得民法主体资格,很难进行责任的承担。因此,平台用工领域的算法技术,一方面阻隔了劳动者与用工方的劳动关系,另一方面隔绝了用工方行为与劳动者损害事实之间的因果关系,致使劳动者的损害事实难以认定。

(三)平台算法用工给劳动者民事权利与劳动权利带来的挑战

  1.劳动者的隐私权易受侵害

  平台经济释放了大量灵活的就业岗位,劳动者通过电脑、手机等智能设备即可在线或远程获得就业机会以及完成工作任务,用工方也可以通过劳动者的手机、电脑等智能设备实现对劳动者工作的全景式监控,从而节省时间、人力等成本。整个过程的运转支撑是用工方利用算法系统将网络、电脑与手机等智能设备进行融合并实现资源的在线配置与管理。当劳动者进入平台算法用工系统时,需要将个人信息上传并进行注册,须同意算法系统对其位置的获得与工作监控等软件的植入。劳动者利用手机、电脑等智能设备在线获得工作的机会,同时也将在手机与电脑设备中储存的大量个人信息如社交信息、消费信息、隐私信息等暴露在算法系统之中。工作时间和方式十分灵活,生活和工作没有了边界。算法通过劳动者使用的手机或者电脑端口进行追踪和查看,不仅抓取了劳动者的工作信息,也抓取了劳动者的个人隐私等信息,因而平台劳动者的隐私权在算法系统中易受侵害。

  2.劳动者易被算法歧视

  用工方为了降低用工性别歧视的风险、残疾人的风险与员工犯罪等风险,通过算法系统对劳动者的性别、健康状况、犯罪记录等进行个人的偏好设置。算法可以将性别、民族、健康状态等特定信息进行代码化处理,甚至通过大数据对个体的基因、怀孕等状况进行识别,并使用算法代替用工方直接在网络和数据之中进行筛选、评级、打分等。算法在获取劳动者数据的过程中自动屏蔽和过滤不符合用工方偏好的求职者,扩大歧视的范围和内容,在技术层面规避法律禁止歧视的规定,将各种歧视操作于无形之中,形成事实上的就业不公平、侵犯劳动者的不受歧视等权益。

  3.劳动者的公平对待权与休息权被侵害

  用工方在算法系统设置了严苛的绩效考核与专断的惩罚制度,算法系统缺乏对具体差异以及突发情况等合理因素的剔除环节,使得特殊情况无法在固定的算法程式中得到相应的反馈,出现同工不同酬以及劳动者被错误严惩等情况。机械化的管理模式忽略了对劳动者的工作状态的考量,加大了劳动者职业风险。在工作分配方面,算法系统根据劳动者的从业时间、在线时间、工作完成度与从业稳定程度进行工作的分配和安排,劳动者为了获取工作机会往往付出更多的时间成本以增强竞争力,而算法系统对劳动者已经超长时间负荷的工作状态不予考量,这不仅对劳动者的休息权造成侵害,还会引发一系列安全隐患。

(四)算法用工给平台监管带来的挑战

  传统的用工监管是进行事后的监管,事前只对用工单位的用工资质、用工合同等进行审查,对于用工过程中产生的纠纷等采取事后救济的方式,这种救济方式存在监管的滞后性与监管启动的被动性。对于平台用工来说,这种监管不利于预防算法技术在用工领域的潜在风险,如就业歧视等。从监管主体来看,对于平台算法运用的监管属市场监管机构负责,对于平台用工的监管属劳动监察部门负责,由于算法监管的技术性与专业性要求比较高,分散监管的模式难以满足高效、专业化的监管需求。从监管内容上看,监管对象是采取算法技术对用工信息进行代码化处理,而算法处理信息的过程具有不透明性以及不可解释的属性等。由此,算法用工的技术性与智能化特征,给算法监管带来了巨大挑战。

  四、平台算法用工劳动者保护法律制度的具体进路

(一)建立以劳动者保护为主导的算法用工法律体系

  算法嵌入平台用工,一方面创造更多的灵活性就业机会,另一方面引发劳动者权利的危机,而关于算法用工的问责机制与法律标准设定未能跟上人工智能算法的发展步伐。为了应对算法在用工领域引发的劳动者权利风险,立法的目标应将算法系统决策过程与法律和政策的目标保持一致,并逐步建立以劳动者保护为主导的算法用工法律制度体系。首先,明确劳动者保护的立法目标。在平台就业领域,由于外在激烈的就业竞争与内在用工方的高强度控制,劳动者没有议价的空间与拒绝的能力,无法依靠自身的力量与用工方进行抗衡与维权。基于调整私权利之间的失衡需要、法律的实质正义内在要求、人权保护的要旨等,需在立法的理念层面体现保护劳动者的基本权利。其次,法律在面对算法、大数据与人工智能等新生事物引发的社会矛盾时,需要进行相应的场景化的调适与创新,在遵循保护劳动者的原则下,把握算法用工代码化主要特征,集中对用工方以代码化进行数据处理的算法行为进行规制,要求用工方选用的算法系统的代码处理过程符合法律规定并进行相应的代码公开与解释等,最大限度地将算法的代码纳入法律规制的范畴,从而助推算法健康有序发展。最后,需实现劳动者保护内容与算法规制的有效衔接。从现有关于算法规制的政策以及法律文件来看,侧重于对数据使用方面的义务与责任方面的制度安排,忽视了算法在用工领域产生算法不透明、算法黑箱等情况,出现算法规制与劳动者保护本应融合的目标,却相互游离且独立存在,最终可能导致立法的目的无法实现。应该综合考量当前的算法规制文本,在不同的法益保护面向、层级、属性、位阶法律规制之间的转换与衔接上,结合算法技术在用工领域的特点,构建以劳动者保护为核心的法律保护体系。

(二)明晰平台劳动者在算法用工中的法律地位

  人力资源和社会保障部、国家发展改革委、交通运输部等部门在2021年7月16日联合发布《关于维护新就业形态劳动者劳动保障权益的指导意见》(人社部发〔2021〕56号),其中第1条第2款规定:“符合确立劳动关系情形的,企业应当依法与劳动者订立劳动合同。不完全符合确立劳动关系情形但企业对劳动者进行劳动管理(以下简称不完全符合确立劳动关系情形)的,指导企业与劳动者订立书面协议,合理确定企业与劳动者的权利义务。个人依托平台自主开展经营活动、从事自由职业等,按照民事法律调整双方的权利义务。”该指导意见明晰了平台劳动者的法律地位,但在算法嵌入平台用工模式下,对于不完全符合确立劳动关系的情形,无法直接适用《劳动法》或《民法》,出现法律适用的模糊性。如对劳动者进行判别分类的标准以及作出判别结果的主体不明确,对于不完全符合确立劳动关系的情形下的劳动者的法律地位不清晰,对于不完全符合劳动关系的劳动者的权益保护问题,适用法律方面不明确。为了进一步保障劳动者的权益,建议从以下方面进行完善。一是制定明确且具有可操作性的判别标准,可以借鉴美国建立的Brelloa测试体系,通过构建一整套指标评估与衡量以及判断是否存在劳动关系。二是关于判别劳动关系的权力主体设置方面,建议由劳动仲裁与法院来负责,以提高解决争议的效率,保护劳动者权益。三是对于既不属于劳动关系的劳动者亦不属于民法劳务关系的劳动者,即作为第三类劳动者,在法律地位上应予以承认;在权益保护的法律适用方面,在本文讨论的算法嵌入用工体系背景下,不完全符合劳动关系的劳动者的权益保护应被算法用工法律规范体系覆盖,从而保障其隐私、休息休假以及被平等对待等现实权益。

(三)赋予劳动者新型的算法权利

  1.赋予劳动者算法参与权

  人力资源和社会保障部、全国总工会等联合制定的《关于维护新就业形态劳动者劳动保障权益的指导意见》明确指出,“对于直接涉及劳动权益的平台算法要充分听取工会或劳动者代表的意见建议,将结果公示并告知劳动者。工会或劳动者代表提出协商要求的,企业应当积极响应”。该指导意见明确赋予平台劳动者有组建以及参加工会的权利,工会代表劳动者对平台算法提出建议与维权,为了进一步细化劳动者的算法参与权,建议从以下方面作进一步完善。一是平台劳动者代表或者劳动者参与的工会组织应有权参与制定算法系统的设置,特别是在关于劳动者的个体数据代码化处理、奖惩制度制定等方面提出保护劳动者权益的要求。二是企业的工会组织或劳动者代表对企业选定或者定制的算法用工系统有一票否决权,从而督促企业落实采用符合保障劳动者权益的算法系统。三是劳动者参加的工会组织或代表有权对算法用工系统进行日常监督与定期评估,预防算法系统在投入运行中被篡改等。四是工会组织与劳动者代表有权对侵犯劳动者合法权益的算法用工方提起诉讼,以维护广大劳动者的权益。

  2.赋予劳动者算法同意权

  在法律规范层面,用工方有获得劳动者基本个人信息以及工作信息的权利,但并不包括个人隐私与用工歧视的权利。在算法系统深层次的数据挖掘、跨越信息边界以及技术中立的外衣遮盖下,用工方的权利已经超越边界并呈现扩张的趋势,基于平等保护原则,劳动者拥有对个人信息被挖掘、使用、加工等同意的权利。在权利属性上,劳动者的个人信息兼具人格权与财产权的双重属性。因此,基于权利平衡与保护弱势群体的原则,需赋予劳动者权利束——同意权,以限制用工方权力的扩展,维护劳动者的合法权益。在算法用工场景化中,劳动者同意权的设置可参照欧盟的《通用数据保护条例》(GDPR)第13条(1)规定,数据主体有权知悉其信息被处理的主体身份、使用目的以及法律依据等情况;第4条(11)规定,数据主体通过一个声明,或者通过某项清晰的确信行动而自由作出的、充分知悉的、不含混的、表明同意对其相关个人数据进行处理的意愿。劳动者作为算法用工系统的数据主体对于算法用工决策、筛选、管理等过程处理个人信息有获得知悉并在自由意志支配下作出选择的权利。

  3.赋予劳动者算法解释权

  赋予劳动者获得算法解释的权利是防治算法控制者滥用算法的重要方式之一。在平台用工场景化中,一方面赋予劳动者要求用工方对使用算法系统进行说明与解释的权利,特别是要求用工方对抓取劳动者数据的范围、内容以及用途等进行相应的说明,同时设置用工方对使用算法系统作出解释的义务与责任,提升算法控制主体的算法用工的透明性与责任性;另一方面赋予劳动者对输入算法系统的数据从内容到算法等环节进行解读的权利。算法解释需要专业的技术人员进行,劳动者可以请求政府监管机构或第三方对平台用工算法进行解读。申请制的算法解释权,有利于平衡算法公开与用工方商业秘密之间的权利对立,保障劳动者算法解释权的行使。

  4.赋予劳动者算法拒绝权

  算法用工系统的格式条款以及运行的智能化与自动化,剥夺了平台劳动者对算法系统参与、商议等权利,设置事后的拒绝权是格式合同中用工方与劳动者权利失衡的矫正与救济。劳动者的拒绝权,不仅包含对算法运行结果的拒绝,且涵盖算法拒绝权衍生出对算法结果的异议权以及干预算法结果的权利。虽然劳动者在进入平台算法用工系统时同意算法的运行,但同意开始并不意味着或等同于对不公后果的接受,劳动者接受的是公平公正的对待结果。作为弱势群体的一方,劳动者对于算法用工系统没有参与设计的权利,处于技术的弱势方,需要被赋予拒绝算法结果的权利。规定用工方须在合理的时间内给出相应的回复,从而有利于劳动者与用工方的争议在公权力介入之前得到解决,营造良好的平台算法用工运行环境。

(四)明确算法用工侵权责任承担框架

  1.侵权责任主体的鉴别

  在实体法层面,根据《民法典》侵权责任的规定,侵权主体一般为自然人或组织,平台用工算法本身不具备侵权主体的资格,责任不可归于算法系统本身,而算法系统背后操控主体则需要承担责任。因此,平台算法用工背后的实际控制者成为责任承担的主体。其一是平台算法的实际使用者。用工方作为平台算法用工系统的实际使用者和受益者,算法系统的选取甚至定制式的设计过程中,将利益进行相应的植入与渗透,致使算法用工呈现出非正义性与非中立性。使用方式不论是加入中介还是平台,作为真正的受益者与实际的控制者,需要对平台算法用工侵犯劳动者权益承担相应的责任。其二是平台算法系统的生产者。生产者作为算法的程序的直接决定者,设计算法用工系统作为产品,若违反法律的规定或者存在产品缺陷,需要承担严格的产品责任。其三是平台算法用工系统的销售者,对自身销售的算法产品,则需要与生产者承担连带责任,在赔偿受害人以后,有权向生产者进行相应的追偿。在程序层面,侵权主体的具体确定需要专业性与技术性,同时涉及商业秘密,不宜直接进行市场化的鉴别操作,建议责任主体的鉴别工作由法院或者是劳动监管部门承担,以减轻劳动者维权成本并保护算法知识产权主体的商业秘密。具体来说,劳动者可以提出申请或者提起诉讼,劳动监管部门或法院在一定的期限内予以处理与回复,申请人根据鉴别的结果对相应的主体进行追责。

  2.侵权归责原则的确定

  平台算法用工系统对劳动者权益的侵害,用工方基于经济目的或者个人偏好故意对算法系统的设置实施间接的侵权行为,在《民法典》侵权责任篇的法律框架下,算法用工系统的实际使用者需按照一般侵权原则进行归责。然而由于技术的复杂性与侵权方式的隐蔽性,侵权行为与损害结果之间的因果关系很难被证实。基于公平与正义原则,鉴于算法用工系统的实际使用人即用工方在私权利的空间内处于优势,劳动者处于弱势,需适用过错推定原则来平衡双方的行为能力与责任能力。算法用工在不断的学习与规训之下,生产者责任归责原则的确定是保障劳动者损害得到救济的重要内容。算法用工系统在设计上存在缺陷,特别是违背法律规定的设计缺陷,按照《民法典》第1202条规定,“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任”,生产者需要按照无过错责任原则进行归责,即不论侵权主体是否存在过错,都需要对产品造成的损害后果承担责任。

  3.侵权责任的承担

  在平台算法用工体系中,劳动者权益被侵犯时,需识别侵权主体以及确定责任归责原则,那么侵权责任的承担成为跨越责任鸿沟的最后环节。按照侵权行为发生的时间轴线,侵权责任承担的向度向前看是损害的预防,向后看是损害的赔偿。在预防方面,用工方和生产者在算法用工系统生产、使用之前重点关注算法用工系统可能产生的损害风险,剔除算法歧视等个人偏见以及明确算法对数据挖掘的边界等,对在算法系统使用过程中新产生的损害风险进行及时的修正与处理等;在赔偿方面,用工方、生产者、销售者按照其责任的范围对劳动者的损害进行最大限度的填补,不仅是经济方面还包括对精神损害进行相应的赔偿。随着算法用工系统智能化程度的深化,算法系统的生产者或使用者无法预测智能算法未来的行为,智能化的算法运行可能脱离生产者的控制,那么严格责任原则对于生产者而言责任过重,不利于技术的进步。建议在严格责任的基础上引入保险制度或设立基金,进行风险的分散与削减,如欧盟的《机器人民事法律规则》规定的强制保险,通过保险或者基金对劳动者进行赔付,减轻生产者的负担,兼顾激励技术的发展与劳动者权益的保障。

(五)配置平台算法用工的监管机制

  1.算法用工监管模式的转变:由结果导向转向风险导向

  目前,我国将平台算法用工的监管纳入了平台监管的综合框架之下,监管部门依据《国务院办公厅关于促进平台经济规范健康发展的指导意见》、《数据安全法》、《网络安全法》、《电子商务法》等对平台进行监管,但对平台经济中不同对象、层级、分支等缺乏具体且系统的监管方案,难以规范与预防算法用工带来的劳动者风险。为了从源头上监督算法存在的风险,欧美等国家和地区采取“风险导向型”监管模式对算法风险进行事先的评估与防范。如欧盟关于数据保护影响评估的《数据保护条例》,美国《算法问责法案》对偏见与歧视的算法系统进行评估等。在平台算法用工场景中,算法系统中潜在的风险所带来的社会效应,不仅关乎劳动者权利的保护,也关系算法自身的可信度。从保护范围层面,结果导向型的监管只针对出现侵权的算法用工系统,而风险导向型的监管则针对所有的算法用工系统,实质上是扩大了对劳动者的保护范围;从保护效果来看,结果导向型的监管对于劳动者权利的救济存在滞后性,而风险导向型的监管具有前瞻性与预防性,将算法用工对劳动者的伤害以及对社会产生的其他不利影响降到最低。因此,由结果导向转向风险导向监管模式,预先对算法用工系统的内部设计以及数据处理等进行动态的审查与监督,准确识别与发现系统中存在的侵犯劳动者权利的环节并及时纠正或者过滤,有利于前置性地预防和化解算法用工系统存在的侵权风险。

  2.算法用工监管主体转变:由分散型转向专门型

  算法在平台用工领域的运用具有技术性、专业性、不透明性等特点。目前,我国对平台经济以及算法技术等的监管呈多部门分散式的监管样态,优点是可以实现资源共享,扩展了监管的范围和内容,缺点是监管存在广而不精、全而不细的问题。如对于平台涉及的专业与技术性难题缺乏专门的人员与设备,多部门之间监管内容交叉与重叠,导致资源浪费与效率低下。为了实现监督的有效性以及抑制用工方权力的扩展,监管部门结合行业特点设立专门的机构与组建专业团队进行专门型的监管已经成为一种趋势,如美国设置对算法金融交易行为的监管机构(FCA),澳大利亚竞争与消费者委员会(ACCC)于2019年计划设立专门分支机构“主动监视”平台算法运行。面对算法用工监管的内在要求与国际监管的发展动向,我国在改革与设置算法监管主体方面,应由分散型转向专门型。

  3.算法用工监管重点的转变:由单一型转向多元型

  平台用工领域的监管,传统的监管重点是对用工过程中的劳动合同、用工规章、劳动保障等具体内容进行监督与监察,而算法嵌入平台用工,是通过算法对数据进行代码化处理。在事实层面,数字化、代码化以及技术化的算法本身具有不透明性,无法从外部洞察其中涉及的传统监管内容;在法律层面,以算法系统支配的用工设置通常被认为是技术中立,算法用工决策、筛选、管理等重要环节不公开、不透明,意味着监管部门基于对用工内容的单一审查无法有效地对算法用工领域进行算法技术方面的审查与监管,缺失了对于追究算法用工方的责任监管保障。因此,对算法用工监管的重点应由单一的内容监管转向对算法系统技术性、伦理性的监管,以及对使用算法系统的用工方的控制行为监管等多元化的监管,多方位、多层次、多击点地对算法技术制造的障碍进行击破,提高监管的针对性与有效性。