网站首页 关于我们 律师介绍 专业领域 最新文章 行业动态 付费咨询 联系我们
最新文章
首 页 -> 最新文章 -> 算法操纵下的市场机会
算法操纵下的市场机会
发布者:admin     浏览次数:26     发布时间:2020/12/20

人们对算法自动化决策的担忧主要集中在损害消费者和公民自主权上。然而,被忽略的是,算法自动化决策也可能威胁平等。当使用预测算法传递有关就业,住房和信贷等机会信息时,它们可能重现这些市场中过去的歧视和不平等问题。本文将以劳动力市场为切入点来探讨这些问题。
引言

我们的在线体验越来越个性化。Facebook和Google的微型目标广告旨在满足我们的迫切需求,亚马逊,Netflix和Spotify提供了符合我们喜好的书籍,电影和音乐,我们所看到的新闻充斥着旨在迎合我们特殊利益和偏见的故事。这种个性化的驱动力是由复杂的机器学习算法造成的,这些算法是用来识别我们的偏好和预测我们的行为的。个性化带来了好处,因为公司可以精确地为消费者提供他们想要的产品和服务。然而,算法自动化决策最近受到了相当多的批评。当前的经济体系建立在公司积累和利用越来越详细的个人信息的基础上,公司正在运用行为科学理论,通过利用消费者的心理或情感弱点来操纵消费者。在政治领域,也有人对操纵感到担忧,并警告说新闻个性化正在加剧两极分化。剑桥分析公司(Cambridge Analytica)就凸显了这些问题,其为了影响2016年总统大选,根据八千七百万Facebook用户的心理状况发送了个性化广告。人们担心网络操纵会破坏个人自主权并损害理性决策。

这些讨论忽视了算法自动化决策威胁到平等的可能性。在线平台日益成为就业、住房和金融服务市场的关键中介。在这些市场中,预测算法也被用于细分受众,并精确地确定哪些信息将传递给哪些用户。这样做的风险在于,这些中介将以重现或强化历史歧视的方式引导机会。预测算法是通过观察过去的行为模式建立起来的,而美国经济生活中持久的模式之一就是按照种族、性别和其他个人特征来分配机会资源。因此,这些系统很可能以反映现有不平等的方式分发有关未来机会的信息,并可能强化不利的历史格局。

图片

网络中介平台具有精确校准信息分发的空前潜力。过去,传统的印刷或广播媒体可能针对特定的受众,但它们不能阻止任何特定的个人获取他们发布的信息。相比之下,网络中介平台有能力精确定位受众,选择一些用户接收信息,而另一些用户则以完全不透明的方式被排除在外。对预测算法的担忧与各种市场机会有关,包括住房,就业和基本金融服务。本文侧重于劳动力市场及其相关法律。

几十年前,雇主们有一些招收新员工的有效策略,比如在报纸上登广告或通过职业介绍所招聘。如今,企业越来越依赖技术中介来填补空缺职位。以前的讨论焦点集中在雇主使用预测算法或其他人工智能工具做出人事决策时,是否可以或应该承担责任。这些讨论中缺少的是对网络中介平台如何塑造劳动力市场以及对平等问题的仔细研究。本文对此进行了分析,认为劳动力市场网络中介使用预测算法有可能强化甚至恶化现有的不平等模式,这些中介应对这些影响负责。

网络中介平台有可能加剧就业市场的不平等现象,这对法律提出了诸多挑战。歧视法主要侧重于雇主,审查其决定和做法是否有歧视意图或影响。然而,如果偏见会影响潜在求职者在与招聘公司互动之前被筛选出来的方式,那么关注雇主的行为将不足以解决职业不平等问题。然而,让中介平台直接对其造成的影响负责,将带来一系列实际障碍,比如现有法律是否适用于这些类型的中介平台,以及它们是否能够依靠《通信规范法案》(CDA)第230条来避免责任,该条款赋予网站对某些类型责任的抗辩权。这表明,防止算法的歧视性影响可能需要其他替代性战略。

劳动力市场中的网络中介平台

(一)招聘惯例

雇主招聘和雇佣新员工的过程正在经历一场变革性的转变。几十年前,雇主在招收新员工时只有少数几种策略,他们可以利用非正式的方法,比如依靠现有员工来传播有关职位空缺的信息,也可以采用更正式的机制,例如开招聘会或在报纸上刊登招聘广告。

如今的劳动力市场越来越受到线上中介平台的影响。与传统媒体不同的是,传统媒体将招聘广告框架化,并使所有读者都能看到招聘广告,而线上中介平台则以高度结构化的方式发布有关就业机会的信息,针对特定的接受者,排除其他人。求职者上网不仅是为了申请工作,而且是为了首先了解现有的工作。雇主通过社交媒体和其他在线平台(如谷歌和Facebook)发布招聘广告。求职者和雇主都利用平台帮助他们有效地找到最好的选择。积极求职的员工可以在ZipRecruiter和LinkedIn等协助求职过程的平台上注册。寻求招聘的雇主也会进行登记,提供有关可用机会和所需技能或经验的信息。这些平台不是被动地发布这些信息,而是通过推动求职者申请某些职位,并向雇主推荐特定的申请人,从而积极促进求职匹配过程。推荐系统依靠用户提供的数据和平台收集的数据来进行预测。他们通常使用两种方法来提供建议:内容过滤和协作过滤。内容过滤依赖于用户表示的偏好,例如,通过过去观看的电影或购买的书籍来推荐类似的项目。协作筛选通过与相似的用户进行比较来推断用户的偏好或属性。虽然求职者在提供自己的信息方面有一些选择,但是平台最终决定了使用哪些因素来预测可能的匹配,从而决定他们更可能看到哪些机会,同时掩盖其他机会。

图片

(二)歧视性选择

根据其运作方式,上述网络中介可能允许雇主故意歧视受保护群体。在选择如何定位招聘广告时,雇主可能会使用人口统计属性来定义受保护阶层的受众,例如,只向男性或女性展示广告,或仅向特定年龄以下的用户展示广告。2016年10月,ProPublica报告称,Facebook允许包括雇主和房东在内的广告商排除使用“非洲裔美国人”、“亚裔美国人”和“西班牙裔美国人”等“种族亲缘”属性的用户。在这些媒体报道之后,有几起针对Facebook的诉讼,指控Facebook的受众选择工具允许广告商在提供就业、住房和信贷广告时存有歧视。Facebook对这些指控的回应是,将任何歧视行为的责任推到广告商身上,辩称其他人滥用了它提供的“中立”工具。2019年3月,Facebook宣布了一项“历史性”协议,通过为住房、就业和信贷广告创建一个单独的门户网站(HEC门户网站),解决悬而未决的诉讼问题。在这个门户网站中,广告商将无法使用性别、年龄或邮政编码来锁定目标受众。Facebook首席运营官谢丽尔·桑德伯格(Sheryl Sandberg)表示,“我们的工作是确保我们的广告工具没有被滥用”。换句话说,Facebook认为这是恶意广告商滥用其“中立”工具。通过强调广告商的歧视性选择,该公司暗中否认对歧视性广告的任何责任。然而,正如下一节所解释的那样,Facebook在2019年3月进行的改革不太可能防止有偏见的广告投放。

(三)预测分析和歧视性影响

房东或雇主可能存在歧视故意,根据种族、性别或年龄进行广告宣传,这很容易受到谴责。然而,即使房东和雇主没有歧视故意,广告匹配和招募技术也可能导致歧视性模式。仅仅禁止广告商的歧视故意并不能保证技术平台会以公正的方式发布关于关键机会的信息。

当雇主或房东选择了属性来定义其目标受众后,它的广告不会简单地显示给符合所选标准的每个人,而是由平台决定了有资格的观众中谁会真正看到一个特定的广告。在线广告生态系统是一个由多个参与者组成的“庞大、分布式和分散的系统”。在这种系统中,特定广告的出现受到广告商、其他广告商、用户自身(选择是否点击特定广告)的影响,以及协调这些偏好的平台。所有这些参与者之间的交互是通过平台的专有算法来实现的,使得整个过程变得不透明。确切地说,个人将看到哪些广告最终是通过平台控制的算法过程来确定的。由于多种因素影响在线广告投放,广告商的目标定位标准并不能决定广告受众的人口分布,即使广告商选择了中立的目标定位标准,由于平台的目标定位算法,实际广告受众可能会因种族、性别或其他受保护群体的特征而出现偏差。

Facebook最近的和解不太可能消除歧视性广告投放。该协议旨在消除住房、就业和信贷广告商故意歧视的能力,但它没有触及目标算法本身。即使雇主或房东使用中立的目标定位标准,并希望接触到更广泛、更具包容性的受众,Facebook的算法也可以将广告传递给人口统计上有偏差的受众。

随着预测算法越来越多地被纳入招聘过程中,它们有可能以一种有偏见的方式传递有关就业机会的信息。这些影响可以单独或主要通过预测算法的运行而发生,而不受雇主意图的限制,因此,将重点放在防止广告商使用歧视标准定位受众太过有限。平台本身在工作机会的分配上扮演着重要的角色,因为它们设计了控制信息流的目标算法。因此,他们在构建这些系统时的选择所产生的影响需要受到更仔细的审查。

图片

(四)操纵市场机会

因为预测算法确定了有关住房,就业和信贷机会的信息流向特定用户,所以这些工具有了操纵市场机会的可能,从而引发了歧视和不平等问题。像在消费者和政治市场中一样,市场中的网络中介以对参与者不透明的方式控制信息并影响决策。平台在劳动力市场中的作用不仅是传递信息或使所有人都能平等地看到可用的工作。相反,这些中间人积极干预并控制信息流,将机会引导给某些用户而不是其他用户。通过利用广泛的个人数据(其中一些是由用户自愿共享的,有些是通过分析推断得出的),平台的算法可以确定哪些机会对求职者可见,哪些申请人对雇主最显着。因此,这些预测算法的操作会严重影响谁最终获得哪个机会。

重要的是,该算法所做的选择对市场参与者而言并不透明。尽管平台可能没有进行任何故意的欺骗,求职者和雇主仍然很难了解广告定位或推荐系统的偏见,最终的结果是,机会的可见性和显著性在不同个体中会有所不同。

研究算法自动化决策的学者们关注的是自主性问题,而忽略了在市场机会中,算法自动化决策也会影响平等。更具体地说,风险在于,这些算法将以反映过去不平等模式的方式引导市场机会,从而再现或甚至强化某些群体所面临的历史劣势。预测算法的建立是为了揭示数据中现有的模式,而美国经济生活中持久的模式之一就是按照种族、性别和其他个人特征来分配不平等的机会资源。例如,劳动力市场在美国的历史上一直以种族和性别歧视为特征。

问题在于,这些预测技术本身可能会以强化这些模式的方式影响工人或雇主的行为,阻碍工作场所更大程度的种族和性别融合。反歧视法早就认识到,“禁止不仅是公开的歧视,而且禁止形式上公平但在操作上具有歧视性的做法。”,因此网络中介平台应该为他们所建立的算法系统承担责任。

(五)可能的反对意见

一种可能的反对意见是,任何所谓的歧视性结果只是反映了世界上的实际现象。这一论点断言,预测算法是捕捉工人之间真实差异的中立工具。他们发现的模式可能是不幸的,甚至是不合道德的,但它们不是网络中介的责任。这一论点建立在一个错误的假设之上,即算法是中立的和客观的,并且它们产生的结果是不可避免的。事实上,正如许多学者所指出的,技术系统并不是中立的,数据也可能是有偏差的。预测算法是由为实现特定目的而设计和部署它们的人创建的。在这个过程的每一步,构建这些工具的人都在决定他们要解决什么问题,他们试图优化什么结果、应该如何测量目标变量、将使用什么数据来构建模型,以此类推。这些决策中的任何一个都可能涉及价值选择,所有这些都将影响算法模型的输出。

中介机构与反歧视法

(一)谁是申请人

1964年美国民权法案(Civil Rights Act)第七章规定,不仅禁止雇主的歧视,而且还禁止职业介绍所进行歧视性推荐,禁止工会和学徒委员会在招收、推荐或培训工人方面存在歧视,这使得这些实体中的任何一个张贴表达歧视性偏好或限制的招聘广告都是违法的。为了确定雇主责任,谁是申请人的问题变得复杂起来。这个问题的答案很重要,因为它决定了谁可以起诉,而且可能会影响案件的举证责任分配与证明问题。这也提出了一系列问题,即技术平台是否是一种中介机构,可以对其在造成歧视性影响方面的作用承担直接责任;平台是否符合第七章所述“职业介绍所”的定义;以及平台是否可以因干扰第三方雇佣关系而承担责任。

随着技术进步,确定谁是申请人变得越来越困难。由于网络中介平台在劳动力市场的兴起,申请者和公司可能直到很晚才开始直接互动。比如说,一个雇主依靠招聘系统来寻找候选人,中介平台可能会分析成百上千人的简历,然后再向雇主推荐少数候选人。将相关的申请者群体定义为任何符合其数据定位的人似乎太宽泛了。然而,将申请者群体定义为在被招聘后实际提交申请的人,这将大大缩小关注范围。因此,谁是申请人是一个复杂的问题。

图片

(二)就业中介平台

作为劳动力市场就业中介平台,其所起的作用与这些传统中介机构相似,因此它们可能属于法规对“职业介绍所”的定义。少数案例将第七章关于职业介绍所的定义应用于这些就业中介平台。法院关注的焦点是中介平台是否“经常承担责任”、“为雇主争取雇员”或“为雇员提供就业机会”。这一法定语言表明,如果中介平台定期从事旨在使工人获得就业机会的活动,则该中介平台就是职业介绍所。相反,如果中介平台只是被动地发布有关就业机会的信息,它们就不是职业介绍所。

根据现有的判例法,劳动力市场中的技术中介平台可能满足职业介绍所的定义。如今许多就业平台都更积极地参与到员工和雇主的匹配过程中,其自称的职能是寻找“顶尖人才”,以满足客户的人员需求。因此根据定义,它们定期为雇主“招揽雇员”。作为职业介绍所时,如果其表面上中立的做法事实上使受保护群体处于不利地位,而没有充分的理由,则可以根据美国民权法案(Civil Rights Act)第七章追究责任。

(三)干扰就业机会

美国民权法案(Civil Rights Act)第703条(a)(1)(2)规定以下行为非法:“雇主…未能或拒绝雇用或解雇任何个人,或以其他方式歧视任何个人”,其中“以其他方式歧视任何个人”即第三方干涉原则,禁止被告以歧视为基础干预任何人的就业机会,阻止他与第三方建立雇佣关系,而不仅仅是被告自己的雇员。这种歧视性干涉就业的责任理论也可能适用于就业中介平台。在大多数情况下,这些平台的规模足以满足雇主的法定定义,它们控制着有关可用的工作机会。如果他们以一种有偏见的方式行使权力,干扰他人的就业机会,那么根据法案,他们可能要承担责任。

平台责任

(一)避开CDA第230节的辩护

任何主张就业中介平台对其促成的歧视性后果承担责任的努力,都将立即引起《通信规范法案》(Cmomunication Decency Act,CDA)关于保护他们免于赔偿责任的主张。《通信规范法案》(Cmomunication Decency Act,CDA)第230条规定,禁止让平台对第三方提供的信息“作为发布者或说话人”负责。

然而,当中介平台以歧视的方式分发信息时,第230条不适用,因为他们在发布就业广告时并不仅仅充当“发布者或发言人”,在提供关于工作机会或求职者的建议时,他们自己就成了内容提供商,不受第230条的保护。与网络广告相比,求职匹配和招聘平台的作用往往不仅仅是引导雇主和求职者之间的信息流动。相反,这些网站通常会对信息进行整理,添加上下文或评论,比如向求职者推荐工作机会,对求职者进行排名,或者给一些求职者贴上与雇主“相配”的标签。因此,招聘平台不仅是“演说者”,也是内容的创造者。

其次,不平等威胁的危害源于平台在用户之间分发信息的方式,而不是其内容,CDA抗辩不适用。平台的广告定位和匹配算法可以将信息分发给人口统计上有偏差的受众,因为有关就业、住房和消费金融服务的信息是有价值的,所以这些信息在人口统计学上的倾斜分布引起了不平等问题,其危害在于剥夺某些群体平等获取这些信息的机会。

图片

(二)实际障碍和替代战略

让网络中介平台承担直接责任存在一些实际障碍。首先,对于个人来说,很难发现有关机会的信息何时以不平等的方式分配。目标定位和推荐算法在后台工作时,它们定制用户体验的方式并不容易看到。其次,即使用户能够清楚地证明关键机会的信息是以歧视的方式分发的,他们也可能很难证明自己受到的确切影响。为了证明损害赔偿,原告必须依赖一系列假设,即如果目标定位算法不同,我会看到广告;如果我看到广告,我会采取行动;如果我申请,我会被聘用等假设。

由于追溯责任制度的局限性,许多专家开始主张采取积极的监管办法,以解决算法系统中歧视问题。监管的优点是可以在设计阶段进行干预,以预测和预防问题,而非在部署之后。要理解自动化决策的危害和好处,就需要从概念和设计开始,检查这些预测工具的整个开发过程,学者和决策者需要更多地关注算法模型的开发阶段。

其次,一些学者指出,算法自动化决策的审查还需要配套完善的法律监管框架。2019年初,国会提出《算法责任法案》,法案将授权委员会要求使用算法的公司进行影响评估。这些评估将要求研究算法是如何开发的以及使用算法的收益和成本,包括对个人所面临的风险进行评估。虽然除了这些程序要求之外,拟议的立法几乎没有提供实质性标准,让委员会通过规则制定程序来制定细节,但它代表着监管算法决策系统的进程迈出了第一步。

此外,一定程度的透明度和公共问责制是必要的。可以开发出一些方法来提供足够的信息,以便于公众进行监督,同时兼顾相互竞争方的利益。除了程序要求外,任何监管体系也必须制定实质性标准。减轻偏见的潜在实用工具确实存在,计算机科学家正在开发具体工具,将公平约束强加给算法自动决策系统。但是,建立监管制度的目的是为解决这些棘手问题建立一个框架,为制定这些解决方案提供一个战略指导,因此在这里制定具体的解决方案还为时过早。

结论

网络中介平台在就业、住房和信贷等关键资源市场中扮演着越来越重要的角色,其信息传递和匹配能力极大地提高了市场效率,并在公平和平等的基础上向所有人开放机会。然而,这项对劳动力市场中介平台的研究也说明了算法歧视的巨大风险。尽管当今许多最重要的中介平台都是私营实体,但它们在分配机会资源方面发挥着重要作用,对就业市场产生重大影响,他们应该为算法歧视的不平等后果负责。因此,法律可以发挥监管作用,确保这些算法更加公平,而不是加剧不利因素。现有的反歧视法可以适用于这些中介平台,鼓励他们注意避免歧视性影响。然而,在许多方面,平台的责任模型并不适合解决算法中介的问题。相反,决策者应该建立一个法律监管框架来审查这些中介平台的影响,并规范其算法设计,以减轻对社会的不利后果。

整理:陈欢
文献来源:
Pauline T. Kim,Manipulating Opportunity,Virginia Law Review ,Vol. 106:867



  上一篇:反垄断的法律体系
  下一篇:《外国公司问责法案》与跨境监管合作破局之路


版权所有:证券律师
电话:18600639400      地址:北京市朝阳区金和东路20号院正大中心    新闻中心