(资料图片仅供参考)

中新经纬7月15日电 (王玉玲)近日,由对外经济贸易大学数字经济与法律创新研究中心主办的“算法公平治理与实现”研讨会在线上举行。北京大学法学院助理教授、院长助理阎天认为,我们在讨论算法歧视时,要特别谨慎对待引入间接歧视的理论或制度。

阎天解释了直接歧视和间接歧视的区别。直接歧视就是故意对别人进行不合理的区别对待;而间接歧视表面上不做区别对待,但是在客观结果上进行区别对待,将弱势群体置于一个更弱的位置上。阎天以国外真实案件为例进行了说明:有一公司招人,要求员工必须全勤,而在男主外、女主内的社会格局之下,女性承担比较大的家庭责任,全勤难度比较大,结果就是招的男性多。招聘要求表面上性别中立,没有说只要男性,但是客观结果对女性的不利影响要远大于对男性的不利影响。由此,直接歧视是主观上有故意的,而间接歧视不考虑主观上的状况,只要在客观上造成了区别对待的后果,就构成间接歧视。另一个重要区别在于,直接歧视伤害的是具体个人,而间接歧视不仅使得具体个人受到伤害,而且损害整个群体。

阎天表示,直接歧视是法律所规范的主要歧视类型,间接歧视在中国基本更多是理论概念,唯一一次比较确定写进立法的是《深圳经济特区性别平等促进条例》第5条“本条例所称性别歧视,是指基于性别而作出的任何区别、排斥或者限制,其目的或者后果直接、间接地影响、侵害男女两性平等权益的行为”。据此,歧视不仅可以是目的意义上的歧视,而且可以是结果意义上的歧视;侵害的并不仅仅是具体劳动者权益,而是某个性别群体利益。参与立法的学者希望由此来激活间接歧视的制度。

关于为何要移植间接歧视的制度,有观点认为,间接歧视符合国际潮流,可以降低原告举证难度,不仅保护个人,而且保护群体,也顺应了直接歧视减少而间接歧视增加的社会趋势。而阎天认为,上述观点值得认真检讨,在讨论算法歧视时要特别谨慎对待引入间接歧视的理论或制度。

阎天认为,降低举证责任往往是一个零和博弈,原告举证责任下降了,被告的举证责任往往就会提高。算法有时很难解读,不仅原告看不懂,被告可能也看不懂,一旦谁承担了证明算法有没有歧视的责任,谁基本就要败诉了。为了避免败诉,只有两个办法:其一,算法实施者先发制人防止原告提起诉讼,比如为了防止少数族裔应聘者提起诉讼,公司每次留出一定名额给少数族裔,但是这个制度不一定合理;其二,不用算法,还是采取传统的雇佣方式,但是这有悖于国家产业政策,不利于新技术应用和推广。

另外,所谓原告举证责任到底有多高?阎天表示,如果要用直接证据去证明被告有歧视,确实比较难,但是还可以通过一系列间接证据形成证据链。今天直接歧视案件大部分都是通过间接证据来证明的。在这种情况之下,原告的证明难度已经不大了,没有必要再引入间接歧视的制度。

阎天指出,为了保护群体的利益而主张引入间接歧视,听起来不错,实际操作起来却很复杂。首先,对某个群体的消极影响很难界定;其次,间接歧视制度所要打击的、针对某个群体的“过去歧视的现实结果”,在中国是否存在是一个很大的问题。如果引入间接歧视制度,可能会发生误伤。

阎天还认为,所谓反歧视立法出台后,直接歧视会减少、间接歧视数量会增加,目前还是个假说,需要数据支持。比如深圳已经引入间接歧视的制度,但是目前还没有确切的实际案例。换句话说,直接歧视可能真的减少,但是间接歧视相应增加了吗?恐怕还有商榷的余地。(中新经纬APP)

编辑:张澍楠

推荐内容