为何AI也学会了种族和性别歧视?

关于AI歧视我们也聊了很多,比如相貌偏见、语言歧视等,但AI的歧视显然不仅只在这一个浅显的领域。在其相貌和语言歧视的背后,矗立的其实是AI对这个社会全方位的片面判断。

那么,AI的歧视问题也就不是一个简单的算法问题了。今天我们就再聊一聊AI的偏见问题,以及面对它,我们究竟能做些什么。

始作俑者的人类本身:AI歧视产生的根源

首先我们需要清楚的是,发生AI歧视这种事情的原因在哪里。目前来看,大体上有两个个方面。

1. 数据和算法的限制。

首先是数据的限制。AI对事物作出的判断不是凭空或者随机而得的,它必须要经过一些列的训练学习才可以。那么,如果要训练它在某方面的能力,就要将相关领域的数据搜集起来供其学习。在这一方面,如果数据训练量不足,那么就会造成AI学习的不完备,其也就可能作出错误的判断。

而数据限制的另一方面则来自数据本身。比如某个群体会有一些共性的特征,那么AI将会把这些大多数的共性特征数据作为标签来用。一旦对象不在这个群体特征里,或属于这个群体的少数特征,其就有可能采取否定的态度。

其次则是算法的限制。程序员在设置AI学习程序的时候,无法做到过滤到每一条消极的信息。因此,AI在经过大量的数据学习之后,其会自动匹配不同群体之间的关键词,然后做出判断。比如职业的男女分化问题。

事实上,目前我们面临的所有AI的歧视问题基本上是围绕着这两个方面展开的。数据学习不够多,或者数据学习够多之后,其学习范围超出了程序员设定的内容,然后开始进行自我学习和判断。这就造成了歧视行为的发生。

2. 人类固有偏见的强化。

但AI的歧视问题的根源并不在于数据和算法。在一定程度上,AI的歧视实际上是人类偏见的一种显现和强化。人类是善于进行言语上的克制的,或者表现出在沟通交流中的表面客套。长此以往,人们似乎把隐藏自己对别人的偏见当成了一种有素质的美德。问题变成了你心里歧视与否不重要,面上做得好,你就是一个好人。

在这方面,做慈善的被曝丑闻后对比尤其突出。

而AI出现的意义之一就是打破了人们维持表面友好的自我欺骗的情况,它把那些被人们刻意隐藏的,并且似乎被隐藏得很好的东西重新抖搂了出来。这就是显现,那么为什么说会得到强化呢?

首先,AI学习就是一个排除的过程,比如对图像语义分割,它要找到眼球,就必须要先进行图像的分割,否定其他不适眼球的东西。同理,要招到一个合适的员工,它也是重点去排除不合适的选项。否定的过程,就是一个强化的过程。

其次,是基于AI的特殊属性。AI是有史以来第一个人造的、有自己的判断能力的事物,当它出现一些违背人类维持表面友好而设定的一些规则的时候,人们一方面感到惊异,另一方面则会由此而进一步看清自己。它毫不留情地折了人类的面子,自然换来了更大的关注。

算法的限制和对人类固有观念的强化,大抵可以说明了AI歧视横行的原因所在。

AI歧视不仅类别多,影响可能还很大

如果我们仅仅是被AI歧视了,并且知道它的歧视是算法和人类本身问题所致,那也就无需担心。毕竟,歧视无处不在,心理足够强大,任何歧视都够不成火力伤害。论不要脸的自黑精神,似乎没谁能比得过现代人。

但是,当AI不仅仅是歧视你,还要对你做出判断,决定你的人生、工作、地位……的时候,你还能对它的歧视坐视不管吗?

比如现在非常流行一个概念,用AI来进行招聘。

在理论上来讲,它能够通过学习既有的员工资料来筛选最符合公司需求的新人。对这些员工进行标签分类是学习的一环,能力强、口才好、实习经验丰富等可能会被筛选出来,但是,万一在这些样本中,AI找到了其他具有高度相同但和招聘又无关的标签了呢?

比如这些人可能男生多一点,它可能会认为女生不适合这项工作;如果城市户口的人多一点,来自农村的就有可能被筛掉;如果23岁以前的人多一点的话,那23岁以后的人就可能被认为不适合……

你看,仅仅就是这几个方面,就已经涉及到性别歧视、地域歧视、年龄歧视了。虽然人们开发AI进行招聘是为了避免面试官会凭主观印象决定去留,但太过于客观的AI招聘同样也会引发一些值得考虑的问题。

再比如把AI布置在警务工作当中。

最近一段时间提到最多的就是利用AI帮助识别甚至是预测罪犯。比如去年上海交大的一篇论文中提出,可以通过人的样貌进行分析,来判断此人是否有犯罪的倾向。简单来说,就是看你是不是长了一张“犯人脸”。而美国的警察也在最近试图部署一套警务系统,来预测犯罪发生的人员相关、地理区域等,然后来针对性加强监控。英国来采用过类似的方法来预防犯罪。

这其中自然存在着严重的问题。看“人脸”就能辨罪犯?虽然相貌歧视确实一直存在,但基本上都是基于五官的缺陷。现在居然升级了。美国的预测犯罪往往会把黑人和黑人集中区域当做重点预测对象,这是很难令人接受的。尤其是美国这样一个对黑人歧视非常忌讳的国家,AI即便不是个人,这一举动也会招致人们的讨厌。英国就更不用说了,他们的这个监视系统运行了一段时间之后,穷人被特别针对了,因此最终不得不紧急下线。

从这几个案例当中,我们发现,AI还存在着相貌歧视、种族歧视、贫富歧视。除此之外,AI的歧视还深度存在于各行各业当中,甚至未来的一天我们可能真的会像《黑镜》当中一样戴一个隐形眼镜,然后就可以看到眼镜对面来人的安全度识别。高安全度也不一定真的安全,很有可能是刷出来的呢?

也就是说,AI的歧视是一个综合性的东西。问题又来了:难道因此我们就要将AI废弃吗?我们人类就那么玻璃心吗?

当然,弃用AI不现实,这是一个因噎废食的行为。它毕竟还在深刻地改变着我们的这个社会。但是,随着AI的大规模应用,努力减轻甚至是消除AI的偏见,也已经显得迫在眉睫。

AI歧视的解决之道

谷歌的一款数据库被人们发现有存在着明显的性别歧视。比如一个简单的问答,巴黎:法国,那么东京:X,系统就会给出X=日本。如果是“父亲:医生”,其则将会对应“母亲:护士”;“男人:程序员”,“女人:家庭主妇”,诸如此类。

研究者们创建了一种“硬性纠错”的方法。简单来讲,就是把系统判断出的对应关系放到一个论坛平台上去发布并询问是否合适。如果有一半的人认为不合适,那么这个类比就不恰当。这种方式进行了一段时间之后,对AI进行单词搭配的改善效果是非常显著的。

这个方法虽然有效,但是明显看出它只能适用于一些数据范围较小的方面。比如某一家公司的招聘,可以在招聘之前对AI进行训练,然后找出问题,再用这种方法进行硬性纠错。但是如果要用它来解决AI所有的问题,却有点不现实。

哥伦比亚大学的研究者们则开发出了另外一种方式。深度学习研究的进步是AI复活的一个重要因素,但是AI的黑箱问题仍然没有解决。因此,这些研究者们就试图用打开黑箱的方式去弄明白为什么AI会做出一些错误的决定。他们开发出了一个能在神经网络中通过欺骗系统从而使其暴露自身缺陷的软件,名叫“DeepX plore”。这个软件能够激活系统中几乎百分之百的神经元,从而让整个神经网络去扫描错误。

为何AI也学会了种族和性别歧视?
也有其他的人建议从编程上去解决问题。但是从根本上来说,人类应该把AI的歧视当做一面镜子,仔细审视自己在社会活动中种下的祸根。由此,不断减少自己实际意义上的歧视和偏见。只有学习的内容消失了,AI才可能避免产生歧视的问题。

但是我们仍然要注意的一个问题是,用“偏见”和“歧视”去概括AI所有的“区别对待”是不合适的。人类发展到现在,不同职业对人有不同的要求,男人耕田女人织布反映的其实是历史经过长期发展后的自然分工。那么,在处理AI歧视问题的时候就不是一个简单的算法纠正了,它还涉及到社会学、经济学等各个方面的问题。

这样来看,解决AI的歧视和偏见,我们可能仍然有很长的路要走。目前能做的就是,生杀大权这件事儿,还是交给人类自己吧。

来源:51CTO

')}