📜  5 种证明人工智能偏见的算法

📅  最后修改于: 2021-10-21 05:54:03             🧑  作者: Mango

人类天生就有偏见,这是我们社会的一个不幸事实。这可能在人类对少数种族、宗教、性别或国籍有偏见的情况下有意识地发生,甚至在由于社会、家庭和自出生以来的社会条件而导致偏见发展的情况下,这甚至可能无意识地发生。不管是什么原因,偏见确实存在于人类中,现在它们也被传递到人类创造的人工智能系统中。

5-证明-人工-智能-偏差的算法

当 AI 系统对包括人类偏见、历史不平等或基于人类性别、种族、国籍、性取向等的不同判断指标的数据进行训练时,这些偏见可以传递到人工智能系统中。例如,亚马逊发现他们的人工智能招聘算法对女性有偏见。该算法基于过去 10 年提交的简历数量和招聘的候选人。而且由于大多数候选人是男性,因此该算法也偏向男性而不是女性。

从这个例子中可以看出,人工智能中的偏见会造成很大的损害。这种偏见损害了有偏见的群体充分参与世界并为经济提供平等利益的机会。虽然它伤害了算法所针对的群体,但它也伤害了人类对人工智能算法无偏见工作的信任。它减少了人工智能在商业和工业的各个方面被使用的机会,因为这会产生不信任和人们可能会受到歧视的恐惧。因此,生产这些人工智能算法的技术行业需要在将其投放市场之前确保其算法无偏见。公司可以通过鼓励对人工智能偏见的研究来消除未来的偏见。

但在这发生之前,我们还需要了解不同算法证明人工智能偏差的例子。因此,让我们看看它们,以便我们了解在未来的时间里算法不应该做什么。

哪些算法证明了人工智能偏见?

这些是一些已经证明了人工智能偏差的算法。值得注意的是,这种偏见总是针对群体中的少数群体表现出来,例如黑人、亚洲人、女性等。

1. COMPAS 算法对黑人有偏见

COMPAS 代表替代制裁的惩教罪犯管理分析,是一种由 Northpointe 创建并在美国使用的人工智能算法,用于预测哪些罪犯将来更有可能再次犯罪。根据这些预测,法官对这些罪犯的未来做出决定,范围从继承人的监禁刑期到释放的保释金数额。

然而,获得普利策奖的非营利新闻机构ProPublica 发现 COMPAS 存在偏见。黑人罪犯被认为在未来重新犯罪的可能性比他们犯罪的可能性要大得多。另一方面,白人罪犯的风险低于 COMPAS。即使是暴力犯罪,与白人罪犯相比,黑人罪犯被错误归类为危险的时间几乎是白人罪犯的两倍。 COMPAS 中的这一发现证明,它以某种方式了解了人类普遍存在的固有偏见,即平均而言,黑人犯下的罪行比白人多得多,而且未来也更有可能犯罪。

2. PredPol 算法偏向少数群体

PredPol 或预测警务是一种人工智能算法,旨在根据警方收集的犯罪数据(例如逮捕人数、某个地方的警察呼叫次数等)预测未来会发生犯罪的地点。 该算法已被使用由美国加利福尼亚州、佛罗里达州、马里兰州等地的警察部门发起,旨在通过将犯罪预测留给人工智能来减少警察部门中的人为偏见。

然而,美国的研究人员发现, PredPol本身存在偏见,无论该地区发生了多少犯罪,它都会反复向包含大量少数民族的特定社区派遣警察。这是因为 PredPol 中的一个反馈循环,其中算法预测了更多警察报告的地区的更多犯罪。然而,可能是因为这些地区的警察集中度更高,可能是由于现有的人为偏见,所以这些地区的警察报告更多。这也导致了算法中的偏差,结果向这些地区派遣了更多警察。

3.亚马逊的招聘引擎对女性有偏见

亚马逊招聘引擎是一种人工智能算法,旨在分析申请亚马逊的求职者的简历,并决定哪些人会被邀请进行进一步的面试和选择。该算法是亚马逊的一项尝试,旨在使他们对人才的搜寻机械化,并消除所有人类招聘人员中存在的固有的人为偏见。然而,亚马逊算法在招聘过程中对女性存在偏见。

这可能是因为招聘算法被训练为通过研究亚马逊对过去 10 年提交的简历的反应来分析候选人的简历。然而,过去分析这些简历的人力招聘人员大多是男性,对女性候选人有固有的偏见,这些偏见被传递给了 AI 算法。当亚马逊研究该算法时,他们发现它会自动降低包含“女性”等词的简历,并自动降级两所全女子大学的毕业生。因此亚马逊最终放弃了该算法,并没有使用它来评估招聘候选人。

4. 谷歌照片算法对黑人有偏见

Google 相册具有标签功能,可为与图片中显示的内容相对应的照片添加标签。这是由卷积神经网络 (CNN) 完成的,该网络在监督学习中对数百万张图像进行了训练,然后使用图像识别来标记照片。然而,当谷歌算法将一个黑人软件开发者和他的朋友的照片标记为大猩猩时,它被发现是种族主义的。谷歌声称他们对这个错误感到震惊并真诚地道歉,并承诺他们将来会纠正它。

然而,直到两年后,谷歌所做的只是从卷积神经网络的词汇表中删除了大猩猩和其他类型的猴子,这样它就不会识别任何照片。谷歌相册对于所有与猴子相关的搜索词,如大猩猩、黑猩猩、黑猩猩等,都显示“无结果”。然而,这只是一个临时解决方案,因为它没有解决根本问题。图像标记技术仍然不完善,即使是最复杂的算法也仅依赖于他们的训练,无法识别现实生活中的极端情况。

5. IDEMIA 的面部识别算法对黑人女性有偏见

IDEMIA’S 是一家开发面部识别算法的公司,美国、澳大利亚、法国等地的警察都使用这种算法。在美国,使用这种面部识别系统分析了大约 3000 万张面部照片,以检查是否有人是罪犯或对社会构成威胁。然而,美国国家标准与技术研究所检查了该算法,发现与白人女性甚至黑人和白人男性相比,它在识别背部女性方面犯了重大错误。

根据美国国家标准与技术研究所的数据, Idemia 的算法以 10,000 分之一的比率错误匹配白人女性的脸部,而以 1,000 分之一的比率错误匹配黑人女性的脸部。这是 10 倍黑人女性的虚假匹配很多!一般来说,如果面部识别算法的错误匹配率为万分之一,而黑人女性的错误匹配率要高得多,则认为面部识别算法是可以接受的。 Idemia 声称 NIST 测试的算法尚未商业发布,并且由于种族存在身体差异,他们的算法在以不同的速度识别不同种族方面变得越来越好。