训练人工智能系统时考虑这些因素是关键。让我们看一些例子。 关于数据、模型和人 几年前,在同事的推荐下,我看到了一篇题为《外星人是性别歧视和种族主义者》的文章。是时候让它公平了»7[人工智能是性别歧视和种族主义。是时候让她公平了],James Zou 和 Londa Schiebinger 着。这篇文章讨论了我自己实现的 AI 模型的一个方面,直到那时我才真正考虑过:这些模型可能是性别歧视和种族主义。换句话说,他们可以获得一种偏见 ,导致他们在具有不同人口特征的群体中表现出不平衡的表现,从而导致不
平等或歧视性行为。这种行为背后的原因之一正是用于训练它们的数据。 通过数 购买企业电子邮件地址列表 据获得的算法偏差的例子是多种多样的,并且通常与不能真正代表整个人群的数据库有关。在 Joy Bowlamwini 和 Timnit Gebru 报告的案例中8,其中各种商业面部识别系统在性别和肤色等人口统计变量方面表现不均,黑人女性是模型表现最差的群体。这一事实可能与用于培训的数据库中黑人女性缺乏代表性有关。在分析世界上最大的标记图像数据库之一 ImageNet 时发现了类似的例子,它一直是开发最流行的图像分类模型的驱
动力。9. ImageNet 有数以百万计的图像分类在数千个类别中。然而,尽管它在全球范围内使用,但超过 45% 的图像来自美国,反映了位于北半球的现实,体现了西方文化的典型表现。因此,Zou 和 Schiebinger 引用的例子并不令人惊讶:使用 ImageNet 训练的人工智能系统将类别“新娘”、“礼服”、“女人”或“婚礼”分配给穿着白色衣服的西方新娘的图像,但识别为“行为艺术”或“服装”是新娘穿着印度典型服装的形象,这与西方的服装当然不同。 另一个例子是谷歌翻译等自动翻译器,当翻译一种语言中的中性词而