埃隆·马斯克和 Nick Bostrom 等一些科技界大牛向世界发出了警告:人工智能的存在对人类是一种潜在的威胁,他们把机器智能超越人类智慧的临界点叫做「奇点(the Singularity)」。人们已为此投入了数百万美元,并举办了大批国际会议。
但这种恐慌情绪让人们忽视了今天人工智能的真正问题,其实它可能已经在加剧工作场所、家庭、法律及司法系统的不平等。支持「智能」系统运转的机器学习算法很多在编写时就被加入了性别和种族歧视以及其它形式的不平等观念,这决定了我们被分类和接收广告的方式。
比如去年的那次事件:谷歌有个照片应用,可以自动在电子相册中把标签分配到不同照片上,用户发现它会把黑人的照片归类为大猩猩。谷歌做出了道歉,表示它并不是故意的。
但类似的错误也出现在了尼康的拍摄软件中,它误认为亚洲人在照片中眨眼(译注:其实只是眼睛比较小),还有惠普的网络相机软件也很难识别出深色皮肤的人。
这从根本上说是数据的问题。算法通过送入的特定图像来学习,这些图像通常是由工程师挑选的,而系统在这些图像的基础上建立起世界的模型。如果一个系统的训练图像绝大部分都是白人照片,那它在识别非白人照片时就会有困难。
上个月 ProPublica 发布的调查报道揭露出了一个非常严重的问题。它发现评估罪犯再次犯罪风险的常用软件有两倍的可能性错误地将黑人被告标记为在未来实施犯罪上有更高的风险;它也有两倍的可能性错误地标记白人有更低的风险。
此软件的判断出现如此明显倾斜的原因仍不清楚,因为负责开发相关算法的公司对他们的公式保密——属于私有信息。法官确实在不同程度上依赖于机器驱动的风险评估,有些甚至完全不相信它的意见,但他们很难理解这些评估结果背后的逻辑。
美国各地的警察局也配置了类似的数据驱动型风险评估工具,用来预防「潜在的治安犯罪」。在很多城市,包括纽约、洛杉矶、芝加哥和迈阿密,警察局都会用软件分析量大历史犯罪数据,预测犯罪热点区域最可能出现的位置,并据此部署警力。
这个软件最起码能持续预测出那些原本就是犯罪高发地的风险,因此警察就会在本来就部署(或大量部署)警力的地方增强安保措施,保证了这些地区逮捕率的提高。在美国,这有可能导致对那些传统上贫困的非白人居住区的监控警力的增多,而富裕的白人居住区受到的监控就更少。这些预测软件只擅长分析它们训练时所用的数据,而这些数据有复杂的历史。
歧视的历史可能会延伸到数字平台上,如果我们对此不闻不问,它们最终就会成为日常算法系统的逻辑的一部分。最近又有一桩丑闻曝出,亚马逊的当天送达服务在主要的黑人居住区的邮政编码上是不可用的。而这些被忽视的区域的范围竟然与 20 世纪中期被贷款歧视所影响的区域基本一致。亚马逊承诺他们会填补这些空缺,但这也提醒了我们体制不平等对机器智能的影响有多深。