24小时联系电话:185 8888 888

科技
您现在的位置: 首页 > 科技 > 人工智能种族偏见是否被抑制?
  • “酷”大脑研究的扭曲观念扼杀了心理治疗

    “酷”大脑研究的扭曲观念扼杀了心理治疗

    发布时间:2020/03/31

      ‘对于人类的每一个问题,总是存在着众所周知的解决方案-简洁,合理和错误。” 人类从来没有遇到过比了解我们自己的人性更复杂的问题。而且,不乏任何试图探究其深度的简洁,合理和错误的答案。 在我职业生...

  • SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关

    SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关

    发布时间:2020/03/31

      美国国家航空航天局(NASA)挖掘出一种尚未建造的SpaceX货运飞船,用于向尚未发射的绕月轨道前哨基地运送补给品。 SpaceX的机器人Dragon XL是其主力Dragon太空船的圆柱形超大型版本,将作为第一批从NASA获得...

  • Spaces应用程序使人们可以参加VR中的Zoom会议

    Spaces应用程序使人们可以参加VR中的Zoom会议

    发布时间:2020/03/30

      一个名为Spaces的新PC VR应用程序使用户可以从VR内部加入Zoom会议和其他视频通话。 该应用是根据最近发生的COVID-19大流行而开发的,该大流行已经使世界各地许多人在家中工作并使用诸如Zoom之类的虚拟会议...

  • 汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%

    汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%

    发布时间:2020/03/30

      总部位于中国惠州的医疗设备公司慧英医疗声称已开发出一种AI成像解决方案,该解决方案使用CT胸部扫描来检测COVID-19的存在。该公司断言,如果不使用逆转录聚合酶链反应(RT-PCR)(COVID-19的标准测试方法),...

人工智能种族偏见是否被抑制?

发布时间:2019/11/28 科技 浏览次数:647

 
人工智能(AI)和机器学习用于推动各种重要的现代软件技术的发展。例如,人工智能为分析软件,Google的bugspot工具以及面向程序员的代码编译器提供了强大动力。 AI还为执法人员,房东和私人居民常用的面部识别软件提供支持。
在基于人工智能的软件的所有用途中,面部识别非常重要。依靠视频监控的大型建筑物的安全团队(例如学校和机场)可以从这项技术中受益匪浅。 AI算法有可能检测到财产上的已知罪犯或未经授权的人。有些系统可以识别枪支,而另一些系统则可以跟踪每个人的运动,并且只需单击一下即可提供有关其位置的实时更新。
面部识别软件具有惊人的潜力
美国警方已使用面部识别软件成功识别大规模枪击嫌疑犯。印度新德里的警察使用这项技术在四天内识别了近3,000名失踪儿童。由AI技术驱动的软件扫描了45,000张孤儿院和寄养家庭儿童的照片,并将2,930名孩子与政府失散儿童数据库中的照片进行了匹配。这是令人印象深刻的成功率。
政府还使用面部识别软件来帮助难民通过称为REFUNITE的在线数据库找到家人。该数据库结合了来自多个代理商的数据,并允许用户执行自己的搜索。
尽管潜力巨大,但基于AI的软件还是有偏见的
面部识别软件据称可增强公共安全性,因为AI算法比人眼更准确。但是,只有当您是白人男性时,这才是正确的。事实是,人工智能算法对深色皮肤的女性和女性具有隐性偏见。这种偏差存在于两种主要类型的软件中:面部识别软件和风险评估软件。
例如,麻省理工学院媒体实验室的研究人员在一项实验中使用了面部识别软件,该实验最多可将35%的深色皮肤女性识别为男性。妇女和深色皮肤的人错误率最高。
风险评估中存在另一个偏见。一些监狱使用计算机程序来预测将来每个犯人犯罪的可能性。不幸的是,时间已经表明这些评估偏向于皮肤黝黑的人。皮肤黝黑的人通常被认为比皮肤黝黑的人更高。问题在于,当一个人穿越刑事司法系统时,当局会使用风险评估分数来为决策提供依据。法官经常使用这些分数来确定保证金数额以及一个人是否应该获得假释。
2014年,美国总检察长埃里克·霍尔德(Eric Holder)呼吁美国量刑委员会研究风险评估评分的使用,因为他看到了潜在的偏见。该委员会选择不研究风险评分。但是,一家名为ProPublica的独立非营利性新闻机构研究了分数,发现它们在预测暴力犯罪方面非常不可靠。他们在佛罗里达州布劳沃德县(Broward County)调查了7,000多人,发现只有20%的人预计会犯下暴力罪行。
这种偏见早已为人所知,但专家们尚未创建解决方案。如果政府和警察尚未使用该技术,则不会对错误率感到震惊。
美国公民自由联盟认为警察使用的面部识别软件存在偏见
2018年,美国公民自由联盟(ACLU)进行了一项测试,以查看警方使用的亚马逊面部识别软件是否存在种族偏见。结果? 28名美国国会议员与面部照片被错误地配对,包括加利福尼亚州代表和哈佛大学毕业生吉米·戈麦斯(Jimmy Gomez)。美国公民自由协会(ACLU)的测试显示,有40%的错误匹配都涉及有色人种。
尽管错误率很高,但是警察已经使用了亚马逊的面部识别工具(Rekognition)。公民自由组织和立法者非常担心按原样使用此软件可能会伤害少数群体。激进主义者呼吁政府监管以防止滥用,因为该软件已经过时了。
政府是否在压制AI的种族偏见?
连续两年,加拿大移民当局拒绝了大约二十名希望参加人工智能重大会议的AI学术学者的签证。来自AI小组的研究人员布莱克(Black in AI)计划向人们宣传AI的种族偏见,但在2018年和2019年被拒绝签证。在向政府施压后,一些否认在2019年得到了扭转。
加拿大政府拒绝签证,声称无法保证研究人员在访问结束后会离开加拿大。该组织及其许多支持者不认为拒绝签证是合法的。加拿大的经济通常会从海外游客中受益,海外游客在2018年花费了210亿加元。为什么加拿大要连续两年否认很多签证,除非他们试图抑制研究人员表达自己的担忧?
尽管没有直接证据表明有意进行压制,但整体情况很奇怪,值得彻底调查。
AI为什么要努力识别肤色黝黑的女性和女性?
人工智能驱动的软件中存在针对女性和有色人种的性别偏见已有多年,甚至在面部识别成为主流之前。
由于缺乏色彩对比,因此较深色的皮肤会使计算机算法更难识别面部特征,这是有道理的。用于训练AI系统的照片还可能包含比皮肤黑皮肤的人和女性更多的皮肤白皙的人和男性。这两个因素都可能导致该问题。
当女性正在化妆以掩盖皱纹或短发时,计算机可能很难识别面部特征。人工智能驱动的算法只能训练识别模式。如果将短发登记为表明男性的因素,则会导致结果偏斜。
尽管问题直截了当,但一些面部识别批评家并未解释一个因素:面部分析似乎存在种族和性别偏见,而面部识别却不存在。这两个术语可以互换使用,但它们是不同的过程。
面部识别与面部分析
当麻省理工学院使用微软和IBM的面部识别工具进行研究时,他们发现这些工具的错误率低于亚马逊的Rekognition。作为回应,亚马逊对麻省理工学院的研究结果提出异议,声称研究人员使用“面部分析”而非“面部识别”来测试偏见。
面部识别可识别面部特征,并尝试将面部与现有的面部数据库进行匹配。面部分析使用面部特征来识别其他因素,例如性别,种族或检测疲劳的驾驶员。亚马逊发言人表示,使用面部分析来评估面部识别的准确性没有任何意义,这是一个合理的主张。
虽然这两个过程不相同,但是面部分析在识别嫌疑犯方面仍然起着重要作用,在被警察使用之前应该更加准确。例如,如果嫌疑犯在视频中被捕获但无法清晰看到,之前没有被捕并且无法与数据库匹配,则将使用面部分析来获取嫌疑犯的身份。如果该嫌疑人是被错误地识别为男性的女性,则可能永远找不到。
我们是否过早使用面部识别软件?
不足为奇,但知道在有严重后果的情况下部署有偏见的软件却令人失望。
尽管使用面部识别软件的好处显而易见,但现在是时候对该技术进行监管,并迫使开发人员提高其准确性,然后再将其部署在高风险的情况下。