24小时联系电话:185 8888 888

科技
您现在的位置: 首页 > 科技 > 人工智能伦理与权力息息相关
  • “酷”大脑研究的扭曲观念扼杀了心理治疗

    “酷”大脑研究的扭曲观念扼杀了心理治疗

    发布时间:2020/03/31

      ‘对于人类的每一个问题,总是存在着众所周知的解决方案-简洁,合理和错误。” 人类从来没有遇到过比了解我们自己的人性更复杂的问题。而且,不乏任何试图探究其深度的简洁,合理和错误的答案。 在我职业生...

  • SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关

    SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关

    发布时间:2020/03/31

      美国国家航空航天局(NASA)挖掘出一种尚未建造的SpaceX货运飞船,用于向尚未发射的绕月轨道前哨基地运送补给品。 SpaceX的机器人Dragon XL是其主力Dragon太空船的圆柱形超大型版本,将作为第一批从NASA获得...

  • Spaces应用程序使人们可以参加VR中的Zoom会议

    Spaces应用程序使人们可以参加VR中的Zoom会议

    发布时间:2020/03/30

      一个名为Spaces的新PC VR应用程序使用户可以从VR内部加入Zoom会议和其他视频通话。 该应用是根据最近发生的COVID-19大流行而开发的,该大流行已经使世界各地许多人在家中工作并使用诸如Zoom之类的虚拟会议...

  • 汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%

    汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%

    发布时间:2020/03/30

      总部位于中国惠州的医疗设备公司慧英医疗声称已开发出一种AI成像解决方案,该解决方案使用CT胸部扫描来检测COVID-19的存在。该公司断言,如果不使用逆转录聚合酶链反应(RT-PCR)(COVID-19的标准测试方法),...

人工智能伦理与权力息息相关

发布时间:2019/11/12 科技 浏览次数:719

 
在最近在梵蒂冈举行的“数字时代的公共物品技术大会”上,弗朗西斯教皇敦促Facebook高管,风险资本家和政府监管机构警惕AI和其他技术的影响。他说:“如果人类所谓的技术进步成为共同利益的敌人,这将导致不幸地倒退到最强者的法律所规定的野蛮形式。”
在一次相关但上下文不同的对话中,今年夏天,Joy Buolamwini在国会代表众议员亚历山大·奥卡西奥·科尔特斯(D-NY)面前的国会作证说,多次审核发现面部识别技术通常对白人男性最有效,对有色女性最差。
这两个事件的共同点是在AI伦理学辩论中它们与力量动力学的关系。
关于AI伦理学的争论可以不加提及“权力”一词而产生,但它常常在表层以下。实际上,它很少是直接关注的重点,但必须如此。人工智能的力量就像引力一样,这是一种无形的力量,会影响人工智能中伦理学的所有考虑。
权力提供了影响哪些用例相关的手段;哪些问题是优先事项;以及为谁服务的工具,产品和服务。
它是有关公司和国家如何制定技术使用管制政策的辩论的基础。
在关于民主化,公平和负责任的AI的AI对话中都有。 Google首席执行官Sundar Pichai将AI研究人员转移到他的办公室,顶尖的机器学习从业人员被当成现代哲学家之王对待。
就像埃隆·马斯克(Elon Musk)这样的人惊恐地表示,未来的AI技术可能会在未来几十年给人类带来巨大的破坏,尽管如今已经使用面部识别技术来大规模追踪和拘留中国的维吾尔族穆斯林人口。
当消费者感到数据保护无望,或者工程师知道某些事情在道德上有问题但没有寻求追索权的途径时,就会出现这种情况。
从广义上讲,初创公司可能将道德作为一种很好的补充,但不是必须具备的。致力于抢占市场并在产品发布截止日期之前完成工作的工程师可能会嘲笑将宝贵的时间放在考虑道德的观念上。首席执行官和政客可能会付出口头上的道德操守,但最终只会发出同情的信号或进行道德操守。
但是,AI伦理不仅是一种感觉良好的附加产品,而且是一种需求,而非需求。人工智能被称为21世纪人权的巨大挑战之一。这不仅关乎做正确的事或使最佳的AI系统成为可能,还关乎谁掌握权力,以及AI如何影响其所涉及的一切力量平衡。
这些权力动态旨在定义企业,社会,政府,世界各地个人的生活,隐私的未来,甚至我们的未来权利。就像几乎每个AI产品经理都喜欢说的那样,事情才刚刚开始,但是如果不能解决AI时代不平衡的动力变化,可能会带来危险的后果。
劳动力市场与新镀金时代
趋势的融合导致AI在历史上风雨飘摇的今天重新出现。深度学习,云计算,GPU之类的处理器以及更快地训练神经网络所需的计算能力-技术已成为主要技术公司的基石-推动了当今的复兴。
第四次工业革命与历史性收入不平等和新的镀金时代一起发生。就像铁路大亨利用农民迫切希望在1800年代将农作物推向市场一样,拥有专有数据集的科技公司也使用AI来进一步巩固其市场地位和垄断地位。
当数据比石油更有价值时,拥有有价值数据的公司将具有优势,并且最有可能巩固财富或行业领导者的地位。当然,这适用于Apple,Facebook,Google,IBM和Microsoft等知名公司,但对于旧有业务也是如此。
同时,并购继续加速并进一步巩固实力,这一趋势巩固了其他趋势,因为研发几乎完全属于大型企业。 2018年SSTI的一项分析发现,拥有250名或更多员工的公司占R&D支出的88.5%,而拥有5,000名或更多员工的公司则占R&D支出的近三分之二。
斯坦福大学以人为本的人工智能研究所(HAI)的最新报告显示,人工智能的日益扩散可能会导致社会的巨大失衡。
HAI表示:“人工智能的潜在财务优势是如此之大,而人工智能之间的鸿沟也是如此之深,以至于我们所知道的全球经济平衡可能会因一系列灾难性的构造转变而动摇。”这要求美国政府在未来十年内在教育,研究和企业家精神方面投资1200亿美元。
该提案的合著者是前Google Cloud首席AI科学家李飞飞博士。她说:“如果得到正确指导,人工智能时代将迎来全人类生产力和繁荣时代。”普华永道估计,到2030年,人工智能将为全球经济贡献15.7万亿美元。但是,如果我们不负责任地利用它并公平地分享收益,它将为那些迎接新机遇的精英人士带来更多的财富和权力集中年龄,贫困,无能为力以及全球多数人的目的感丧失。”
麻省理工学院数字经济计划负责人Erik Brynjolfsson研究了AI对工作未来的影响,并在最近的斯坦福大学AI伦理研讨会上发表了讲话。关于适合机器学习的工作数量,这些工作在未来几年可能会被替换,Brynjolfsson说:“如果从整体上看待经济,将会掀起波澜。还没打呢。”
Brynjolfsson说,机器智能可用于重新设计和增加工作场所的任务,但最常用于替代工作。
根据布鲁金斯学会的分析以及卡内基梅隆大学的汤姆·米切尔的研究,自动化对失业的影响预计会因城市而异,因州而异。例如,加利福尼亚州的弗雷斯诺市受到的打击将比明尼阿波利斯州受到的打击更大,但是,工作不稳定或失业预计会严重影响低收入家庭和有色人种。麦肯锡(McKinsey)最近的一份报告说,由于自动化,非裔美国人有望失业最多。
这是因为自2000年以来美国的中等收入趋势一直停滞不前。与生产率提高相关的中等收入增长的结束是布林乔夫森所说的“巨大的脱钩”。
他说:“在20世纪的大部分时间里,这些角色-更多的生产,更多的财富,更高的生产率-齐头并进,与典型的人的状况有所好转,但是最近,这些界限有所分歧。” “好吧,派变得越来越大,我们正在创造更多的财富,但这将使越来越少的人受益。”
Brynjolfsson相信AI社区的挑战已经导致了最先进的AI的飞跃,例如DARPA自动驾驶挑战赛和用于计算机视觉的ImageNet,但是企业和AI社区应该开始将他们的注意力转向共同的繁荣。
“很多人有可能被抛在后面,事实上,很多人都有。这就是为什么我认为目前最紧迫的挑战不仅是更好的技术,尽管我全力以赴,而且要创造共同的繁荣,”他说。
科技巨头和权力获取
随着AI传播的另一个主要趋势是,在美国历史上第一次,大多数劳动力是有色人种。根据美国人口普查的预测,到2030年,美国大多数城市以及整个国家将不再具有种族多数。
这些人口变化使得AI公司内部缺乏多样性,这更加引人注目。至关重要的是,决策系统的创建缺乏种族和性别多样性,这就是AI Now Institute主任Kate Crawford称之为AI的“白人问题”。
 
根据Wired和Element AI在2018年的分析,在大型AI会议上发表的研究中只有18%是女性,而在Facebook和Google上,分别只有15%和10%的研究人员是女性。两家公司的发言人表示,谷歌和Facebook没有提供AI研究多样性数字。
AI Now Institute在4月发布的一份报告中详细描述了“负责技术研究的工程团队与部署AI系统的千差万别的人群之间存在明显的文化鸿沟。”该小组将其称为“ AI问责制差距”。
该报告还认可了AI系统中隐藏的人工,例如Facebook或YouTube内容所需的成千上万的主持人,或在旧金山湾区UC Berkeley附近远程驾驶Kiwibot送货机器人的哥伦比亚的网真驾驶员。
报告写道:“人工智能的开发者和从中获利的人与最有可能遭受其负面影响的人之间的差距正在扩大,而不是缩小。”理由是,在权力集中于人工智能行业的人工智能行业中,政府缺乏监管几家公司。
萨菲亚·诺布尔(Safiya Noble)博士和莎拉·罗伯茨(Sarah Roberts)博士在8月发表的UCLA论文中,记载了科技行业缺乏多样性的影响。合著者认为,我们现在正在目睹“数字技术官僚主义的崛起”,这种崛起掩盖了自己是种族后和功绩驱动的,但实际上是一种权力系统,会system积资源,并有可能根据种族身份来判断一个人的价值,性别或阶级。
“即使根据联邦法律,美国公司也无法’自我调节’和’创新’结束种族歧视。在现代数字技术精英中,精英精英和知识上乘的神话被用作种族和性别象征,它们不合比例地整合了有色人种的资源,尤其是非裔美国人,拉丁裔和美洲原住民。” “对精英主义神话的投资抑制了对种族主义和歧视的质疑,即使数字精英产品被注入了种族,阶级和性别标志。”
尽管谈论如何解决技术的多样性问题,但许多技术行业仅取得了渐进的进步,对拥有拉丁裔或黑人创始人的初创公司的资金仍然落后于白人创始人的资金。为了解决技术行业在多样性和包容性计划方面普遍缺乏进展的问题,一对数据与社会研究人员建议,技术和AI公司应该接受种族素养。
其中一位研究员Mutale Nkonde是《算法责任法案》的合著者,该法案于今年早些时候在国会两院中提出,该法案指控联邦贸易委员会(FTC)评估算法偏差,并允许该机构根据公司开出罚款。尺寸。
她还是人的AI执行董事,也是哈佛大学伯克曼·克莱因(Berkman Klein)互联网与社会研究中心研究员。她现在正在评估2020年大选期间如何将人工智能和错误信息用于针对非裔美国人。参议院情报委员会于10月发布的一项调查发现,干预2016年大选的步骤在Facebook,Twitter和Instagram上单挑了非洲裔美国人。
在此之前,她和一个小团队致力于推进种族扫盲的观念。
Nkonde及其合著者认为,诸如隐性偏见培训和多样性倡议(由发布年度多样性报告的技术巨头所倡导)之类的东西未能在建立看起来像其用户的技术劳动力方面发挥作用。为了取得有意义的进步,企业应该抛弃模糊的愿望,并开始采取实际步骤来教育人们的种族素养。
一篇解释种族素养框架的论文说:“建设技术中种族素养能力的真正目标是想象一个不同的世界,我们可以摆脱旧的格局。” “没有刻意解决技术竞赛的问题,新技术不可避免地会重现旧部门。但这不是必须的。”
合著者希望种族素养成为计算机科学学生课程的一部分,并为科技公司的员工提供培训。他们的方法借鉴了霍华德·史蒂文森(Howard Stevenson)对学校的种族素养培训,并包括隐性联想测验以确定人们所持的定型观念。
种族素养旨在为人们提供培训和情绪智力,以解决工作场所中的种族紧张情况。这可能包括计算机科学家和设计师以及机器学习工程师,使他们可以公开谈论产品或服务如何使结构种族主义永存或对不同的用户群产生不利影响。
目的是让人们以开放,无争议的方式谈论产品或服务可能出现的问题。在对大中型科技公司员工的采访中,研究人员发现,在许多科技公司中,与种族相关的问题是禁忌。
“面试中甚至是我们生活中遇到的许多障碍是,人们不想承认种族。他们想假装没关系,每个人都是一样的,而实际上却是在加强种族主义的模式和行为。” “这意味着公司必须清楚自己的价值观,而不是通过避免表达自己的价值观而试图成为所有人的万物。”
种族素养旨在为人们提供培训和情绪智力,以解决工作场所中的种族紧张情况。这可能包括计算机科学家和设计师以及机器学习工程师,使他们可以公开谈论产品或服务如何使结构种族主义永存或对不同的用户群产生不利影响。
目的是让人们以开放,无争议的方式谈论产品或服务可能出现的问题。在对大中型科技公司员工的采访中,研究人员发现,在许多科技公司中,与种族相关的问题是禁忌。
“面试中甚至是我们生活中遇到的许多障碍是,人们不想承认种族。他们想假装没关系,每个人都是一样的,而实际上却是在加强种族主义的模式和行为。” “这意味着公司必须清楚自己的价值观,而不是通过避免表达自己的价值观而试图成为所有人的万物。”
恩孔德认为,随着诸如Alphabet之类的公司开发对人们的生活至关重要的产品,例如出售给政府的医疗服务或面部识别软件,种族素养将变得越来越重要。
种族素养培训的另一个预期结果是在公司内部创建一种文化,该文化在多样化的员工队伍中看到价值。波士顿咨询集团去年发布的一项研究发现,多元化程度更高的组织收入和创新率更高。但是,如果招聘和保留人数有任何迹象,那似乎并没有传达给硅谷科技巨头。
LinkedIn高级软件工程师Guillaume Saint-Jacques认为AI伦理不仅仅是正确的事情;这具有合理的商业意义。 Saint-Jacques是今年夏天启动“公平项目”的人之一,他说偏见可以阻碍利润。
“如果您有很大的偏见,您可能只能满足一个人群的需求,最终会限制用户群的增长,因此,从业务角度而言,您实际上希望让所有人参与进来……实际上,这是一个很好的业务决策。从长远来看,”他说。
个人自治与自动化
强大的公司可能会以不同的方式发挥其潜力,但其业务计划会对个人产生影响。
退休的哈佛商学院教授Shoshana Zuboff所著的《监视资本主义时代》也许是对这种新权力动态的最好概括。该书详细介绍了一种新的资本主义形式的创造,该资本主义结合了诸如照相机,智能家居设备和智能手机之类的传感器来收集输入到AI系统中的数据,从而对我们的生活做出预测(例如我们作为消费者的行为方式),以便“大规模了解并塑造我们的行为。”
监视资本主义单方面声称人类经验是一种免费的原始资源材料,可转化为行为数据。尽管其中一些数据[见解]应用于产品或服务的改进,但其余数据则被声明为专有的行为过剩,被馈入称为“机器智能”的先进制造流程,并被制成可预测您即将从事的工作的预测产品,后来”,祖波夫写道。
她认为,这种经济秩序是由谷歌在硅谷创造的,但此后被亚马逊,Facebook和微软以及百度和腾讯等中国同行采用。
祖波夫将监视资本主义描述为一种前所未有的权力形式,鲜为人知,但目前还没有有效的集体或政治行动手段来对抗它。
她质疑监管资本主义可能在市场“转变为完全确定的项目”时对人性造成的破坏。祖博夫说,如果放任不管,这种相对较新的市场力量会推翻人民的主权,并威胁到两个西方自由民主国家以及能够“想象,打算,承诺和构筑未来”的概念。
她写道,这些大公司“积累了我们的大量新知识,但不是我们的。” “他们为他人的利益而不是我们的利益来预测我们的未来。只要允许监督资本主义及其行为期货市场蓬勃发展,对新的行为修改手段的所有权就会超越作为21世纪资本主义财富和权力源头的生产资料的所有权。
祖博夫认为,监督资本主义的一个关键副产品是压倒性的无助感。这就是人们耸耸肩,说没有停止拥有大量资源和财富的大型高科技公司的情况。
举报人爱德华·斯诺登似乎同意祖博夫的评估。
从使用移动设备跟踪您的运动到中国的“社会信用评分”,企业和政府越来越多地使用元数据收集来影响人类生活的决策。这些数据的总目的是取代个人代理。斯诺登在接受NBC新闻采访时说,当他被问到为什么不犯罪的人为什么应该关心监视技术时,斯诺登说。
这些活动记录正在被公司和政府不断创建,共享,收集和拦截。最终,这意味着当他们出售这些产品,进行交易时,当他们在这些记录的支持下开展业务时,他们所出售的不是信息。他们卖的是我们。他们在卖我们的未来。他们在卖掉我们的过去。他们是在出售我们的历史,我们的身份,最终是在窃取我们的力量并使我们的故事为他们服务。”
普林斯顿大学副教授鲁哈·本杰明(Ruha Benjamin)是《追逐技术》(Race After Technology)一书的作者,他也担心代理问题,因为人们是否拥护AI带来世界末日或乌托邦的愿景,都在谈论将机器让渡权力。
本杰明在肯尼亚内罗毕的肯雅塔大学举行的深度学习Indaba上说:“技术是要拯救我们还是杀死我们,这都是想法。” “他们都放弃了我们在这些技术系统的设计中的角色-我们不只是将其他人创建的内容提交给默认设置,而是实际上试图嵌入我们自己的价值观和想象力转变为这些结构,因此我们希望超越技术决定论。”
大公司内部已经出现了个人权力的非常不同的体现。例如,大约在一年前,全球有20,000多名Google员工走出来抗议多种道德问题。根据组织者的说法,其中包括Android创始人安迪·鲁宾(Andy Rubin)在涉嫌性骚扰,强制仲裁结束后支付了9000万美元,以及Google参与了五角大楼的Project Maven项目。
在数以千计的Google员工签署一封信抗议该公司参与无人机对象检测AI项目的几个月后,Google承诺在2019年终止其Maven合同,并发布了一系列AI原则,其中包括不制造自动武器的承诺。
同样,Facebook员工呼吁首席执行官马克·扎克伯格(Mark Zuckerberg)进行事实检查或禁止政治广告,而微软和GitHub的员工则要求终止与ICE的合同,后者是执行国土安全部的机构,执行特朗普的驱逐和拘留政策。
挑战大型高科技公司(尤其是对他们雇用的公司)需要勇气和组织才能,但是这些抗议活动表明,即使面对庞然大物,个人也可以重新获得某种代理权。
政府与社会
随着AI如今的复兴,埃隆·马斯克(Elon Musk)成为了现代的保罗·里维尔(Paul Revere),敲响了有关杀手机器人和人工智能(AGI)的警报。当弗拉达米尔·普京(Vladamir Putin)著名地表示,控制AI的国家将控制世界时,马斯克回应说,他认为AI军备竞赛将导致第三次世界大战。
马斯克加入了4,500多名AI和机器人技术研究人员,并签署了《为未来而战》公开信,以反对无人为干预的自主武器。如果某个国家或何时引进具有自主权的杀手机器人来选择人们的生死存亡,那确实可能成为权力的最终体现。
但是,尽管马斯克(Musk)这样的人物对假设的关注度很高,但香港已经在使用面部识别(这可能是政府颁布禁止口罩的主要原因),而底特律警察局已经在测试实时面部识别。同时,算法正在返回结果,这些结果被认为会对数百万非裔美国人的生活产生负面影响,对非二元性别和有色人种的表现不佳。
终结者的天网之类的AGI场景可能尚未出现,但是军队已经在考虑AI的道德应用。
随着中国和俄罗斯积极推进投资,五角大楼正在考虑下一步行动,各国军事人员中AI的扩散是令人担忧的现实。
国家人工智能国家安全委员会由国会于一年前成立,上周发表了有关人工智能对战争影响的报告草稿。紧要关头就是“人工智能的发展将如何塑造力量的未来”,以及美国如何才能维持经济和军事至上的地位。
一周前,由技术主管和AI专家组成的委员会向国防部介绍了AI伦理原则建议。
国防部目前正在考虑由美国一些首席技术专家起草的这套AI伦理原则,例如前Google首席执行官Eric Sc​​hmidt,MIT CSAIL主任Daniela Rus和LinkedIn联合创始人Reid Hoffman。
研究人员和立法者说,在美国总统大选之年2020年,深造假尤其令人担忧。机器人网络已在Twitter上用于放大国家议程,例如在前《华盛顿邮报》记者贾马尔·卡舒吉(Jamal Khashoggi)被谋杀后捍卫沙特阿拉伯政府的机器人,或曾在2016年当选唐纳德·特朗普当选总统的俄罗斯机器人。参加在南非进行的俄罗斯影响力运动。
人工智能,权力与公民社会
尽管围绕使用人工智能来控制在线政治言论的斗争不断,但新问题仍在不断涌现,例如偏见已导致中介机构和倡导组织要求技术巨头禁止使用算法来代替法官进行审前保释评估。
由AI研究人员在苹果,Facebook和Google等公司创建的AI合作伙伴关系将国际特赦组织(Amnesty International)和人权观察组织(Human Rights Watch)等组织与世界上最大的AI公司汇集在一起​​。在今年夏天接受VentureBeat采访时,执行董事Terah Lyons表示,权力对于非政府组织和科技巨头之间的AI伦理学辩论至关重要,他们在讨论AI将如何影响社会。
她说:“我认为这是至关重要的,至关重要的是,我们在工作中非常重视权力,因为除非您在谈论,否则这是一场贫穷的谈话,” “权力是核心问题之一,即使不是核心问题。”
她认为,人工智能行业缺乏多样性,并且在构建和部署系统和工具的方式上缺乏相应的影响力,以及技术公司和机构中个人的力量和影响力,都使她发挥了作用。
当拥有少量资源的民间社会和非营利性机构与资源丰富的科技巨头合作时,请务必牢记这些动态。像AI合作伙伴组织和斯坦福大学人类中心AI研究所这样的组织拥护这种采用多利益相关方的方法来创建代表性流程的方法,但是非营利组织的员工通常无法负担起参加AI利益相关方合作伙伴会议的机会,例如,就像科技巨头的员工一样。
“与这些大型且特别是资源丰富的科技公司相比,力量和资源配置存在许多差异,因此,更有效地赋予他们权力,我认为这是您开始为实现公平而公平竞争的重要因素合作。”她说。
相同的旅行限制可能会影响有兴趣参加国际会议的AI研究人员。去年,在加拿大蒙特利尔的NeurIPS举行的黑人人工智能研讨会上,大约一半的与会者被移民官员拒绝了签证,而今年申请人再次报告了同样的情况。此类事件导致AI合作伙伴关系敦促各国为AI研究会议旅行创建特殊签证,例如针对世界某些地区的医疗专业人员,运动员和企业家的签证。
国家与科技巨头之间的权力关系
卡斯珀·克莱恩(Casper Klynge)是丹麦驻硅谷的大使。一些国家/地区在湾区设有商业和创新中心,但克林奇是派遣到硅谷的第一位大使,专门代表一个国家的外交利益。
丹麦政府已派遣他与苹果,亚马逊,谷歌和Facebook等公司打交道,这些公司已经积累了全球许多AI人才,成为全球超级大国。克林奇(Klynge)认为,更多的小国也应该这样做,以便他们能够为共同的目标而共同努力。克林奇(Klynge)在担任该职位的两年中说,他了解到与其他小国团结在一起的多边联盟建设是他工作的一部分。
垄断企业对政府而言并不是什么新鲜事,但克莱林说,像自动驾驶和搜索这样的AI改变了游戏规则,使这类科技公司对国家利益的重要性超过了其他许多国家,并引发了对丹麦所谓的技术外交的需求。
上个月在接受VentureBeat采访时,克林格认为科技巨头歪曲了国际关系的本质,并创造了一个新的现实,各国必须像对待全球超级大国那样对待科技巨头。
“我们再也不能将它们视为中立的平台,而只是人们想要做的任何事情的中立提供者。我认为我们必须以更加成熟和负责任的方式对待他们,这也意味着我们不那么天真,我们更加平衡,并且提出要求,要求他们负责。” “我的工作只是系统性工作的一种征兆,我们正在尝试做一些更系统,更现实的技术公司和技术本身的观点。”
接下来是什么?
在AI伦理学辩论中,权力无处不在,但这并不意味着我们必须保持无能为力。正如种族扫盲项目所说明的,还有另一种方式。
鲁哈·本杰明(Ruha Benjamin)说技术需要“社会上只是想象中的东西”,而凯茜·奥尼尔(Cathy O’Neil)在她的《数学毁灭性武器》一书中提到了这一点。
“大数据流程整理了过去。他们不会创造未来。这样做需要道德的想象力,而这是人类所能提供的。”她写道。
扭曲的权力动态已经使“民主化”等词语变得毫无意义,但将AI交由更多人解决大问题可能会大大改变人们对AI的看法,并在人类生活中产生积极影响。
当然,已经有很多AI用于改善人类生活的例子。麻省理工学院的研究人员创建了一种算法,使孩子们更快地上学,并为波士顿学区每年节省了500万美元的交通费用。 FDNY和NYU正在使用AI通过了解最有效的现场路线来缩短紧急响应时间-Google.org的数十个项目之一,采用数据驱动的方法来创建AI以造福人类。人类正在使用AI建造更高效的温室并提高农作物产量,这些进步可能有助于避免未来数十年的饥饿,并随着全球人口激增至100亿而养活世界。不断的例子。
但是,可以预测未来,颠覆经济和社会秩序,将人们关进监狱或对我们的健康做出决定的技术总是意味着,在令人印象深刻的技术进步的表面之下,是一场权力斗争。
人工智能系统具有强大的动力功能,可为有色人种在保释评估,影响数百万人的医疗保健,无家可归的服务和面部识别方面返回较差的性能。
欧盟AI专家敦促各国避免大规模监视,转而使用AI来增强和增强人们的能力时,也是如此。三星和联合国都在使用AI来实现可持续发展目标。
在fast.ai等开放式教育项目中就可以找到它,芬兰的一项倡议就是在教育该国一部分人口中了解AI的基础知识。
正如丹麦数字枢纽首席执行官Camilla Rygaard-Hjalsted最近在一次采访中建议的那样,有远见的气候变化目标可以帮助招募AI人才,或者将机器学习应用于气候变化的愿景可能是AI的绝佳月球。
它处于起步阶段的对话式AI项目中,以保护军人的子女,检测何时可能发生帮派枪击事件,或为巴基斯坦的少女们提出性健康问题。
它存在于Masakhane等开源项目中,该项目正在致力于为2,000多种非洲语言创建机器翻译。该项目现在有来自非洲大陆各个角落的60位贡献者,他们的AI可以保留和翻译这些语言。根据联合国的估计,非洲是地球上任何一个大陆中最年轻的人口,从现在到2050年,非洲将占全球人口增长的一半以上。非洲的机器翻译对于在线和现实世界中增强对话式AI,通信和商业功能可能很重要。
在过去三年中,Kathleen Siminyu领导了肯尼亚内罗毕的机器学习和数据科学领域的女性。 “我认为语言是一种障碍,如果消除,语言将使许多非洲人能够参与数字经济,并最终参与人工智能经济。所以,是的,作为坐在这里为当地语言服务的人们,我觉得将非数字时代的人们带入AI时代是我们的责任,”她在接受电话采访时告诉VentureBeat。
如果您只关注AI伦理学辩论的一部分,那么很容易得出结论,将AI伦理学纳入工程和设计流程是某种在政治上正确的,企业社会责任的要求,可以阻碍真正的进步。
不是。人工智能伦理意味着要以人为中心和循环不断地建立最佳模型,这对于人们选择运行世界的技术和系统的未来必不可少。
当我们对未来没有其他愿景时,这些动力动力似乎最为艰巨,除了在走向第三次世界大战的全球监视国家中失业的星球之外,没有其他选择。
在规划通往更美好世界的道路时,必须认识到游戏中的动力动态,因为正如AI本身可以成为工具或武器一样,它可以赋予个人或整个社会以权力或使其处于不利地位。希望有一个更好的世界来梦想可能的事情并分享这些愿望的初创公司,技术巨头和社区都有责任。

姓 名:
邮箱
留 言: