24小时联系电话:185 8888 888

科技
您现在的位置: 首页 > 科技 > 人工智能现在可以读取情绪了,但是应该吗?
  • “酷”大脑研究的扭曲观念扼杀了心理治疗

    “酷”大脑研究的扭曲观念扼杀了心理治疗

    发布时间:2020/03/31

      ‘对于人类的每一个问题,总是存在着众所周知的解决方案-简洁,合理和错误。” 人类从来没有遇到过比了解我们自己的人性更复杂的问题。而且,不乏任何试图探究其深度的简洁,合理和错误的答案。 在我职业生...

  • SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关

    SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关

    发布时间:2020/03/31

      美国国家航空航天局(NASA)挖掘出一种尚未建造的SpaceX货运飞船,用于向尚未发射的绕月轨道前哨基地运送补给品。 SpaceX的机器人Dragon XL是其主力Dragon太空船的圆柱形超大型版本,将作为第一批从NASA获得...

  • Spaces应用程序使人们可以参加VR中的Zoom会议

    Spaces应用程序使人们可以参加VR中的Zoom会议

    发布时间:2020/03/30

      一个名为Spaces的新PC VR应用程序使用户可以从VR内部加入Zoom会议和其他视频通话。 该应用是根据最近发生的COVID-19大流行而开发的,该大流行已经使世界各地许多人在家中工作并使用诸如Zoom之类的虚拟会议...

  • 汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%

    汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%

    发布时间:2020/03/30

      总部位于中国惠州的医疗设备公司慧英医疗声称已开发出一种AI成像解决方案,该解决方案使用CT胸部扫描来检测COVID-19的存在。该公司断言,如果不使用逆转录聚合酶链反应(RT-PCR)(COVID-19的标准测试方法),...

人工智能现在可以读取情绪了,但是应该吗?

发布时间:2020/01/12 科技 浏览次数:650

 
跨学科研究中心AI Now Institute在其年度报告中研究了人工智能对社会的影响,呼吁禁止使用旨在识别某些情况下人们情绪的技术。研究人员特别指出,情感识别技术(也称为情感识别技术)不应用于“影响人们的生活和获得机会的决策”,例如聘用决策或痛苦评估,因为它不够准确,并且可能导致有偏见的决定。
已经使用和销售的这项技术是什么?为什么引起关注?
面部识别的结果
至少十年来,研究人员一直在积极研究计算机视觉算法,该算法可以确定人类的情感和意图,并做出其他推断。面部表情分析至少自2003年以来就已经存在。计算机能够更长久地理解情绪。这项最新技术依赖于以数据为中心的技术,即“机器学习”,该算法对数据进行处理以“学习”如何制定决策,以实现更加准确的影响识别。
阅读情感的挑战
研究人员一直在寻求通过以前所做的事情来做新的事情。情感识别之所以诱人,是因为从某种程度上讲,我们人类甚至可以在很小的时候就可以做到这一点,但是使用计算机视觉来复制人类的技能仍然具有挑战性。尽管可以对图像进行一些非常出色的处理,例如将照片风格化以使其看起来像是由著名艺术家绘制的,甚至可以创建逼真的照片,更不用说创建所谓的Deepfake了,从真实图像中推断出诸如人类情感之类的属性一直是研究人员感兴趣的。
情绪是困难的,因为情绪往往取决于情境。例如,当某人专注于某事时,似乎只是在思考。面部识别在使用机器学习的过程中已经走了很长一段路,但是仅仅基于看一个人的脸来识别一个人的情绪状态却缺少关键信息。情感不仅通过一个人的表达来表达,还可以通过他们在哪里和在做什么来表达。这些上下文线索甚至很难馈入现代机器学习算法中。为了解决这个问题,人们正在积极致力于增强人工智能技术以考虑上下文,这不仅用于情感识别,而且还用于各种应用。
阅读员工情绪
AI Now发布的报告阐明了将AI应用于劳动力以评估工人生产力的一些方法,甚至早在面试阶段就已应用。分析采访中的镜头,尤其是针对远程求职者的镜头,已经在进行中。如果管理者可以从面试到评估来了解下属的情绪,那么有关其他就业问题(例如加薪,晋升或分配)的决策可能最终会受到该信息的影响。但是可以使用此技术的其他许多方式。
微软公司的一位研究人员解释说,认识到人们对计算机的情感具有潜在的积极应用潜力。
为什么担心
这些类型的系统几乎总是在模式匹配中存在公平性,问责制,透明性和道德(“ FATE”)缺陷。例如,一项研究发现,面部识别算法将黑人的面孔比白人的面孔评为愤怒,即使他们在微笑时也是如此。
许多研究小组正在解决该问题,但目前看来,不能仅在技术层面上解决该问题。有关AI中的FATE的问题将要求那些使用该技术的人们持续不断地共同努力,以意识到并解决这些问题。正如AI Now报告所强调的那样:“尽管AI道德规范的内容有所增加,但是道德原则和声明很少关注如何实现AI道德规范以及它们是否有效。”它指出,此类AI伦理声明在很大程度上忽略了如何,在何处以及由谁实施此类准则的问题。实际上,很可能每个人都必须意识到这些系统存在的偏见和弱点的类型,这与我们必须了解自己的偏见和其他偏见的方式类似。
毯子技术禁令的问题
更高的准确性和持续监控的简便性带来了道德之外的其他问题。也存在许多与技术相关的一般性隐私问题,范围从用作警察的摄像机的激增到潜在地使敏感数据匿名化。
考虑到这些道德和隐私问题,自然的反应可能是要求禁止使用这些技术。当然,如果人工智能在学习偏见或不可靠的情况下,将AI应用于求职面试结果或刑事量刑程序似乎很危险。但是,有一些有用的应用程序,例如,帮助发现警告标志以防止年轻人自杀和发现酒后驾车的人。这就是为什么即使是相关的研究人员,监管机构和公民也普遍停止呼吁全面禁止人工智能相关技术的原因之一。
结合AI和人类判断力
最终,技术设计师和整个社会都需要仔细研究如何将来自AI系统的信息注入到决策过程中。就像任何其他形式的智能一样,这些系统可能会给出错误的结果。众所周知,即使在诸如识别物体的能力之类的简单任务中,他们也不如人类那样对自己的信心进行评分。阅读情感时还存在重大的技术挑战,特别是考虑上下文来推断情感。
如果人们依赖于决策不准确的系统,则该系统的用户情况会更糟。众所周知,人们比其他权威人士更信任这些系统。有鉴于此,作为一个社会,我们需要在设计和应用过程中仔细考虑这些系统的公平性,问责制,透明性和道德规范,始终让人类成为最终决策者。