-
脱发难题有新招:振东制药达霏欣推出“内服外治”方案,助力毛囊新生
发布时间:2025/07/24
近年来,随着生活压力加剧、作息不规律及环境因素影响,脱发、白发问题呈现年轻化趋势,成为困扰现代人的普遍健康难题。面对庞大的市场需求,传统单一治疗手段逐渐显露出局限性。近日,专注毛发健康领域22年的达...
-
“大健康”中医药技术壁垒下,振东制药靠“一问一答”成功破局
发布时间:2025/06/26
6月17日,中国药理学会党委书记杜冠华率专家团队赴振东制药开展专项技术对接,全国学会服务地方产业发展项目正式启动。此次会议聚焦中药现代化研发重难点,诚邀全国中医药专家共同讨论“大健康”新时代背景下传统药...
-
振东出题,专家解题:“大健康”背景 下,振东制药率先“破冰”!
发布时间:2025/06/25
6月17日,全国学会服务地方产业发展试点项目正式落地山西。该项目由中国科协主导,振东制药协办,研发总裁游蓉丽主持。旨在通过嫁接全国学会的学术资源助力山西地区药企实现技术升级,推动当地中医药企业集群全面...
-
振东集团资助范围辐射全国,形成”爱出者爱返”的闭环
发布时间:2025/06/11
在商业与公益的天平上,山西振东健康产业集团选择了后者——即便负债也要坚持的”变态慈善”。这家从太行山走出的民营企业,用32年时间构建起一套独特的公益生态系统,累计捐赠超10亿元,将”与民同...
-
“酷”大脑研究的扭曲观念扼杀了心理治疗
发布时间:2020/03/31
‘对于人类的每一个问题,总是存在着众所周知的解决方案-简洁,合理和错误。” 人类从来没有遇到过比了解我们自己的人性更复杂的问题。而且,不乏任何试图探究其深度的简洁,合理和错误的答案。 在我职业生...
-
SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关
发布时间:2020/03/31
美国国家航空航天局(NASA)挖掘出一种尚未建造的SpaceX货运飞船,用于向尚未发射的绕月轨道前哨基地运送补给品。 SpaceX的机器人Dragon XL是其主力Dragon太空船的圆柱形超大型版本,将作为第一批从NASA获得...
-
Spaces应用程序使人们可以参加VR中的Zoom会议
发布时间:2020/03/30
一个名为Spaces的新PC VR应用程序使用户可以从VR内部加入Zoom会议和其他视频通话。 该应用是根据最近发生的COVID-19大流行而开发的,该大流行已经使世界各地许多人在家中工作并使用诸如Zoom之类的虚拟会议...
-
汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%
发布时间:2020/03/30
总部位于中国惠州的医疗设备公司慧英医疗声称已开发出一种AI成像解决方案,该解决方案使用CT胸部扫描来检测COVID-19的存在。该公司断言,如果不使用逆转录聚合酶链反应(RT-PCR)(COVID-19的标准测试方法),...
如何阻止AI延续有害偏见
发布时间:2020/01/03 科技 浏览次数:817
人工智能(AI)已经以引人注目的方式重新配置了世界。数据驱动着我们的全球数字生态系统,人工智能技术揭示了数据的模式。智能手机,智能家居和智能城市会影响我们的生活和互动方式,人工智能系统越来越多地参与招聘决策,医疗诊断和司法裁决。此方案是乌托邦式还是反乌托邦式取决于您的观点。
反复列举了AI的潜在风险。杀手机器人和大规模失业是人们普遍关注的问题,而有些人甚至担心人类的灭绝。更乐观的预测认为,到2030年,人工智能将为世界经济增加15万亿美元,并最终使我们走向某种社会的必杀技。
我们当然需要考虑这些技术对我们社会的影响。一个重要的问题是,人工智能系统会加剧现有的社会偏见,从而造成破坏性影响。这种现象的几个臭名昭著的例子受到了广泛的关注:产生性别歧视输出的最先进的自动机器翻译系统,以及将黑人分类为大猩猩的图像识别系统。
之所以出现这些问题,是因为此类系统使用数学模型(例如神经网络)来识别大量训练数据中的模式。如果该数据以各种方式严重歪斜,那么受过训练的系统将不可避免地学习和再现其固有偏差。偏向自主的技术存在问题,因为它们可能使诸如妇女,少数民族或老年人等群体边缘化,从而加剧了现有的社会失衡。
例如,如果对AI系统进行了有关警察逮捕数据的培训,那么现有逮捕模式中出现的任何有意识或无意识的偏见都将通过在该数据上受过训练的“预测性警务” AI系统进行复制。认识到这一点的严重影响,各种权威组织最近建议,所有AI系统都应该接受无偏数据的培训。欧洲委员会于2019年初发布的道德准则提出了以下建议:
收集数据时,它可能包含社会构造的偏见,不准确性,错误和错误。在使用任何给定的数据集进行训练之前,需要解决此问题。
处理偏差数据
这一切听起来都足够明智。但不幸的是,有时根本不可能在训练之前确保某些数据集没有偏见。一个具体的例子应该澄清这一点。
所有最新的机器翻译系统(例如Google Translate)都经过句子对训练。英语-法语系统使用将英语句子(“她很高”)与等效法语句子(“ elle est grande”)相关联的数据。在给定的一组训练数据中,可能有5亿个这样的配对,因此总共有10亿个单独的句子。如果我们想防止结果系统产生诸如以下的性别歧视输出,则需要从此类数据集中消除所有与性别相关的偏见:
输入:妇女开始开会。他们有效地工作。
产出:留尼汪岛女同志。它可以改善身体状况。
法语翻译是使用Google Translate于2019年10月11日生成的,但不正确:“ Ils”是法语中的男性复数主语代词,尽管上下文清楚地表明正在提及女性,但它还是出现在此处。这是经典的例子,由于训练数据中的偏差,男性默认值被自动化系统首选。
通常,翻译数据集中70%的性别代词是男性的,而30%是女性的。这是因为用于此目的的文本所指的是男性而不是女性。为了防止翻译系统复制这些现有的偏见,必须从数据中删除特定的句子对,以使英语和法语双方出现男性和女性代词的比例分别为50%/ 50%。这将防止系统为男性代词分配更高的概率。
当然,名词和形容词也需要保持50%/ 50%的平衡,因为它们可以用两种语言(“演员”,“女演员”,“中性”,“中性”)表示性别,依此类推。但是这种剧烈的下采样必将大大减少可用的训练数据,从而降低所产生翻译的质量。
即使结果数据子集完全平衡了性别,它仍然会以各种其他方式(例如种族或年龄)倾斜。实际上,很难完全消除所有这些偏见。如果一个人只花五秒钟来阅读训练数据中十亿个句子中的每一个,那么将需要159年的时间来全部检查它们-假设愿意整日工作,并且没有午休时间。
替代?
因此,在构建AI系统之前要求所有训练数据集均无偏见是不现实的。此类高级别要求通常假设“ AI”表示数学模型和算法方法的同类簇。
实际上,不同的AI任务需要非常不同类型的系统。淡化这种多样性的全部范围掩盖了(例如)严重偏斜的训练数据所带来的实际问题。这是令人遗憾的,因为这意味着对数据偏差问题的其他解决方案被忽略了。
例如,如果在较大的,不可避免的偏倚的数据集上对系统进行训练之后进行调整,则可以大大减少训练后的机器翻译系统中的偏见。可以使用更小,更不偏斜的数据集来完成此操作。因此,大多数数据可能会有很大的偏差,但是不需要对数据进行训练。不幸的是,那些负责为AI研究制定指南和法律框架的人很少讨论这些技术。
如果人工智能系统只是在加剧现有的社会失衡,那么它们就会阻碍而不是促进积极的社会变革。如果我们每天使用的AI技术的偏见远小于我们,那么它们可以帮助我们认识并应对自己的潜伏偏见。
当然这是我们应该努力的方向。因此,AI开发人员需要更加仔细地思考他们构建的系统的社会后果,而撰写AI的人员需要更详细地了解AI系统是如何设计和构建的。因为如果确实要接近技术田园诗或启示录,则前者将是可取的。