-
全国人大代表张淑琴、兰山区人大代表全传晓建议:完善商业信用体系建设 切实保护中小企业利益
发布时间:2025/03/06
2025年3月6日,金融时报社刊载全国人大代表张淑琴、兰山区人大代表全传晓关于“完善商业信用体系建设 切实保护中小企业利益”的署名文章。人大代表围绕构建商业信用展开,分析其在实体经济中的作用、存在问题,探讨...
-
@全体毕业生,这4万份打包胶带为你送上毕业祝福!
发布时间:2024/06/28
蔓蔓日茂,蝉鸣渐起,夏日正当时。 拨穗礼成,当毕业典礼徐徐落幕,也宣告着大学四年的故事将要落下帷幕。在这个充满意义的时刻,淘宝联合全国100多所高校菜鸟驿站,为即将踏上新旅程的毕业生们精心准备了4万份打...
-
贵阳市云岩区溯源纠纷调解服务所暨“矛盾纠纷多元化解联合体”成立
发布时间:2024/06/11
2024 年 6 月 7 日,贵阳市云岩区溯源纠纷调解服务所暨“矛盾纠纷多元化解联合体”成立大会盛大举行。此次大会参会人员包括阎毅、杨健铭、丁鲁黔等在内的 30 余位各界人士。 身为金牌调解员的阎毅,凭借其丰富的调...
-
新起点,新力量:贵阳市云岩区诉源纠纷调解服务所挂牌成立
发布时间:2024/05/31
5月27日,贵阳市云岩区诉源纠纷调解服务所(下简称诉源纠纷调解所)正式挂牌成立。 诉源纠纷调解所,系在贵阳市云岩区法学会一届二次会长会议审核通过,经贵阳市云岩区法学会批准设立的一家民办非企业性质的调解...
-
“酷”大脑研究的扭曲观念扼杀了心理治疗
发布时间:2020/03/31
‘对于人类的每一个问题,总是存在着众所周知的解决方案-简洁,合理和错误。” 人类从来没有遇到过比了解我们自己的人性更复杂的问题。而且,不乏任何试图探究其深度的简洁,合理和错误的答案。 在我职业生...
-
SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关
发布时间:2020/03/31
美国国家航空航天局(NASA)挖掘出一种尚未建造的SpaceX货运飞船,用于向尚未发射的绕月轨道前哨基地运送补给品。 SpaceX的机器人Dragon XL是其主力Dragon太空船的圆柱形超大型版本,将作为第一批从NASA获得...
-
Spaces应用程序使人们可以参加VR中的Zoom会议
发布时间:2020/03/30
一个名为Spaces的新PC VR应用程序使用户可以从VR内部加入Zoom会议和其他视频通话。 该应用是根据最近发生的COVID-19大流行而开发的,该大流行已经使世界各地许多人在家中工作并使用诸如Zoom之类的虚拟会议...
-
汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%
发布时间:2020/03/30
总部位于中国惠州的医疗设备公司慧英医疗声称已开发出一种AI成像解决方案,该解决方案使用CT胸部扫描来检测COVID-19的存在。该公司断言,如果不使用逆转录聚合酶链反应(RT-PCR)(COVID-19的标准测试方法),...
研究人员说,网上的仇恨言论可能像计算机病毒一样被遏制
发布时间:2019/12/20 科技 浏览次数:739
剑桥大学的研究人员说,仇恨言论在社交媒体上的传播可以使用与打击恶意软件相同的“隔离”方法来解决。
仇恨言论的定义因国家,法律和平台的不同而异,仅阻止关键字是无效的:例如,暴力的图形描述不必包含明显的种族诽谤来构成种族主义的死亡威胁。
因此,仇恨言论很难自动检测。在造成预期的“心理伤害”之后,必须由接触该事件的人员举报,并由许多主持人对每个案件进行判决。
这是古代辩论的新前沿:言论自由与有毒语言。
现在,一名工程师和一名语言学家已在《道德与信息技术》杂志上发表了一项提案,该提案利用网络安全技术对目标人群进行控制,而无需进行审查。
剑桥语言和机器学习专家正在使用威胁和暴力侮辱数据库来构建算法,该算法可以为包含仇恨言论形式的在线消息的可能性提供分数。
随着这些算法的完善,潜在的仇恨言论可以被识别并“隔离”。用户将收到警告警报,其中包含“讨厌的表情”(仇恨语音严重程度得分),发件人的姓名以及查看内容或删除看不见内容的选项。
这种方法类似于垃圾邮件和恶意软件过滤器,“将声音传递给数字民主国家”项目的研究人员认为,它可以大大减少人们被迫经历的仇恨言论。他们的目标是在2020年初准备好原型。
共同作者兼语言学家Stefanie Ullman博士说:“仇恨言论是一种恶意软件,是一种故意的在线伤害形式,因此可以通过隔离来处理。” “实际上,很多仇恨言论实际上是由Twitter机器人之类的软件产生的。”
共同作者兼工程师Marcus Tomalin博士说:“像Facebook,Twitter和Google这样的公司通常会对仇恨言论做出反应。” “这对于那些不经常遇到它的人来说可以。对于其他人来说,它太少了,太迟了。”
他说:“许多妇女和公众视野中的少数族裔人因敢于在网上露面而受到匿名的仇恨言论。我们看到这阻止了人们进入或继续从事公共生活,常常是那些需要更大代表权的群体中的人们。”说过。
美国前国务卿希拉里·克林顿(Hillary Clinton)最近对英国听众说,仇恨言论对民主政体构成了威胁,因为许多女议员将网上虐待视为她们不再参选的一部分。
Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)在乔治敦大学的演讲中谈到“对于什么才算是仇恨有广泛的分歧”,并辩称:“我们应该表现出更大的表情偏见”。
研究人员说,他们的提议不是万能的,而是介于完全允许或禁止在线使用某种“极端自由主义和专制主义”方法之间。
重要的是,用户成为仲裁者。托马林说:“许多人不喜欢没有选举产生的公司或由微观管理的政府来决定我们可以和不能彼此说的想法。”
“我们的系统会在您应该小心的时候进行标记,但这始终是您的要求。它不会阻止人们发布或查看他们喜欢的东西,但是它为那些被仇恨所淹没的人们提供了急需的控制。”
在本文中,研究人员指的是达到60%准确度的检测算法-比偶然性好得多。 Tomalin的机器学习实验室现在已经达到了80%,他预计数学建模将继续得到改善。
同时,Ullman收集了更多的“训练数据”:经过验证的仇恨言论,算法可以从中学习。这有助于完善确定隔离和随后的仇恨O’Meter读数的“置信度分数”,可以根据用户喜好将其设置为灵敏度刻度盘。
一个基本的例子可能涉及到“ b子”这样的词:一个多义的诽谤,但在诸如犬类繁殖的情况下也是一个合法术语。仇恨语音评分的依据是对此类单词在语法上的位置(周围单词的类型及其之间的语义关系)的算法分析。
Ullman说:“仅识别单个关键词是不够的,我们正在研究整个句子结构,甚至更多。用户个人资料中的社会语言信息和发布历史都可以帮助改善分类过程。”
Tomalin补充说:“通过自动隔离为可恨内容的强度提供指导,我们可以在仇恨言论的接收端授权那些使我们的在线话语中毒的人。”
但是,在剑桥艺术,人文与社会科学研究中心(CRASSH)工作的研究人员说,与计算机病毒一样,仇恨言论与限制仇恨言论的系统之间总是存在军备竞赛。
该项目还开始关注“反言语”:人们对仇恨言论的回应方式。 研究人员打算就“ Siri”之类的虚拟助手应如何应对威胁和恐吓问题进行辩论。