-
脱发难题有新招:振东制药达霏欣推出“内服外治”方案,助力毛囊新生
发布时间:2025/07/24
近年来,随着生活压力加剧、作息不规律及环境因素影响,脱发、白发问题呈现年轻化趋势,成为困扰现代人的普遍健康难题。面对庞大的市场需求,传统单一治疗手段逐渐显露出局限性。近日,专注毛发健康领域22年的达...
-
“大健康”中医药技术壁垒下,振东制药靠“一问一答”成功破局
发布时间:2025/06/26
6月17日,中国药理学会党委书记杜冠华率专家团队赴振东制药开展专项技术对接,全国学会服务地方产业发展项目正式启动。此次会议聚焦中药现代化研发重难点,诚邀全国中医药专家共同讨论“大健康”新时代背景下传统药...
-
振东出题,专家解题:“大健康”背景 下,振东制药率先“破冰”!
发布时间:2025/06/25
6月17日,全国学会服务地方产业发展试点项目正式落地山西。该项目由中国科协主导,振东制药协办,研发总裁游蓉丽主持。旨在通过嫁接全国学会的学术资源助力山西地区药企实现技术升级,推动当地中医药企业集群全面...
-
振东集团资助范围辐射全国,形成”爱出者爱返”的闭环
发布时间:2025/06/11
在商业与公益的天平上,山西振东健康产业集团选择了后者——即便负债也要坚持的”变态慈善”。这家从太行山走出的民营企业,用32年时间构建起一套独特的公益生态系统,累计捐赠超10亿元,将”与民同...
-
“酷”大脑研究的扭曲观念扼杀了心理治疗
发布时间:2020/03/31
‘对于人类的每一个问题,总是存在着众所周知的解决方案-简洁,合理和错误。” 人类从来没有遇到过比了解我们自己的人性更复杂的问题。而且,不乏任何试图探究其深度的简洁,合理和错误的答案。 在我职业生...
-
SpaceX赢得NASA合同,使用新型Dragon XL工艺将货物运送到月球网关
发布时间:2020/03/31
美国国家航空航天局(NASA)挖掘出一种尚未建造的SpaceX货运飞船,用于向尚未发射的绕月轨道前哨基地运送补给品。 SpaceX的机器人Dragon XL是其主力Dragon太空船的圆柱形超大型版本,将作为第一批从NASA获得...
-
Spaces应用程序使人们可以参加VR中的Zoom会议
发布时间:2020/03/30
一个名为Spaces的新PC VR应用程序使用户可以从VR内部加入Zoom会议和其他视频通话。 该应用是根据最近发生的COVID-19大流行而开发的,该大流行已经使世界各地许多人在家中工作并使用诸如Zoom之类的虚拟会议...
-
汇盈医疗声称其AI可以从CT扫描中检测冠状病毒,准确率达96%
发布时间:2020/03/30
总部位于中国惠州的医疗设备公司慧英医疗声称已开发出一种AI成像解决方案,该解决方案使用CT胸部扫描来检测COVID-19的存在。该公司断言,如果不使用逆转录聚合酶链反应(RT-PCR)(COVID-19的标准测试方法),...
Google的VideoBERT预测视频接下来会发生什么
发布时间:2019/09/14 新闻 浏览次数:833
认识到活动并预测接下来可能发生的事情对于人类来说是很容易的,他们一直在下意识地做出这样的预测。但是机器更加艰难,特别是在标签数据相对缺乏的情况下。 (动作分类人工智能系统通常会根据与视频样本配对的注释进行训练。)这就是为什么谷歌研究人员团队提出了VideoBERT,这是一个自我监督的系统,可以处理各种代理任务,以学习未标记视频的时间表示。
正如研究人员在一篇论文和随附的博客文章中所解释的那样,VideoBERT的目标是发现与随时间推移的事件和动作相对应的高级音频和视觉语义特征。谷歌研究员科学家Chen Sun和Cordelia Schmid说:“[s] peech倾向于与视频中的视觉信号在时间上对齐,并且可以通过使用现成的自动语音识别(ASR)系统来提取。” “[它]因此提供了自我监督的自然来源。”
为了定义能够引导模型学习活动关键特征的任务,该团队开发了Google的BERT,这是一种自然语言AI系统,旨在模拟句子之间的关系。具体来说,他们使用与语音识别系统句子输出相结合的图像帧,根据特征相似性将帧转换为1.5秒的视觉标记,并将它们与单词标记连接起来。然后,他们要求VideoBERT从视觉文本句子中填写缺失的令牌。
研究人员为VideoBERT培训了超过一百万种教学视频,包括烹饪,园艺和汽车维修。为了确保它学习视频和文本之间的语义对应关系,团队在烹饪视频数据集上测试了其准确性,其中在预训练期间既没有使用视频也没有使用注释。结果表明,VideoBERT成功地预测了一碗面粉和可可粉在烤箱烘烤后可能成为布朗尼或蛋糕的情况,并且它会从视频和视频片段中生成一组说明(例如食谱)(令牌)反映了每一步所描述的内容。
也就是说,VideoBERT的视觉令牌往往会丢失细粒度的视觉信息,例如较小的物体和微妙的动作。该团队使用一种名为Contrastive Bidirectional Transformers(CBT)的模型解决了这一问题,该模型删除了标记化步骤。根据一系列关于行动细分,行动预测和视频字幕的数据集进行评估,据报道,CBT在大多数基准测试中的表现都超过了现有技术的“显着利润率”。
研究人员将未来的工作留给未来的工作学习低级视觉特征与长期时间表示,他们说这可能会更好地适应视频环境。此外,他们计划将预培训视频的数量扩大到更大,更多样化。
研究人员写道:“我们的研究结果证明了BERT模型能够从未标记的视频中学习视觉语言和视觉表现。” “我们发现我们的模型不仅对分类和配方生成有用,而且学习的时间表示也很好地转移到各种下游任务,例如行动预期。”
上一篇: 安德鲁杨承诺保护选民不受自动化影响
下一篇: 虚拟团队的挑战和优势:你站在哪里?