一只小狐狸带你解锁NLP/ML/DL秘籍

老板老板,听说BERT是个瞎子

此话怎讲?

它能理解语言,但是理解不了小夕的自拍!

video-BERT了解一下

喵喵喵?

AI的三大核心板块(CV/Speech/NLP)近几年都相继取得了非常大的发展和进步。但是正所谓成也萧何,败也萧何,深度学习一直在能力泛化和鲁棒性问题上饱受诟病,通用AI之路遥遥无期。

不过,近期得益于预训练模型的成功,似乎跨模态问题(VQA、看图说话等)也变得更有所期了。基于预训练的跨模态解决方案主要可以分为两个分支,一个是video-linguistic BERT(将视频数据融入BERT),另一个是visual-linguistic BERT(将image图片数据融入BERT)。最主要的难点都是如何将非文本信息融入到BERT的框架中。本文只涉及video-linguistic BERT。

视频可以理解为一组快速播放的图片,其中每一幅图片定义为帧(frame)。一般处理视频数据首先需要按每秒钟x帧(fps)的频率去对视频做抽取,然后将n个连续的frame组成一个片段(clip),这样视频就被切割成了很多不重叠的片段。对于每一个片段clip(包含m个frame)使用CV领域中pretrained模型(如ResNet等)抽取特征向量(visual features),最终视频被表示成特征向量的序列

从视频中抽取出来的特征向量自然是连续实值向量(属于整个实数空间),和离散的文本有很大的不同。当前,将视频的特征向量注入BERT主要有下面两种方式:

(1)Pipeline方式:将实值向量离散化,和文本token对齐加入到BERT模型中;

(2)端到端的方式:微调BERT模型结构,直接使用实值向量参与计算。

话不多说,小夕将通过下面两篇论文分别介绍这两种方法。后续阅读需对BERT有比较深的了解和认识。有需要可以移步这里,对BERT进行简单的复习回顾。文末还有彩蛋,不要错过哦~~

《VideoBERT: A Joint Model for Video and Language Representation Learning》

这是一篇将BERT结合video来学习跨模态表示的经典之作。该工作将video中提取出的特征向量通过聚类的方法离散化,继而在文本token的基础上增加视觉token,一起学习视觉和文本信息。

1 方法

1.1 视频文本数据处理(video and language processing)

针对video的处理,首先从input video每秒中抽取20帧画面(20 fps),每30帧组成一个片段。对每个clip用pretrained的ConvNet提取特征向量(1024维)。但是由于特征向量属于整个R^1024空间,是不可数的。为了和文本token相对应,延续原始BERT中的MLM任务,作者对所有提取出的特征向量使用hierarchical k-means做聚类,一共得到20736个类中心。把类中心作为visual token,每一个视觉特征向量都由它属于的类中心来表征。

针对文本的处理,使用现成的语音识别工具(Automatic Speech Recognition)提取视频中的文本,利用LSTM-based的语言模型对其断句。后续处理延续原始的BERT,用WordPieces切词,词表大小为3万。

1.2 输入格式(input format)

经过前面的处理,video中的语言和视觉信息都变成了离散的token,VideoBERT的输入格式延续了原始BERT的设计,只是增加了[>]这个特殊的token用来区分text token和visual token。

1.3 自监督任务(pretrain)

原始BERT有两个自监督任务:

(1)cloze(完形填空)/MLM(mask language model):预测被mask的text token;

(2)NSP(next sentence prediction):预测两个句对是否是连续的上下句。

第一个任务可以很自然的扩展到visual token中。像text token一样,提前mask visual token,利用没被mask的text token和visual token预测被mask的visual token,是一个多分类问题,使用softmax作为损失函数。

第二个任务NSP在VideoBERT中变成预测text sequence和visual sequence是否一致,即两者是否提取自同一个视频。类似的原始BERT,我们从其他视频数据中抽取visual sequence作为负例,来自该视频数据的visual sequence作为正例。是一个二分类问题。

1.4 下游任务

VideoBERT通过上述两个自监督任务实际上学习了visual-liinguistic的联合表示(分布)p(x,y),其中x表示visual sequence,y表示text sequence。这个联合分布可以用在下列三种任务上:

(1)text-to-video: 根据文本预测视频,根据文本自动插图。

(2)video-to-text: 根据视频预测文本,对视频自动生成摘要。

(3)unimodal fashion(单一模态下使用):利用文本或者视频的边缘分布,根据上文预测下文。对文本来说就是我们非常熟悉的语言模型,对于视频来说我们可以根据前面的视频内容预测后面可能发生的事情。

2 实验

文章实际设计了两个下游任务来验证学习到的跨模态联合表示的有效性。

2.1 看图说话    

根据视频和一个固定的模版“now let me show you how to [MASK] the [MASK],” 预测被mask掉的关键词(一个动词和一个名字)。下图定性的展示了三个例子,每个例子展示了视频中两个片段的类中心,和被预测的top verbs和nouns。

        

表格中的数据定量对比了该任务在不同方法上的效果。S3D是一个经典的监督模型,除了S3D以外的模型都没有使用监督信号进行训练(zero-shot classification,直接使用pre-trained模型)。BERT(language prior)代表直接使用原始BERT,VideoBERT(language prior)是指在原始BERT基础上增加视频数据提取出得文本数据进行学习,VideoBERT(cross modal)是完整模型并结合了视频和文本数据进行学习。对比实验结果可以看到,top-5的准确率,三种BERT设定效果不断提升,验证了数据的有效性和多模态的有效性,最终zero-shot的VideoBERT(cross modal)能够达到和有监督学习的S3D差不多的效果。而top-1的结果各类BERT稍显逊色的原因是BERT基于word piece切词,更有利于open-vocablary的分类问题,主要关注语义上的准确性而不是精确的match。

2.2 video caption

作者利用该任务验证VideoBERT作为特征抽取的有效性。使用同样的transformer encoder-decoder模型生成视频摘要,不同的是输入该模型的feature。

(1)使用S3D提取的feature(baseline)

(2)使用VideoBERT提取feature

(3)VideoBERT feature拼接S3D feature(最强厂牌)

从定性的例子中可以看到,使用VideoBERT feature生成的video caption内容更加的细节,更为生动具体。从定量的指标上来看,VideoBERT+S3D取得了最好的效果,VideoBERT学出来的feature对下游任务video caption有很大的提升。

《Learning Video Representations Using Contrastive Bidirectional Transformer》

看了上一篇的工作,小伙伴们可能会有一个疑问,将实值连续型的特征向量(visual features)通过聚类规整为有限个类中心,是否会丢失video中包含的很多细节的信息呢(⊙ˍ⊙)?那么,这篇文章就不再使用聚类将实值连续型的visual features离散化,而是直接使用实值向量visual features,通过模型算法上的微调,实现BERT的多模态化。

1 方法

首先上模型全景图,虚线上面是pretrain阶段,虚线下面是下游任务的fine-tuning。灰色方框表示使用纯文本数据预训练BERT模型然后fix。白色黑线方框表示使用纯video数据预训练CBT模型,红色线条部分是使用多模态数据预训练cross-modal transformer将前面两者结合。小夕下面带大家逐个揭开每个部分的神秘面纱~~~

1.1 纯文本的BERT模型

自监督任务还是原始BERT的MLM,随机mask text token利用周围没有被mask的文本进行预测。

其中yt为被mask的正确token,y-t表示除去被mask掉yt的text sequence。这个MLM的损失函数实际上是要最大化利用y-t正确预测出yt的概率。而在这里根据y-t预测yt的概率被定义为如下。

其中为经过transformer得到的feature。优化目标是被mask的word sequence y-t的表示和真实的yt的embedding相似(共线)

上述BERT和原始的BERT本质上是一样的,只是用内积的形式代替了softmax计算概率。这一小小的修改和后面visual部分的建模相呼应,模型结构非常的优雅。

1.2 visual CBT模型

基于video数据的自监督任务同样是无缝衔接的MLM模型,但是因为visual feature是连续的实值向量,所以作者使用了NCE(noise contrastive estimation )loss

对比上面的BERT中概率的定义,和NCE的定义是不是超级相似!????

是被mask的visual sequence经过visual BERT的输出。因为visual feature不可数,无法像text部分穷举所有的负例,所以通过负采样的方式sample负例。优化目标是被mask的visual sequence x-t的表示和真实的xt的visual feature et相似。

1.3 跨模态CBT模型

前面介绍了单一模态下的模块,针对既有视频(从video中提取的visual features记为y=y1:T)和文本(从video中利用ASR提取出的文本token,记为x=x1:T)的数据,利用它们之间的对应关系学习多模态交互的表示就交给cross-modal CBT模块啦~~

虽然visual features y和文本x来自同一段视频,但是即使是教学视频,它们在每一帧(frame level)并不是严格对应的,所以我们不能强行要求模型可以通过xt预测yt或者通过yt预测xt。只需要要求它们在sequence level上存在对应关系即可(说人话就是模型可以通过x预测y)。同样使用NCE loss:

分别用visual CBT和BERT模型计算x和y的表示。

带入cross-modal transformer计算交互的表示,用一个浅层的MLP计算x和y之间的互信息。优化目标和前面两个类似,正例(x,y)之间的互信息大,负例(x,y‘)互信息小。

1.4 overall model

整体模型就是上面三个部分的综合。三个部分虽然输入都稍有差异,但是在算法上是非常一致对称的,结合起来非常的完美。

2 实验

2.1 action recognition

用action recognition作为下游任务验证visual representaions的有效性。下表的左边对比了两种pretrain策略(Shuffle&Learn 和3DRotNet )和baseline随机初始化,在fix feature和finetune的两种使用方法上在两个数据集(UCF101和HMDB51)上的效果。实验结果表明了本文提出的visual CBT模型的有效性。表的右边是直接和各类state-of-art的监督模型相比,CBT模型也比这些模型有非常明显的提升。

2.2 action anticipation 

文章使用了三个不同的数据集the Breakfast dataset ,the 50Salads dataset和the ActivityNet 200 dataset。不了解action anticipation任务的可以简单认为是基于video的多分类任务就好。在这个实验中作者不仅证明了CBT方法比其他已有的方法好,还证明了CBT对长video有很好的表示能力。

左边表列出了CBT和其他几个方法的对比,CBT在上述三个任务上都一致优于其他方法(三个实验数据摆上来,非常让人信服呀),其中self-super=Y表示该方法使用pretrain-finetune的方式,self-super=N表示该方式是end-to-end训练的。

右边表则对比了不同视频的长度下,不同模型的效果。在三个数据机上CBT都一致明显优于其他两个baseline(AvgPool和LSTM),并且随着video长度的增加,CBT的效果是越来越好的。一般的模型都会对长文本或者长video失效,比如上表中两个baseline 方法,但是CBT可以不受长度的限制,反而能从更长的video中学到更好的表示,使得模型效果变好。(斯国一!!????)

2.3 other video tasks

文章还对比了video captioning 和 action segmentation 这两个任务,CBT在video captioning上比前面提到的VideoBERT也有所提升,这个提升可能就是优化了聚类步骤造成信息丢失的问题吧。

【这是彩蛋????】

公众号后台回复【videoBERT】获取论文原文(附小夕自己阅读时的笔记哦)

参考笔记读论文,更简单~~

  • Stanford CS224n追剧计划(附追剧计划详细攻略)

  • 如何扩充知识图谱中的同义词

  • 中文分词的古今中外,你想知道的都在这里

  • 深度神经网络为何会有灾难性遗忘?如何进行有效的持续学习?

  • 模型训练太慢?显存不够用?混合精度训练了解一下

  • 万万没想到,我的炼丹炉玩坏了

夕小瑶的卖萌屋

_

关注&星标小夕,带你解锁AI秘籍

订阅号主页下方「撩一下」有惊喜

Bert在CV领域的应用相关推荐

  1. CV领域的对比学习综述

    对比学习发展历程 发展历程大概可以分为四个阶段 1.百花齐放 InstDisc(instance discrimination) CPC CMC 在这个阶段中,方法.模型.目标函数.代理任务都还没有统 ...

  2. ICLR 2022 | BEIT论文解读:将MLM无监督预训练应用到CV领域

    如果觉得我的算法分享对你有帮助,欢迎关注我的微信公众号"圆圆的算法笔记",更多算法笔记和世间万物的学习记录- 1. BEIT整体介绍 今天跟大家聊一聊ICLR 2022微软亚研院的 ...

  3. Transformer在CV领域有可能替代CNN吗?还有哪些应用前景?

    来源丨知乎问答 编辑丨极市平台 本文转自知乎问答,所有回答均已获得作者授权. 问题背景:目前已经有基于Transformer在三大图像问题上的应用:分类(ViT),检测(DETR)和分割(SETR), ...

  4. CV领域最经典的Paper是什么来头?

    最近后台有很多准研究生粉丝给我留言,重复频次最高的2个主题是: ① 如何高效地筛选.阅读论文? ② 如何高效复现论文? AI领域学术会议动辄上千篇文章,无论是准研究生还是现研究生,都会碰到这个问题. ...

  5. 2019年CV领域,值得一看的综述文章!

    问题:2019年,CV领域,你推荐哪些综述性的文章? https://www.zhihu.com/question/355566860 知乎高质量回答 1.作者:Amusi https://www.z ...

  6. 「每周论文推荐」 初入深度学习CV领域必读的几篇文章

    https://www.toutiao.com/a6718570271269192200/ 很多朋友都希望我们开通论文推荐和阅读板块,那就开吧,此专栏名为<每周论文推荐>.在这个专栏里,还 ...

  7. 【每周CV论文推荐】 CV领域中数据增强相关的论文推荐

    欢迎来到<每周CV论文推荐>.在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题的. 数据增强在每一个深度学习项目中都是必要的操作 ...

  8. 【每周论文推荐】 初入深度学习CV领域必读的几篇文章

    很多朋友都希望我们开通论文推荐和阅读板块,那就开吧,此专栏名为<每周论文推荐>.在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题 ...

  9. 【深度学习】煮酒论英雄:深度学习CV领域最瞩目的top成果总结

    前言 如果06年Hinton的深度置信网络是深度学习时代的开启,12年的Alexnet在ImageNet上的独孤求败是深度学习时代的爆发,那么至今也有近15年的发展历程.15年足够让一个青涩懵懂的少年 ...

最新文章

  1. 【SM2证书】利用BC的X509v3CertificateBuilder组装X509国密证书
  2. 关于游戏平衡性——王者荣耀英雄伤害数值参考
  3. 201671030111 李蓉 实验十四 团队项目评审课程学习总结
  4. svn服务器安装与配置
  5. swift属性观察者机智
  6. sublime cscope使用方法
  7. Beta阶段第1周/共2周 Scrum立会报告+燃尽图 06
  8. 甘肃SEO优化:关键词选择 是否“咨询”过关键词规划师以及seo优化技术大牛是怎么练成的
  9. orc识别 语音识别 云真机 内网穿透快速调研
  10. 使用GNOME Tweak Tool来定制Ubuntu 18.04上的GNOME 3桌面环境
  11. 太阳能最佳倾角c语言编程,用C语言编程计算太阳的高度角,用于控制太阳能电板最佳的倾角...
  12. cad旋转命令_如何将CAD图形旋转至水平位置?
  13. 深度学习硬件-GPU-显卡
  14. mysql 表的第2条到4条记录,2020-07-30-mysql第三章作业练习
  15. 登陆启明星辰天清web网关
  16. 基于Fitnesse的验收测试实验
  17. 报表 BI 选型的那些事
  18. UI设计学习:UI 设计师文件命名规范
  19. “黑色星期五”电脑病毒忙行凶
  20. QWebEngineView无法打开二级页面

热门文章

  1. git 发布android 系统版本 修改版本型号 查看指定文件的修改记录
  2. 《你的灯亮着吗》阅读笔记(三)
  3. .net 门槛高不高之我见
  4. ListView中convertView和ViewHolder的工作原理
  5. 进程和线程的本质和区别
  6. android人脸识别demo_零门槛解决Windows人脸识别应用开发难题
  7. react 组件封装原则_我理解的React:React 到底是什么?
  8. html无损转换pdf,Pdf2html :高保真PDF至HTML转换
  9. java sar包_linux下查看最占性能的JAVA进程
  10. 六、MySQL DML数据操纵语言学习笔记(插入、修改、删除详解 + 强化复习)