ReturnYG 的博客 ReturnYG 的博客

为了想象中美好的生活而努力

目录
文献阅读:使用光学流和循环神经网络检测长视频中的微表情
/  

文献阅读:使用光学流和循环神经网络检测长视频中的微表情

使用光学流和循环神经网络检测长视频中的微表情

摘要

面部微表情是微妙的,非自愿的表情,可以揭示隐藏的情绪。 微表情是在应用领域如测谎,心理健康,情绪分析和更多信息的宝贵来源。 该研究领域的最大挑战之一是少量可用的自发微表情数据。 然而,自发的数据收集不仅费时且有昂贵的注释负担。 因此,需要可以减少注释者必须审查的数据量的方法。 本文提出了一种使用循环神经网络(RNN)对光学流特征学习识别微表情的新方法。 我们提取定向光流直方图(HOOF)特征,以编码所选面部区域中的时间变化。 最后,RNN会发现很短的区间,这很可能包含相关面部微动的发生。 该方法在SAMM数据库中进行了评估,通过使用Leave-One-SubjectOut交叉验证来训练RNN,可以消除出现主观偏见的任何可能性。 将提取的区间与标记的数据进行比较表明,该方法产生了1569次假正例,而召回率为0.4654。 初步结果表明,该方法将视频长度减少了3.5倍,同时仍保留了几乎一半的相关微动。 最后,随着模型获取更多的数据,它在检测区间方面变得更好,这使得所提出的方法适合于支持注释过程。

一、介绍

面部表情构成了我们日常社交互动的重要组成部分,因为它们可以洞察人的感受。 面部微表情是微妙的,非自愿的表情,持续时间不到1/2秒[1]。 当有意或无意地隐藏情感时,会出现微表情[2],从而有效地泄漏有关隐藏情感的信息。

识别微表情从谎言检测到情绪分析到协助心理学家进行心理健康等各种应用领域中都可以提供很大帮助。微表情是信息的宝贵来源,因为它们揭示了我们不容易知道的东西。 在测谎应用中,缺少一条线索可能会不利于理解某人行动背后的真正动机。 此外,在心理健康领域,准确识别微表情可以提供重要信息,例如,判断一个人是否对自己和他人构成危险。 当前,由于表达的强度低和持续时间短,许多微表情容易被忽视,这就是该任务对人和机器都具有挑战性的原因。Frank等人的研究。 [3]报告说,对受过训练的专家而言,正确识别和分类微表情的准确性约为47%。 因此,领域专家当然可以从自动微表情分析中受益,以支持他们的工作。

面部动作编码系统(FACS)的开发旨在提供一种客观地标记面部运动的方法[4]。 FACS为每种类型的面部运动定义了一个代码,称为动作单元(AU)。 然后,使用该系统,数据集注释者可以基于观察到的面部运动,使用相应的代码标记微表情,而不用对情感进行主观分类。 这样可以更精确地定义微表达,并因此可以由自动系统更准确地识别。

自发的微表情数据库数量很少。 当前可用的自发数据库为:SMIC [5],CASME [6],CASME II [7],CAS(ME)2 [8]和SAMM [9]。 但是,只有SAMM数据集和所有CASME数据库才被标记为AU,而不仅仅是情感类别。

近年来,微表情研究已经越来越流行。 但是,大多数工作都集中在微表情的识别上,而不是检测上。缺少注释的自发微表情数据限制了该领域的进展。为了克服这个问题,可能需要大量的镜头,使人们表现出微表情。在获得了这些素材之后,除了对应于每个面部运动的AU之外,还需要用发生的微表情的开始,顶点(峰值)和偏移帧进行注释。这带来了另一个挑战,因为注释大量自发的微表情数据非常昂贵。当前,此注释是由专家手动检查素材以发现和分类微表情来执行的。但是,自发数据的稀疏性要求人类注释者浏览可能包含少量微表情镜头的长片段。为了减少这个问题,可以使用微表情点样方法去除不包含相关面部微动的节段。 要创建此类方法,我们需要包含标记的长视频序列的数据集。

目前,CAS(ME) 2 和SAMM数据库是唯一发布了如此长视频序列的数据集。其他自发的微表情数据库提供(预处理)的短视频,这些视频仅限于一种微表情。 在图1中,我们显示了这样的“短视频”和“长视频”的示例。

image-20201114193857659

在撰写本文时,只有有限数量的论文研究了长视频序列中的发现[10],[11],[12],[13]。 但是,还有其他一些研究微表情识别的工作,但是由于它们还没有合适的长视频数据可供使用,因此很难分辨出这些方法如何对CAS(ME)2和SAMM中提供的长视频序列执行。 因此,在长视频中识别微表情的研究仍存在很大差距。

在这项工作中,我们提出了一种能够通过在光学流特征上使用循环神经网络(RNN)来识别长视频序列中的微表情区间的方法。我们提取了定向光流直方图,以对所选面部的区域随时间变化进行编码,然后将其传递到RNN以进行检测任务。我们选择使用由长短期记忆(LSTM)单元组成的循环神经网络。该方法提取可能包含微表情的0.5s的短区间。这些经过预处理的短区间可以提供给注释者进行验证,从而减少了需要检查的素材数量。此外,注释者对区间是否包含微表情的决定可以反馈到网络中,从而自动改善模型的性能。这项工作的主要贡献在于,所提出的方法可以减少对自发微表情数据进行注释的时间,从而降低大规模采集数据的门槛。

我们在SAMM数据集上评估了该方法,该数据集包含159个标记的微动作,并且由微表情和其他相关的微动作组成。为了获得整个数据集的无偏结果,使用“留一法”的交叉验证对网络进行训练。该方法产生了1569次假正例——占整个数据集镜头的四分之一多——同时保留了几乎一半发生的微动,该方法的召回率达到了0.4654。最初的结果支持神经网络可以作为一个工具来简化注释过程的想法。

本文的其余部分结构如下:第二部分讨论相关工作;第三节介绍了提出的方法。第四节介绍并总结了该方法的结果。最后,第六节总结了本文并讨论了未来工作的可能性。

二、相关工作

1、区域提取

区域提取是微表情分析框架中典型的预处理步骤。提取区域的动机是消除不会为识别微表情任务增加足够价值的数据。

Liong等。 [14]提出了感兴趣区域(ROI)的提取,以在微表达序列中发现峰值帧。 他们建议提取的区域是“左眼+眉毛”,“右眼+眉毛”和“嘴巴”区域。 但是,在后来的工作中,Liong等人。[15]建议遮盖眼睛区域,因为眨眼会导致很多误报。

Davison等。[16]采用基于FACS的区域,该区域涉及选择包含来自特定动作单元(AU)的运动的面部区域。这允许面部运动与特定的AU之间直接链接,随后将其用于检测微表情的发生。

2、微表情识别

关于自动微表情分析的工作很多。但是,只有少量的工作集中在微表情识别上。我们旨在概述本节中有关微表情识别的一些重要著作。Moilanen等。 [17]介绍了基于外观的特征差异分析方法,用于微表情识别。此方法使用大小为N的滑动窗口,其中N等于微表情的平均长度。将中心帧的特征与滑动窗口的平均特征帧进行比较,该平均特征帧是窗口的第一帧和最后一帧的特征之间的平均值。这样的想法是,如果窗口与微表情重叠(特别是如果中心帧是该微表情的峰值),则平均特征帧和中心帧的特征之间的差异会比窗口不包含运动或宏观运动时更大。其背后的思想是,微表情会从中性状态到达峰值,然后又回到中性状态,都在N帧的窗口内,从而造成更大的差异。差值一般用卡方(2)距离法对一对直方图特征进行计算。使用这种方法的特征的例子是局部二进制模式(LBP) [18]定向光流直方图(HOOF)[18],和三维定向梯度直方图(3D HOG)[16]。这种特征差异分析的结果是在给定序列的帧上的特征差异向量。特征向量的局部极大值通常是某种微妙运动的峰值,这可能是一种微表情。想法是然后取一个特定的阈值,这样如果一个峰值高于阈值,它很可能对应一个微表情。

三、提出的方法

该方法包括三个主要部分:预处理、特征提取和微表情识别。预处理包括裁剪和对齐脸部,然后提取感兴趣的区域。特征提取包括在帧上应用光流方法,并使用得到的流向量来计算HOOF特征。最后,为了识别微表情区间,我们将提取的视频序列特征输入由LSTM单元组成的RNN, RNN对给定的视频序列是否包含相关的微运动进行分类,然后进行抑制邻近检测的后处理步骤。

1、预处理

image-20201114213715120

我们首先使用Dlib[19]中的默认人脸检测器检测人脸,产生一个包围人脸的边界框,然后我们使用它来裁剪人脸,如图2的上半部分所示。

其次,我们使用来自imutils包[20]的便利函数,它首先使用Dlib库中预先训练的面部地标检测器定位裁剪图像上的面部地标。便利函数然后计算两眼的中心点使用检测到的坐标。随后,面部对齐,使眼睛在一条水平线上,如图2右下角所示。

最后一个预处理步骤是提取感兴趣区域(ROI)。要提取ROI,我们必须在对齐的图像上筛选出人脸标志。 然后,我们通过选择相应地标周围的边界框来使用这些面部地标来提取ROI,如图2左下方所示。我们选择排除眼睛区域是因为眨眼会产生过多的噪音[21] [15],而我们选择排除鼻子区域是因为它是刚性的并且提供的信息很少[22]。另外,我们排除了嘴部的中间区域,因为实验表明这个中间区域只产生噪音。因此,我们将边界框居中放置在嘴巴的各个角落。

由于我们要处理的是长视频,因此我们需要以某种方式确保面部在整个视频中保持相同的方向。一种方法是独立对齐每一帧,确保眼睛在一条水平线上。然而,这种方法是适得其反的,因为地标定位中的小错误会导致整个头部不必要的转换。第二种方法是使用时间滑动窗口,如Li等人使用的[10]。滑动窗口的第一帧用于定位地标和对齐面部,因此,同样的转换应用于滑动窗口中的其余帧。另外,我们根据窗口的第一帧提取感兴趣的区域。通过使滑动窗口的尺寸足够小,在开始和结束之间头部方向不会发生任何重大变化。在我们的例子中,我们将滑动窗口的大小设为0.5s,这意味着对于200 fps数据 = 100。我们为滑动窗口选择此大小,因为它是微表情持续时间的上限。

使用滑动窗口,可以产生一个区间的集合。但是,这可能会导致微表情跨越两个区间,并且在最坏的情况下,两个区间仅包含微表情的50%。仅使用微表情的一半会使神经网络难以进行可靠的检测。因此,我们使用重叠来生成区间,,...,M的集合,如图3所示。通过将的大小设为0.3s,可以确保滑动窗口方法以这样的方式生成区间:对于任何微表情区间,都存在一个间隔,,使得:

之所以选择0.8,是因为我们认为,如果给定仅包含区间的80%的序列,则网络应该能够检测到微表情。

image-20201115084321006

2、特征提取

在特征提取阶段,我们利用定向光直方图(HOOF)特征,它是一种基于光学流的运动特征,可提取有意义的信息以用于微表情的识别。这个阶段是必需的,因为LSTM会及时学习相关性,所以当我们使用图像数据时,它需要某种形式的表示。在许多情况下,也会使用卷积神经网络(CNN)自动提取此类表示。但是,由于训练样本数量少,我们探索了手工提取特征的方法,因为与使用原始像素数据相比,它提供了更高的信噪比。

  1. 光学流:基于光流的特征在最近的研究中越来越受欢迎[18],这部分是由于其在测量强度时空变化方面的有效性[23]。光学流方法通过对帧之间每个像素移动的速度和方向进行编码来计算两个帧之间的差异。光学流有三个主要假设[24]:它假设亮度是恒定的;它假设一个小块中的像素点起源于同一表面,具有相似的速度;它假定对象是逐渐变化的,而不是随时间剧烈变化的。总体而言,通常会满足这些假设,因为面部会随着时间的推移而逐渐变化。 小块中的像素通常来自同一表面; 亮度,尤其是在数据集中,保持相当恒定。 在现实生活中,亮度可能并不总是恒定不变的,但很可能在(微)表情持续时间内亮度恒定。
  2. 定向光流直方图:为了从如三-1中生成的每个短区间,,...,M中提取特征,我们计算序列中帧之间的HOOF值。然而,当我们有高帧率数据时,后续帧之间的光流是微不足道的。因此,我们基本上以的速率对数据进行下采样,其中为1/50秒,相当于200fps数据的4帧。对于短视频,,对于每一帧,我们计算帧和之间的光学流。然后,我们对每对帧使用获得的光学流来计算HOOF特征。 但是,由于我们利用了ROI提取,因此我们不会在整个帧上计算HOOF功能,而是为每个提取的ROI分别计算它。

在定向光流的基础上,通过分形流矢量计算定向光流的直方图,并根据矢量的大小进行加权。图4显示了HOOF分箱矢量的示例。然后,原始的HOOF特征求和每个箱中矢量的大小,然后根据方向箱创建归一化的直方图。Happy和Routray [25]提出了一种HOOF的模糊化方法,其依据是接近条带边界的向量对相邻条带没有任何作用,这意味着小的差异有时会对结果产生很大的影响。 因此,Happy和Routray建议根据隶属函数让向量对多个箱起作用。这样,像图4中的这样的矢量将对7和8箱做出大致相等的贡献。我们采用了一种类似的方法,我们使用Piotr Dollar的Matlab工具箱[27]的直方图函数[26]中实现的软合并,它利用线性插值让一个向量有助于两个最近方向的箱。

3、微表情识别

在提出的方法的这一阶段,我们的目标是确定大小为的短间隔是否包含相关的微运动。手工提取的面部特征实验表明,很难找到阈值,使微表情与无关的面部动作合理区分开来。阈值的另一个问题是,当我们获得更多数据时,阈值并不一定会变得更好。因此,我们建议使用由长短期记忆(LSTM)单元组成的循环神经网络(RNN),该学习单元可以区分相关的微运动和无关的微运动。我们选择使用LSTM,因为它有助于防止与RNN相关的爆炸和消失梯度问题。LSTM的任务是对给定序列是否包含相关的微运动进行分类。 LSTM的输入序列包含25个时间步长,其中时间步长基于帧和之间的光学流计算。 因此,每个时间步都有一个针对每个提取的ROI的HOOF特征,如图5所示。

为了训练神经网络,我们还需要传递每个样本的目标值。SAMM数据集的正确标示数据包含起点,顶点和偏移帧号。而LSTM的输入样本对应于固定大小的短区间。因此,我们需要考虑在给定的帧区间内目标值何时为真。我们认为区间包含一个微表情,即如果在正确标示数据中存在区间从而满足(1)中的条件,则目标值为true。

image-20201115101530609

LSTM网络由2个LSTM层组成,每个层有12个维度。 在基于多种经验法则方法尝试其他合适的数量之后,我们选择使用12个维度[28]。 二元分类的预测是使用softmax函数计算的。 我们在Keras中使用ADAM优化器,学习速率为,衰减为0。我们将网络运行了50代,足以让它学习表示而不会过度拟合。

4、后期处理

LSTM网络提供了基于三-1节中描述的滑动窗口方法生成的序列的预测列表。但是,滑动窗口方法伴随有重叠,因此检测也将重叠。为了解决重叠检测的问题,我们对网络的输出进行后处理并抑制相邻检测。在目标检测方法中,我们采用了一种类似于贪心非极大值抑制的方法,在连续检测中选取置信度最大的区间,并抑制直接(重叠)相邻区间。

四、结果

使用SAMM数据集评估了提出的方法,该数据集包含79个视频,总共159个微动作。由于该方法采用了“留一法”交叉验证,因此我们确保计算结果中没有被试偏差。如果存在微表情区间使得公式(1)中的条件成立,则点样区间被认为是真正例(TP)。否则,如果不存在这样的区间,则点样区间被认为是假正例(FP)。此外,假反例(FN)的数量是通过将数据集中的微表情总数减去真正例的数量而获得的。我们对TP的定义与Li等人提出的TP的定义不同[10],其中区间需要与微表情的持续时间成比例。Li等人描述的TP的定义不适用于我们的方法,因为它目前专注于发现大小,可以将其传递给注释器,而不是找出微表达式的确切开始和偏移。 表显示了根据获得的结果计算出的几个指标。此外,我们在图6中提供了所建议方法的ROC曲线。

image-20201115182648215

image-20201115182713360

五、讨论

本文所提出的方法执行得很好,尽管对真正例的定义略有不同。在所有计算的指标上,它都优于Li等人提出的基准[10]。为了与其他最新方法进行准确比较,我们需要使用完全相同的定义。在我们的案例中,要实现这一点,我们需要更精确地发现起始帧和偏移帧,这可以在后期处理阶段完成。如果减小当前很大的滑动窗口的步幅,则可以基于重叠区间的预测分数来定位微表情的开始和结束位置。 另一种方法可能是在大小为的较短区间上使用特征差异分析,以尝试更精确地识别微表情的开始和偏移。

此外,网络可能存在数据集偏差,这将导致它在看不见的样本上表现不佳。 因此,为了更真实地了解该方法在不可见数据上的性能,可以执行组合数据库评估和保留数据库评估[29]。

当手动分析一些结果时,该方法的一个局限性就变得明显起来。当一个细微的头部动作与微表情的出现相吻合时,这个问题就发生了。全局头部运动进而影响微表达的局部运动方向,从而改变微表达的特征表征,从而增加神经网络识别的难度。我们目前提取特征的方法,关于全局头部运动的信息很大程度上丢失了,所以没有办法考虑它。

六、结论与未来工作

总之,本文介绍了一种新颖的方法,该方法利用长短期记忆网络来发现长视频中的微表情。 主要贡献在于,该方法可以通过减少要检查的素材的长度,同时保留大多数微表情,来支持新获取的数据的注释过程。 确实,误报的数量表明注释者只需要检查原始素材长度的大约四分之一,而仍然保留大约一半的微小动作。 此外,随着从注释过程中获取更多数据,神经网络将得到改善。 结果,我们希望该方法最终能够帮助减轻注释的负担。 特别是由于自发数据的稀疏性,注释当前很耗时。
将来,我们希望对提出的方法进行更详细的分析。 此外,我们想探索方法各个阶段的替代方法,例如预处理,特征提取和后处理。

参考资料

[1] W.-J. Yan, Q. Wu, J. Liang, Y.-H. Chen, and X. Fu, “How fast are the leaked facial expressions: The duration of micro-expressions,” Journal of Nonverbal Behavior, vol. 37, no. 4, pp. 217–230, Jul 2013.

[2] P. Ekman and W. V. Friesen, “Nonverbal leakage and clues to deception ,” Psychiatry, vol. 32, pp. 88–106, 1969.

[3] M. Frank, M. Herbasz, K. Sinuk, A. Keller, and C. Nolan, “I see how you feel: Training laypeople and professionals to recognize fleeting emotions,” in The Annual Meeting of the International Communication Association. Sheraton New York, New York City, 2009.

[4] P. Ekman and W. V. Friesen, “Measuring facial movement,” Environmental Psychology and Nonverbal Behavior, vol. 1, no. 1, pp. 56–75, 1976.

[5] X. Li, T. Pfister, X. Huang, G. Zhao, and M. Pietikainen, “A spontaneous micro-expression database: Inducement, collection and baseline,” in 2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG), Apr 2013.

[6] W.-J. Yan, Q. Wu, Y.-J. Liu, S.-J. Wang, and X. Fu, “CASME database: A dataset of spontaneous micro-expressions collected from neutralized faces,” in 2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG), Apr 2013.

[7] W.-J. Yan, X. Li, S.-J. Wang, G. Zhao, Y.-J. Liu, Y.-H. Chen, and X. Fu, “CASME II: An improved spontaneous micro-expression database and the baseline evaluation,” PLoS ONE, vol. 9, no. 1, p. e86041, Jan 2014.

[8] F. Qu, S.-J. Wang, W.-J. Yan, H. Li, S. Wu, and X. Fu, “CAS(ME)ˆ2: A database for spontaneous macro-expression and micro-expression spotting and recognition,” IEEE Transactions on Affective Computing, vol. 9, no. 4, pp. 424–436, Oct 2018.

[9] A. K. Davison, C. Lansley, N. Costen, K. Tan, and M. H. Yap, “SAMM: A spontaneous micro-facial movement dataset,” IEEE Transactions on Affective Computing, vol. 9, no. 1, pp. 116–129, Jan 2018.

[10] J. Li, C. Soladie, R. Sguier, S. Wang, and M. H. Yap, “Spotting microexpressions on long videos sequences,” Dec 2018.

[11] S.-J. Wang, S. Wu, X. Qian, J. Li, and X. Fu, “A main directional maximal difference analysis for spotting facial movements from longterm videos,” Neurocomputing, vol. 230, pp. 382–389, Mar 2017.

[12] P. Gupta, B. Bhowmick, and A. Pal, “Exploring the feasibility of face video based instantaneous heart-rate for micro-expression spotting,” in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, June 2018.

[13] Z. Zhang, T. Chen, H. Meng, G. Liu, and X. Fu, “SMEConvNet: A convolutional neural network for spotting spontaneous facial microexpression from long videos,” IEEE Access, pp. 71 143–71 151, 2018.

[14] S.-T. Liong, J. See, K. Wong, A. C. L. Ngo, Y.-H. Oh, and R. Phan, “Automatic apex frame spotting in micro-expression database,” in 2015 3rd IAPR Asian Conference on Pattern Recognition (ACPR). IEEE, Nov 2015.

[15] S.-T. Liong, J. See, K. Wong, and R. C.-W. Phan, “Automatic microexpression recognition from long video using a single spotted apex,” in Computer Vision – ACCV 2016 Workshops. Springer International Publishing, 2017, pp. 345–360.

[16] A. Davison, W. Merghani, C. Lansley, C.-C. Ng, and M. H. Yap, “Objective micro-facial movement detection using FACS-based regions and baseline evaluation,” in 2018 13th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2018), May 2018, pp. 642–649.

[17] A. Moilanen, G. Zhao, and M. Pietikainen, “Spotting rapid facial movements from videos using appearance-based feature difference analysis,” in 2014 22nd International Conference on Pattern Recognition. IEEE, Aug 2014.

[18] X. Li, X. Hong, A. Moilanen, X. Huang, T. Pfister, G. Zhao, and M. Pietikainen, “Towards reading hidden emotions: A comparative study of spontaneous micro-expression spotting and recognition methods,” IEEE Transactions on Affective Computing, vol. 9, no. 4, pp. 563–577, Oct 2018.

[19] D. E. King, “Dlib-ml: A machine learning toolkit,” Journal of Machine Learning Research, vol. 10, no. Jul, pp. 1755–1758, 2009.

[20] A. Rosebrock, “A series of convenience functions for image processing,” https://github.com/jrosebr1/imutils.

[21] M. Shreve, S. Godavarthy, V. Manohar, D. Goldgof, and S. Sarkar, “Towards macro- and micro-expression spotting in video using strain patterns,” in 2009 Workshop on Applications of Computer Vision (WACV). IEEE, Dec 2009.

[22] M. Shreve, S. Godavarthy, D. Goldgof, and S. Sarkar, “Macro- and micro-expression spotting in long videos using spatio-temporal strain,” in Face and Gesture 2011. IEEE, Mar 2011.

[23] Y. Oh, J. See, A. C. L. Ngo, R. C. Phan, and V. M. Baskaran, “A survey of automatic facial micro-expression analysis: Databases, methods, and challenges,” Frontiers in Psychology, vol. 9, Jul 2018.

[24] S.-T. Liong, J. See, R. C.-W. Phan, A. C. L. Ngo, Y.-H. Oh, and K. Wong, “Subtle expression recognition using optical strain weighted features,” in Computer Vision - ACCV 2014 Workshops. Springer International Publishing, 2015, pp. 644–657.

[25] S. L. Happy and A. Routray, “Fuzzy histogram of optical flow orientations for micro-expression recognition,” IEEE Transactions on Affective Computing, pp. 1–1, 2017.

[26] P. Doll´ar, R. Appel, S. Belongie, and P. Perona, “Fast feature pyramids for object detection,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 36, no. 8, pp. 1532–1545, Aug 2014.

[27] P. Doll´ar, “Piotr’s Computer Vision Matlab Toolbox (PMT),” https://github.com/pdollar/toolbox.

[28] J. Heaton, Introduction to Neural Networks for Java, Second Edition.Heaton Research, Inc., 2008.

[29] M. H. Yap, J. See, X. Hong, and S.-J. Wang, “Facial micro-expressions grand challenge 2018 summary,” in 2018 13th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2018), May 2018.


标题:文献阅读:使用光学流和循环神经网络检测长视频中的微表情
作者:ReturnYG
地址:https://www.returnyg.xyz/articles/2020/11/15/1605437603836.html