摘要

  1. 在视觉理解中,将视频翻译成自然语言是一项基本但具有挑战性的任务,这是因为视觉内容和语言句子之间存在巨大的差距。近年来,这一研究领域受到了越来越多的关注,并取得了一些最新成果。
  2. 然而,视频中的情感往往被忽视,导致生成的描述语句枯燥乏味。

3、在这项工作中,我们构建了一个新的基于情感表达的视频描述数据集,它由两部分组成:一部分是具有情感信息的MSVD数据集的一个(重新注释的)子集(小规模数据集);另一部分是基于视频情感识别数据集的、具有长句子和丰富情感的、注释子集(大规模数据集)。

4、设计了一个基于事实传递的框架,该框架将事实流和情感流结合起来,生成具有情感表达的句子,用于视频描述。(如:事实:说话; 情感:开心的or气愤的)

  1. 此外,我们,通过平衡事实和情感,提出了一种新的句子评价方法。

6、进行了一组实验,实验结果证明了所提方法的有效性,包括基于情感表达的视频描述数据集构建、模型训练和测试以及情感评价指标。

任务、对象:数据集、框架、评价方法

问题:将视频翻译成自然语言、视频中的情感往往被忽视,导致生成的描述语句枯燥乏味

贡献:1、数据集   2、框架  3、句子评价方法

技术:卷积神经网络CNN,,LSTM,

1 介绍&相关工作

数据集的选择:

EmVidCap的情感视频字幕数据集,包括EmVidCap-S和EmVidCap-L两个子数据集。

关于EmVidCap-S,MSVD数据集[27]被用作将推荐情感词嵌入现有描述句子的基础,这是因为:

  1. MSVD是最流行的视频字幕数据集之一;2、其视频-句子对被精细地注释。

关于EmVidCap-L,EmVidCap-L数据集中的参考句是从头开始编写情感表达的描述句。

1、构建EmVidCap-L的目的是提供具有自然视频内容的视频句子对,因此放弃了关于动画和游戏的视频片段。

2、对于原始数据集中的视频,描述语句的编写存在噪音,因此在编写参考语句之前,可以对每个视频进行重新编辑。

3、如果一段视频过于复杂,包含多个事件或场景,则不宜用一句话来描述该视频,因此将其分割成多个片段,以便于用自然语言进行描述。

框架的选择:

图像需要空间视觉特征,通常使用CNN模型提取,但视频需要空间和时间特征,通常,视频的最终视觉表示采用三种方法,包括双流融合、三维卷积网络和CNN-LSTM。在我们的实现中,因为S2VT的效率和出色的性能,采用了属于CNN-LSTM系列的S2VT中使用的方法。

基于事实转移的情感视频字幕制作方法,该方法对视频中的事实信息和情感信息进行了研究。S2VT[7]的框架被用作构建提议的事实和情感模块的基础。

评价方法的选择:

设计了一种新的平衡事实和情感的评价方法,克服了BLEU[29]、METEOR[30]和CIDEr[31]等传统评价指标只关注句子连贯性和语义而忽略情感的局限性。

一种新的评价方法来衡量具有情感表达的句子,该方法综合了传统的衡量标准和新定义的情感词和句子的准确性。

2数据集EmVidCap

EmVidCap的情感视频字幕数据集,包括EmVidCap-S和EmVidCap-L两个子数据集。

  1. EmVidCap-S

对MSVD子集重新注释,是在描述句中嵌入了推荐的情感词汇,注释后句子称为参考句

推荐情感词如下:

1、根据Plutchik的情绪之轮[28],有8种基本情绪,包括“喜悦”、“信任”、“恐惧”、“惊讶”、“悲伤”、“厌恶”、“愤怒”和“预期”;

2、每种基本情绪都与2种基于强度的扩展情绪有关。例如,如果“喜悦”是微弱的,那么这种情绪可以被视为“平静”;如果这种喜悦更强烈,那么它可以被视为“狂喜”。

3、这些基本的或扩展的情感加在一起会产生更复杂的情感,比如“爱”,它是“喜悦”和“信任”的混合体。

由上34种常见情绪构建EmVidCap-S,包括8种基本情绪、16种扩展情绪以及(如“害羞”、“乐观”、“美丽”和“爱”等)其他10种广泛使用的情绪。

最后,这些情绪的名词形式词、副词形式和形容词形式的对应词。向志愿者推荐192个情感词。

EmVidCap-S中共有15084个参考句子,包括12780个带有情绪的句子。在这12780句带有情绪的句子中,有8169句用于训练,4611句用于测试。此外,还统计了训练集和测试集中使用的情绪词,句子中出现的前5种情绪的统计数据如表1所示。

TABLE I

有多个用于烹饪播放的视频镜头,因此“平静”和“喜悦”的情绪经常出现在训练和测试集中。另一方面,包括“嫉妒”、“内疚”和“失望”在内的情绪很少被使用,主要原因是这些情绪更加复杂,难以在视频中被感知。

  1. EmVidCap-L

由介绍中的条件最后获得,EmVidCap-L中有1523个视频。具体而言,[12]中的原始视频数量为1101个,放弃的视频数量为126个,重新编辑的视频数量为810个。此外,EmVidCap-L中每种情绪的视频数量和持续时间见表二。

EmVidCap-L是基于视频情感预测数据集[12]构建的(该数据集已经为每个视频提供了八种基本情感的情感标签)

推荐情感词:这些参考句中使用了410个情感词,是EmVidCap-S中使用的情感词数量的两倍多。

最后,获得25925个参考句子,平均每个视频有17个以上的句子。每种情感使用的情感词数量也见表二。

TABLE II

EmVidCap-S与EmVidCap-L对比

EmVidCap-L中的参考句更长(平均每个句子包含超过13个单词),更详细,语义更丰富。

此外,EmVidCap-L的句子中出现了更生动的情感词,如“恶心”、“震惊”、“安慰”,这些词在EmVidCap-S中不推荐使用。

最后,将EmVidCap-S和EmVidCap-L两个数据集结合起来,形成最终的EmVidCap数据集,包括1897个视频(EmVidCap-S:374;EmVidCap-L:1523)和相应的41009个参考句(EmVidCap-S:15084;EmVidCap-L:25925)。

数据集的训练、测试、验证情况

EmVidCap-S

如上所述,EmVidCap-S包含374个视频和15084个参考句子:

其中240个视频和9462个参考句子用于训练,其余视频句子对用于测试。

此外,将训练集分为两部分来优化模型参数:190对视频句子进行训练,另外50对进行验证。

当模型收敛时,将验证集放回训练集中,并重新训练模型,直到迭代达到验证集上记录的最佳性能点。

EmVidCap

为了进行训练,EmVidCap-L中的1141个视频和相关的19398个参考句子与EmVidCap-S的训练集合并,以创建EmVidCap的训练集。EmVidCap-L中剩余的382个视频和相关的6527个参考句子与EmVidCap-S的测试集合并,形成EmVidCap的测试集。在EmVidCap的训练集中,有191个视频句子对进行验证,其中50对来自EmVidCap-S,141对来自EmVidCap-L。

FactVideo1、FactVideo2

此外,使用名为FactVideo2的选定无情绪子集(即与EmVidCap-S相同的视频子集,但在MSVD中有其原始参考语句)来评估其他竞争模型。

此外,删除MSVD数据集中的EmVidCap-S视频[27]和无情绪的相关参考句子后的剩余视频,MSVD中剩余的视频句子对也被称为FactVideo1,用于初始化提议模型的事实部分,其中1060对用于训练,其余536对用于验证。

3 基于事实转移的情感视频字幕制作方法(FT)

S2VT[7]的框架被用作构建提议的事实和情感模块的基础。

由于事实和情感通常是不可分割的,所以每一部分都有能力根据一定的权重捕捉关于另一部分的部分信息。基于这一假设,本文采用两阶段策略来训练所提出的基于事实转移的模型,并以EmVidCap-S为例展示了模型学习的过程。

一个是捕获事实信息的事实部分,另一个是获取情感信息的情感部分。

第一阶段

只使用事实描述的数据集(FactVideo1)被用于预训练S2VT模型[7],以学习事实知识。训练事实部分,使模型学习事实的表达。提取视觉特征的CNN模型

为了便于讨论,将FactVideo1上的预训练模型记为F部分。第二阶段提出的模型如图2所示,其中V-R表示视觉特征简化的完全连接层,该层已在FactVideo1上进行了预训练。

第二阶段

在包含情感表达的数据集(EmVidCap-S)上对事实部分和情感部分进行启用和优化,对事实部分进行微调,对情感部分进行充分训练。

模型架构使用了两个流,一个是描述事实(即F部分),另一个是捕捉情感(即E部分)。

                                                Fig. 2. 提出了基于事实转移的第二阶段训练模型

假设视频中有T1帧,CNN特征帧序列被馈入V-R层,然后在两个流(F-LSTM1和E-LSTM1)中一个接一个地馈入底部LSTM层。

表示一个句子的单词序列,首先将其转换为one-hot向量,然后馈送到F-em和E-em的两个嵌入层进行语言表示。然后,将F-LSTM2和E-LSTM2在每个时间步长的输出分别发送到F-Pre和E-Pre中,用于计算单词概率,然后通过F-Loss和E-Loss的交叉熵函数计算预测词序列与参考句子之间的误差。最后,误差在每个LSTM网络上逐步反向传播,基于时间的反向传播算法(BPTT)更新LSTM中的参数。和是在反向传播过程中平衡 事实误差和情感误差 的超参数。

测试

事实部分也用于帮助情感部分生成句子,如图3所示。具体来说,CNN特征序列被依次馈送到事实部分和情感部分的底部LSTM,然后在下一个时间步将最终表示和句子开头(BoS)的 token 提供给这两部分的顶部LSTM。

此后,事实部分和情感部分的输出概率通过加权平均进行融合,在下一个时间步中,共同确定的单词(co-determined word)将是这两部分的输入。

关于图3所示的参数α,它是一个辅助参数,用于平衡视频中事实和情绪的强度。在我们的实践中,α被设置为0.8,因为事实部分仍然支配着模型捕获的信息,并确保生成句子的完整性,而情感部分提供了有关情感的必要辅助信息。

Fig. 3. 测试 所提出的基于事实转移的模型。

以上介绍了在仅使用EmVidCap-S数据集时如何训练和测试所提出的模型。以类似的方式,当使用整个EmVidCap数据集时,首先应用FactVideo1数据集来训练事实部分,并使所提出的模型适合于事实表达。然后,利用视频和EmVidCap的参考句对事实部分进行细化,并对情感部分进行充分优化。

4 新的情感评价方法

为了评估模型性能,本文采用了三种评估方法。

1、最重要的是,包括BLEU[29]、METEOR[30]、ROUGE_L[48]和CIDEr[31]在内的传统指标被用来衡量生成句子的准确性、连贯性和语义。然而,这些指标并不能有效地评估句子中情绪的准确性。

2、另一种,在带有情绪/风格的图像字幕中使用的一些评估方法可能不适合带有情绪的视频字幕。

3、在[23]中,至少有一个ANP的生成句子的百分比被认为是对情绪的评价指标之一。但是百分比指标忽略了ANP对测试图像的准确性。

面对情感评价的挑战,本文设计了一种新的情感评价方法。

1 定义了情感词准确度和情感句子准确度两个指标(情绪预测)

分别为。对于这两个分数,计算,这些数字,其中分别代表生成句子中正确情感词的数量(正确情感词意味着它们也在相应的参考句子中)和包含至少一个正确情感词的句子数量;

代表生成句子中错误情感词的数量,而非相应参考句子中的错误情感词的数量,是同时包含正确和错误情感词的句子数。此外,还存在不包含任何情感词的句子,让Φ表示这些句子的集合,其数字表示为|Φ|。这两个度量的计算可以写成,

其中C是所有生成句子的集合,SP是情感惩罚(emotion penalty),定义为

情绪词和情感句子的准确性为情绪预测提供了一个直观的视角。

然而,情感与事实密不可分的,在用情感来综合评价生成的句子时,必须同时考虑事实和情感。换言之,具有更高的模型并不总能为视频生成具有准确事实的像样表达。

2 定义了BFS和CFS两个综合指标(情感+事实)

因此,将传统的BLEU和CIDEr指标整合到所提出的情绪评价方法中,考虑到BLEU和CIDEr开发了不同的计算方法,定义了BFS和CFS两个综合指标:

其中β是一个谐波因子,在实践中设置为β=α=0.8,因为事实向观众传达了更多信息,它们是理解视频的基础。

除了上述传统和建议的指标外,本工作还进行了人工评估。

用于人类评估的实践(采用MSR-VTT challenge1且设计了四个指标)包括:(1)情感准确性:评估句子中情感的准确性,(2)相关性:评估句子是否与视频内容相关,(3)连贯性:判断句子的逻辑性和可读性,(4)可用性:这个句子对一个人(尤其是盲人)理解视频中发生的事情有多有用。对于这四个指标中的每一个,分数都在1到10之间;分数越高,衡量标准的表现就越好。

5 实验(EXPERIMENT

用于消融研究的竞争模型

除了第三节中介绍的基于事实转移的模型(为了进行比较,用FT表示),还有另外7个模型用于消融研究。这些竞争模型的详细介绍如下。

Model M1:在所提出的基于事实转移的模型中,只有事实部分被启用,并在FactVideo2数据集上进行训练。该模型被用作事实字幕的基线模型。

Model M2: 只有情绪部分直接在情绪字幕数据集(EmVidCap-S或EmVidCap)上进行启用和训练,可以视为情绪字幕的基线模型。

Model M3:在提议的模型中,只有事实部分被激活,并在FactVideo1数据集上进行训练。然后,在FactVideo2数据集上进一步微调模型。M3的目的是通过微调来评估事实转移的效果。

Model M4: 与M3类似,事实部分是由M4在FactVideo1上使用和训练。然后,利用情绪字幕数据集(EmVidCap-S或EmVidCap)对模型进行微调,学习情绪信息。

Model M5:事实和情感的部分都是启用的。事实部分首先在FactVideo1上进行训练,然后在FactVideo2上进行微调。然后,在情绪字幕数据集上对这两部分进行优化,对事实部分进行进一步微调,对情绪部分进行充分训练。最后,将这两部分的输出概率与加权平均值进行融合。该模型与所提出的FT模型相似,除了事实部分在优化情绪字幕数据集之前,也在FactVideo2上进行了微调。

Model M6: 事实部分和情感部分在FactVideo1上整合并训练,然后在FactVideo2上对整合模型进行进一步的微调。最后,采用加权平均法对这两部分的输出概率进行融合。该模型用于评估融合方法的有效性。

Model M7:与M6一样,事实和情感部分的集成模型首先在FactVideo1上进行优化。之后,在情感字幕数据集上对模型进行微调,并应用相等的权重融合这两部分的输出概率。该模型的使用是为了进一步揭示情感依赖于事实,更多的情感反馈可能会损害生成句子的整体语义。

用传统的度量标准进行评估

为了简单起见,我们使用BLEU(缩写为B-n(n={1,2,3,4})、METORE、ROUGE_L和CIDEr、M、R和C)等指标对描述的基于事实转移的模型和其他竞争模型进行了评估。

EmVidCap-S和EmVidCap数据集的比较结果如表三所示。

TABLE III

关于EmVidCap-S的结果

M1在每个评估指标上的表现都优于M2。这两个模型具有相同的体系结构,但M1在FactVideo2上进行训练,而M2在EmVidCap-S上进行优化。用于训练的两个数据集(即FactVideo2和EmVidCap-S)实际上具有相同的规模。然而,EmVidCap-S中,有限的训练样本不足以支持M2的完全优化,导致模型过拟合。

M3在大多数评估指标上比M4获得更好的性能,并且性能趋势似乎与M1和M2之间的性能趋势相似,因为学习情感信息的M2和M4的性能不如仅学习事实的M1和M3。

事实上,对于M1、M3和M6模型,参考句中没有情绪,导致生成的句子中没有情绪词。这并不影响对连贯性的评价,因为测试参考句子中情感词的数量少于其他关于事实的词,并且情感词经常出现在句子的末尾。

通过提出的FT模型,BLEU、METEOR、ROUGE_L和CIDEr的指标都比其他模型有所改进,尽管BLEU中FT比M3和M6的指标更差。但CIDEr的性能达到了62.5,比第二好的M5高出2.5。

从某种意义上说,FT利用了其他模式的优势。

1、事实部分在FactVideo1上经过了充分的训练,并获得了足够的事实信息。

2、然后,将情感部分与预先训练的事实部分相结合,并在EmVidCap-S上对这两部分进行联合优化。该策略保证EmVidCap-S中的一小部分事实输入到预先训练的事实部分,并将部分情感信息整和到模型中,以保证句子结构的完整性。

3、同时,情感部分在事实的帮助下得到充分训练,以尽可能多地捕捉情感信息。此外,还融合了事实部分和情感部分的输出概率进行最终预测。

就EmVidCap数据集的比较结果而言

很明显,提出的FT模型在几乎所有评估指标上都优于其他竞争模型,并获得以下观察结果。

首先,在比较M1、M3和M6等事实句子生成模型时,(M1、M3和M6)它们没有使用情绪字幕数据集进行模型训练,使用EmVidCap-s比使用EmVidCap的表现趋势更差。这主要是因为原始事实数据集(即FactVideo1和FactVideo2)与EmVidCap数据集的差异大于EmVidCap-S数据集的差异。

  • 当比较模型来生成包含M2、M4、M5和M7等情绪的句子时,除了M2之外,几乎所有这些模型的性能都从使用EmVidCap-S下降到使用EmVidCap。主要原因是EmVidCap-L中的句子通常比EmVidCap-S中的句子更长、更复杂,导致模型学习困难,从而导致字幕性能下降。
  • 另一个值得注意的观察结果是,与EmVidCap-S相比,M5的性能严重下降。这表明,当事实句远离EmVidCap中的事实句时,FactVideo2的微调策略不会进一步改善M5。事实上,FactVideo2中的小规模训练样本可能会导致过度拟合,并限制M5的泛化能力(随后会在EmVidCap上进行微调)。

最后,对于所提出的FT模型,虽然事实部分在FactVideo1上进行了预训练,第一阶段可能会陷入了过拟合,但随后的联合优化和情感部分的充分训练有助于模型在第二阶段跳出这种不利局面。此外,在概率融合过程中,对事实部分和情感部分赋予不同权重的策略,使情感信息成为事实描述的有效补充,提高了句子的连贯性和语义。

情绪度量评估

在使用传统指标进行评估后,评估生成的情感词和情感句子的准确性。因为M1、M3和M6没有能力生成带有情绪的句子,所以它们不参与这里的比较。结果见表四。

TABLE IV

关于EmVidCap-S数据集上的结果,很明显,提出的FT模型取得了良好的性能,在上分别为69.4和67.1。FT模型赢得了所有其他竞争模型,BFS和CFS分别为52.5和63.7。

关于EmVidCap数据集时,可以观察到所提出的FT模型在所有竞争模型中获得了最好的性能,无论是在情感词和句子准确性方面,还是在综合评价指标BFS和CFS方面,进一步验证了该方法的有效性。

人评估(Human Evaluation

关于M2、M4、M5、M7和FT模型,人类在情感准确性、相关性、连贯性和可用性方面的评估结果(如第IV-B节所述)如表V所示。22名志愿者为每个竞争模型生成的句子打分。删除最高和最低分数,剩余分数作为每个指标的最终分数取平均值。

TABLE V

HUMAN EVALUATION OF THE COMPETING MODELS

从结果可以看出,提出的FT模型在每个指标上都达到了最佳性能。特别是,EmVidCap-S和EmVidCap的一致性指标得分分别达到5.12和5.23。然而,在这两个数据集上,FT获得的可用性指标的性能仍有待进一步改进。实际上,其他相互竞争的模型(M2、M4、M5和M7)都不如FT,这表明生成的句子总体上离实际应用还很远。

与其他框架一起的性能

此外,除S2VT框架[7]外,还使用了LSTM-YT[52]和Deep Fusion[53]两个框架来进一步证明所提出方法的有效性。为了进行比较,在LSTM-YT和Deep Fusion框架上实现了包含M2、M4、M5、M7和建议的FT在内的情感视频字幕模型,结果如表六和表七所示。

TABLE VI

在lstm-yt框架上的情绪视频字幕模型的性能

TABLE VII

在深度融合框架上的情感视频字幕模型的性能

结果表明,无论在LSTM-YT或Deep Fusion的框架下,FT模型都能提高情绪视频字幕的性能。

S2VT上的视频字幕模型的性能总体上优于LSTM-YT和Deep Fusion上的性能,这进一步表明,目前在S2VT上实现的方法是合理的。

示例

图5给出了一些示例,包括竞争模型获得的参考句子和生成的句子。

图5(a)和图5(b)显示了EmVidCap-S数据集的情况,其中模型在EmVidCap-S上训练;

图5(c)和图5(d)来自EmVidCap-L数据集,模型在EmVidCap上训练;

图5(e)和图5(f)的示例属于EmVidCap-S,模型在EmVidCap上训练。

从图5(a)和图5(b)中可以看出,由M1、M3和M6生成的句子显然没有情感词,看起来很过时。由带有情感的视频字幕模型生成的大多数句子更生动。特别是,所提出的FT模型得到的句子平衡了事实和情感,通常比其他模型更准确,语义更丰富。

当竞争模型在EmVidCap数据集上进行训练时,从示例中可以观察到,与其他模型生成的句子相比,无论是情绪预测还是事实描述,FT生成的句子都更准确,语义更丰富。

例如,FT在图5(c)中生成的句子不仅描述了事实细节(“戴着面具”),还呈现了正确的情感词(“可怕”和“可怕”),尽管预测的场景(“房间”)似乎偏离了参考内容(“建筑”或“废墟”)。相比之下,其他模型要么无法预测正确的情绪(如M2和M5),要么无法很好地描述事实(如M4和M7)。特别是对于M7,如图5(d)所示,生成的句子明显杂乱无章、不完整且毫无意义,这表明事实部分和情感部分权重相等的概率融合导致模型映射到无意义的预测词,破坏了原始句子逻辑。

此外,如图5(e)和图5(f)所示,模型生成的句子是通过在EmVidCap数据集上学习获得的,这些句子通常比参考句子和在EmVidCap-S上训练的模型生成的句子长(例如,图5(a)和图5(b))。

                                       图6.失败的例子,字幕的模型获得的视频字幕与情绪。

(a)和(b):EmVidCap-S失败示例与在EmVidCap-S上训练的模型

(c)和(d):EmVidCap-L失败的例子与在EmVidCap上训练的模型

此外,由M2、M4、M5、M7和FT模型获得的几个故障示例如图6所示。从这些例子可以看出,M5、M7和FT生成的句子有点奇怪,而且句子似乎不完整,语法不正确。

相比之下,M2和M4生成的句子更完整、更恰当。这是因为M5、M7和FT由事实部分和情感部分两部分组成,在测试过程中,融合概率在一定的时间步长映射到词汇中的错误单词,导致句子结构的破坏。然而,M2和M4在每个时间步只需要一个概率,并且不使用概率融合操作,在这些情况下生成的句子相对完整。

Emotion Expression With Fact Transfer for Video Description基于事实传递的视频描述情感表达相关推荐

  1. CV | Feature Space Optimization for Semantic Video Segmentation - 基于特征空间优化的视频语义分割

    前言:今天分享的这一篇文章是CVPR2016有关视频语义分割方向的,最近才开始学习语义分割相关的文献,有理解偏差的希望大家可以指正. 语义分割 在维基百科上面没有直接定义,但从字面上就可以理解,就是将 ...

  2. [html] 说说video标签中预加载视频用到的属性是什么?

    [html] 说说video标签中预加载视频用到的属性是什么? 个人简介 我是歌谣,欢迎和大家一起交流前后端知识.放弃很容易, 但坚持一定很酷.欢迎大家一起讨论 主目录 与歌谣一起通关前端面试题

  3. video 设置 poster,默认显示视频第一帧

    video 设置 poster,默认显示视频第一帧 <video:src="videoUrl":poster="videoUrl + '?x-oss-process ...

  4. vue使用video和vue-video-player并且可实现视频铺满呦

    网页放置视频播放器,我一般都是用video.js和它的插件vue-video-player 一:Video.js 需求:对于简单的视频播放需求来说,video.js足以胜任了. 它可是支持HTML5和 ...

  5. VideoCapX Video Crack,保存和访问这些视频和图像的需求

    VideoCapX Video Crack,保存和访问这些视频和图像的需求 VideoCapX 是一个视频处理和捕获系统.它可以捕获.处理和播放 AVI/WMV 视频.ActiveX 控件允许软件开发 ...

  6. MovieMator Video Editor Pro for Mac(专业视频编辑软件) v2.5.4中文激活版

    MovieMator Video Editor Pro for Mac(剪大师专业版)破解版是一款非常不错的视频编辑软件.MovieMator Video Editor Pro 能够提供最直观,最简单 ...

  7. AAAI2020/风格迁移:Ultrafast Photorealistic Style Transfer via Neural Architecture基于神经结构搜索的超快逼真风格转移

    AAAI2020/风格迁移:Ultrafast Photorealistic Style Transfer via Neural Architecture基于神经结构搜索的超快逼真风格转移 0.摘要 ...

  8. Vue实现视频播放列表(二)——video.js组件的使用-实现视频播放列表-切换播放

    Vue实现视频播放列表--video.js组件的使用-实现视频播放列表-切换播放 1.video标签--https://www.runoob.com/html/html-videos.html 2.v ...

  9. Video Editor MovieMator Pro for Mac(视频编辑大师专业版)

    Video Editor MovieMator Pro Mac版是一款功能齐全的Mac视频编辑器,可在几分钟内创建专业品质的视频.它提供了基本的编辑功能,如修剪,裁剪,分割,旋转等.此外,作为Mac视 ...

最新文章

  1. 面试季:如何在面试中介绍自己的项目经验
  2. UIButton文字居左显示
  3. 说说FATFS文件系统(转)
  4. 黑盒法测试c语言,黑盒测试用例练习题.pdf
  5. JAVA的SSH框架登录注册
  6. 最大最小背光亮度修改
  7. 【公测】智能便捷稳定 新版家园只为给你不一样的体验~
  8. c语言正则表达式库,c语言正则表达式库--PCRE
  9. linux终端命令大全(完善中)
  10. Cannot resolve plugin org.apache.tomcat.maven:tomcat7-maven-plugin:<unknown>
  11. 小学生python编程教程-画正方形-小学生 Python 入门课
  12. TTL信号也能高速稳定的传输100m+,是的,你没有听错,量产电路推荐
  13. U8-固定资产月末结账报错:BOF或EOF中有一个是真
  14. 网络爬虫-re库-正则表达式
  15. TiDB2.1 报错statement count 5001 exceeds the transaction limitation, autocommit = false
  16. 已知线段上某点与起点的距离,求该点的坐标
  17. 揭开LiteOS的神秘面纱
  18. 怎么解决java.lang.NoClassDefFoundError错误 ,以及类的加载机制
  19. 差动保护类毕业论文文献包含哪些?
  20. 达梦8 DCA培训总结

热门文章

  1. 纳税服务系统四(角色模块)【角色与权限、角色与用户】
  2. 数据的入库操作 实验python_python操作MySQL数据库
  3. 直插电阻通过色环读取电阻阻值,误差与温度系数方法总结
  4. 计算机插上u盘就无法点亮,u盘启动电脑无反应,小编教你电脑插上U盘后无法启动解决方法...
  5. 人力资源管理专业知识与实务(初级)【11】
  6. python自动化办公 51cto_用Python开发钉钉群机器人,自动办公神器
  7. phal接口查询显示中多余方法处理
  8. ixgbe网卡驱动 Ⅳ----收发包流程详解
  9. asp计算机房预约系统源码,(机房)实验室预约管理系统
  10. 积分球式光源色温校准