微视频背景音乐自动匹配与肺部结节识别系统研究
1. 微视频背景音乐自动匹配
在当下,微视频的广泛传播已是不争的事实。然而,无论是以音乐为导向还是以视频为导向的视频制作方式,都无法完全表达视频创作者的想法,因为音乐类型固定,且寻找合适音乐耗时较长。为了解决这些问题,研究者提出了一种基于深度学习的微视频背景音乐自动匹配算法。
1.1 相关工作
-
神经网络模型 :近年来,卷积神经网络(CNN)的发展极大地促进了图像场景识别的过程和实现。目前,CNN模型的设计思路基本朝着深度网络和更多卷积计算的方向发展。残差网络模型(Resnet)在人脸识别和场景识别问题上也取得了较高的准确率。在场景识别方面,Bolei Zhou等人在Places数据集上取得了很大的进展和效果,使用AlexNet、GoogLeNet、VGG等模型进行验证,top - 5的平均准确率为85.07%。
|模型|Places365验证集Top - 1准确率|Places365验证集Top - 5准确率|Places365测试集Top - 1准确率|Places365测试集Top - 5准确率|
| ---- | ---- | ---- | ---- | ---- |
|GoogleNet|53.63%|83.88%|53.59%|84.01%|
|VGG - 16|55.24%|84.91%|55.19%|85.01%|
|ResNet50|54.74%|85.08%|54.65%|85.07%| -
音乐合唱截取 :微视频的时长通常限制在
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



