一种用于视频动作识别的串流深度网络模型构建方法
本发明公开了一种用于视频动作识别的串流深度网络模型构建方法,视频中动作识别研究从传统方法到深度学习方法,深度学习方法中结合空间信息和时间信息的双流方法是当前动作识别领域最主流的方法。本发明基于双流方法进行改进,在空间流上采用迭代交互训练的方式得到一个效果更佳的空间流模型,在时间流上提出一个基于残差网络改进的新型时间特征提取网络,最后联合空间流和时间流各自的分类优势,将训练好的空间流和时间流采用多层分类的方式组成一个整体串流分类模型。该模型构建方法在UCF101数据集上进行测试,在单个空间流上较原始方法提升了***%,在时间流上较原始方法提升了***%,在最终模型上较单个的空间流和时间流获得了6%左右的大额提升。
视频动作识别是计算机视觉领域中的一个重要研究方向,而深度学习则是当前视频动作识别的主流技术。
在本文中,提出了一种基于深度学习的视频动作识别方法,该方法采用了一种串流网络模型构建方法。通过该方法,可以有效地构建出深度网络模型,并且可以对视频动作进行快速识别。 基于深度学习的视频动作识别方法具有广泛的应用前景。例如,在视频监控领域中,可以利用深度学习技术对视频进行分析,自动识别出视频中的动作,从而实现智能监控的目的。此外,在智能家居领域中,也可以运用深度学习技术对家庭中的视频进行分析,识别出家庭成员的动作,从而实现更加智能的家居控制。总之,基于深度学习的视频动作识别方法是一项具有广阔应用前景的技术。
与现有技术相比,本发明具有如下有益效果:本发明对视频动作进行分类识别时,不仅提取空间特征也提取时间特征。不同于以往联合时空特征的并联多流模型,本发明提出以空间流和时间流为基础的串流网络模型构建方法,在空间流上采用效果更好的迭代交替训练方式,在时间流上对残差网络进行改进提出一个基于ResNet50改进的cccp-ResNet50网络模型,使其能提取到更加充分的时间特征。然后选择空间流作为第一层的分类模型,时间流作为第二层的分类。在这样一个新的串流网络模型中,通过选择合适的阈值,当第一层的模型分类得分大于阈值时输出分类结果,小于阈值时就进入第二层的模型进行分类,当两个流的分类得分都少于这个阈值时再选择两者的得分进行相加融合输出分类结果。如此,串流深度网络模型构建方法的识别系统比其它动作识别系统在单个流上准确率更高,同时大部分情况第一层的分类模型就可以完成分类,相对其他双流或是多流的动作识别系统其效率更高,更具有现实意义,因此其具有重要的实际应用价值。
联系方式
罗会兰
18633276657
江西省赣州市客家大道156号
请填写以下信息
联系人:
手机号:
单位名称:
备注: