科创中国●保定云
首页
需求大厅
成果大厅
科技服务团
专家人才
品牌活动
技术转移
科技普及
科创视野
关于我们
数据中心

一种时空卷积注意力网络用于视频中动作识别的方法

  • 发布时间: 2025-01-10
预算 3.00万
基本信息
成果方:江西理工大学
合作方式:技术转让
成果类型:发明专利,
行业领域
电子信息技术
成果描述

本发明提出一种时空卷积注意力网络用于视频中动作识别的方法。改方法分别通过本发明设计的空间卷积注意力模块和时序卷积注意力模块来计算两种视频数据信号获得最终的动作识别分类。其中空间卷积注意力模块处理RGB信号特征,时序卷积注意力模块处理由TVL1算法计算得到的光流特征。首先,本方法对原始的视频数据进行预处理,使用稀疏取帧的方式对两种信号输入进行采样得到神经网络的输入对象——RGB帧序列和堆叠的光流帧序列。接着使用残差网络ResNet-50前五层卷积层作为基础网络,再使用ResNet-50前五层卷积层对两种输入信号进行特征提取,得到RGB特征图和光流特征图。

应用范围

一种时空卷积注意力网络用于视频中动作识别的方法具有广泛的应用前景。动作识别是计算机视觉领域中一个重要的问题,它可以应用于许多领域,如视频监控、人机交互、体育分析、虚拟现实等。

例如,在视频监控领域中,这种方法可以用于识别视频中的异常动作,如入侵、盗窃、火灾等,并发出警报。在人机交互领域中,这种方法可以用于识别用户的动作,并实现自然的交互。在体育分析领域中,这种方法可以用于分析运动员的动作,并评估其表现。在虚拟现实领域中,这种方法可以用于识别用户的动作,并实现更真实的虚拟体验。

总的来说,一种时空卷积注意力网络用于视频中动作识别的方法具有广泛的应用前景,有望在计算机视觉领域的许多领域中发挥重要作用。


前景分析

本发明公开了一种时空卷积注意力网络用于视频中动作识别的方法,结合了基于自注意力和2D卷积神经网络两种方法的优点,解决了2D卷积网络不具备在全局视角上学习特征相关性的能力和自注意力忽略局部的位置特性的问题。在UCF101和HMDB51数据集上的实验结果表明本发明具有较好的识别效果。

联系方式

  • 联系人:

    罗会兰

  • 联系电话:

    18633276657

  • 通讯地址:

    江西省赣州市客家大道156号

请填写以下信息

  • *

    联系人:

  • *

    手机号:

  • *

    单位名称:

  •  备注:

  • 取消 确定