一种基于融合特征的视频行为识别方法
本发明公开了一种新的基于融合特征的视频行为识别方法。针对单一特征描述符在描述视频空间信息的不足,提出将位置信息映射到描述符中进行融合编码。即在特征提取阶段分别提取视频的描述符特征和位置信息,生成相对应的视觉词典和位置词典,然后将位置信息映射到描述符中进行编码。在编码阶段为了克服传统VLAD方法只考虑特征与其最接近聚类中心的不足,提出在其基础之上另外计算每个聚类中心与其最相似特征的差值,并将两者结合起来作为特征的编码向量,获取更全面的视频表示。在两个大型数据库UCF101及HMDB51数据库上的实验比较结果表明,本发明提出的方法比传统VLAD方法具有较大的性能提升。
一种基于融合特征的视频行为识别方法的应用前景非常广阔。该方法可以广泛应用于安防监控、智能交通、人机交互、智能家居等领域。
以安防监控为例,该方法可以用于识别视频中的异常行为,如盗窃、闯入、火灾等,并及时发出警报。在智能交通领域,该方法可以用于识别车辆的行驶行为,如闯红灯、逆行、超速等,并进行违规处罚。在人机交互领域,该方法可以用于识别人的手势、动作等,实现自然的人机交互。在智能家居领域,该方法可以用于识别家庭成员的行为,如起床、离开、回家等,并实现智能化的家居控制。
总的来说,基于融合特征的视频行为识别方法具有广泛的应用前景,可以为各个领域带来智能化的变革。
与现有的技术相比,本发明所述的行为识别方法采取了多种特征融合的视频表征方式,在视频的特征表达层面引入了位置信息,并在编码环节对原有的VLAD编码技术做了改进,强化了聚类中心的作用。能够保证视频的有效特征得到充分表达,通过在两个大型公开数据库UCF101和HMDB51上的实验结果对比,本发明提供的方法在识别准确度上有较大提升。
联系方式
罗会兰
18633276657
江西省赣州市客家大道156号
请填写以下信息
联系人:
手机号:
单位名称:
备注: