百度视觉组开源StNet:视频分类中局部和全局时空建模的时空网络

新知榜官方账号

2023-10-02 18:06:21

简介

百度视觉技术部联合PaddlePaddle团队近期开源了用于视频分类的StNet框架。该框架在动作识别方面优于一些最先进的方法,可以在识别精度和模型复杂性之间取得令人满意的平衡。

StNet框架

StNet框架为ActivityNetKineticsChallenge2018中夺冠的网络框架。该框架提出“super-image”的概念,在super-image上进行2D卷积,建模视频中局部时空相关性。另外通过temporalmodelingblock建模视频的全局时空依赖,最后用一个temporalXceptionblock对抽取的特征序列进行长时序建模。StNet可以由先进的2D卷积网络改造得到,比如:ResNet、InceptionResnet等等。

StNet的优势

StNet模型局部信息和全局信息对识别视频中的行为都起着非常重要的作用。StNet可以避免3D卷积网络参数量和计算量大的问题,进而生成T个局部时空特征图。通过堆叠3D卷积/2D卷积模块,对T个局部时空特征图进行全局时空信息的建模,这对理解整个视频起到至关重要的作用。StNet模型在动作识别方面优于一些最先进的方法,可以在识别精度和模型复杂性之间取得令人满意的平衡。

应用背景

视频当中的动作识别任务已经获得了许多从事计算机视觉与机器学习研究人员的重点关注。越来越多的视频录像设备的普及,让更多好玩有趣的视频丰富了人们的业余生活。但是过多的视频已经远远超过人工能够处理的范围,因此发展针对各种应用场景的自动视频理解算法变得尤为重要,比如:视频推荐、人类行为分析、视频监控等等。

结语

StNet的开源将对视频分类领域的发展带来积极的影响。我们期待更多的深度学习模型在视频分类领域取得更好的成果。

本页网址:https://www.xinzhibang.net/article_detail-14939.html

寻求报道,请 点击这里 微信扫码咨询

关键词

视频分类 StNet 时空网络

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯