STGCN+YOLOV8 端到端 视频行为分类训练与测试
摘要:
本文介绍了使用STGCN(时空图卷积网络)进行视频行为分类的流程。首先,利用YOLOv8网络在KTH数据集(可以是自定义数据集)上进行姿态估计,获取2D关节点数据。随后,将关节点数据转换为STGCN模型所需的kinectics格式。接着,根据实验需求调整STGCN模型的相关参数,进行模型的训练和测试。在训练阶段,模型学习动作特征;在测试阶段,评估模型性能。最后,通过可视化演示展示了模型在视频行为分类任务中的应用效果。整个过程涵盖了从数据获取、处理到模型训练、测试及应用的完整流程,为视频行为分类任务提供了一种有效的解决方案。
环境要求
python == 3.7.16
torch + cu116 == 1.13.1
torchaudio + cu116 == 0.13.1
torchvision + cu116 == 0.14.1
ultralytics == 8.0.145
stgcn
目录
环境要求
一、关节点骨架数据
1、yolov8姿态估计获取关节点数据
2、stgcn关节点数据格式处理
3、stgcn训练集和测试集数据标签汇总
二、基于stgcn的行为分类
1、相关文件代码修改
(1)修改label_name.txt
(2)增加layout
(3)修改train.yaml
2、stgcn模型训练
3、stgcn模型测试
4、demo可视化演示
(1)修改/tools/utils/video.py
(2)修改main.py,增加demo_kth
(3)新建./config/st_gcn/kth/demo_kth.yaml文件
(4)新建./processor/demo_kth.py文件(参考demo_old.py文件)
(5)终端运行命令