做cnn训练手势识别模型,在测试集上表现都很好,但是我用自己拍的手势图片去测试,准确率就惨不忍睹,似乎是网络把训练集的背景也学进去了,这种情况怎么处理啊,我想让尽可能排除背景的影响,把重点放在手势上。
(pytorch框架)
请教深度学习中如何排除背景不同对识别结果的影响
- 写回答
- 好问题 0 提建议
- 关注问题
- 邀请回答
-
3条回答 默认 最新
流比 2023-01-17 21:19关注在深度学习中,排除背景不同对识别结果的影响的方法有很多。下面列出一些可能有用的解决方案:
数据增强: 数据增强可以增加训练集的多样性,使得模型对于不同背景的图像都有很好的识别能力。数据增强方法有很多,如随机旋转、缩放、平移、镜像等。
手动标记: 手工标记数据中手势的位置和大小,在训练时只输入手势部分的图像。这样就可以排除背景对识别结果的影响了。
背景消除: 在图像处理的方法中,背景消除是一种常用的手段。如果你知道背景的颜色或纹理特征,可以使用颜色过滤或纹理分析等方法将背景从图像中消除。
深度学习方法: 使用深度学习中的一些算法,如 YOLO, Faster R-CNN, RetinaNet, Unet等,这些算法可以自动学习图像中物体的位置和大小,可以将背景过滤掉。
解决 无用评论 打赏 举报