论文里面的陈述是这样的:假设图像分为s×s个格子,每个格子有B个框,
数据集类别总数为c,那么最后的预测的向量长度为 S×S×(B×5+c)。
我的理解是类别label会转换为one-hot格式,那么label的长度就是C,
基于这个理解,每个格子预测的B个框都是同一类上式才成立。
否则,如果每个框预测的类别不一样,那么上式应该是S×S×(B×5×c)
但我不是很确定,所以问下我的理解是是否正确,也就是说yolo算法每个格子预测的都是同一类吗?
论文里面的陈述是这样的:假设图像分为s×s个格子,每个格子有B个框,
数据集类别总数为c,那么最后的预测的向量长度为 S×S×(B×5+c)。
我的理解是类别label会转换为one-hot格式,那么label的长度就是C,
基于这个理解,每个格子预测的B个框都是同一类上式才成立。
否则,如果每个框预测的类别不一样,那么上式应该是S×S×(B×5×c)
但我不是很确定,所以问下我的理解是是否正确,也就是说yolo算法每个格子预测的都是同一类吗?
是的,每个格子只预测一类,这也是yolov3存在的固有缺陷,如果一个格子里存在多目标的话,只能识别一个