最近在用Keras搭建神经网络,并且训练。发现数据的多少对结果有一定的影响,因而产生了一个想法,能否每隔一定的epoch,增加一些训练数据样本,以此来观察结果的收敛情况。不知道有没有人做过,代码中如何实现呢。由于模型有一些自定义的层和函数,所以无法通过保存再加载的方式训练。
1条回答 默认 最新
- XianxinMao 2021-11-11 18:57关注
你这个问题,其实有人做过数据规模对模型精度的影响了,可以来看这篇论文: Big Transfer (BiT): General Visual Representation Learning
解决 无用评论 打赏 举报
悬赏问题
- ¥15 求解O-S方程的特征值问题给出边界层布拉休斯平行流的中性曲线
- ¥15 谁有desed数据集呀
- ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100
- ¥15 关于#hadoop#的问题
- ¥15 (标签-Python|关键词-socket)
- ¥15 keil里为什么main.c定义的函数在it.c调用不了
- ¥50 切换TabTip键盘的输入法
- ¥15 可否在不同线程中调用封装数据库操作的类
- ¥15 微带串馈天线阵列每个阵元宽度计算
- ¥15 keil的map文件中Image component sizes各项意思