liverpoon 2021-11-10 21:31 采纳率: 0%
浏览 11

神经网络如何在每个epoch后增加一些训练样本?

最近在用Keras搭建神经网络,并且训练。发现数据的多少对结果有一定的影响,因而产生了一个想法,能否每隔一定的epoch,增加一些训练数据样本,以此来观察结果的收敛情况。不知道有没有人做过,代码中如何实现呢。由于模型有一些自定义的层和函数,所以无法通过保存再加载的方式训练。

  • 写回答

1条回答 默认 最新

  • XianxinMao 2021-11-11 18:57
    关注

    你这个问题,其实有人做过数据规模对模型精度的影响了,可以来看这篇论文: Big Transfer (BiT): General Visual Representation Learning

    评论

报告相同问题?

问题事件

  • 创建了问题 11月10日

悬赏问题

  • ¥15 求解O-S方程的特征值问题给出边界层布拉休斯平行流的中性曲线
  • ¥15 谁有desed数据集呀
  • ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100
  • ¥15 关于#hadoop#的问题
  • ¥15 (标签-Python|关键词-socket)
  • ¥15 keil里为什么main.c定义的函数在it.c调用不了
  • ¥50 切换TabTip键盘的输入法
  • ¥15 可否在不同线程中调用封装数据库操作的类
  • ¥15 微带串馈天线阵列每个阵元宽度计算
  • ¥15 keil的map文件中Image component sizes各项意思