雏 菊 2020-12-22 15:48 采纳率: 33.3%
浏览 114
已采纳

这里的1875是什么意思

我在做手写体识别的时候有个疑问

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
from keras.layers import Dense, Flatten


epochs = 10  # 迭代次数
batch_size = 32  # batch_size是一次训练所选取的样本数。 太小会导致训练慢,过拟合等问题,太大会导致欠拟合。所以要适当选择

# 加载mnist数据集
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()

# 把数据变成float32更精确
x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
x_train, x_test = x_train / 255.0, x_test / 255.0  # 归一化,可加快模型收敛,帮助提高模型精确度
y_train_onehot = tf.keras.utils.to_categorical(y_train)  # 将标签转换成独热编码,就是把类别0-9变成2进制,方便训练
y_test_onehot = tf.keras.utils.to_categorical(y_test)

#建立模型
model = tf.keras.Sequential()#创建一个Sequential对象,方便我们堆叠各个卷积层。
# 输入格式28*28
model.add(Flatten(input_shape=(28, 28)))  
# 中间隐藏层激活函数用relu,全连接层,共两层后半部分相当于是构建了一个隐藏层为128
model.add(Dense(128, activation='relu'))  
#输出层为10的普通的神经网络。最后一层的激活函数是softmax,10位恰好可以表达0-9十个数字。
model.add(Dense(10, activation='softmax'))  

#loss函数使用交叉熵
# 独热编码用categorical_crossentropy
model.compile(optimizer='adam',
              loss='categorical_crossentropy',
              metrics=['accuracy'])

history = model.fit(x_train, y_train_onehot, batch_size=batch_size, epochs=epochs)

model.save('model.h5')
print('saved total model.')

运行的时候出现
1875/1875 [==============================] - 2s 899us/step - loss: 0.0161 - accuracy: 0.9952
batch_size=32的时候,下面进度条最左边的数字是1875,如果把batch_size调大,最左边的数字会相应变小,请问这两者之间存在什么关联?
  • 写回答

1条回答 默认 最新

  • bj_0163_bj 2020-12-22 19:07
    关注

    批次,一轮数据多,批次就少,一轮数据少,批次就多

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

悬赏问题

  • ¥15 素材场景中光线烘焙后灯光失效
  • ¥15 请教一下各位,为什么我这个没有实现模拟点击
  • ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
  • ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 保护模式-系统加载-段寄存器