Tensorflow利用自制的数据集做图像识别，程序卡在读取tfrecord文件不跑 40C

`````` import tensorflow as tf
from encode_to_tfrecords import create_record, create_test_record,  read_and_decode, get_batch, get_test_batch

n_input = 154587
n_classes = 3
dropout = 0.5
x = tf.placeholder(tf.float32, [None, n_input])
y = tf.placeholder(tf.int32, [None, n_classes])
keep_drop = tf.placeholder(tf.float32)

class network(object):

def inference(self, images,keep_drop):
####################################################################################################################
# 向量转为矩阵

#  images = tf.reshape(images, shape=[-1, 39,39, 3])

images = tf.reshape(images, shape=[-1, 227, 227, 3])  # [batch, in_height, in_width, in_channels]

images = (tf.cast(images, tf.float32) / 255. - 0.5) * 2  # 归一化处理
####################################################################################################################

# 第一层  定义卷积偏置和下采样

self.biases['conv1'])

relu1 = tf.nn.relu(conv1)

pool1 = tf.nn.max_pool(relu1, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='VALID')

# 第二层

self.biases['conv2'])

relu2 = tf.nn.relu(conv2)

pool2 = tf.nn.max_pool(relu2, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='VALID')

# 第三层

self.biases['conv3'])

relu3 = tf.nn.relu(conv3)

#  pool3=tf.nn.max_pool(relu3, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID')

self.biases['conv4'])

relu4 = tf.nn.relu(conv4)

self.biases['conv5'])

relu5 = tf.nn.relu(conv5)

pool5 = tf.nn.max_pool(relu5, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='VALID')

# 全连接层1，先把特征图转为向量

flatten = tf.reshape(pool5, [-1, self.weights['fc1'].get_shape().as_list()[0]])
# dropout比率选用0.5

drop1 = tf.nn.dropout(flatten, keep_drop)

fc1 = tf.matmul(drop1, self.weights['fc1']) + self.biases['fc1']

fc_relu1 = tf.nn.relu(fc1)

fc2 = tf.matmul(fc_relu1, self.weights['fc2']) + self.biases['fc2']

fc_relu2 = tf.nn.relu(fc2)

fc3 = tf.matmul(fc_relu2, self.weights['fc3']) + self.biases['fc3']

return fc3

def __init__(self):
# 初始化权值和偏置

with tf.variable_scope("weights"):
self.weights = {

# 39*39*3->36*36*20->18*18*20

'conv1': tf.get_variable('conv1', [11, 11, 3, 96],
initializer=tf.contrib.layers.xavier_initializer_conv2d()),

# 18*18*20->16*16*40->8*8*40

'conv2': tf.get_variable('conv2', [5, 5, 96, 256],
initializer=tf.contrib.layers.xavier_initializer_conv2d()),

# 8*8*40->6*6*60->3*3*60

'conv3': tf.get_variable('conv3', [3, 3, 256, 384],
initializer=tf.contrib.layers.xavier_initializer_conv2d()),

# 3*3*60->120

'conv4': tf.get_variable('conv4', [3, 3, 384, 384],
initializer=tf.contrib.layers.xavier_initializer_conv2d()),

'conv5': tf.get_variable('conv5', [3, 3, 384, 256],
initializer=tf.contrib.layers.xavier_initializer_conv2d()),

'fc1': tf.get_variable('fc1', [6 * 6 * 256, 4096], initializer=tf.contrib.layers.xavier_initializer()),

'fc2': tf.get_variable('fc2', [4096, 4096], initializer=tf.contrib.layers.xavier_initializer()),

'fc3': tf.get_variable('fc3', [4096, 1000], initializer=tf.contrib.layers.xavier_initializer()),

}

with tf.variable_scope("biases"):
self.biases = {

'conv1': tf.get_variable('conv1', [96, ],
initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

'conv2': tf.get_variable('conv2', [256, ],
initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

'conv3': tf.get_variable('conv3', [384, ],
initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

'conv4': tf.get_variable('conv4', [384, ],
initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

'conv5': tf.get_variable('conv5', [256, ],
initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

'fc1': tf.get_variable('fc1', [4096, ],
initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

'fc2': tf.get_variable('fc2', [4096, ],
initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

'fc3': tf.get_variable('fc3', [1000, ], initializer=tf.constant_initializer(value=0.1, dtype=tf.float32))

}

# 计算softmax交叉熵损失函数

def sorfmax_loss(self, predicts, labels):
predicts = tf.nn.softmax(predicts)

labels = tf.one_hot(labels, self.weights['fc3'].get_shape().as_list()[1])

loss = tf.nn.softmax_cross_entropy_with_logits(logits=predicts, labels=labels)

#  loss =-tf.reduce_mean(labels * tf.log(predicts))# tf.nn.softmax_cross_entropy_with_logits(predicts, labels)

self.cost = loss

return self.cost

# 梯度下降

def optimer(self, loss, lr=0.01):

return train_optimizer

#定义训练
# def train(self):
create_record('/Users/hanjiarong/Documents/testdata/tfrtrain')
# batch_image, batch_label = get_batch(image, label, 30)

#连接网络 网络训练
net = network()
inf = net.inference(x, dropout)
loss = net.sorfmax_loss(inf,y)
opti = net.optimer(loss)
correct_pred = tf.equal(tf.argmax(inf, 1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

# #定义测试
create_test_record('/Users/hanjiarong/Documents/testdata/tfrtest')
# batch_test_image, batch_test_label = get_test_batch(image_t, label_t, 50)
#
# #生成测试

init = tf.initialize_all_variables()
with tf.Session() as session:
session.run(init)
coord = tf.train.Coordinator()
max_iter = 100000
iter = 1
print("begin1")
while iter * 30 < max_iter:
print("begin2")
print("begin3")
batch_image, batch_label = get_batch(image, label, 1)
print("begin4")
batch_image = session.run(batch_image)
batch_label = session.run(batch_label)
print("begin5")
# loss_np, _, label_np, image_np, inf_np = session.run([loss, opti, batch_label, batch_image, inf])
session.run(opti, feed_dict={x: batch_image, y: batch_label, keep_drop: dropout})
print("begin6")
if iter % 10 == 0:
loss, acc = session.run([loss, accuracy], feed_dict={x: batch_image, y: batch_label, keep_drop: 1.})
print("Iter " + str(iter * 30) + ", Minibatch Loss= " + \
"{:.6f}".format(loss) + ", Training Accuracy= " + "{:.5f}".format(acc))
iter += 1
print("Optimization Finished!")
batch_test_image, batch_test_label = get_batch(image, label, 2)
img_test, lab_test = session.run([batch_test_image, batch_test_label])
test_accuracy = session.run(accuracy,
feed_dict={x: img_test, y: lab_test, keep_drop: 1.})
print("Testing Accuracy:", test_accuracy)

``````

4个回答

Tensorflow中文社区测试版已经开放了，你可以去看，希望你能找到答案！

batch_size= batch_size,然后就可以跑了

Java语言读取文本文件里面的一组数字，并且在屏幕上输出最大的那个数
Java语言读取文本文件里面的一组数字，并且在屏幕上输出最大的那个数 这个问题怎么做
datax 从hive导出数据到mysql时 字段分隔符的配置
hive中建表时指定字段分割符为 \t，配置导出的json时，配置字段分隔符为 \t，导出失败，原因是从hive读取数据时只能识别一个字段，显然字段分割没有成功。。网上百度说字段分隔符默认应设置为 \u0001,但这是在hive上建表时没有指定字段分割符时。。想搞明白这是什么原因，比如我的 \t 在导出时为什么不能使用呢，是hive无法识别吗？我建表的时候就是 \t 啊，是需要转成什么字符集吗。。在字符集这块比较晕，请大神指点指点[face]qq:83.gif[/face]

java Dom4j 不能读取注释不规范的xml

opencv实现边缘梯度直方图+meanshift实现框选物体跟踪，代码出错，不知道错在哪里？
tensorflow读取文件时出现decode错误

Java语言读取软驱中软盘上的文件，并且拷贝到硬盘上，怎么写程序的呢
Java语言读取软驱中软盘上的文件，并且拷贝到硬盘上，怎么写程序的呢
NPOI读取和写入Excel数据时候，怎么可以按照单元格数据的样式，存取和写入数据到Excel表格中呢？

python pdfminer3k PyPDF2 读取pdf乱码或者错误

tensorflow批量读取图片出错

mongodb 读取不到数据

QT怎么实现一个包一个包的读取串口数据

java程序读取PLC的浮点数，读取到的小数位错误，请问如何解决？
1.采用modbus4j实现了modbus通信，但读取PLC的浮点数时，读取到整数位正确，小数位错误，请问如何解决？ 2. 读取PLC保持寄存器的方法如下： ``` readHoldingRegistersTest(master,1,1,4); private static void readHoldingRegistersTest(ModbusMaster master, int slaveId, int start, int len) { try { ReadHoldingRegistersRequest request = new ReadHoldingRegistersRequest( slaveId, start, len); ReadHoldingRegistersResponse response = (ReadHoldingRegistersResponse) master .send(request); if (response.isException()) { System.out.println("Exception response: message=" + response.getExceptionMessage()); } else { System.out.println(Arrays.toString(response.getShortData())); short[] list = response.getShortData(); byte[] bb = shortToBytes(list); Float ff=byte2float(bb,0); System.out.println("读到"+ff); } } catch (ModbusTransportException e) { e.printStackTrace(); } } ``` 3.和PLC通讯时，PLC给出的数字为46.68，程序读取到的数字为46.5，![图片说明](https://img-ask.csdn.net/upload/201912/10/1575987797_782854.png) 4.和modbus slave仿真软件通讯时，数据读取正常。控制台输出如下：

HashMap容器从字面的理解就是，基于Hash算法构造的Map容器。从数据结构的知识体系来说，HashMap容器是散列表在Java中的具体表达（并非线性表结构）。具体来说就是，利用K-V键值对中键对象的某个属性（默认使用该对象的“内存起始位置”这一属性）作为计算依据进行哈希计算（调用hashCode方法），然后再以计算后的返回值为依据，将当前K-V键值对在符合HashMap容器构造原则的基础上，放置到HashMap容器的某个位置上，且这个位置和之前添加的K-V键值对的存储位置完全独立，不一定构成连续的存储
c++制作的植物大战僵尸，开源，一代二代结合游戏

Java学习的正确打开方式

Python——画一棵漂亮的樱花树（不同种樱花+玫瑰+圣诞树喔）

linux系列之常用运维命令整理笔录

Python 基础（一）：入门必备知识
Python 入门必备知识，你都掌握了吗？

Python十大装B语法
Python 是一种代表简单思想的语言，其语法相对简单，很容易上手。不过，如果就此小视 Python 语法的精妙和深邃，那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点，并附上详细的实例代码。如能在实战中融会贯通、灵活使用，必将使代码更为精炼、高效，同时也会极大提升代码B格，使之看上去更老练，读起来更优雅。

2019年11月中国大陆编程语言排行榜
2019年11月2日，我统计了某招聘网站，获得有效程序员招聘数据9万条。针对招聘信息，提取编程语言关键字，并统计如下： 编程语言比例 rank pl_ percentage 1 java 33.62% 2 cpp 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7 p...

Python 编程实用技巧
Python是一门很灵活的语言，也有很多实用的方法，有时候实现一个功能可以用多种方法实现，我这里总结了一些常用的方法，并会持续更新。
“狗屁不通文章生成器”登顶GitHub热榜，分分钟写出万字形式主义大作

IT界知名的程序员曾说：对于那些月薪三万以下，自称IT工程师的码农们，其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居，但只是他们一厢情愿罢了。 此话一出，不知激起了多少(码农)程序员的愤怒，却又无可奈何，于是码农问程序员。 码农：你知道get和post请求到底有什么区别？ 程序员：你看这篇就知道了。 码农：你月薪三万了？ 程序员：嗯。 码农：你是怎么做到的? 程序员：
"狗屁不通文章生成器"登顶GitHub热榜，分分钟写出万字形式主义大作