Tensorflow用自己的图片做数据集做识别,无法feed数据,跪求大神帮助! 20C

使用tensorflow识别我自己的tfrecord文件时,在训练时无法feed数据,错误是placeholder那里,下面给出错误和我的代码,跪求大神帮助!!!
错误:

 Traceback (most recent call last):
  File "/Users/hanjiarong/PycharmProjects/sample5/main.py", line 206, in <module>
    session.run(opti, feed_dict={x: session.run(batch_image), y: session.run(batch_label), keep_drop: dropout})
  File "/anaconda3/envs/tensorflow/lib/python3.6/site-packages/tensorflow/python/client/session.py", line 905, in run
    run_metadata_ptr)
  File "/anaconda3/envs/tensorflow/lib/python3.6/site-packages/tensorflow/python/client/session.py", line 1113, in _run
    str(subfeed_t.get_shape())))
ValueError: Cannot feed value of shape (1, 227, 227, 3) for Tensor 'Placeholder:0', which has shape '(154587, ?)'

下面是我的代码:

 import tensorflow as tf
from encode_to_tfrecords import create_record, create_test_record,  read_and_decode, get_batch, get_test_batch

n_input = 154587
n_classes = 3
dropout = 0.5
x = tf.placeholder(tf.float32, [None, n_input])
y = tf.placeholder(tf.int32, [None, n_classes])
keep_drop = tf.placeholder(tf.float32)

class network(object):

    def inference(self, images,keep_drop):
    ####################################################################################################################
        # 向量转为矩阵

        #  images = tf.reshape(images, shape=[-1, 39,39, 3])

        images = tf.reshape(images, shape=[-1, 227, 227, 3])  # [batch, in_height, in_width, in_channels]

        images = (tf.cast(images, tf.float32) / 255. - 0.5) * 2  # 归一化处理
    ####################################################################################################################

        # 第一层  定义卷积偏置和下采样

        conv1 = tf.nn.bias_add(tf.nn.conv2d(images, self.weights['conv1'], strides=[1, 4, 4, 1], padding='VALID'),
                               self.biases['conv1'])

        relu1 = tf.nn.relu(conv1)

        pool1 = tf.nn.max_pool(relu1, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='VALID')

        # 第二层

        conv2 = tf.nn.bias_add(tf.nn.conv2d(pool1, self.weights['conv2'], strides=[1, 1, 1, 1], padding='SAME'),
                               self.biases['conv2'])

        relu2 = tf.nn.relu(conv2)

        pool2 = tf.nn.max_pool(relu2, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='VALID')

        # 第三层

        conv3 = tf.nn.bias_add(tf.nn.conv2d(pool2, self.weights['conv3'], strides=[1, 1, 1, 1], padding='SAME'),
                               self.biases['conv3'])

        relu3 = tf.nn.relu(conv3)

        #  pool3=tf.nn.max_pool(relu3, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID')

        conv4 = tf.nn.bias_add(tf.nn.conv2d(relu3, self.weights['conv4'], strides=[1, 1, 1, 1], padding='SAME'),
                               self.biases['conv4'])

        relu4 = tf.nn.relu(conv4)

        conv5 = tf.nn.bias_add(tf.nn.conv2d(relu4, self.weights['conv5'], strides=[1, 1, 1, 1], padding='SAME'),
                               self.biases['conv5'])

        relu5 = tf.nn.relu(conv5)

        pool5 = tf.nn.max_pool(relu5, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='VALID')

        # 全连接层1,先把特征图转为向量

        flatten = tf.reshape(pool5, [-1, self.weights['fc1'].get_shape().as_list()[0]])
        # dropout比率选用0.5

        drop1 = tf.nn.dropout(flatten, keep_drop)

        fc1 = tf.matmul(drop1, self.weights['fc1']) + self.biases['fc1']

        fc_relu1 = tf.nn.relu(fc1)

        fc2 = tf.matmul(fc_relu1, self.weights['fc2']) + self.biases['fc2']

        fc_relu2 = tf.nn.relu(fc2)

        fc3 = tf.matmul(fc_relu2, self.weights['fc3']) + self.biases['fc3']

        return fc3

    def __init__(self):
        # 初始化权值和偏置

        with tf.variable_scope("weights"):
            self.weights = {

                # 39*39*3->36*36*20->18*18*20

                'conv1': tf.get_variable('conv1', [11, 11, 3, 96],
                                         initializer=tf.contrib.layers.xavier_initializer_conv2d()),

                # 18*18*20->16*16*40->8*8*40

                'conv2': tf.get_variable('conv2', [5, 5, 96, 256],
                                         initializer=tf.contrib.layers.xavier_initializer_conv2d()),

                # 8*8*40->6*6*60->3*3*60

                'conv3': tf.get_variable('conv3', [3, 3, 256, 384],
                                         initializer=tf.contrib.layers.xavier_initializer_conv2d()),

                # 3*3*60->120

                'conv4': tf.get_variable('conv4', [3, 3, 384, 384],
                                         initializer=tf.contrib.layers.xavier_initializer_conv2d()),

                'conv5': tf.get_variable('conv5', [3, 3, 384, 256],
                                         initializer=tf.contrib.layers.xavier_initializer_conv2d()),

                'fc1': tf.get_variable('fc1', [6 * 6 * 256, 4096], initializer=tf.contrib.layers.xavier_initializer()),

                'fc2': tf.get_variable('fc2', [4096, 4096], initializer=tf.contrib.layers.xavier_initializer()),

                'fc3': tf.get_variable('fc3', [4096, 1000], initializer=tf.contrib.layers.xavier_initializer()),

            }

        with tf.variable_scope("biases"):
            self.biases = {

                'conv1': tf.get_variable('conv1', [96, ],
                                         initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

                'conv2': tf.get_variable('conv2', [256, ],
                                         initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

                'conv3': tf.get_variable('conv3', [384, ],
                                         initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

                'conv4': tf.get_variable('conv4', [384, ],
                                         initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

                'conv5': tf.get_variable('conv5', [256, ],
                                         initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

                'fc1': tf.get_variable('fc1', [4096, ],
                                       initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

                'fc2': tf.get_variable('fc2', [4096, ],
                                       initializer=tf.constant_initializer(value=0.1, dtype=tf.float32)),

                'fc3': tf.get_variable('fc3', [1000, ], initializer=tf.constant_initializer(value=0.1, dtype=tf.float32))

            }

    # 计算softmax交叉熵损失函数

    def sorfmax_loss(self, predicts, labels):
        predicts = tf.nn.softmax(predicts)

        labels = tf.one_hot(labels, self.weights['fc3'].get_shape().as_list()[1])

        loss = tf.nn.softmax_cross_entropy_with_logits(logits=predicts, labels=labels)

        #  loss =-tf.reduce_mean(labels * tf.log(predicts))# tf.nn.softmax_cross_entropy_with_logits(predicts, labels)

        self.cost = loss

        return self.cost

        # 梯度下降

    def optimer(self, loss, lr=0.01):
        train_optimizer = tf.train.GradientDescentOptimizer(lr).minimize(loss)

        return train_optimizer

        #定义训练
    # def train(self):
create_record('/Users/hanjiarong/Documents/testdata/tfrtrain')
# image, label = read_and_decode('train.tfrecords')
# batch_image, batch_label = get_batch(image, label, 30)

#连接网络 网络训练
net = network()
inf = net.inference(x, dropout)
loss = net.sorfmax_loss(inf,y)
opti = net.optimer(loss)
correct_pred = tf.equal(tf.argmax(inf, 1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

# #定义测试
create_test_record('/Users/hanjiarong/Documents/testdata/tfrtest')
# image_t, label_t = read_and_decode('test.tfrecords')
# batch_test_image, batch_test_label = get_test_batch(image_t, label_t, 50)
#
# #生成测试
image, label = read_and_decode('train.tfrecords')
batch_image, batch_label = get_batch(image, label, 1)

# val, l = session.run([batch_image, batch_label])
# print(val.shape, l)


with tf.Session() as session:
    init = tf.initialize_all_variables()
    session.run(init)
    coord = tf.train.Coordinator()
    threads = tf.train.start_queue_runners(coord=coord)
    max_iter = 100000
    iter = 1
    print("begin1")
    while iter * 30 < max_iter:
        # loss_np, _, label_np, image_np, inf_np = session.run([loss, opti, batch_label, batch_image, inf])
        session.run(opti, feed_dict={x: session.run(batch_image), y: session.run(batch_label), keep_drop: dropout})
        print("begin6")
        if iter % 10 == 0:
            loss, acc = session.run([loss, accuracy], feed_dict={x: batch_image, y: batch_label, keep_drop: 1.})
            print("Iter " + str(iter * 30) + ", Minibatch Loss= " + \
                  "{:.6f}".format(loss) + ", Training Accuracy= " + "{:.5f}".format(acc))
        iter += 1
        print("Optimization Finished!")
        image, label = read_and_decode('test.tfrecords')
        batch_test_image, batch_test_label = get_batch(image, label, 2)
        img_test, lab_test = session.run([batch_test_image, batch_test_label])
        test_accuracy = session.run(accuracy,
                                    feed_dict={x: img_test, y: lab_test, keep_drop: 1.})
        print("Testing Accuracy:", test_accuracy)
















0

1个回答

0
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Tensorflow之构建自己的图片数据集TFrecords(精)
用了这么久的tensorflow,例子跑了N多便,基本流程是清楚了。但是自己独立做一个小例子各种问题都来了。如自己图片数据集怎么做?说句老实话,tensorflow真是烦,管方文档教程上老拿MNIST和cifar_10这种做好的数据集说事,对于我们这些初学者,完全不知道图片该如何输入。今天给大家分享我的Tensorflow制作数据集的学习历程。 流程是:制作数据集—读取数据集—-加入队列
完整实现利用tensorflow训练自己的图片数据集
经过差不多一个礼拜的时间的学习,终于把完整的一个利用自己爬取的图片做训练数据集的卷积神经网络的实现(基于tensorflow) 目录 总体思路 第三部分:预处理 第四部分:网络模型 第五部分:训练 2019.4.22更新 第六部分:测试 特别说明 2019.1补充说明,针对评论区的几个问题做了一些改进和更新 1、训练集和测试集的划分问题 关于训练集和测试集的...
用自己的图片数据做tensorflow深度学习
   应老师的任务需要我加入了深度学习的行列,接触了一段时间,下面对自己的学习做一个总结。刚开始学习深度学习tensorflow,网上大多的教程都是用他们已有的数据来学习tensorflow,像mnist数据,cifar10数据,说实话这对于我这种小白来说用处不大,例子程序跑了几篇对于它的运行方式还是模模糊糊的,前一段时间在网上找到一个用猫狗图片数据做自己的深度学习的视频系列,感觉蛮有用的,这是链...
利用tensorflow训练自己的图片数据集——数据准备
昨天实现了一个简单的CNN网络。用了MNIST数据集,虽然看来对这个数据集用的很多,但是真正这个数据集是怎么在训练的时候被调用的,以及怎么把它换成自己的数据集都是一脸懵。 直接附上链接:MNIST数据集解析 作者给的代码是python2.x版本的,我用的python3.5,改了一些错误。 import numpy as np import struct import os import m...
使用TensorFlow object_detection API训练自己的数据集合,实现多目标检测
做了一个实现,想试试tensorflow框架下的ssd目标检测过程,查阅了资料,在cpu模式下使用自己的数据集合完成了一个完整流程实验:1.数据集合标定,使用网络资源labelimg工具完成标定,生成xml文件2.把标定的数据按照4:1分为训练集合、验证集合3.把标定的xml文件转为tensorflow要求的格式,csv格式(是个表格,记录的图像路径,和目标区域位置)4.把csv格式转换为tf格式...
详解tensorflow训练自己的数据集实现CNN图像分类
     出处: https://www.jb51.net/article/134623.htm利用卷积神经网络训练图像数据分为以下几个步骤1.读取图片文件2.产生用于训练的批次3.定义训练的模型(包括初始化参数,卷积、池化层等参数、网络)4.训练1 读取图片文件 def get_files(filename): class_train = [] label_train = [] for t...
使用自己的图片测试MNIST训练效果(TensorFlow1.5+CNN)
作为初学者研究了两周的TensorFlow基础的东西。首先是MNIST数据集在CNN的训练。中间经历了很多问题。现在TensorFlow的版本已经更新到1.5,出了很多高级API,所以很多博客都不再合适了。基于TensorFlow+anaconda在CNN训练MNIST之后,关于保存模型以及重新载入先关模型参数又折腾了一阵。原来老版本的方法,就是中文社区的MNIST训练之后使用保存数据,预测结果很...
MOOC笔记——用Tensorflow制作数据集
tfrecords文件的简介: tfrecords是一种二进制文件,可以将图片和标签制作成该格式的文件。使用tfrecords进行数据读取,会提高内存利用率。 存储训练数据的方法: 使用tf.train.Example()存储,训练数据的特征用键值对的形式表示,例如: 'img_raw': (图片)值 'label': 标签值(值是Bytelist/Floatlist/I...
待完成任务(一) 利用自己的数据集 利用lenet网络进行训练
硬件问题,使用imagenet报内存溢出,只能先用lenet进行学习,本文的主要目的是利用自己的图像库,将图库裁剪成32*32大小,然后利用lenet网络进行训练。
TensorFlow 制作自己的TFRecord数据集
TensorFlow(二)制作自己的TFRecord数据集 读取、显示及代码详解:在跑通了官网的mnist和cifar10数据之后,笔者尝试着制作自己的数据集,并保存,读入,显示。 TensorFlow可以支持cifar10的数据格式, 也提供了标准的TFRecord 格式,而关于 tensorflow 读取数据, 官网提供了3中方法1 Feeding: 在tenso...
使用自己的数据集训练MobileNet、ResNet实现图像分类(TensorFlow)
使用自己的数据集训练MobileNet、ResNet实现图像分类(TensorFlow) 之前鄙人写了一篇博客《使用自己的数据集训练GoogLenet InceptionNet V1 V2 V3模型(TensorFlow)》https://panjinquan.blog.csdn.net/article/details/81560537,本博客就是此博客的框架基础上,完成对MobileNet的图...
tensorflow 学习:用CNN进行图像分类
tensorflow 学习:用CNN进行图像分类
tensorflow如何制作自己的数据集
用了这么久的tensorflow,例子跑了N多便,基本流程是清楚了。但是自己独立做一个小例子各种问题都来了。如自己图片数据集怎么做?说句老实话,tensorflow真是烦,管方文档教程上老拿MNIST和cifar_10这种做好的数据集说事,对于我们这些初学者,完全不知道图片该如何输入。今天给大家分享我的Tensorflow制作数据集的学习历程。  流程是:制作数据集—读取数据集—-加入队列 
使用tensorflow训练自己的数据集(二)——定义神经网络
使用tensorflow训练自己的数据集—定义神经网络 上一篇使用tensorflow训练自己的数据集(一)中制作已经介绍了制作自己的数据集、接下来就是定义向前传播过程了也就是定义神经网络。本次使用了两层卷积两层最大池化两层全连接神经网络最后加softmax层的经典卷积神经网络结构。 import tensorflow as tf # 配置参数 # 图片size IMAGE_SIZE = 128 ...
TensorFlow读取自己数据集的几个小方法
不得不说TensorFlow读取数据很不方便,-。-,官方给的tutorials看完后并没什么用。。自己总结了两种可行的方法,用自己的数据集来测试。1. mat -> ndarray数据处理经常用到matlab,matlab中数据保存格式常为.mat,因此首先提供一份从mat转到ndarray的代码.#读取.mat格式数据 #.mat 中包含trainFeatures矩阵 import tensor
Tensorflow深度学习入门——自制数据集
python 将自己的图片数据集制作成tensorflow可读取的数据集文件*.cvs 这里假设你已经有了样本图片数据集,而且正样本和负样本已经分好类了 说明下制作正样本数据集*.csv的过程,负样本数据集的制作也同样 import os,os.path import shutil,string dir = “F:\Python27\work\deal-file\pos” outdir = “po...
图像识别——通过tensorflow利用自己的图片数据训练模型——Fine-tuning a model from an existing checkpoint
本文是基于windows系统,并主要参考:https://github.com/tensorflow/models/tree/master/research/slim。 要完成自己图片的识别必须使用整个slim文件夹 slim下载链接,先需要下载整个模型包,然后在里面找到slim文件夹: 一、对于官方提供的flower数据集进行图像识别 以下所有程序都在slim文件夹下进行 1. 首先用...
tensorflow 用于实现图片分类数据集
tensorflow用于实现图片分类,这个是简单的一个数据集案列。用于完成图片的分类。
Tensorflow深度学习入门(6)——自制数据集
Tensorflow深度学习入门——自制数据集 python 将自己的图片数据集制作成tensorflow可读取的数据集文件*.cvs 这里假设你已经有了样本图片数据集,而且正样本和负样本已经分好类了 说明下制作正样本数据集*.csv的过程,负样本数据集的制作也同样 import os,os.path import shutil,string d...
Tensorflow 用自己图片制作数据集 仿cifar10(二)
本系列文章由 @yhl_leo 出品,转载请注明出处。  文章链接: http://blog.csdn.net/yhl_leo/article/details/50801226  前一篇博客:C/C++ 图像二进制存储与读取中,已经讲解了如何利用C/C++的方法存储与读取二进制图像文件,本文继续讲述如何根据CIFAR-10的格式制作自己的数据集。 所述博文与代码均已同
手把手教你用tensorflow-hub做图像分类(自己的训练数据集)
很多人入门tensorflow时,都会做mnist,cifar10的分类实例,但无法用自己的训练集做分类,本教程用tfhub工具完成图像分类的训练和测试。1. 安装tensorflow和tfhub$ pip install &quot;tensorflow&amp;gt;=1.7.0&quot; $ pip install tensorflow-hub你需要安装最新的tensorflow 1.7版本,并安装hub,因为hub...
使用tensorflow训练自己的数据集(一)——制作数据集
使用tensorflow训练自己的数据集(一) 想记录一下自己制作训练集并训练的过、希望踩过的坑能帮助后面入坑的人。 本次使用的训练集的是kaggle中经典的猫狗大战数据集(提取码:ufz5)。因为本人笔记本配置很差还不是N卡所以把train的数据分成了训练集和测试集并没有使用原数据集中的test。 代码注释还挺清楚就直接上代码了。 import os import tensorflow as ...
使用lenet模型训练及预测自己的图片数据
一、前言 本文主要尝试将自己的数据集制作成lmdb格式,送进lenet-5作训练和测试,参考了http://blog.csdn.net/liuweizj12/article/details/52149743和http://blog.csdn.net/xiaoxiao_huitailang/article/details/51361036这两篇博文 二、从训练模型到使用模型预测图片分类 (1)
Tensorflow关于feed的问题
feed可以分成两种:一种是给占位符喂值,另外一种给模型中的变量喂值。 下面的代码就是第二种情况,可以看出,虽然模型初始化变量b为2,但是当我feed_dict={b:1}时,a+b结果为2,而不是3。 import tensorflow as tfa = tf.Variable(1) b = tf.Variable(2)sum = a+b init = tf.global_variables_i
tensorflow入门教程(五)CIFAR-10图像识别(中)
# #作者:韦访 #博客:https://blog.csdn.net/rookie_wei #微信:1007895847 #添加微信的备注一下是CSDN的 #欢迎大家一起学习 # 5、数据增强 5.1、简介 问题:深度学习中通常会要求数量很大的训练样本,一般来说,样本数量越多,训练效果越好,但是这么庞大的样本的收集整理是很大的工程。 依据:如果对一张图像进行简单的平移、翻转、缩放、颜色变换...
用FCN训练自己数据集(Tensorflow)
用FCN训练自己数据集
tensorflow的 图片数据集创建和读取
  TensorFlow是Google开源的深度学习框架。可以通过大量打过标签的数据的feed,来生成对同类事物的识别做用。 当然数据量少的话 就只能当一个分类器了。    TensorFlow 也是一个熊弟介绍给我的, 当时说好了一起搞这东西,但是最后只剩我一个人在摸索了(有老婆的人,嗯~ 还是坑啊)     # -*- coding: utf-8 -*- import os im...
如何制作自己的图片数据集-基于tensorflow
写在开始
Tensorflow学习笔记:用minst数据集训练卷积神经网络并用训练后的模型测试自己的BMP图片
(1)mnist_test_conv.py代码如下 #! /usr/bin/env python2 # -*- coding: utf-8 -*- ''' 构造一个卷积神经网络来训练mnist: 输入层: 784个输入节点 两个卷积层(每个都具有一个卷积和Pooling操作): 卷积操作:步长为1,边距为0,filter: 5x5 Pooling(池化): 采用maxpooing, 2x2
TensorFlow详解猫狗识别(一)--读取自己的数据集
数据集下载 链接: https://pan.baidu.com/s/1SlNAPf3NbgPyf93XluM7Fg 密码: hpn4 数据集分别有12500张cat,12500张dog 读取数据集 数据集的读取,查阅了那么多文档,大致了解到,数据集的读取方法大概会分为两种 1、先生成图片list,和标签list,把图片名称和标签对应起来,再读取制作迭代器(个人认为此方法一般用在,图片名称...
用CNN用来对自己的数据集分类
这个CNN工具箱只用改一两个地方就可以对自己的数据集分类了 比github上的deeplearning的工具箱里的CNN改动要简单
手势识别+tfrecods数据集的制作
实验所需要的环境: tensorflow-0.10 python-opencv Image   ubuntu14.4 本实验的数据集是点击打开链接微云 其中包括9种手势,部分形式见下面的图,如果连接失效,可以向我索要。 单通道的图片,但是写代码的时候差异不大。 文件的存放位置如下: 制作TFRecords时, # coding: UTF-8 import
yoloV3 Tensorflow版训练自己数据集
yoloV3 Tensorflow版训练自己数据集终于有人放出了 yoloV3 Tensorflow 版本项目结构简单测试训练数据集功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你...
Keras+Tensorflow+yolov3训练自己的遥感数据集
转载:https://blog.csdn.net/Patrick_Lxc/article/details/80615433(解释的很详细啦) https://blog.csdn.net/lilai619/article/details/79695109(主要看yolov3.cfg中的问题) https://blog.csdn.net/u012420309/article/details/799...
利用tensorflow训练自己的图片数据(1)——预处理
一. 准备原始数据 首先,我们需要准备训练的原始数据,本次训练为图像分类识别,因而一开始,笔者从网上随机的下载了Dog的四种类别:husky,jiwawa,poodle,qiutian。每种类别30种,一共120张图片。在训练之前,需要做的就是进行图像的预处理,即将这些大小不一的原始图片转换成我们训练需要的shape。 下载的原始图片分别放到同一文件的不同文件夹下,如: 二. 编程实现
tensorflow制作自己的图像数据集并训练
利用tensorflow制作自己的图像数据集并训练。现有代码,含详细的注释。能直接使用。并包含了4中原始图像:车,狗,脸,花,
TensorFlow-Slim准备自己的数据集
TF-slim是一个新的TensorFlow轻量级高级API,可以用来搭建、训练和验证网络模型,最近由于项目需要,在学习使用该库。dataset库中包含下载标准数据集的代码,下面介绍如何在标准代码的基础上准备自己的数据进行训练。 1. 准备自己的数据 将要训练和测试的数据分别放在train和test文件夹下,文件夹下是以标签名命名的各子类数据,如下图所示 2.在datasets下创建...
windows下使用自己制作的数据集训练faster-rcnn(tensorflow版)用于目标检测
步骤一 下载配置windows下tensorflow版faster-rcnn,参考博客: windows10下运行tensorflow版的faster-Rcnn 步骤二 制作自己的数据集参考博客:http://blog.csdn.net/u011574296/article/details/78953681 步骤三 用你的Annotations,ImagesSets和JPEGIm
tensorflow项目——使用object detection api训练自己的数据集并进行物体检测(object detection)
##  tensorflow项目学习(1)——训练自己的数据集并进行物体检测(object detection) * https://blog.csdn.net/qq_37423198/article/details/79238028 config更改下类别##  深度学习入门篇--手把手教你用 TensorFlow 训练模型* https://www.cnblogs.com/qcloud1001...
用tensorflow训练自己的图片集-用TFRecords将代码导入神经网络
之前用过Alexnet,vggnet都成功地跑了cifar-10的数据集,现在想要训练自己的数据。第一个难点就是mnist和cifar10都是已经打好标签压缩好的图片集,用一条命令就能将img和label读出并使用。而训练自己的图像需要自己打上标签并传入神经网络。被困在这里两天多,今天终于搞懂了,其实使用TFRecords很简单。
文章热词 机器学习教程 Objective-C培训 交互设计视频教程 颜色模型 设计制作学习
相关热词 mysql关联查询两次本表 native底部 react extjs glyph 图标 用python做深度学习 机器学习用java做平台

相似问题

2
神经网络训练和测试用的图片输入大小不一?
0
bp神经网络使用的数据集应该怎么去处理啊,谢谢大家
1
如何使用自己的数据集
0
tensorflow训练过程权重不更新,loss不下降,输出保持不变,只有bias在非常缓慢地变化?
1
针对CNN分类识别的问题,用已训练好的网络去识别另一组数据,识别率为0,详细如下请大神解答,真心急急急
1
针对CNN分类识别的问题,用已训练好的网络去识别另一组数据,识别率为0,详细如下请大神解答,真心急急急
1
如何用keras对两组数据用相同的网络进行训练并且画在一个acc-loss图?
1
深度学习视频识别数据集制作(需源码)
0
用keras做图像2分类,结果总是所有test样本归为其中一类?
0
caffe-用siamese跑自己的数据
0
修改的SSD—Tensorflow 版本在训练的时候遇到loss输入维度不一致
1
Segnet网络用keras实现的时候报错ValueError,求大神帮忙看看
1
opencv默认的hog描述子只能操作64*128的图片吗
0
用命令行训练基于TensorFlow的cifar10,为什么这样子报错?
1
用TensorFlow 训练mask rcnn时,总是在执行训练语句时报错,进行不下去了,求大神
2
如何将opencv中LBP 与 hog 特征融合到一起训练生成模型,通过模型查找图片中的物体并框出来
0
ENVI大气校正机载高光谱数据报错IDL error:ACC_AUTOCHAN:No water absorption channells selected
1
TensorFlow SSD训练自己的数据 checkpoint问题
1
TensorFlow SSD训练自己的数据 checkpoint问题
0
请问用matlab打f=[(k/c)*(v/c)^(k-1)]*exp[-(v/c)^k]这个公式该怎么打 大佬们能否告知我一下代码