mnist可视化时的FileNotFoundError错误 80C

import keras
import numpy as np
from keras.datasets import mnist
from keras.models import load_model
from matplotlib import pyplot as plt

from keras.models import Sequential,Model
from keras.layers import Dense,Dropout,Flatten,Activation,Input
from keras.layers import Conv2D,MaxPooling2D

from vis.visualization import visualize_saliency
from vis.utils import utils
from keras import activations

#加载数据及定义格式
batch_size = 128
num_classes = 10
epochs = 5

img_rows, img_cols = 28, 28

(x_train, y_train), (x_test, y_test) = mnist.load_data()

x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1)
x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1)
input_shape = (img_rows, img_cols, 1)

x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
x_train /= 255
x_test /= 255
print('x_train shape:', x_train.shape)
print(x_train.shape[0], 'train samples')
print(x_test.shape[0], 'test samples')

y_train = keras.utils.to_categorical(y_train, num_classes)
y_test = keras.utils.to_categorical(y_test, num_classes)

#建立DNN模型
model = Sequential()
model.add(Conv2D(32, kernel_size=(3, 3),
activation='relu',
input_shape=input_shape))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(num_classes, activation='softmax', name='preds'))

model.compile(loss=keras.losses.categorical_crossentropy,
optimizer=keras.optimizers.Adam(),
metrics=['accuracy'])

model.fit(x_train, y_train,
batch_size=batch_size,
epochs=epochs,
verbose=1,
validation_data=(x_test, y_test))

#开始显著图的可视化(saliency visualization)
#找出第一张手写体0的下标
class_idx=0
indices=np.where(y_test[:,class_idx]==1.)[0]
idx=indices[0]
#找出名字叫preds的layer,并返回它的下标
layer_idx=utils.find_layer_idx(model,'preds')

#将找到对应下标的layer的activation从softmax变成linear
model.layers[layer_idx].activation=activations.linear
model = utils.apply_modifications(model)

#求出x_test中属于某类的某个特定图像在某个layer的heatmap
for modifier in ['guided','relu']:
grads=visualize_saliency(model,layer_idx,filter_indices=class_idx,seed_input=x_test[idx],backprop_modifier=modifier)
plt.figure()
plt.title(modifier)
#以'jet'colormap的方式可视化一张heatmap
plt.imshow(grads, cmap='jet')

    报错:
    执行到model = utils.apply_modifications(model)时报错
    错误:FileNotFoundError: [WinError 3] 系统找不到指定的路径。: '/tmp/cv86obbj.h5'

1个回答

你的运行平台是Linux吗?如果是是否Authorize root去执行的程序?如果没有那肯定会包那个错,因为apply_modifications接口会自动创建一个临时文件去保存修改,但是通常这个临时文件的路径都是需要管理员权限才可访问的地方,所以解决方法有两个:
1. 以管理员权限执行程序
2. 设置tempfile.tempdir的值为一个不用管理员权限才可访问的路径,或者设置TMPDIR,TEMP,TMP其中任何一个环境变量即可。

pdl123fgh
pdl123fgh 回复weixin_38420945: 我也是这个错误,请问你解决了吗?
7 天之前 回复
yxhlfx
双林子木 还是报错?还是报文件不存在?
2 年多之前 回复
weixin_38420945
weixin_38420945 我是win10的系统,然后按照您的意见改变了路径,把路径转到了D盘下,但还是报错
2 年多之前 回复
weixin_38420945
weixin_38420945 def apply_mod(model,custom_objects=None): #导入包 import os import tempfile from keras.models import load_model #正式执行文件 print(tempfile._get_candidate_names()) model_path=os.path.join('D:/软件集合/Keras Code/T技术类文件/显著图saliency map/temp',next(tempfile._get_candidate_names())+'.h5') print(model_path) try: model.save(model_path) print(model_path) return load_model(model_path,custom_objects=custom_objects) finally: os.remove(model_path)
2 年多之前 回复
weixin_38420945
weixin_38420945 from keras.models import load_model from vis.utils import utils from keras import activations model=load_model('model.h5') layer_idx=utils.find_layer_idx(model,'preds') model.layers[layer_idx].activation=activations.linear #model = utils.apply_modifications(model) from apply_mod import apply_mod model=apply_mod(model)
2 年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
有大神知道如何用t-SNE可视化图片的分类问题吗?不是MNIST数据集,是自己训练的图片,求告知,谢谢!!!

有大神知道如何用t-SNE可视化图片的分类问题吗?不是MNIST数据集,是自己训练的图片,求告知,谢谢!!!

tensorflow CNN如何将卷积核的patten可视化?或者已经训练好的计算图中的变量可以固定吗?

如题,完成了mnist的数据集上的一些CNN学习后 我想将了解模型的“认知”:有两个想法: 1,图形化展示卷积核的patten? 尝试将一副全白或者全黑的图送入计算图,查看每一层的输出,MS没展示什么有意思的patten 请教:如何做更好呢? 2,是否可以将saverload到的模型将其w,b固定,然后将28x28像素做成变量用训练器训练像素的值,目标onehot的某数字比如2 以便展示CNN认知的2是什么样的。我相信应该是可以做的,只不过我对TF不够熟悉, 请教该如何实现? 附图,已经做了web服务+H5的mnist demo ![图片说明](https://img-ask.csdn.net/upload/201711/17/1510900832_665424.png)

Mnist数据集中通过灰度归一化处理反锯齿问题

The resulting images contain grey levels as a result of the anti-aliasing technique used by the normalization algorithm. the images were centered in a 28x28 image by computing the center of mass of the pixels, and translating the image so as to position this point at the center of the 28x28 field. 这是官网给的文档,请问The resulting images contain grey levels as a result of the anti-aliasing technique used by the normalization algorithm是什么操作,通过灰度归一化而达到反锯齿的效果,有没有大神解释解释,这是个什么算法?我想尽可能了解Mnist数据的来源,因为项目需要

在进行MNIST手写体数字识别时,如何提取测试集中所有识别错误的图片?

在进行MNIST手写体数字识别时,如何提取测试集中所有识别错误的图片?

用caffe做mnist训练测试时出错,怎么改都不行,见图,求解。

![图片说明](https://img-ask.csdn.net/upload/201608/04/1470293682_157374.png)

用Python实现MNIST字体识别语法错误

您好,我安装的是Python3.7,但我觉得TensorFlow官网上给的示例不是3.7版本的,导致我最后一行语法错误,想问一下:该怎么修改呢? 错误信息如下: ![图片说明](https://img-ask.csdn.net/upload/202005/06/1588742356_424560.png) 代码如下: ``` import tensorflow as tf tf.compat.v1.disable_eager_execution() x = tf.placeholder("float", [None, 784]) W = tf.Variable(tf.zeros([784,10])) b = tf.Variable(tf.zeros([10])) y = tf.nn.softmax(tf.matmul(x,W) + b) y_ = tf.placeholder("float", [None,10]) cross_entropy = -tf.reduce_sum(y_*tf.log(y)) train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) init = tf.initialize_all_variables() sess = tf.compat.v1.Session() sess.run(init) for i in range(1000): batch_xs, batch_ys = mnist.train.next_batch(100) sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys}) correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) print sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}) ``` 谢谢!

tensorboard 可视化时 embedding中没有数据怎么回事?

``` import tensorflow as tf import tensorflow.examples.tutorials.mnist.input_data as input_data from tensorflow.contrib.tensorboard.plugins import projector mnist=input_data.read_data_sets('mnist_data/', one_hot=True) tf.reset_default_graph() max_step=1001 image_num=3000 DIR="D:/Jupyter" sess=tf.Session() embedding=tf.Variable(tf.stack(mnist.test.images[:image_num]),trainable=False,name="embedding") def variable_sumaries(var): with tf.name_scope("sumaries"): mean=tf.reduce_mean(var) tf.summary.scalar("mean",mean) with tf.name_scope("stddev"): stddev=tf.sqrt(tf.reduce_mean(mean-var)) tf.summary.scalar("stddev",stddev) tf.summary.scalar("max",tf.reduce_max(var)) tf.summary.scalar("min",tf.reduce_min(var)) tf.summary.histogram("histogram",var) with tf.name_scope("input"): x = tf.placeholder(tf.float32, [None, 784],name="x-input") y = tf.placeholder(tf.float32, [None,10],name="y-input") with tf.name_scope("input_reshape"): image_reshape_input=tf.reshape(x,shape=[-1,28,28,1]) tf.summary.image("input",image_reshape_input,10) with tf.name_scope("layer"): with tf.name_scope("weights"): W = tf.Variable(tf.zeros([784,10]),tf.float32,name="W") variable_sumaries(W) with tf.name_scope("biases"): b= tf.Variable(tf.zeros([10]),tf.float32,name="b") variable_sumaries(b) with tf.name_scope("wx_plus_b"): wx_plus_b=tf.matmul(x,W)+b with tf.name_scope("softmax"): softmax=tf.nn.softmax(wx_plus_b) sess.run(tf.global_variables_initializer()) with tf.name_scope("loss"): loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(labels=y,logits=softmax)) tf.summary.scalar("loss",loss) with tf.name_scope("train"): train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss) with tf.name_scope("accuracy"): with tf.name_scope("correct_prediction"): correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(softmax,1)) with tf.name_scope("accuracy"): accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) tf.summary.scalar("accuracy",accuracy) if tf.gfile.Exists(DIR+"/projector/projector/metadata.csv"): tf.gfile.DeleteRecursively(DIR+"/projector/projector/metadata.csv") with open(DIR+"/projector/projector/metadata.csv","w") as f: lables= sess.run(tf.argmax(mnist.test.labels[:],1)) for i in range(image_num): f.write(str(lables[i])+'\n') merged=tf.summary.merge_all() projector_writer=tf.summary.FileWriter(DIR+"/projector/projector",sess.graph) saver=tf.train.Saver() config=projector.ProjectorConfig() embed=config.embeddings.add() embed.tensor_name=embedding.name embed.metadata_path=DIR+"/projector/projector/metadata.csv" embed.sprite.image_path=DIR+"/projector/data/mnist_spliter.png" embed.sprite.single_image_dim.extend([28,28]) projector.visualize_embeddings(projector_writer,config) for i in range(max_step): batch_xs, batch_ys = mnist.train.next_batch(100) run_options=tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE) run_metadata=tf.RunMetadata() summary, _ =sess.run([merged,train_step],feed_dict={x:batch_xs,y:batch_ys},options=run_options,run_metadata=run_metadata) projector_writer.add_run_metadata(run_metadata,'step %03d' % i) projector_writer.add_summary(summary,i) if i% 100==0: print(sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})) saver.save(sess, DIR+"/projector/projector/a_model.ckpt",global_step=max_step) projector_writer.close() sess.close() ``` ![图片说明](https://img-ask.csdn.net/upload/201803/09/1520567615_834707.jpg)

如何解决运行Caffe的MNIST的实例出现的指针问题

我是ubuntu系统。下载好mnist数据后,在转换为LMDB时出现问题。 运行指令:sudo sh examples/mnist/create_mnist.sh 出现这样的问题:*** Error in `build/examples/mnist/convert_mnist_data.bin': munmap_chunk(): invalid pointer: 0x0000000000fc6240 *** 去检查./examples/mnist/目录下,本应生成train和test两个文件夹,此时只有train而没有test。 从网上搜索发现大家都没出现这样的问题,出现这个问题都是在自己编写程序时指针声明和释放出错,但是这里为什么会报错呢。对于这样的错误怎么解决呢? 完整的信息如下: Creating lmdb... I1113 15:57:00.470358 4735 db_lmdb.cpp:35] Opened lmdb examples/mnist/mnist_train_lmdb I1113 15:57:00.470620 4735 convert_mnist_data.cpp:88] A total of 60000 items. I1113 15:57:00.470633 4735 convert_mnist_data.cpp:89] Rows: 28 Cols: 28 I1113 15:57:07.320497 4735 convert_mnist_data.cpp:108] Processed 60000 files. *** Error in `build/examples/mnist/convert_mnist_data.bin': munmap_chunk(): invalid pointer: 0x0000000000fc6240 *** ======= Backtrace: ========= /lib/x86_64-linux-gnu/libc.so.6(+0x777e5)[0x7f06569327e5] /lib/x86_64-linux-gnu/libc.so.6(cfree+0x1a8)[0x7f065693f698] /usr/lib/x86_64-linux-gnu/libprotobuf.so.9(_ZN6google8protobuf8internal28DestroyDefaultRepeatedFieldsEv+0x1f)[0x7f066094d8af] /usr/lib/x86_64-linux-gnu/libprotobuf.so.9(_ZN6google8protobuf23ShutdownProtobufLibraryEv+0x8b)[0x7f066094cb3b] /usr/lib/x86_64-linux-gnu/libmirprotobuf.so.3(+0x233b9)[0x7f062efc23b9] /lib64/ld-linux-x86-64.so.2(+0x10de7)[0x7f0667226de7] /lib/x86_64-linux-gnu/libc.so.6(+0x39ff8)[0x7f06568f4ff8] /lib/x86_64-linux-gnu/libc.so.6(+0x3a045)[0x7f06568f5045] /lib/x86_64-linux-gnu/libc.so.6(__libc_start_main+0xf7)[0x7f06568db837] build/examples/mnist/convert_mnist_data.bin[0x4025b9]

caffe 运行mnist实例出错

在使用Caffe运行mnist examples时报错,所有步骤都是按照网上步骤一步一步进行的,相当崩溃! 目前错误出现在最后一步,自己间了一个train_mnist_bat,写入 ..\..\Build\x64\Release\caffe.exe train--solver=../../examples/mnist/lenet_solver.prototxt Pause 后,双击运行,结果报错。错误如下: Unknown action: train--solver=../../examples/mnist/lenet_solver.prototxt 反复检查过路径这些,代码都是按照网上步骤撸的,就是报错训练不了,欲哭无泪啊。。。希望大神解答!DL小白跪谢!

如何使用matplotlib可视化此元学习过程中的损失函数?

# 问题描述: 新手题主看到了 https://github.com/ikostrikov/pytorch-meta-optimizer 中作者基于Pytorch实现Learning to learn by gradient descent by gradient descent 第二个MNIST实验的代码。 遗憾的是其只输出了每次训练后的损失函数值,并没有可视化训练过程中损失函数的变化。 **题主想得到原文中所示的最优损失函数的下降曲线** ![图片说明](https://img-ask.csdn.net/upload/202004/24/1587737332_926090.png) 使用matplotlib应该添加哪些代码呢? main.py文件如下: ``` import argparse import operator import sys import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim import matplotlib.pyplot as plt import numpy as np from data import get_batch from meta_optimizer import MetaModel, MetaOptimizer, FastMetaOptimizer from model import Model from torch.autograd import Variable from torchvision import datasets, transforms parser = argparse.ArgumentParser(description='PyTorch REINFORCE example') parser.add_argument('--batch_size', type=int, default=32, metavar='N', help='batch size (default: 32)') parser.add_argument('--optimizer_steps', type=int, default=100, metavar='N', help='number of meta optimizer steps (default: 100)') parser.add_argument('--truncated_bptt_step', type=int, default=20, metavar='N', help='step at which it truncates bptt (default: 20)') parser.add_argument('--updates_per_epoch', type=int, default=10, metavar='N', help='updates per epoch (default: 100)') parser.add_argument('--max_epoch', type=int, default=1000, metavar='N', help='number of epoch (default: 10000)') parser.add_argument('--hidden_size', type=int, default=10, metavar='N', help='hidden size of the meta optimizer (default: 10)') parser.add_argument('--num_layers', type=int, default=2, metavar='N', help='number of LSTM layers (default: 2)') parser.add_argument('--no-cuda', action='store_true', default=False, help='enables CUDA training') args = parser.parse_args() args.cuda = not args.no_cuda and torch.cuda.is_available() assert args.optimizer_steps % args.truncated_bptt_step == 0 kwargs = {'num_workers': 1, 'pin_memory': True} if args.cuda else {} train_loader = torch.utils.data.DataLoader( datasets.MNIST('../data', train=True, download=True, transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ])), batch_size=args.batch_size, shuffle=True, **kwargs) test_loader = torch.utils.data.DataLoader( datasets.MNIST('../data', train=False, transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ])), batch_size=args.batch_size, shuffle=True, **kwargs) def main(): # Create a meta optimizer that wraps a model into a meta model # to keep track of the meta updates. meta_model = Model() if args.cuda: meta_model.cuda() meta_optimizer = FastMetaOptimizer(MetaModel(meta_model), args.num_layers, args.hidden_size) if args.cuda: meta_optimizer.cuda() optimizer = optim.Adam(meta_optimizer.parameters(), lr=1e-3) for epoch in range(args.max_epoch): decrease_in_loss = 0.0 final_loss = 0.0 train_iter = iter(train_loader) for i in range(args.updates_per_epoch): # Sample a new model model = Model() if args.cuda: model.cuda() x, y = next(train_iter) if args.cuda: x, y = x.cuda(), y.cuda() x, y = Variable(x), Variable(y) # Compute initial loss of the model f_x = model(x) initial_loss = F.nll_loss(f_x, y) for k in range(args.optimizer_steps // args.truncated_bptt_step): # Keep states for truncated BPTT meta_optimizer.reset_lstm( keep_states=k > 0, model=model, use_cuda=args.cuda) loss_sum = 0 prev_loss = torch.zeros(1) if args.cuda: prev_loss = prev_loss.cuda() for j in range(args.truncated_bptt_step): x, y = next(train_iter) if args.cuda: x, y = x.cuda(), y.cuda() x, y = Variable(x), Variable(y) # First we need to compute the gradients of the model f_x = model(x) loss = F.nll_loss(f_x, y) model.zero_grad() loss.backward() # Perfom a meta update using gradients from model # and return the current meta model saved in the optimizer meta_model = meta_optimizer.meta_update(model, loss.data) # Compute a loss for a step the meta optimizer f_x = meta_model(x) loss = F.nll_loss(f_x, y) loss_sum += (loss - Variable(prev_loss)) prev_loss = loss.data # Update the parameters of the meta optimizer meta_optimizer.zero_grad() loss_sum.backward() for param in meta_optimizer.parameters(): param.grad.data.clamp_(-1, 1) optimizer.step() # Compute relative decrease in the loss function w.r.t initial # value decrease_in_loss += loss.item() / initial_loss.item() final_loss += loss.item() #plt.plot(final_loss,label='LSTM') #plt.yscale('log') #plt.title('Loss') #plt.pause(0.5) #plt.show() print("Epoch: {}, final loss {}, average final/initial loss ratio: {}".format(epoch, final_loss / args.updates_per_epoch, decrease_in_loss / args.updates_per_epoch)) if __name__ == "__main__": main() ```

用mnist测试集测精确度时程序出错!!!

![图片说明](https://img-ask.csdn.net/upload/201908/07/1565163131_795091.png) ![图片说明](https://img-ask.csdn.net/upload/201908/07/1565163440_488484.png) 神经网络在训练时,喂入的数据是mnist.train数据集,可以成功训练网络。但是,在用mnist.test数据集测试神经网络精确度时报错,如图所示。查了一下数据的类型,测试集和训练集的数据类型是一样的,为什么训练集可以喂入神经网络,测试集就不行呢?另外,也发现训练的神经网络对手写的数字识别基本不准。

用CGAN可以生成指定类别且质量不错的MNIST图像,但是将这些图像输入到预训练好的MNIST分类模型中准确率很低,请问这是什么原因?

我在MNIST上训练了CGAN,可以生成我认为质量很不错的图像,如下所示: ![图片说明](https://img-ask.csdn.net/upload/202004/26/1587893017_868256.png) 这些图像看起来也挺真实的,把他们喂入一个预训练好的MNIST分类模型(测试集上准确率达到98.5%)。某些类别的fake image能表现出90%以上的分类准确率(如1,5,7),而某些类别的分类准确率很低,只有个位数的准确率(如3,4,8)。 我的理解是某些类别生成的fake图像虽然看似真实,但是有一些潜在的特征与real image有差别。 想问下大家对于这个问题怎么看呀,救救孩子

制作自己的mnist数据集,但是CNN学习效率很低

我把28*28的mnist数据集resize成60*60的再压缩成gz文件去学习,学习效率一直很低。我知道有点蠢,但是就是找不到原因,请各位高手指点一下。谢谢! 主要改的cnn代码为: mnist = input_data.read_data_sets("MNIST_data/mnist60/", one_hot=True) pixel = 3600 row = 60 x = tf.placeholder("float",[None,pixel]) y_ = tf.placeholder("float", [None,10]) …… W_fc1 = weight_variable([15 * 15 * 64, 1024]) b_fc1 = bias_variable([1024]) h_pool2_flat = tf.reshape(h_pool2, [-1, 15 * 15 * 64]) 还有input_data.py文件中 def next_batch(self, batch_size, fake_data=False): """Return the next `batch_size` examples from this data set.""" if fake_data: fake_image = [1.0 for _ in xrange(3600)] fake_label = 0 return [fake_image for _ in xrange(batch_size)], [fake_label for _ in xrange(batch_size)] …… 多谢多谢~!

自己制作的类似Fashion-MNIST数据集,怎么使用

在做想关项目,因为需要自己的数据集,因此我按照要求做了一个,如下 ![图片说明](https://img-ask.csdn.net/upload/201911/27/1574843320_334333.png) 用的是MXNet框架,jupyter notebook写 我自己的做法是把测试集和训练集用数组读取后包装 训练集如下,两个数组分别是图片像素和对应标签 ![图片说明](https://img-ask.csdn.net/upload/201911/27/1574843532_588917.png) 训练过程如下,为了能分别遍历又拆了train_iter为train_iter[0]、[1] ![图片说明](https://img-ask.csdn.net/upload/201911/27/1574843838_858564.png) 接着在导入训练模型(第12行)时候出现问题,报错如下 ![图片说明](https://img-ask.csdn.net/upload/201911/27/1574844074_977535.png) 搞了几天不明白这个数据类型,是导入数据集的方式错了还是、、、、 下面这个是载入Fashion-MNIST数据集的函数 没看明白,现在还在尝试,但是有大佬指导下就更好了(求~) ![图片说明](https://img-ask.csdn.net/upload/201911/27/1574844395_318556.png) 附代码 ``` def load_data_fashion_mnist(batch_size, resize=None, root=os.path.join( '~', '.mxnet', 'datasets', 'fashion-mnist')): root = os.path.expanduser(root) # 展开用户路径'~' transformer = [] if resize: transformer += [gdata.vision.transforms.Resize(resize)] transformer += [gdata.vision.transforms.ToTensor()] transformer = gdata.vision.transforms.Compose(transformer) mnist_train = gdata.vision.FashionMNIST(root=root, train=True) mnist_test = gdata.vision.FashionMNIST(root=root, train=False) num_workers = 0 if sys.platform.startswith('win32') else 4 train_iter = gdata.DataLoader( mnist_train.transform_first(transformer), batch_size, shuffle=True, num_workers=num_workers) test_iter = gdata.DataLoader( mnist_test.transform_first(transformer), batch_size, shuffle=False, num_workers=num_workers) return train_iter, test_iter batch_size = 128 # 如出现“out of memory”的报错信息,可减小batch_size或resize train_iter, test_iter = load_data_fashion_mnist(batch_size, resize=224) ```

在运行tensorflow MNIST 里的例子时报错

/tensorflow-master/tensorflow/examples/tutorials/mnist$ python fully_connected_feed.py /usr/local/lib/python2.7/dist-packages/sklearn/cross_validation.py:44: DeprecationWarning: This module was deprecated in version 0.18 in favor of the model_selection module into which all the refactored classes and functions are moved. Also note that the interface of the new CV iterators are different from that of this module. This module will be removed in 0.20. "This module will be removed in 0.20.", DeprecationWarning) Traceback (most recent call last): File "fully_connected_feed.py", line 277, in <module> tf.app.run(main=main, argv=[sys.argv[0]] + unparsed) TypeError: run() got an unexpected keyword argument 'argv' 我是从GITHUB上下载的包,代码也没改,运行的fully_connceted_feed.py时报错

tensorflow上的一个案例mnist,运行出错,求问

from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf # Import data mnist = input_data.read_data_sets('MNIST_data/', one_hot=True) # Create the model x = tf.placeholder(tf.float32, [None, 784]) W = tf.Variable(tf.zeros([784, 10])) b = tf.Variable(tf.zeros([10])) y = tf.matmul(x, W) + b # Define loss and optimizer y_ = tf.placeholder(tf.float32, [None, 10]) # The raw formulation of cross-entropy, # # tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(tf.nn.softmax(y)), # reduction_indices=[1])) # # can be numerically unstable. # # So here we use tf.nn.softmax_cross_entropy_with_logits on the raw # outputs of 'y', and then average across the batch. cross_entropy = tf.reduce_mean( tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y)) train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) sess = tf.InteractiveSession() tf.global_variables_initializer().run() # Train for _ in range(1000): batch_xs, batch_ys = mnist.train.next_batch(100) sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys}) # Test trained model correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})) 错误如下: Traceback (most recent call last): File "/home/linbinghui/文档/pycode/Text-1.py", line 5, in <module> mnist = input_data.read_data_sets('MNIST_data/', one_hot=True) File "/usr/local/lib/python2.7/dist-packages/tensorflow/contrib/learn/python/learn/datasets/mnist.py", line 189, in read_data_sets local_file = maybe_download(TEST_IMAGES, train_dir, SOURCE_URL + TEST_IMAGES) File "/usr/local/lib/python2.7/dist-packages/tensorflow/contrib/learn/python/learn/datasets/base.py", line 81, in m aybe_download urllib.request.urlretrieve(source_url, temp_file_name) File "/usr/lib/python2.7/urllib.py", line 98, in urlretrieve return opener.retrieve(url, filename, reporthook, data) File "/usr/lib/python2.7/urllib.py", line 245, in retrieve fp = self.open(url, data) File "/usr/lib/python2.7/urllib.py", line 213, in open return getattr(self, name)(url) File "/usr/lib/python2.7/urllib.py", line 364, in open_http return self.http_error(url, fp, errcode, errmsg, headers) File "/usr/lib/python2.7/urllib.py", line 377, in http_error result = method(url, fp, errcode, errmsg, headers) File "/usr/lib/python2.7/urllib.py", line 642, in http_error_302 headers, data) File "/usr/lib/python2.7/urllib.py", line 669, in redirect_internal return self.open(newurl) File "/usr/lib/python2.7/urllib.py", line 213, in open return getattr(self, name)(url) File "/usr/lib/python2.7/urllib.py", line 350, in open_http h.endheaders(data) File "/usr/lib/python2.7/httplib.py", line 1053, in endheaders self._send_output(message_body) File "/usr/lib/python2.7/httplib.py", line 897, in _send_output self.send(msg) File "/usr/lib/python2.7/httplib.py", line 859, in send self.connect() File "/usr/lib/python2.7/httplib.py", line 836, in connect self.timeout, self.source_address) File "/usr/lib/python2.7/socket.py", line 575, in create_connection raise err IOError: [Errno socket error] [Errno 111] Connection refused

tensorflow CNN训练mnist数据集后识别自己写的数字效果不好

自己搭建的cnn,用mnist数据集训练的模型,准确率大概在97%,但是用手机拍了几张手写照片,灰度化之后用模型测试发现效果很差。。。0给认成了8,不知道为什么,有没有遇到类似问题的朋友 模型参考的tensorflow 1.0 学习:用CNN进行图像分类 - denny402 - 博客园 https://www.cnblogs.com/denny402/p/6931338.html

做keras的可视化时utils.apply_modifications出错

**#(1)用mnist文件生成了model.h5文件:** import numpy as np import keras from keras.datasets import mnist from keras.models import Sequential,Model from keras.layers import Dense,Dropout,Flatten,Activation,Input from keras.layers import Conv2D,MaxPooling2D from keras import backend as K batch_size=128 num_classes=10 epochs=5 #定义图像的长宽 img_rows,img_cols=28,28 #加载mnist数据集 (x_train,y_train),(x_test,y_test)=mnist.load_data() #定义图像的格式 x_train=x_train.reshape(x_train.shape[0],img_rows,img_cols,1) x_test=x_test.reshape(x_test.shape[0],img_rows,img_cols,1) input_shape=(img_rows,img_cols,1) x_train=x_train.astype('float32') x_test=x_test.astype('float32') x_train/=255 x_test/=255 print('x_train shape:',x_train.shape) print(x_train.shape[0],'train samples') print(x_test.shape[0],'test samples') y_train=keras.utils.to_categorical(y_train,num_classes) y_test=keras.utils.to_categorical(y_test,num_classes) #开始DNN网络 model=Sequential() model.add(Conv2D(32,kernel_size=(3,3),activation='relu',input_shape=input_shape)) model.add(Conv2D(54,(3,3),activation='relu')) model.add(MaxPooling2D(pool_size=(2,2))) model.add(Dropout(0.25)) model.add(Flatten()) model.add(Dense(128,activation='relu')) model.add(Dropout(0.5)) model.add(Dense(num_classes,activation='softmax',name='preds')) model.compile(loss=keras.losses.categorical_crossentropy,optimizer=keras.optimizers.Adam(),metrics=['accuracy']) model.fit(x_train,y_train,batch_size=batch_size,epochs=epochs,verbose=1,validation_data=(x_test,y_test)) score=model.evaluate(x_test,y_test,verbose=0) print('Test loss:',score[0]) print('Test accuracy:',score[1]) model.save('model.h5') **#(2)用生成的mnist文件做测试:** from keras.models import load_model from vis.utils import utils from keras import activations model=load_model('model.h5') layer_idx=utils.find_layer_idx(model,'preds') model.layers[layer_idx].activation=activations.linear model = utils.apply_modifications(model) 报错:FileNotFoundError: [WinError 3] 系统找不到指定的路径。: '/tmp/curzzxs_.h5'

mnist 数据库 python 加载出错 !!

RT. Anaconda python 3.4 中 加载数据出错,显示;UnicodeDecodeError: 'ascii' codec can't decode byte 0x90 in position 614: ordinal not in range(128) 代码如下: # dataset='mnist.pkl.gz' f = gzip.open(dataset, 'rb') train_set, valid_set, test_set = pickle.load(f) # 跪求四方土地,诸位大神,在此小憩片刻,帮小弟解疑答惑,感激不尽啊。

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

我说我不会算法,阿里把我挂了。

不说了,字节跳动也反手把我挂了。

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

你打算用Java 8一辈子都不打算升级到Java 14,真香

我们程序员应该抱着尝鲜、猎奇的心态,否则就容易固步自封,技术停滞不前。

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

一文带你入门Java Stream流,太强了

两个星期以前,就有读者强烈要求我写一篇 Java Stream 流的文章,我说市面上不是已经有很多了吗,结果你猜他怎么说:“就想看你写的啊!”你看你看,多么苍白的喜欢啊。那就“勉为其难”写一篇吧,嘻嘻。 单从“Stream”这个单词上来看,它似乎和 java.io 包下的 InputStream 和 OutputStream 有些关系。实际上呢,没毛关系。Java 8 新增的 Stream 是为...

立即提问
相关内容推荐