python 明明下载了scipy库,但运行显示不能import imread

python 明明下载了scipy库,但运行显示不能import imread

代码如下,是要弄一个词云

from wordcloud import WordCloud
from scipy.misc import imread
mask=imread('alice.png')
f=open('alice.txt','r',encoding='utf-8')
txt=f.read()
wordcloud=WordCloud(backgound_color='white',\
                    width=800,\
                    height=600,\
                    max_words=200,\
                    max_font_size=80,\
                    mask=mask,\
                    ).generate(txt)
wordcloud.to_file('alice_in_wonderland.png')

运行结果如下

Traceback (most recent call last):
  File "E:\python\1.py", line 2, in <module>
    from scipy.misc import imread
ImportError: cannot import name 'imread'

我明明安装了scipy啊?

图片说明

令人头大

1个回答

新版本的scipy库里imread 模块被移除了

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python 数据作图不显示
通过python作图实现对身高体重进行显示,但是不能在面板中显示。对与weight和height数据不能够输出,但是height_weight 能够输出 ``` import xlrd import numpy as np import matplotlib.pyplot as plt from sklearn.cluster import KMeans from sklearn.cluster import AgglomerativeClustering from scipy.cluster import hierarchy from itertools import cycle #python自带的迭代器模块 ''' /**************************task1**************************/ 1.采用C均值聚类算法对男女生样本数据中的身高、体重2个特征进行聚类分析, 考察不同的类别初始值以及类别数对聚类结果的影响,并以友好的方式图示化结果。 /**************************task1**************************/ ''' mydata = xlrd.open_workbook('man.xls') mysheet1 = mydata.sheet_by_name("Sheet1") #获取行数、列数 nRows = mysheet1.nrows nCols = mysheet1.ncols #用于存取男生女生身高数据 man_height = [] woman_height = [] man_weight = [] woman_weight = [] height_weight = [] #获取第4,5列的内容:身高,体重 for i in range(nRows): if i+1<nRows: if mysheet1.cell(i+1,1).value==1: man_height.append(mysheet1.cell(i+1,3).value) man_weight.append(mysheet1.cell(i+1,4).value) print(man_height[i],man_weight[i]) elif mysheet1.cell(i+1,1).value==0: woman_height.append(mysheet1.cell(i+1,3).value) woman_weight.append(mysheet1.cell(i+1,4).value) print(woman_height[i],woman_weight[i]) height_weight.append([(mysheet1.cell(i+1,3).value),(mysheet1.cell(i+1,4).value)]) print(height_weight[i]) height_weight = np.array(height_weight) #显示男女生样本散点图(显示不出来,不知道问题在哪里) plt.figure(1) plt.clf() p1=plt.scatter(man_height,man_weight,c='g', marker = '*',linewidths=0.4) p2=plt.scatter(woman_height,woman_weight,c='r', marker = '*',linewidths=0.4) plt.xlabel('height/cm') plt.ylabel('weight/kg') gender_label=['boy','girl'] plt.legend([p1, p2],gender_label,loc=0) plt.show() ```
Linux环境下,在Qt中调用Python,导入第三方库时出错?
有关python的文件列表如下: ![图片说明](https://img-ask.csdn.net/upload/202003/10/1583811655_177622.png) 在Terminal中用python解释器运行时完全正常: ![图片说明](https://img-ask.csdn.net/upload/202003/10/1583811736_800874.png) 在把该py文件加入Qt项目后,运行时出错。 ![图片说明](https://img-ask.csdn.net/upload/202003/10/1583811777_994860.png) 以下是python的调用代码: ``` //【1】初始化 Py_Initialize(); if (!Py_IsInitialized()) { qDebug() << "init python failed"; return; } //【2】添加python模块路径 PyRun_SimpleString("import sys"); PyRun_SimpleString("sys.path.append('/root/IOLTest/')"); //【3】导入python模块 PyObject* pModule = PyImport_ImportModule("bandpass"); if (!pModule) { qDebug() << "import module bandpass failed"; return; } //【4】获取python函数 PyObject* pFunhello= PyObject_GetAttrString(pModule,"hello"); if(!pFunhello) { qDebug() << "call hello failed"; return; } //【5】调用python函数 PyObject_CallObject(pFunhello,NULL); //【6】释放python组件 Py_Finalize(); ``` 程序运行到第三步导入python模块时出错,try-except打印的信息是: ``` IMPORTANT: PLEASE READ THIS FOR ADVICE ON HOW TO SOLVE THIS ISSUE! Importing the numpy c-extensions failed. - Try uninstalling and reinstalling numpy. - If you have already done that, then: 1. Check that you expected to use Python3.6 from "/usr/bin/python3", and that you have no directories in your PATH or PYTHONPATH that can interfere with the Python and numpy version "1.18.1" you're trying to use. 2. If (1) looks fine, you can open a new issue at https://github.com/numpy/numpy/issues. Please include details on: - how you installed Python - how you installed numpy - your operating system - whether or not you have multiple versions of Python installed - if you built from source, your compiler versions and ideally a build log - If you're working with a numpy git repository, try `git clean -xdf` (removes all files not under version control) and rebuild numpy. Note: this error has many possible causes, so please don't comment on an existing issue about this - open a new one instead. Original error was: /usr/local/lib/python3.6/dist-packages/numpy/core/_multiarray_umath.cpython-36m-x86_64-linux-gnu.so: undefined symbol: PyExc_ImportError ``` 问题出在导入第三方库上,即 import scipy.signal as signal 这行代码,若是去掉,则可以正常运行。 貌似是Qt里的环境跟Terminal不一样,所以有没有知道原因和解决方案的大牛,还望指点一二。
cannot import name 'imread' from 'scipy.misc'
问题如标题所示 python版本3.7,已安装numpy+mkl、scipy、pillow库,在安装scipy库之前已,先安装好numpy+mkl库,但还是无法导入imread等命令 ``` Traceback (most recent call last): File "<pyshell#0>", line 1, in <module> from scipy.misc import imread, imsave, imresize ImportError: cannot import name 'imread' from 'scipy.misc' (D:\Program Files (x86)\Python37\lib\site-packages\scipy\misc\__init__.py) ``` 已经从网上找了很多帖子关于此问题,但都未能解决,求各位大大帮忙解决下,感激不尽~~
Python scipy模块没有misc
import scipy.misc Traceback (most recent call last): File "<pyshell#6>", line 1, in <module> import scipy.misc File "D:\Python2.7.5\lib\site-packages\scipy\misc\__init__.py", line 44, in <module> from . import doccer ImportError: cannot import name doccer
Python全局环境下sklearn包中缺失Imputer函数
系统win10 64位,python版本3.7.4。 全局环境下,在我输入下载sklearn包的代码后,显示结果如下,包已经安装: ``` pip install sklearn Requirement already satisfied: sklearn in e:\python\lib\site-packages (0.0) Requirement already satisfied: scikit-learn in e:\python\lib\site-packages (from sklearn) (0.22) Requirement already satisfied: numpy>=1.11.0 in e:\python\lib\site-packages (from scikit-learn->sklearn) (1.17.4) Requirement already satisfied: scipy>=0.17.0 in e:\python\lib\site-packages (from scikit-learn->sklearn) (1.3.3) Requirement already satisfied: joblib>=0.11 in e:\python\lib\site-packages (from scikit-learn->sklearn) (0.14.1) ``` 然而在使用sklearn中的Imputer函数时,会出现报错: ``` >>> import numpy as np >>> import sklearn >>> from sklearn import preprocessing >>> from sklearn.preprocessing import Imputer Traceback (most recent call last): File "<stdin>", line 1, in <module> ImportError: cannot import name 'Imputer' from 'sklearn.preprocessing' (E:\python\lib\site-packages\sklearn\preprocessing\__init__.py) ``` 利用dir()查看包内的函数,发现没有Imputer: ``` >>> dir(sklearn.preprocessing) ['Binarizer', 'FunctionTransformer', 'KBinsDiscretizer', 'KernelCenterer', 'LabelBinarizer', 'LabelEncoder', 'MaxAbsScaler', 'MinMaxScaler', 'MultiLabelBinarizer', 'Normalizer', 'OneHotEncoder', 'OrdinalEncoder', 'PolynomialFeatures', 'PowerTransformer', 'QuantileTransformer', 'RobustScaler', 'StandardScaler', '__all__', '__builtins__', '__cached__', '__doc__', '__file__', '__loader__', '__name__', '__package__', '__path__', '__spec__', '_csr_polynomial_expansion', '_data', '_discretization', '_encoders', '_function_transformer', '_label', 'add_dummy_feature', 'binarize', 'label_binarize', 'maxabs_scale', 'minmax_scale', 'normalize', 'power_transform', 'quantile_transform', 'robust_scale', 'scale'] ``` 但是在conda的base环境下,陆续安装numpy、scipy、matplotlib后,安装 scikit-learn包,就可以使用这个函数了。 我寻找了很久的解决方案,网上说的路径和Imputer相同的情况没有发生,请问大佬们这究竟是怎么回事儿啊
求助 : Ipython使用wavfile.write写入了一个wav音频文件但是播放不了
使用的是scipy.io.wavfile ``` from scipy.io import wavfile length = xR.shape[0] yR = np.array([]) xR_gauche = xR[:,0] print(yR.shape) N = int(Fe_xR / Fslow) print(N) for i in range(6511): value = xR_gauche[1+(i-1)*N] yR = np.hstack((yR, value)) plt.figure() plt.plot(yR) print(yR.shape) print(type(yR)) wavfile.write('test.wav',Fslow,yR) ``` ![图片说明](https://img-ask.csdn.net/upload/202003/12/1584012054_618653.png)![图片说明](https://img-ask.csdn.net/upload/202003/12/1584012063_609778.png) 成功生成了test.wav文件但是在使用播放器打开时却显示编码错误? 想问问各位大神有没有遇到过类似的问题 ![图片说明](https://img-ask.csdn.net/upload/202003/12/1584011870_537714.png)
AttributeError: module 'scipy' has no attribute 'io'
编辑如下代码时, ``` import scipy.io scipy.io.loadmat(image[0][i])['section'], dtype=np.float32) ``` 会报错: ``` AttributeError: module 'scipy' has no attribute 'io' ``` 将代码改为: ``` import scipy.io as sio sio.loadmat(image[0][i])['section'], dtype=np.float32) ``` 又会报另一个错误: ``` TypeError: super(type, obj): obj must be an instance or subtype of type ``` 这是为什么呢?求正确的解决方案。。。(scipy已经降级到1.2.1版本,python是3.7版本)
矩阵乘法错误 (Python3.7; jupyter notebook 6.0.0; numpy 1.16.4)该怎么办?
本人六年级小学生,很想进军人工智能领域,于是搞了本《Python神经网络编程》来看(图1),安装搭建了jupyter,可是在训练神经网络(更新权重那一步)的时候出了问题,也不只是怎么回事,打了ipdb断点,一查,阵矩大小、形状都没有问题,可是jupyter一直报错矩阵无法相乘,求大神解答(更多信息见正文) ![《Python神经网络编程》](https://img-ask.csdn.net/upload/202001/22/1579668143_1165.jpg) 先贴一下错误信息: > ValueError: matmul: Input operand 1 has a mismatch in its core dimension 0, with gufunc signature (n?,k),(k,m?)->(n?,m?) (size 3 is different from 5) 我百度了一下,这个好像是阵矩1的行与阵矩2的列不相同,我再次断点调试,各种一番捯饬,最后……额还是没找出问题…… 再贴一下诡异的jupyter运行截图: ![运行截图](https://img-ask.csdn.net/upload/202001/22/1579680986_443189.png) 图中可以看到框1是将要执行的语句,但是上一句打了ipdb断点,之后我在断点环境下执行了代码,结果成功了!!!成功了!!!可是我按下c之后就又报错了!!!求教啊,神马蛇皮走位?于是我再把断点去掉,又是同样的报错,放到导出py文件后本地执行也报错,神马情况??? 再贴一下train函数截图: ![图片说明](https://img-ask.csdn.net/upload/202001/22/1579680754_198010.png) 最后附上全部代码,方便大家解答: ```python import numpy import scipy.special # 神经网络 class Network: """神经网络类""" def __init__(self, nodes, l_rate): """神经网络初始化方法""" self.nodes = nodes self.lr = l_rate self.layer_num = len(nodes) self.weight_num = self.layer_num -1 self._init_layers() self._init_weights() self.activ = scipy.special.expit def _init_layers(self): """初始化所有神经层""" self.layers = [None for _ in range(self.layer_num)] for i in range(self.layer_num): # 本层的神经数 node_num = self.nodes[i] # 初始化本层神经,用0填充 self.layers[i] = numpy.zeros((node_num,)).T def _init_weights(self): """初始化所有权重""" self.weights = [None for _ in range(self.weight_num)] for i in range(self.weight_num): # 初始化本层权重,用[1/三√下一层神经数)]的正态分布填充 # 参数:1.正态分布中心 2.[1/(√下一层神经数)] 3.权重阵矩大小 self.weights[i] = numpy.random.normal(0.0, pow(self.nodes[i+1], -0.5), (self.nodes[i+1], self.nodes[i])) def query(self, inputs): """查询神经网络的结果""" assert len(inputs) is self.nodes[0] for i in range(self.layer_num): # 如果第是一遍遍历,将最后一次结果设为输入值 if i is 0: self.layers[0] = numpy.array(inputs, ndmin=2).T continue # 本轮神经计算值 self.layers[i] = self.weights[i - 1] @ self.layers[i - 1] self.layers[i] = self.activ(self.layers[i]) return self.layers[-1] def train(self, inputs, targets): """对神经网络进行训练""" assert len(targets) is self.nodes[-1] last_result = self.query(inputs) for i in reversed(range(self.weight_num)): if i is self.weight_num-1: errors = numpy.array(targets, ndmin=2).T - last_result else: errors = self.weights[i + 1] @ errors import ipdb; ipdb.set_trace() # 问题出在这一行↓↓↓ self.weights[i] += self.lr *((errors * self.layers[i+1] * (1.0 - self.layers[i+1])) @ self.layers[i].T) if __name__ == '__main__': nw = Network((3, 5, 5, 3), 0.01) for _ in range(10000): nw.train([1, 1, 1], [1, 1, 1]) results = nw.query([1, 1, 1]) print(results) ```
python任务分配scipy01规划问题
有n个人分配m任务,每个任务只能分给1个人,每个人的工作上限是z到了就不分配了,求问这个怎么建模,是用optimize.linprog模块吗,我已经算出每个人做每个任务的时间矩阵,并且n m都比较大没法手动一个一个写所以目标函数得用一个循环表示
如何在Anaconda下安装gensim?
![图片说明](https://img-ask.csdn.net/upload/202003/08/1583646885_719839.png) ![图片说明](https://img-ask.csdn.net/upload/202003/08/1583646896_61358.png) 为什么在prompt中显示我已经安装gensim,但是无法调用? 这是在我已经重新下载numpy、scipy、gensim变成统一模式cp37之后的。
kstest正态分布检验问题,结果选择
``` 沪深指数和上证指数数据 ``` import tushare as ts import pandas as pd hs300 = ts.get_hist_data('hs300',start='2016-01-02',end='2018-12-28')[['open','high','low','close']] hs300_pct = hs300['close'].pct_change().dropna() sz50 = ts.get_hist_data('sz50',start='2016-01-02',end='2018-12-28')['close'] sz50 = sz50.sort_index(axis=0,ascending = True) sz50.index = sz50.index.astype(str) sz50_pct = sz50.pct_change().dropna() sz_hs = pd.merge(left=hs300_pct.to_frame() ,right=sz50_pct.to_frame(),left_index=True,right_index=True,suffixes=('_hs','_sz')) ``` kstest检验结果如下: ``` import scipy.stats as sct sct.kstest(rvs=sz_hs.iloc[:,0],cdf='norm',args=(0,0.01)) ``` 输出结果:KstestResult(statistic=0.049822991141110037, pvalue=0.38735431533163411) pvalue>1%接受原假设 说明服从(0.0.01^2)正态分布 ``` sct.kstest(rvs=sz_hs.iloc[:,0],cdf='norm') ``` 输出结果:KstestResult(statistic=0.4847020921233226, pvalue=0.0) pvalue = 0 < 1%拒绝 说明不服从正态分布 ``` ``` 那么到底服从吗?? ```
tensorflow环境下只要import keras 就会出现python已停止运行?
python小白在写代码的时候发现只要import keras就会出现python停止运行的情况,目前tensorflow版本1.2.1,keras版本2.1.1,防火墙关了也还是这样,具体代码和问题信息如下,请大神赐教。 ``` # -*- coding: utf-8 -*- import numpy as np from scipy.io import loadmat, savemat from keras.utils import np_utils 问题事件名称: BEX64 应用程序名: pythonw.exe 应用程序版本: 3.6.2150.1013 应用程序时间戳: 5970e8ca 故障模块名称: StackHash_1dc2 故障模块版本: 0.0.0.0 故障模块时间戳: 00000000 异常偏移: 0000000000000000 异常代码: c0000005 异常数据: 0000000000000008 OS 版本: 6.1.7601.2.1.0.256.1 区域设置 ID: 2052 其他信息 1: 1dc2 其他信息 2: 1dc22fb1de37d348f27e54dbb5278e7d 其他信息 3: eae3 其他信息 4: eae36a4b5ffb27c9d33117f4125a75c2 ```
请问如何将h_fc1提取成矩阵保存到本地
import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' import numpy as np import scipy.io as sio import tensorflow.compat.v1 as tf tf.disable_v2_behavior() import xlrd from openpyxl import Workbook # 以交互式方式启动session # 如果不使用交互式session,则在启动session前必须构建整个计算图,才能启动该计算图 #sess = tf.InteractiveSession() data = sio.loadmat('ballfault_DE.mat') sensorlenth=2048*36 condition=4#工况数 classification=10#类别 L=2048#网络输入长度 evfisam_num=int(sensorlenth/L) evfitrain_num=int(evfisam_num*3/4)#每个工况用于训练的样本数 evfitest_num=evfisam_num-evfitrain_num#每个工况用于测试的样本数 div=1 C=4 al=512 evdoctrain_num=condition*(evfitrain_num-1)*C evdoctest_num=condition*evfitest_num#类别数×工况数×每个文件的样本数 batch_num=int(evdoctrain_num/div) train_num=evdoctrain_num*classification test_num=evfitest_num*condition*classification cnn_train=np.zeros((train_num,L)) cnn_test=np.zeros((test_num,L)) sensor_1=data['ballfault'] for i in range(classification*condition): sensor=sensor_1[0:sensorlenth,i] cnn_train_1=sensor[0:L*evfitrain_num] for j in range(C):#数据增强C次 cnn_train[(i*C+j)*(evfitrain_num-1):(i*C+j+1)*(evfitrain_num-1),:]=cnn_train_1[j*al:(evfitrain_num-1)*L+j*al].reshape((evfitrain_num-1),L) cnn_test_1=sensor[L*evfitrain_num:evfisam_num*L] cnn_test[i*evfitest_num:(i+1)*evfitest_num,:]=cnn_test_1[0:evfitest_num*L].reshape(evfitest_num,L) lable_train=np.zeros(train_num) lable_test=np.zeros(test_num) for num_dir in range(0,classification): lable_train[num_dir*evdoctrain_num:(num_dir+1)*evdoctrain_num]=(num_dir+1)*np.ones(evdoctrain_num) lable_test[num_dir*evdoctest_num:(num_dir+1)*evdoctest_num]=(num_dir+1)*np.ones(evdoctest_num) expect_y=np.zeros((train_num,classification)) m=0 for l in lable_train: expect_y[m,int(l-1)]=1 m+=1 test_expect_y=np.zeros((test_num,classification)) m=0 for l in lable_test: test_expect_y[m,int(l-1)]=1 m+=1 merge = np.append(cnn_train,expect_y,axis=1) np.random.shuffle(merge)#tf.random_shuffle(a) cnn_train=merge[:,0:L] expect_y=merge[:,L:L+classification] kernel_length1=16 kernel_length2=10 kernel_length3=8 kernel_length4=6 kernel_length5=16 kernel_length6=10 kernel_length7=8 kernel_length8=6 #L_1=int((L-kernel_length1+1)/4) #L_2=int((L_1-kernel_length2+1)/4) #L_3=int((L_2-kernel_length3+1)/4) B=np.power(2,8) L_end=int(L/B) kernel_num_1=8 kernel_num_2=16 kernel_num_3=9 kernel_num_4=12 kernel_num_5=8 kernel_num_6=16 kernel_num_7=9 kernel_num_8=12 out_num=100 """构建计算图""" # 通过占位符来为输入图像和目标输出类别创建节点 # shape参数是可选的,有了它tensorflow可以自动捕获维度不一致导致的错误 initial_input = tf.placeholder("float", shape=[None, L]) # 原始输入 initial_y = tf.placeholder("float", shape=[None, classification]) # 目标值 # 为了不在建立模型的时候反复做初始化操作, # 我们定义两个函数用于初始化 def weight_variable(shape): # 截尾正态分布,stddev是正态分布的标准偏差 initial = tf.truncated_normal(shape=shape, stddev=0.05) return tf.Variable(initial) def bias_variable(shape): initial = tf.constant(0.1, shape=shape) return tf.Variable(initial) # 卷积核池化,步长为1,0边距 def conv2d(x, W): return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME') def max_pool_2x2(x): return tf.nn.max_pool(x, ksize=[1, 1, 2, 1], strides=[1, 1, 2, 1], padding='SAME') """第一层卷积""" # 由一个卷积和一个最大池化组成。滤波器1x16中算出32个特征,是因为使用32个滤波器进行卷积 # 卷积的权重张量形状是[1, 16, 1, 32],1是输入通道的个数,32是输出通道个数 W_conv1 = weight_variable([1, kernel_length1, 1, kernel_num_1]) # 每一个输出通道都有一个偏置量 b_conv1 = bias_variable([kernel_num_1]) # 位了使用卷积,必须将输入转换成4维向量,2、3维表示图片的宽、高 # 最后一维表示图片的颜色通道(因为是灰度图像所以通道数维1,RGB图像通道数为3) process_image = tf.reshape(initial_input, [-1, 1, L, 1]) # 第一层的卷积结果,使用Relu作为激活函数 h_conv1 = tf.nn.relu(conv2d(process_image, W_conv1)+b_conv1) # 第一层卷积后的池化结果 h_pool1 = max_pool_2x2(h_conv1) """第二层卷积""" W_conv2 = weight_variable([1, kernel_length2, kernel_num_1, kernel_num_2]) b_conv2 = bias_variable([kernel_num_2]) h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2) h_pool2 = max_pool_2x2(h_conv2) """第三层卷积""" W_conv3 = weight_variable([1, kernel_length3, kernel_num_2, kernel_num_3]) b_conv3 = bias_variable([kernel_num_3]) h_conv3 = tf.nn.relu(conv2d(h_pool2, W_conv3) + b_conv3) h_pool3 = max_pool_2x2(h_conv3) """第四层卷积""" W_conv4 = weight_variable([1, kernel_length4, kernel_num_3, kernel_num_4]) b_conv4 = bias_variable([kernel_num_4]) h_conv4 = tf.nn.relu(conv2d(h_pool3, W_conv4) + b_conv4) h_pool4 = max_pool_2x2(h_conv4) """第五层卷积""" W_conv5 = weight_variable([1, kernel_length5, kernel_num_4, kernel_num_5]) b_conv5 = bias_variable([kernel_num_5]) h_conv5 = tf.nn.relu(conv2d(h_pool4, W_conv5) + b_conv5) h_pool5 = max_pool_2x2(h_conv5) """第六层卷积""" W_conv6 = weight_variable([1, kernel_length6, kernel_num_5, kernel_num_6]) b_conv6 = bias_variable([kernel_num_6]) h_conv6 = tf.nn.relu(conv2d(h_pool5, W_conv6) + b_conv6) h_pool6 = max_pool_2x2(h_conv6) """第七层卷积""" W_conv7 = weight_variable([1, kernel_length7, kernel_num_6, kernel_num_7]) b_conv7 = bias_variable([kernel_num_7]) h_conv7 = tf.nn.relu(conv2d(h_pool6, W_conv7) + b_conv7) h_pool7 = max_pool_2x2(h_conv7) """第八层卷积""" W_conv8 = weight_variable([1, kernel_length8, kernel_num_7, kernel_num_8]) b_conv8 = bias_variable([kernel_num_8]) h_conv8 = tf.nn.relu(conv2d(h_pool7, W_conv8) + b_conv8) h_pool8 = max_pool_2x2(h_conv8) """全连接层""" W_fc1 = weight_variable([int(L_end*kernel_num_8), out_num]) b_fc1 = bias_variable([out_num]) # 将最后的池化层输出张量reshape成一维向量 h_pool8_flat = tf.reshape(h_pool8, [-1, int(L_end*kernel_num_8)]) # 全连接层的输出 h_fc1 = tf.nn.relu(tf.matmul(h_pool8_flat, W_fc1) + b_fc1) """使用Dropout减少过拟合""" # 使用placeholder占位符来表示神经元的输出在dropout中保持不变的概率 # 在训练的过程中启用dropout,在测试过程中关闭dropout keep_prob = tf.placeholder("float") h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob) """输出层""" W_fc2 = weight_variable([out_num, classification]) b_fc2 = bias_variable([classification]) # 模型预测输出 yconv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) # 交叉熵损失 cross_entropy_1=tf.reduce_sum(initial_y * yconv,1) cross_entropy = -tf.reduce_sum(tf.log(cross_entropy_1))/train_num # 模型训练,使用AdamOptimizer来做梯度最速下降 train_step = tf.train.AdamOptimizer(0.00015).minimize(cross_entropy) # 正确预测,得到True或False的List correct_prediction = tf.equal(tf.argmax(yconv, 1), tf.argmax(initial_y, 1)) # 将布尔值转化成浮点数,取平均值作为精确度 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) init=tf.global_variables_initializer() # 迭代优化模型 with tf.Session() as sess: sess.run(init) for i in range(300): k=0 while (k<classification*div): a=cnn_train[k*batch_num:(k+1)*batch_num] b=expect_y[k*batch_num:(k+1)*batch_num] #if (i+1)%10 == 0: #print("test accuracy: %g" % accuracy.eval(feed_dict={initial_input: cnn_test,initial_y: test_expect_y, keep_prob: 1.0})) train_step.run(feed_dict={initial_input: a, initial_y: b, keep_prob: 0.5}) #print(sess.run(cross_entropy,feed_dict={initial_input: a, initial_y: b, keep_prob: 1.0})) k+=1 print("accurate: %g" % sess.run(accuracy,feed_dict={initial_input: a, initial_y: b, keep_prob: 1.0}))
Python 报错: not enough values to unpack (expected 3, got 1),该怎么解决?求大神解决!
![图片说明](https://img-ask.csdn.net/upload/201910/22/1571745918_625213.png)![图片说明](https://img-ask.csdn.net/upload/201910/22/1571745931_336418.png) 代码如下: # -*- coding:utf-8 -*- import numpy as np import pandas as pd from collections import Counter from sklearn import preprocessing import scipy import sys import os path1=os.path.abspath('.') print(path1) name=pd.read_table("genotype.sav",header=0,sep=',') print(name) print(name.columns) for i in name.columns: a,b,c=Counter(name[i]).keys() if a[0]==a[1]: #print(keys[0],keys[1]) name[i].replace(a, 0, inplace=True) name[i].replace(b, 1, inplace=True) name[i].replace(c, 2, inplace=True) elif a[0]!=a[1]: name[i].replace(a, 1, inplace=True) name[i].replace(b, 0, inplace=True) name[i].replace(c, 2, inplace=True) #print(keys) #print(name[i]) name.to_csv('rename.csv') #recode_ID()
Windows下 sklearn:numpy.ufunc has the wrong size
各位大神求指点,我使用ArcGIS10.3自带的Python2.7.8(NumPy 1.7.1,matplotlib 1.3.0)自己去官网下载安装了scipy0.13.3和scikit-learn0.16.0,在编译scikit learn时出现numpy.dtype size问题,还没有运行其他代码,只是导入库就不行了: print('Hello World') # import numpy & scipy import numpy as np from numpy import linalg from numpy.linalg import norm from scipy.spatial.distance import squareform, pdist # import sklearn. import sklearn from sklearn.manifold import TSNE from sklearn.datasets import load_digits from sklearn.preprocessing import scale print "working" ![图片说明](https://img-ask.csdn.net/upload/201601/02/1451704594_425391.png) 新手跪求指点,万分感谢!
为什么jupyter引用sklearn老是失败?
``` import sklearn ``` ImportError Traceback (most recent call last) <ipython-input-3-b7c74cbf5af0> in <module> ----> 1 import sklearn D:\PycharmAnaconda\anaconda\lib\site-packages\sklearn\__init__.py in <module> 62 else: 63 from . import __check_build ---> 64 from .base import clone 65 from .utils._show_versions import show_versions 66 D:\PycharmAnaconda\anaconda\lib\site-packages\sklearn\base.py in <module> 10 11 import numpy as np ---> 12 from scipy import sparse 13 from .externals import six 14 from .utils.fixes import signature D:\PycharmAnaconda\anaconda\lib\site-packages\scipy\sparse\__init__.py in <module> 228 229 from .base import * --> 230 from .csr import * 231 from .csc import * 232 from .lil import * D:\PycharmAnaconda\anaconda\lib\site-packages\scipy\sparse\csr.py in <module> 15 from .sputils import upcast, get_index_dtype 16 ---> 17 from .compressed import _cs_matrix 18 19 D:\PycharmAnaconda\anaconda\lib\site-packages\scipy\sparse\compressed.py in <module> 15 from .dia import dia_matrix 16 from . import _sparsetools ---> 17 from ._sparsetools import (get_csr_submatrix, csr_sample_offsets, csr_todense,csr_sample_values, csr_row_index, csr_row_slice,csr_column_index1, csr_column_index2) 18 from ._index import IndexMixin 19 from .sputils import (upcast, upcast_char, to_native, isdense, isshape, ImportError: cannot import name 'csr_row_index' from 'scipy.sparse._sparsetools' (D:\PycharmAnaconda\anaconda\lib\site-packages\scipy\sparse\_sparsetools.cp37-win_amd64.pyd)
python语言中,如何使用scipy.sparse函数实现csc矩阵转换为coo矩阵?
我对一个大型息数据正进行迭代计算后,得出的矩阵是csc格式的,并且该迭代计算只能使用csc格式进行计算,所以无法从一开始使用coo格式,但我输出结果需要使用coo格式进行后续的数据处理。所以如何使用scipy.sparse函数实现csc矩阵转换为coo矩阵?在网上查找了一些资料,并没有看到什么有帮助的,所以请教大家。谢谢。
如何在python中使用scipy和numpy使用matlab中的sim()方法
我现在已有一个训练好的神经网络的.m文件,需要用在python中做实时的模式识别。但是不知道如何在python中使用matlab神经网络的sim('MODEL', PARAMETERS)
python2.7安装sklearn报错:ImportError: DLL load failed
import sklearn 报错: Traceback (most recent call last): File "<pyshell#3>", line 1, in <module> import sklearn File "D:\Python27\lib\site-packages\scikit_learn-0.15.2-py2.7-win-amd64.egg\sklearn\__init__.py", line 38, in <module> from .base import clone File "D:\Python27\lib\site-packages\scikit_learn-0.15.2-py2.7-win-amd64.egg\sklearn\base.py", line 10, in <module> from scipy import sparse File "D:\Python27\lib\site-packages\scipy\sparse\__init__.py", line 182, in <module> from .csr import * File "D:\Python27\lib\site-packages\scipy\sparse\csr.py", line 15, in <module> from .sparsetools import csr_tocsc, csr_tobsr, csr_count_blocks, \ File "D:\Python27\lib\site-packages\scipy\sparse\sparsetools\__init__.py", line 5, in <module> from .csr import * File "D:\Python27\lib\site-packages\scipy\sparse\sparsetools\csr.py", line 26, in <module> _csr = swig_import_helper() File "D:\Python27\lib\site-packages\scipy\sparse\sparsetools\csr.py", line 22, in swig_import_helper _mod = imp.load_module('_csr', fp, pathname, description) ImportError: DLL load failed: %1 不是有效的 Win32 应用程序。 用的python2.7.9,我已经安装了numpy1.9.1,scipy0.12.0,sklearn0.15.1,这些都是支持64位系统的,遇到这个问题我该怎么办
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
【JSON解析】浅谈JSONObject的使用
简介 在程序开发过程中,在参数传递,函数返回值等方面,越来越多的使用JSON。JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,同时也易于机器解析和生成、易于理解、阅读和撰写,而且Json采用完全独立于语言的文本格式,这使得Json成为理想的数据交换语言。 JSON建构于两种结构: “名称/值”对的集合(A Collection of name/va...
卸载 x 雷某度!GitHub 标星 1.5w+,从此我只用这款全能高速下载工具!
作者 | Rocky0429 来源 | Python空间 大家好,我是 Rocky0429,一个喜欢在网上收集各种资源的蒟蒻… 网上资源眼花缭乱,下载的方式也同样千奇百怪,比如 BT 下载,磁力链接,网盘资源等等等等,下个资源可真不容易,不一样的方式要用不同的下载软件,因此某比较有名的 x 雷和某度网盘成了我经常使用的工具。 作为一个没有钱的穷鬼,某度网盘几十 kb 的下载速度让我...
2019年还剩1天,我从外包公司离职了
这日子过的可真快啊,2019年还剩1天,外包公司干了不到3个月,我离职了
我一个37岁的程序员朋友
周末了,人一旦没有点事情干,心里就瞎想,而且跟几个老男人坐在一起,更容易瞎想,我自己现在也是 30 岁了,也是无时无刻在担心自己的职业生涯,担心丢掉工作没有收入,担心身体机能下降,担心突...
计算机网络的核心概念
这是《计算机网络》系列文章的第二篇文章 我们第一篇文章讲述了计算机网络的基本概念,互联网的基本名词,什么是协议以及几种接入网以及网络传输的物理媒体,那么本篇文章我们来探讨一下网络核心、交换网络、时延、丢包、吞吐量以及计算机网络的协议层次和网络攻击。 网络核心 网络的核心是由因特网端系统和链路构成的网状网络,下面这幅图正确的表达了这一点 那么在不同的 ISP 和本地以及家庭网络是如何交换信息的呢?...
python自动下载图片
近日闲来无事,总有一种无形的力量萦绕在朕身边,让朕精神涣散,昏昏欲睡。 可是,像朕这么有职业操守的社畜怎么能在上班期间睡瞌睡呢,我不禁陷入了沉思。。。。 突然旁边的IOS同事问:‘嘿,兄弟,我发现一个网站的图片很有意思啊,能不能帮我保存下来提升我的开发灵感?’ 作为一个坚强的社畜怎么能说自己不行呢,当时朕就不假思索的答应:‘oh, It’s simple. Wait for me for a ...
一名大专同学的四个问题
【前言】   收到一封来信,赶上各种事情拖了几日,利用今天要放下工作的时机,做个回复。   2020年到了,就以这一封信,作为开年标志吧。 【正文】   您好,我是一名现在有很多困惑的大二学生。有一些问题想要向您请教。   先说一下我的基本情况,高考失利,不想复读,来到广州一所大专读计算机应用技术专业。学校是偏艺术类的,计算机专业没有实验室更不用说工作室了。而且学校的学风也不好。但我很想在计算机领...
复习一周,京东+百度一面,不小心都拿了Offer
京东和百度一面都问了啥,面试官百般刁难,可惜我全会。
Java 14 都快来了,为什么还有这么多人固守Java 8?
从Java 9开始,Java版本的发布就让人眼花缭乱了。每隔6个月,都会冒出一个新版本出来,Java 10 , Java 11, Java 12, Java 13, 到2020年3月份,...
达摩院十大科技趋势发布:2020 非同小可!
【CSDN编者按】1月2日,阿里巴巴发布《达摩院2020十大科技趋势》,十大科技趋势分别是:人工智能从感知智能向认知智能演进;计算存储一体化突破AI算力瓶颈;工业互联网的超融合;机器间大规模协作成为可能;模块化降低芯片设计门槛;规模化生产级区块链应用将走入大众;量子计算进入攻坚期;新材料推动半导体器件革新;保护数据隐私的AI技术将加速落地;云成为IT技术创新的中心 。 新的画卷,正在徐徐展开。...
轻松搭建基于 SpringBoot + Vue 的 Web 商城应用
首先介绍下在本文出现的几个比较重要的概念: 函数计算(Function Compute): 函数计算是一个事件驱动的服务,通过函数计算,用户无需管理服务器等运行情况,只需编写代码并上传。函数计算准备计算资源,并以弹性伸缩的方式运行用户代码,而用户只需根据实际代码运行所消耗的资源进行付费。Fun: Fun 是一个用于支持 Serverless 应用部署的工具,能帮助您便捷地管理函数计算、API ...
讲真,这两个IDE插件,可以让你写出质量杠杠的代码
周末躺在床上看《拯救大兵瑞恩》 周末在闲逛的时候,发现了两个优秀的 IDE 插件,据说可以提高代码的质量,我就安装了一下,试了试以后发现,确实很不错,就推荐给大家。 01、Alibaba Java 代码规范插件 《阿里巴巴 Java 开发手册》,相信大家都不会感到陌生,其 IDEA 插件的下载次数据说达到了 80 万次,我今天又贡献了一次。嘿嘿。 该项目的插件地址: https://github....
Python+OpenCV实时图像处理
目录 1、导入库文件 2、设计GUI 3、调用摄像头 4、实时图像处理 4.1、阈值二值化 4.2、边缘检测 4.3、轮廓检测 4.4、高斯滤波 4.5、色彩转换 4.6、调节对比度 5、退出系统 初学OpenCV图像处理的小伙伴肯定对什么高斯函数、滤波处理、阈值二值化等特性非常头疼,这里给各位分享一个小项目,可通过摄像头实时动态查看各类图像处理的特点,也可对各位调参、测试...
2020年一线城市程序员工资大调查
人才需求 一线城市共发布岗位38115个,招聘120827人。 其中 beijing 22805 guangzhou 25081 shanghai 39614 shenzhen 33327 工资分布 2020年中国一线城市程序员的平均工资为16285元,工资中位数为14583元,其中95%的人的工资位于5000到20000元之间。 和往年数据比较: yea...
为什么猝死的都是程序员,基本上不见产品经理猝死呢?
相信大家时不时听到程序员猝死的消息,但是基本上听不到产品经理猝死的消息,这是为什么呢? 我们先百度搜一下:程序员猝死,出现将近700多万条搜索结果: 搜索一下:产品经理猝死,只有400万条的搜索结果,从搜索结果数量上来看,程序员猝死的搜索结果就比产品经理猝死的搜索结果高了一倍,而且从下图可以看到,首页里面的五条搜索结果,其实只有两条才是符合条件。 所以程序员猝死的概率真的比产品经理大,并不是错...
害怕面试被问HashMap?这一篇就搞定了!
声明:本文以jdk1.8为主! 搞定HashMap 作为一个Java从业者,面试的时候肯定会被问到过HashMap,因为对于HashMap来说,可以说是Java集合中的精髓了,如果你觉得自己对它掌握的还不够好,我想今天这篇文章会非常适合你,至少,看了今天这篇文章,以后不怕面试被问HashMap了 其实在我学习HashMap的过程中,我个人觉得HashMap还是挺复杂的,如果真的想把它搞得明明白...
毕业5年,我问遍了身边的大佬,总结了他们的学习方法
我问了身边10个大佬,总结了他们的学习方法,原来成功都是有迹可循的。
程序员如何通过造轮子走向人生巅峰?
前言:你所做的事情,也许暂时看不到成果。但不要灰心,你不是没有成长,而是在扎根。 程序员圈经常流行的一句话:“不要重复造轮子”。在计算机领域,我们将封装好的组件、库,叫做轮子。因为它可以拿来直接用,直接塞进我们的项目中,就能实现对应的功能。 有些同学会问,人家都已经做好了,你再来重新弄一遍,有什么意义?这不是在浪费时间吗。 殊不知,造轮子是一种学习方式,能快速进步,造得好,是自己超强能力的表...
推荐10个堪称神器的学习网站
每天都会收到很多读者的私信,问我:“二哥,有什么推荐的学习网站吗?最近很浮躁,手头的一些网站都看烦了,想看看二哥这里有什么新鲜货。” 今天一早做了个恶梦,梦到被老板辞退了。虽然说在我们公司,只有我辞退老板的份,没有老板辞退我这一说,但是还是被吓得 4 点多都起来了。(主要是因为我掌握着公司所有的核心源码,哈哈哈) 既然 4 点多起来,就得好好利用起来。于是我就挑选了 10 个堪称神器的学习网站,推...
这些软件太强了,Windows必装!尤其程序员!
Windows可谓是大多数人的生产力工具,集娱乐办公于一体,虽然在程序员这个群体中都说苹果是信仰,但是大部分不都是从Windows过来的,而且现在依然有很多的程序员用Windows。 所以,今天我就把我私藏的Windows必装的软件分享给大家,如果有一个你没有用过甚至没有听过,那你就赚了????,这可都是提升你幸福感的高效率生产力工具哦! 走起!???? NO、1 ScreenToGif 屏幕,摄像头和白板...
阿里面试一个ArrayList我都能跟面试官扯半小时
我是真的没想到,面试官会这样问我ArrayList。
曾经优秀的人,怎么就突然不优秀了。
职场上有很多辛酸事,很多合伙人出局的故事,很多技术骨干被裁员的故事。说来模板都类似,曾经是名校毕业,曾经是优秀员工,曾经被领导表扬,曾经业绩突出,然而突然有一天,因为种种原因,被裁员了,...
大学四年因为知道了这32个网站,我成了别人眼中的大神!
依稀记得,毕业那天,我们导员发给我毕业证的时候对我说“你可是咱们系的风云人物啊”,哎呀,别提当时多开心啦????,嗯,我们导员是所有导员中最帅的一个,真的???? 不过,导员说的是实话,很多人都叫我大神的,为啥,因为我知道这32个网站啊,你说强不强????,这次是绝对的干货,看好啦,走起来! PS:每个网站都是学计算机混互联网必须知道的,真的牛杯,我就不过多介绍了,大家自行探索,觉得没用的,尽管留言吐槽吧???? 社...
良心推荐,我珍藏的一些Chrome插件
上次搬家的时候,发了一个朋友圈,附带的照片中不小心暴露了自己的 Chrome 浏览器插件之多,于是就有小伙伴评论说分享一下我觉得还不错的浏览器插件。 我下面就把我日常工作和学习中经常用到的一些 Chrome 浏览器插件分享给大家,随便一个都能提高你的“生活品质”和工作效率。 Markdown Here Markdown Here 可以让你更愉快的写邮件,由于支持 Markdown 直接转电子邮...
看完这篇HTTP,跟面试官扯皮就没问题了
我是一名程序员,我的主要编程语言是 Java,我更是一名 Web 开发人员,所以我必须要了解 HTTP,所以本篇文章就来带你从 HTTP 入门到进阶,看完让你有一种恍然大悟、醍醐灌顶的感觉。 最初在有网络之前,我们的电脑都是单机的,单机系统是孤立的,我还记得 05 年前那会儿家里有个电脑,想打电脑游戏还得两个人在一个电脑上玩儿,及其不方便。我就想为什么家里人不让上网,我的同学 xxx 家里有网,每...
史上最全的IDEA快捷键总结
现在Idea成了主流开发工具,这篇博客对其使用的快捷键做了总结,希望对大家的开发工作有所帮助。
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
谁是华为扫地僧?
是的,华为也有扫地僧!2020年2月11-12日,“养在深闺人不知”的华为2012实验室扫地僧们,将在华为开发者大会2020(Cloud)上,和大家见面。到时,你可以和扫地僧们,吃一个洋...
Idea 中最常用的10款插件(提高开发效率),一定要学会使用!
学习使用一些插件,可以提高开发效率。对于我们开发人员很有帮助。这篇博客介绍了开发中使用的插件。
立即提问