为什么x.shape[1]会显示错误,为什么这个列向量只有一个参数

最近用python编写一个线性回归的算法,在使用pandas读取列数据后无法得到列数据的完整索引,使用x.shape[1](显示列数)时代码报错,恳求大神指导

import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus']=False


data=pd.read_csv('E:\machine learning datasets\Salary_Data.csv')

x=data['YearsExperience']
print(x.shape[1])

runfile('C:/Users/Administrator/untitled3.py', wdir='C:/Users/Administrator')
Traceback (most recent call last):

  File "<ipython-input-55-5248b051639a>", line 1, in <module>
    runfile('C:/Users/Administrator/untitled3.py', wdir='C:/Users/Administrator')

  File "D:\anaconda1\lib\site-packages\spyder\utils\site\sitecustomize.py", line 710, in runfile
    execfile(filename, namespace)

  File "D:\anaconda1\lib\site-packages\spyder\utils\site\sitecustomize.py", line 101, in execfile
    exec(compile(f.read(), filename, 'exec'), namespace)

  File "C:/Users/Administrator/untitled3.py", line 18, in <module>
    print(x.shape[1])

IndexError: tuple index out of range
weixin_44069903
Ericalia 这里如果按照上述代码写的话,那么print(x.shape)为(30,),如果想要使用它的矩阵形式,就要reshape,不然要报错,不过这是什么原因我还没弄明白。搞明白后来回复自己
大约一年之前 回复

1个回答

x是一维的,你可以用 print(x.shape) 输出看下

weixin_44069903
Ericalia 另外我也需要使用x.shape[1]这个参数的值,如上的代码让我无法使用这个参数
大约一年之前 回复
weixin_44069903
Ericalia 谢谢指导,我试了一下,输入print(x.shape)以后显示得是(30,),但是照理说它应该是(30,1)啊,毕竟这是一个列向量
大约一年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
关于numpy的一个表达式问题:*arr.shape

在使用numpy的过程中,发现了一个问题,比较疑惑,希望有人可以帮忙解答一下,我们知道一般情况下,我们获取一个数组的shape的时候,我们可以直接: ``` print(arr.shape) ``` 假设是一个1 x 3的数组的话,那我们就能得到一个输出:(1,3)。但是我在网上看到一个相关的使用是: ``` print(*arr.shape) ``` 这个时候我们得到的结果是:1 3,然后如果我们用numpy直接进行一个操作: ``` print(np.multiply(*arr.shape)) ``` 这时我们得到的是:3,请问有谁能跟我解释下这个情况吗?

numpy的shape函数返回值问题,具体一点:shape的返回值为什么因数据量的多少发生了改变

使用自己的数据进行tensorflow相关实验时发现 tf.convert_to_tensor(data)报错,提示需要的是二进制或字符串而data是一个['...','..',...]形式的数据 而label则能跑通 **输入的文件是4002个浮点数一行,共8400行,前4000个是data,后两个表示label** 最主要的是通过对函数返回的data和label使用shape函数得到的结果却大不一样! # 先附上代码 ``` def loadDataSet(filename): dataL = [] labelL = [] fr = open(filename) #for line in fr.readlines(): for i in range(100): line = fr.readline() lineArr = line.strip().split(' ') npy = array(lineArr) dataL.append(npy[:-2]) labelL.append(npy[-2:]) fr.close() data = array(dataL) label = array(labelL) print(len(data),len(label)) return data,label t_x,t_y = loadDataSet('rand_out.txt') train_y = tf.convert_to_tensor(t_y) print(type(train_y)) print(type(t_y)) print(type(t_x)) print(len(t_x[0])) print(len(t_y[0])) print(t_x.shape) print(t_y.shape) ``` **发现在上述代码中循环变量i的取值范围直接影响print的输出结果** ![图片说明](https://img-ask.csdn.net/upload/201906/25/1561477831_269750.png) 可以看出i的循环范围大于某个数后,data也就是上面代码中的t_x.shape输出从(int,int)变成了(int,) 即for i in range(4000)时,shape是(4000,);for i in range(100)时,shape是(100,4000)

在使用机器学习算法过程中报错:ValueError: Incompatible dimension for X and Y matrices: X.shape[1] == 224 while Y.shape[1] == 334

使用KNN算法过程中遇到了ValueError: Incompatible dimension for X and Y matrices: X.shape[1] == 224 while Y.shape[1] == 334 的问题 代码截图:![图片说明](https://img-ask.csdn.net/upload/202005/26/1590474323_300759.png) 报错截图:![图片说明](https://img-ask.csdn.net/upload/202005/26/1590474354_165863.png) 求大佬救救孩子吧

python数据分析与挖掘实战,基于水色图像的水质评价

为什么运行这句代码cm_train = metrics.confusion_matrix(y_train,model.predict(x_train))出现这个错误 ValueError: X.shape[1] = 9 should be equal to 11, the number of features at training time,要怎么修改?谢谢各位大神

Shape Number

Problem Description In computer vision, a chain code is a sequence of numbers representing directions when following the contour of an object. For example, the following figure shows the contour represented by the chain code 22234446466001207560 (starting at the upper-left corner). ![](http://acm.hdu.edu.cn/data/images/C387-1001-1.jpg) Two chain codes may represent the same shape if the shape has been rotated, or if a different starting point is chosen for the contour. To normalize the code for rotation, we can compute the first difference of the chain code instead. The first difference is obtained by counting the number of direction changes in counterclockwise direction between consecutive elements in the chain code (the last element is consecutive with the first one). In the above code, the first difference is 00110026202011676122 Finally, to normalize for the starting point, we consider all cyclic rotations of the first difference and choose among them the lexicographically smallest such code. The resulting code is called the shape number. 00110026202011676122 01100262020116761220 11002620201167612200 ... 20011002620201167612 In this case, 00110026202011676122 is the shape number of the shape above. Input The input consists of a number of cases. The input of each case is given in one line, consisting of a chain code of a shape. The length of the chain code is at most 300,000, and all digits in the code are between 0 and 7 inclusive. The contour may intersect itself and needs not trace back to the starting point. Output For each case, print the resulting shape number after the normalizations discussed above are performed. Sample Input 22234446466001207560 12075602223444646600 Sample Output 00110026202011676122 00110026202011676122

one_of_k_targets[range(int_targets.shape[0]), int_targets] = 1 这句什么意思

int_targets是个二维数组1000*10 one_of_k_targets也是个二维数组1000*10 所以这句有什么用?

LSTM输入数据格式问题

输入样本train_x1 标签train_y1 样本与标签都是(20000,10) 然后我reshape变成三维(20000,1,10)报错 求该如何修改格式 输入十个数值,输出十个数值。 train_x1 = np.reshape(train_x1, (train_x1.shape[0],1,train_x1.shape[1])) train_y1 = np.reshape(train_y1, (train_y1.shape[0],1,train_y1.shape[1])) model = Sequential() model.add(LSTM(50, input_shape=(train_x1.shape[1], train_x1.shape[2]))) model.add(Dense(10)) model.compile(loss='mse', optimizer='adam') model.fit(train_x1, train_y1, nb_epoch = 300, batch_size = 10) model.save_weights('LSTM.model')

keras结果ACC: 1.0000 Recall: 1.0000 F1-score: 1.0000 Precesion: 1.0000的原因?

用keras做的图像2分类,仅仅跑了5个epoch, 结果: [[205 0] [ 0 28]] keras的AUC为: 1.0 AUC: 1.0000 ACC: 1.0000 Recall: 1.0000 F1-score: 1.0000 Precesion: 1.0000 代码: data = np.load('.npz') image_data, label_data= data['image'], data['label'] skf = StratifiedKFold(n_splits=3, shuffle=True) for train, test in skf.split(image_data, label_data): train_x=image_data[train] test_x=image_data[test] train_y=label_data[train] test_y=label_data[test] train_x = np.array(train_x) test_x = np.array(test_x) train_x = train_x.reshape(train_x.shape[0],1,28,28) test_x = test_x.reshape(test_x.shape[0],1,28,28) train_x = train_x.astype('float32') test_x = test_x.astype('float32') train_x /=255 test_x /=255 train_y = np.array(train_y) test_y = np.array(test_y) model.compile(optimizer='rmsprop',loss="binary_crossentropy",metrics=["accuracy"]) model.fit(train_x, train_y,batch_size=64,epochs=5,verbose=1,validation_data=(test_x, test_y)]) 从结果看,代码存在离谱的错误,请教各位专家,错在哪?谢谢

怎么理解X_train[y_train == i][0]????

是在处理mnist数据集时遇到的问题。 ``` X_train, y_train = load_mnist('E:\数据集\MINIST', kind ='train')_ #打印出来的X_train的形状为(60000, 784) #打印出来的y_train的形状为(60000,) ``` 在下面这段代码中遇到了问题: ``` for i in range(10): img = X_train[y_train == i][0].reshape(28, 28) test = X_train[y_train == i][0] # print(y_train == i)#出来的结果是[true ,false...] # print((y_train == i).shape)#出来的结果是(6000,) # print(test.shape)#(784,) ``` 怎么理解 X_train[y_train == i][0]这一部分呢? X_train明明是二维数组,X_train[][]第一个[]内不应该是指定行,第二个[]不应该是指定列,出来的不应该是一个元素吗? 还有y_train == i出来的是6000个true/false值组成的,怎么理解?

tensorflow 灰度化之后shape[]少一维

想把彩色图像灰度化,但是RGB三通道灰度化之后,shape少了一维,feed_dic shape维数不匹配了 Traceback (most recent call last): File "trainModel.py", line 75, in <module> kernel_initializer=tf.glorot_normal_initializer()) File "/usr/lib/python2.7/site-packages/tensorflow/python/layers/convolutional.py", line 608, in conv2d return layer.apply(inputs) File "/usr/lib/python2.7/site-packages/tensorflow/python/layers/base.py", line 671, in apply return self.__call__(inputs, *args, **kwargs) File "/usr/lib/python2.7/site-packages/tensorflow/python/layers/base.py", line 550, in __call__ self._assert_input_compatibility(inputs) File "/usr/lib/python2.7/site-packages/tensorflow/python/layers/base.py", line 1044, in _assert_input_compatibility str(x.get_shape().as_list())) ValueError: Input 0 of layer conv2d_1 is incompatible with the layer: expected ndim=4, found ndim=3. Full shape received: [None, 100, 100] 似乎是因为灰度化操作之后读取的图片数据的通道那一维就没了,有没有办法解决啊,新手不是很懂

ValueError: bad input shape () 求问这个报错该怎么解决

对着《python机器学习经典实例》打代码,发现会报错bad input shape ()。感觉问题出在最后一行,菜鸟想问下该怎么解决?非常感谢 数据如下: med,low,5more,more,med,med,good med,low,5more,more,med,high,vgood med,low,5more,more,big,low,unacc med,low,5more,more,big,med,good med,low,5more,more,big,high,vgood low,vhigh,2,2,small,low,unacc low,vhigh,2,2,small,med,unacc low,vhigh,2,2,small,high,unacc ... ``` import numpy as np import sys reload(sys) sys.setdefaultencoding('utf-8') from sklearn import preprocessing from sklearn.ensemble import RandomForestClassifier #读取数据 input_path=u'/Users/zhangbei//Desktop/数据挖掘/机器学习/Python-Machine-Learning-Cookbook-master/Chapter02/car.data.txt' fo=open(input_path) lines=fo.readlines() x=[] for line in lines: line=line.strip() x.append(line.split(',')) x=np.array(x) #把字符串特征转换为数值 encoder=[] x_encoded=np.empty(x.shape) for i,item in enumerate(x[0]): encoder.append(preprocessing.LabelEncoder()) x_encoded[:,i]=encoder[-1].fit_transform(x[:,i]) x_encoded.astype(int) x=x_encoded[:,:-1] y=x_encoded[:,-1] #转换测试数据 input_data=np.array(['vhigh','vhight','2','2','small','low']) data_encoded=[-1]*len(input_data) print data_encoded for i,item in enumerate(input_data): data_encoded[i]=int(encoder[i].transform((input_data[i]))) ```

keras input shape怎么写

大家好! 我在尝试使用Keras下面的LSTM做深度学习,我的数据是这样的:X-Train:30000个数据,每个数据6个数值,所以我的X_train是(30000*6) 根据keras的说明文档,input shape应该是(samples,timesteps,input_dim) 所以我觉得我的input shape应该是:input_shape=(30000,1,6),但是运行后报错: Input 0 is incompatible with layer lstm_6: expected ndim=3, found ndim=4 我觉得是input shape错了,改成(1,6)错误又变成了: ValueError: Error when checking input: expected lstm_7_input to have 3 dimensions, but got array with shape (30000, 6) 改成(30000,6)错误提示一样 我该怎么设置input shape呢,多谢!

(1)定义一个抽象类Shape,在该类中: 创建抽象方法Area()和printArea(), Area() 求解并返回面积,printArea() 用于输出面积,无返回值。 (2)创建Shape类...........

编写一个完整的Java程序,要求: (1)定义一个抽象类Shape,在该类中: 创建抽象方法Area()和printArea(), Area() 求解并返回面积,printArea() 用于输出面积,无返回值。 (2)创建Shape类的子类Rectangle(矩形)类,该类中: 包括两个私有整型变量width(宽)和length(长); 定义一个构造方法对width和length进行初始化; 在该类中实现抽象类中所定义的抽象方法; (3)定义主类Test,在主方法中: 创建矩形实例,用构造方法初始化长、宽分别为3和4,求解并输出该矩形的面积。

在做kaggle中的titanic为什么报错呢?

小小白在上手titanic,出了问题,求帮忙解答~ 代码如下: ``` import pandas from sklearn.linear_model import LinearRegression from sklearn.model_selection import KFold #导入 titanic = pandas.read_csv("all/train.csv") #print(titanic.head(3)) #print(titanic.describe()) #处理缺失数据 titanic["Age"] = titanic["Age"].fillna(titanic["Age"].median()) #print(titanic.describe()) titanic.loc[titanic["Sex"]=="male","Sex"]=0 titanic.loc[titanic["Sex"]=="female","Sex"]=1 titanic["Embarked"] = titanic["Embarked"].fillna('S') titanic.loc[titanic["Embarked"]=="S","Embarked"]=0 titanic.loc[titanic["Embarked"]=="C","Embarked"]=1 titanic.loc[titanic["Embarked"]=="Q","Embarked"]=2 #print(titanic["Sex"].unique()) #print(titanic["Embarked"].unique()) #KFold predictors = ["Pclass","Sex","SibSp","Parch","Fare","Embareked"] alg = LinearRegression() kf = KFold(titanic.shape[0],n_folds=3,random_state=1) predictions = [] for train, test in kf: train_predictiors = (titanic[predictors].iloc[train,:]) train_target = titanic["Survived"].iloc[train] alg.fit(train_predictiors,train_target) test_prdictions = alg.predict(titanic[predictors].iloc[test,:]) predictions.append(test_prdictions) ``` 错误如下: Traceback (most recent call last): File "F:/python项目/titanic.py", line 20, in <module> kf = KFold(titanic.shape[0],n_folds=3,random_state=1) TypeError: __init__() got an unexpected keyword argument 'n_folds' Process finished with exit code 1 非常感谢~

Mask RCNN中mask的提取问题

关于mask RCNN在测试时,生成的mask是与原图片在一起的,现在想单独将mask提取出来,但是当图中有多类目标时,无法同时提取所有mask,应该是代码的for循环出了问题,但我是新手小白,不知道该如何解决,求教 def display_masks(count,image, boxes, masks, class_ids, title="", figsize=(6.4, 4.8), ax=None, show_mask=True, colors=None): # Number of instances N = boxes.shape[0] if not N: print("\n*** No instances to display *** \n") else: assert boxes.shape[0] == masks.shape[-1] == class_ids.shape[0] # If no axis is passed, create one and automatically call show() auto_show = False if not ax: _, ax = plt.subplots(1, figsize=figsize) auto_show = True # Generate random colors colors = colors or random_colors(N) # Show area outside image boundaries. height, width = image.shape[:2] #ax.set_ylim(height + 10, -10) #ax.set_xlim(-10, width + 10) ax.axis('off') ax.set_title(title) masked_image = image.astype(np.uint32).copy() for i in range(N): color = colors[i] # Mask mask = masks[:, :, i] if show_mask: masked_image = apply_mask(masked_image, mask, color) # Mask Polygon # Pad to ensure proper polygons for masks that touch image edges. padded_mask = np.zeros( (mask.shape[0] + 2, mask.shape[1] + 2), dtype=np.uint8) padded_mask[1:-1, 1:-1] = mask ax.imshow(mask.astype(np.uint8)) if auto_show: plt.show() ``` ```

mnist,自己手写一个数字总是验证不正确

jupyter上运行结果如下 ## 导入数据 ``` (x_train,y_train), (x_test,y_test) = mnist.load_data() x_train = x_train.reshape(x_train.shape[0],28,28,1).astype('float32') x_test = x_test.reshape(x_test.shape[0],28,28,1).astype('float32') x_train /= 255 x_test /= 255 y_train = np_utils.to_categorical(y_train,10) y_test = np_utils.to_categorical(y_test,10) ``` ## 训练网络 ``` model = Sequential() model.add(Conv2D(filters = 64, kernel_size = (3,3), activation = 'relu', input_shape = (28,28,1))) model.add(MaxPooling2D(pool_size = (2,2))) model.add(Conv2D(filters = 64, kernel_size = (3,3), activation = 'relu')) model.add(MaxPooling2D(pool_size = (2,2))) model.add(Dropout(0.5)) model.add(Flatten()) model.add(Dense(128, activation = 'relu')) model.add(Dense(10,activation = 'softmax')) model.compile(loss = 'categorical_crossentropy', optimizer = Adadelta(), metrics = ['accuracy']) model.fit(x_train,y_train,batch_size=100,epochs=20) ``` ## 训练结果 ![图片说明](https://img-ask.csdn.net/upload/201712/18/1513607157_995645.png) ## 用自己手写的数字验证结果总是同一个数字 ``` # 将图片转为灰度图并调整为28*28大小 def convert_gray(f, **args): rgb=io.imread(f) gray=color.rgb2gray(rgb) dst=transform.resize(gray,(28,28)) return dst ``` test_gray_resize = convert_gray('number3.png') ![图片说明](https://img-ask.csdn.net/upload/201712/18/1513607490_324155.png) ![图片说明](https://img-ask.csdn.net/upload/201712/18/1513607537_288275.png) 运行结果如上,我手写的数字3,预测结果是6,后面不管我用哪个自己手写的图片验证,预测结果都是6,刚开始做深度学习,出现bug真是愁好几天,大神求解惑

TensorFlow报错:Shape (44, ?) must have rank at least 3 ?

用TensorFlow执行RNN,报错ValueError: Shape (44, ?) must have rank at least 3,下面是程序的部分代码,请问应该在哪里修改下?谢谢 解析函数: ``` feature = ['feature1',......,'feature44'] label = 'label2' featureNames = list(feature) featureNames.append(label) columns = [tf.FixedLenFeature(shape=[1], dtype=tf.float32) for k in featureNames] featuresDict = dict(zip(featureNames, columns)) def parse_tfrecord(example_proto): parsed_features = tf.parse_single_example(example_proto, featuresDict) labels = parsed_features.pop(label) return parsed_features, tf.cast(labels, tf.int32) ``` 输入函数(原始数据是有44个特征值的数值序列,每个序列为一样本): ``` def tfrecord_input_fn(fileName,numEpochs=None,shuffle=True,batchSize=None): #读取tfrecord数据 dataset = tf.data.TFRecordDataset(fileName, compression_type='GZIP') #执行解析函数 dataset = dataset.map(parse_tfrecord) #打乱数据 if shuffle: dataset = dataset.shuffle(buffer_size=batchSize * 100*numEpochs) #每32个样本作为一个batch dataset = dataset.batch(32) #重复数据 dataset = dataset.repeat(numEpochs) print('features:',features) print('labels:',labels) iterator = dataset.make_one_shot_iterator() features, labels = iterator.get_next() return features, labels ``` 打印返回值结果: ``` features: {'feature1': <tf.Tensor 'IteratorGetNext_21:0' shape=(?, 1) dtype=float32>, 'feature2': <tf.Tensor 'IteratorGetNext_21:1' shape=(?, 1) dtype=float32>,......, 'feature44': <tf.Tensor 'IteratorGetNext_21:43' shape=(?, 1) dtype=float32>} labels: Tensor("IteratorGetNext_21:44", shape=(?, 1), dtype=int32) ``` 执行网络后报错: ``` ValueError: Shape (44, ?) must have rank at least 3 ```

pandas 对csv增加一行一列并随机赋值的问题

在最后一列添加新的列,列名为wine; 添加的数据为随机正态分布,1/5的数据为1,剩余数据为-1; df['wine']=-1 ran1=random.sample(range(0,len(df)//5),len(df)//5)#随机产生行号 for i in ran1: df['wine'][ran1[i]]=1 #这里难道不是对wine列 ran1[i]行赋值为1吗, #我的结果为什么是前面全是1, 后面是-1啊 在最后一行之后添加一行,随机添加1/4的数据为1,剩余为-1; df.loc[len(df)] = -1 ran2=random.sample(range(0,df.shape[1]//4),df.shape[1]//4)#随机产生列号 for i in ran2: df[ran2[i]][df.shape[0]]=1#这里难道不是对最后一行,ran2[i]列赋值为1吗

tensorflow.python.framework.errors_impl.InternalError: Blas GEMM launch failed ,程序中出现anaconda错误?

在pycharm中运行python程序时,出现anaconda中的错误,如下图: ![图片说明](https://img-ask.csdn.net/upload/201910/22/1571713274_114393.png) 这是版本不匹配,还是程序里有调用,或者其它什么问题?有人可以帮忙看一下吗?这是教程视频里的程序,视频里可以运行出来,我的tensorflow、CUDA、cudnn是官网下的,可能比他的新一些,10.1和10.0版本,或者测试版和正式版这种差别。下面是运行的前向传播的代码: ``` import tensorflow as tf from tensorflow import keras from tensorflow.keras import datasets import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' # x: [60k, 28, 28], # y: [60k] (x, y), _ = datasets.mnist.load_data() # x: [0~255] => [0~1.] x = tf.convert_to_tensor(x, dtype=tf.float32) / 255. y = tf.convert_to_tensor(y, dtype=tf.int32) print(x.shape, y.shape, x.dtype, y.dtype) print(tf.reduce_min(x), tf.reduce_max(x)) print(tf.reduce_min(y), tf.reduce_max(y)) train_db = tf.data.Dataset.from_tensor_slices((x,y)).batch(128) train_iter = iter(train_db) sample = next(train_iter) print('batch:', sample[0].shape, sample[1].shape) # [b, 784] => [b, 256] => [b, 128] => [b, 10] # [dim_in, dim_out], [dim_out] w1 = tf.Variable(tf.random.truncated_normal([784, 256], stddev=0.1)) b1 = tf.Variable(tf.zeros([256])) w2 = tf.Variable(tf.random.truncated_normal([256, 128], stddev=0.1)) b2 = tf.Variable(tf.zeros([128])) w3 = tf.Variable(tf.random.truncated_normal([128, 10], stddev=0.1)) b3 = tf.Variable(tf.zeros([10])) lr = 1e-3 for epoch in range(10): # iterate db for 10 for step, (x, y) in enumerate(train_db): # for every batch # x:[128, 28, 28] # y: [128] # [b, 28, 28] => [b, 28*28] x = tf.reshape(x, [-1, 28*28]) with tf.GradientTape() as tape: # tf.Variable # x: [b, 28*28] # h1 = x@w1 + b1 # [b, 784]@[784, 256] + [256] => [b, 256] + [256] => [b, 256] + [b, 256] h1 = x@w1 + tf.broadcast_to(b1, [x.shape[0], 256]) h1 = tf.nn.relu(h1) # [b, 256] => [b, 128] h2 = h1@w2 + b2 h2 = tf.nn.relu(h2) # [b, 128] => [b, 10] out = h2@w3 + b3 # compute loss # out: [b, 10] # y: [b] => [b, 10] y_onehot = tf.one_hot(y, depth=10) # mse = mean(sum(y-out)^2) # [b, 10] loss = tf.square(y_onehot - out) # mean: scalar loss = tf.reduce_mean(loss) # compute gradients grads = tape.gradient(loss, [w1, b1, w2, b2, w3, b3]) # print(grads) # w1 = w1 - lr * w1_grad w1.assign_sub(lr * grads[0]) b1.assign_sub(lr * grads[1]) w2.assign_sub(lr * grads[2]) b2.assign_sub(lr * grads[3]) w3.assign_sub(lr * grads[4]) b3.assign_sub(lr * grads[5]) if step % 100 == 0: print(epoch, step, 'loss:', float(loss)) ```

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

我以为我学懂了数据结构,直到看了这个导图才发现,我错了

数据结构与算法思维导图

String s = new String(" a ") 到底产生几个对象?

老生常谈的一个梗,到2020了还在争论,你们一天天的,哎哎哎,我不是针对你一个,我是说在座的各位都是人才! 上图红色的这3个箭头,对于通过new产生一个字符串(”宜春”)时,会先去常量池中查找是否已经有了”宜春”对象,如果没有则在常量池中创建一个此字符串对象,然后堆中再创建一个常量池中此”宜春”对象的拷贝对象。 也就是说准确答案是产生了一个或两个对象,如果常量池中原来没有 ”宜春” ,就是两个。...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

Linux面试题(2020最新版)

文章目录Linux 概述什么是LinuxUnix和Linux有什么区别?什么是 Linux 内核?Linux的基本组件是什么?Linux 的体系结构BASH和DOS之间的基本区别是什么?Linux 开机启动过程?Linux系统缺省的运行级别?Linux 使用的进程间通信方式?Linux 有哪些系统日志文件?Linux系统安装多个桌面环境有帮助吗?什么是交换空间?什么是root帐户什么是LILO?什...

将一个接口响应时间从2s优化到 200ms以内的一个案例

一、背景 在开发联调阶段发现一个接口的响应时间特别长,经常超时,囧… 本文讲讲是如何定位到性能瓶颈以及修改的思路,将该接口从 2 s 左右优化到 200ms 以内 。 二、步骤 2.1 定位 定位性能瓶颈有两个思路,一个是通过工具去监控,一个是通过经验去猜想。 2.1.1 工具监控 就工具而言,推荐使用 arthas ,用到的是 trace 命令 具体安装步骤很简单,大家自行研究。 我的使用步骤是...

学历低,无法胜任工作,大佬告诉你应该怎么做

微信上收到一位读者小涛的留言,大致的意思是自己只有高中学历,经过培训后找到了一份工作,但很难胜任,考虑要不要辞职找一份他能力可以胜任的实习工作。下面是他留言的一部分内容: 二哥,我是 2016 年高中毕业的,考上了大学但没去成,主要是因为当时家里经济条件不太允许。 打工了三年后想学一门技术,就去培训了。培训的学校比较垃圾,现在非常后悔没去正规一点的机构培训。 去年 11 月份来北京找到了一份工...

JVM内存结构和Java内存模型别再傻傻分不清了

讲一讲什么是Java内存模型 Java内存模型虽说是一个老生常谈的问题 ,也是大厂面试中绕不过的,甚至初级面试也会问到。但是真正要理解起来,还是相当困难,主要这个东西看不见,摸不着。 这是一个比较开放的题目,面试官主要想考察的是对Java内存模型的了解到了什么程度了,然后根据回答进行进一步的提问 下面,我们就这个问题的回答列一下我们的思路 具体的思路如下: 说一说Java内存模型的缘由 简略辨析...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

Google 与微软的浏览器之争

浏览器再现“神仙打架”。整理 | 屠敏头图 | CSDN 下载自东方 IC出品 | CSDN(ID:CSDNnews)从 IE 到 Chrome,再从 Chrome 到 Edge,微软与...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

85后蒋凡:28岁实现财务自由、34岁成为阿里万亿电商帝国双掌门,他的人生底层逻辑是什么?...

蒋凡是何许人也? 2017年12月27日,在入职4年时间里,蒋凡开挂般坐上了淘宝总裁位置。 为此,时任阿里CEO张勇在任命书中力赞: 蒋凡加入阿里,始终保持创业者的冲劲,有敏锐的...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

什么时候跳槽,为什么离职,你想好了么?

都是出来打工的,多为自己着想

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

立即提问