机器学习中怎么使用保存的模型进行预测

我使用一个文档中的数据训练了岭回归模型并保存,想通过这个模型来预测另一个文档中的数据(两个文档中的数据只是数量不一样)

预测的文档中有2W+条数据,但是预测结果只有6000+条。

请问各位大神怎么才能使预测结果按每条数据的顺序全部得出来。

本人完全小白,论文想做个机器学习的东西...求各位大神指导

from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
import pandas as pd
import joblib as jb

def mylinear():
    """
    岭回归预测TOC
    :return: None
    """
    # 获取数据
    data = pd.read_csv("./NH25-4.csv")
    # 删除部分列
    data = data.drop(["E_HORZ", "E_VERT", "PR_HORZ", "PR_VERT", "Brittle_Horz%", "Brittle_Vert%", "POR", "DEPTH"],
                     axis=1)

    # 取出特征值和目标值
    y = data["TOC"]
    x = data.drop(["TOC"], axis=1)

    # 分割数据集到训练集和测试集
    x_train, x_test, y_train, y_test = train_test_split(x, y)

    # 标准化
    std_x = StandardScaler()

    x_train = std_x.fit_transform(x_train)
    x_test = std_x.transform(x_test)

    # 目标值
    std_y = StandardScaler()

    y_train = std_y.fit_transform(y_train.values.reshape(-1, 1))
    y_test = std_y.transform(y_test.values.reshape(-1, 1))

    # 加载模型
    model = jb.load("./test_Ridge.pkl")
    y_predict = std_y.inverse_transform(model.predict(x_test))

    print("保存的模型预测的结果:", y_predict)

if __name__ == "__main__":
    mylinear()

1个回答

分割数据集到训练集和测试集
x_train, x_test, y_train, y_test = train_test_split(x, y)
你加载模型直接预测 不需要对数据进行再次切分 因为你切分为了训练集和测试集,所有测试集只有6000+数据。 你对数据处理的时候直接对整体进行处理
然后整体预测就可以了

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
机器学习的模型文件怎么理解,谁能解答一下
机器学习的模型文件是什么,通俗的解释是什么?怎么理解模型的概念呢,能举个例子吗?谢谢大佬们
机器学习中整合不同预测方法的公式的含义
我运用机器学习的方法来预测两个蛋白质是否互作,而目前有4种基于氨基酸序列的编码方法结合SVM构成4种预测方法。我参考了别人的文献用下面的公式对4种方法进行一个整合,希望整合后能够比单种预测方法的预测精度要高。 每一个样本运用的公式如下: ![图片说明](https://img-ask.csdn.net/upload/201703/06/1488786783_62217.png) 这里的s_i指的是每个样本用第i种方法预测后的得分,〖AUC〗_i指的是所有样本用第i种预测方法预测后的得分做出ROC曲线下的面积,s ̂为整合后每个样本的分数。 我不明白的地方是,这两个公式背后到底蕴含着什么意义和道理,为何要这样进行处理?
关于机器学习模型调参的正确步骤是怎样的?
机器学习的模型,要涉及到不少参数的调参。。那其正确的步骤应该是怎样的呢? 第一种做法是,对一个个或一组组参数去调,其他参数使用默认值。。调出一个或一组参数后,记录下来。下一次继续调另外一个或一组参数。。直至所有要调的参数全部调节完毕。然后将所获得的最优参数一股脑传入模型中,正式训练。 第二种做法是,先对一个或一组参数进行调参,得出最优值后,传入模型中,再调第二个或第二组参数。与前面一种的区别就是,前面那种调出最优参数后,并没有马上传入模型训练,而只是记录下来,到最后一股脑传入。而这种则是一步步地固定最优参数组合,直到最后。。 当然,还有的做法是一股脑对所有参数调参,这种做法相对较少,只能针对简单的模型。对复杂的模型而言,调参耗时过大。。 因此,想请教下各位,正确的做法,应该是怎样的呢??
Matlab 用训练好的lasso模型预测
用Matlab内置的lasso函数,10—fold进行了训练,怎么用训练好的lasso模型去预测,生成预测值。
spark 机器学习 模型上线
现在我使用spark mllib的逻辑回归算法计算点击率的模型快上线了。 但之后导师需要我使用决策树和因子分解机模型计算点击率预测。 我想请问这种情况下我应该怎么让这两个模型构建线上服务,并且有没有可能不和spark交互就能够构建线上服务呢?谢谢!
LSTM模型如何进行新数据的预测?
训练好LSTM模型(单变量)后,现在需要进行数据预测。请教下该怎么做? 早期的LSTM模型训练时,数据是每隔4小时为一个数据,time-step设置为7. 现在要预测未来7天的数据。有点不清楚具体该如何处理了。。求指点。。 个人想法:按照理论做法,需要事先反向提取最后7个数据,以预测第一个新值。然后利用第一个新值,并结合前面6个的数据,预测第二个新值,依次循环下去,直到第7天。。 但是LSTM模型训练时,对数据的处理很麻烦,要归一化处理,还要切分X和Y(原来是单变量,需要按照time_step切分出新的X和Y,且是一一对应的)。问题在于: 1. 我如果要进行预测的话,不需要再去切分X和Y吧,直接视为X就是了吧? 2. 如何利用预测出来的第1个数值,结合之前的6个值,来预测第2个数值呢?
机器学习中分类器验证AUC值不理想,能否比较验证集实际频率和预测概率均值来说明模型准确性。
大家好,我目前在用一批土壤数据做二分类模型,尝试了随机森林、SVM、逻辑斯蒂回归、朴素贝叶斯等常用分类算法,但是结果不太理想。不理想指的是采用常规的ROC曲线法进行模型精度验证时,曲线基本就在0.5随机线附近,AUC也就0.53左右的样子。 之前看到过一篇关于贝叶斯概率预测模型的文章(Wu Bo, 2018),他在检验模型准确性时没有采取ROC曲线法或类似基于混淆矩阵的方法,而是把验证数据集当作一个整体,计算了两个分类各自的频率,然后将验证数据集参数的平均值带入训练好的贝叶斯模型,求出一个后验概率,通过比较后验概率与实际频率,来说明模型的好坏。 于是尝试用这种思路,去把我的验证数据集每个样本带入模型计算得到的那个数字(例如贝叶斯和逻辑斯蒂回归都可以给出后验概率)求平均,发现这个平均数确实和实际两个类别的频率很接近。我又通过改变数据的分类阈值(比如说原来是170cm以上算高个,现在调整成160就是高个儿),发现不同阈值下求得的这个平均数和相应的实际频率都很一致。 本人数学底子挺差的,不知道这种验证方法是否可行?如果可行的话,后面是什么原理?能否指点个参考文献?如果不行的话,又是为什么呢?
机器学习模型的损失函数,是如何进行选取的?
我们训练数据时,需要指定模型的损失函数,并对其进行优化处理,使得模型到达要求。那这个模型的损失函数,一般情况下是如何确定的呢?到底是选用平方损失函数还是绝对损失函数,或是对数损失函数??
机器学习模型及其算法的框架疑问
刚开始学机器学习,对其中的模型及其适用的算法,都有些没搞明白。。也努力去看了些文章,还是越高越迷糊。。求高手指点一二。。 我自己弄了下大致框架,就是想知道到底哪些模型,适用哪些算法?(这个神经网络,按正常分类,应该属于深度学习范畴的,到底属于生成法还是判别法,还是都不算?) 现在什么梯度下降法,极大似然估计,最小二乘法,核函数等,简直把我搞晕了。。 ![图片说明](https://img-ask.csdn.net/upload/201904/14/1555205748_608313.png)
为什么我在使用机器学习中的softmax来进行学习时预测时预测时间太短而且精确度一直为零
是因为我的输入数据较少吗还是算法有问题 ![图片说明](https://img-ask.csdn.net/upload/201905/03/1556844528_823169.png) ``` import math import pandas as pd import numpy as np import random import time from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score class Softmax(object): def __init__(self): self.learning_step = 0.000001 # 学习速率 self.max_iteration = 100000 # 最大迭代次数 self.weight_lambda = 0.01 # 衰退权重 def cal_e(self,x,l): ''' 计算博客中的公式3 ''' theta_l = self.w[l] product = np.dot(theta_l,x) return math.exp(product) def cal_probability(self,x,j): ''' 计算博客中的公式2 ''' molecule = self.cal_e(x,j) denominator = sum([self.cal_e(x,i) for i in range(self.k)]) return molecule/denominator def cal_partial_derivative(self,x,y,j): ''' 计算博客中的公式1 ''' first = int(y==j) # 计算示性函数 second = self.cal_probability(x,j) # 计算后面那个概率 return -x*(first-second) + self.weight_lambda*self.w[j] def predict_(self, x): result = np.dot(self.w,x) row, column = result.shape # 找最大值所在的列 _positon = np.argmax(result) m, n = divmod(_positon, column) return m def train(self, features, labels): self.k = len(set(labels)) self.w = np.zeros((self.k,len(features[0])+1)) time = 0 while time < self.max_iteration: print('loop %d' % time) time += 1 index = random.randint(0, len(labels) - 1) x = features[index] y = labels[index] x = list(x) x.append(1.0) x = np.array(x) derivatives = [self.cal_partial_derivative(x,y,j) for j in range(self.k)] for j in range(self.k): self.w[j] -= self.learning_step * derivatives[j] def predict(self,features): labels = [] for feature in features: x = list(feature) x.append(1) x = np.matrix(x) x = np.transpose(x) labels.append(self.predict_(x)) return labels if __name__ == '__main__': print('Start read data') time_1 = time.time() raw_data = pd.read_csv('E:\jiqi\jiqiqiq.CSV', header=0) data = raw_data.values imgs = data[0::, 1::] labels = data[::, 0] # 选取 2/3 数据作为训练集, 1/3 数据作为测试集 train_features, test_features, train_labels, test_labels = train_test_split( imgs, labels, test_size=0.33, random_state=23323) # print train_features.shape # print train_features.shape time_2 = time.time() print('read data cost '+ str(time_2 - time_1)+' second') print('Start training') p = Softmax() p.train(train_features, train_labels) time_3 = time.time() print('training cost '+ str(time_3 - time_2)+' second') print('Start predicting') test_predict = p.predict(test_features) time_4 = time.time() print('predicting cost ' + str(time_4 - time_3) +' second') score = accuracy_score(test_labels, test_predict) print("The accruacy socre is " + str(score)) ```
tensorflow载入训练好的模型进行预测,同一张图片预测的结果却不一样????
最近在跑deeplabv1,在测试代码的时候,跑通了训练程序,但是用训练好的模型进行与测试却发现相同的图片预测的结果不一样??请问有大神知道怎么回事吗? 用的是saver.restore()方法载入模型。代码如下: ``` def main(): """Create the model and start the inference process.""" args = get_arguments() # Prepare image. img = tf.image.decode_jpeg(tf.read_file(args.img_path), channels=3) # Convert RGB to BGR. img_r, img_g, img_b = tf.split(value=img, num_or_size_splits=3, axis=2) img = tf.cast(tf.concat(axis=2, values=[img_b, img_g, img_r]), dtype=tf.float32) # Extract mean. img -= IMG_MEAN # Create network. net = DeepLabLFOVModel() # Which variables to load. trainable = tf.trainable_variables() # Predictions. pred = net.preds(tf.expand_dims(img, dim=0)) # Set up TF session and initialize variables. config = tf.ConfigProto() config.gpu_options.allow_growth = True sess = tf.Session(config=config) #init = tf.global_variables_initializer() sess.run(tf.global_variables_initializer()) # Load weights. saver = tf.train.Saver(var_list=trainable) load(saver, sess, args.model_weights) # Perform inference. preds = sess.run([pred]) print(preds) if not os.path.exists(args.save_dir): os.makedirs(args.save_dir) msk = decode_labels(np.array(preds)[0, 0, :, :, 0]) im = Image.fromarray(msk) im.save(args.save_dir + 'mask1.png') print('The output file has been saved to {}'.format( args.save_dir + 'mask.png')) if __name__ == '__main__': main() ``` 其中load是 ``` def load(saver, sess, ckpt_path): '''Load trained weights. Args: saver: TensorFlow saver object. sess: TensorFlow session. ckpt_path: path to checkpoint file with parameters. ''' ckpt = tf.train.get_checkpoint_state(ckpt_path) if ckpt and ckpt.model_checkpoint_path: saver.restore(sess, ckpt.model_checkpoint_path) print("Restored model parameters from {}".format(ckpt_path)) ``` DeepLabLFOVMode类如下: ``` class DeepLabLFOVModel(object): """DeepLab-LargeFOV model with atrous convolution and bilinear upsampling. This class implements a multi-layer convolutional neural network for semantic image segmentation task. This is the same as the model described in this paper: https://arxiv.org/abs/1412.7062 - please look there for details. """ def __init__(self, weights_path=None): """Create the model. Args: weights_path: the path to the cpkt file with dictionary of weights from .caffemodel. """ self.variables = self._create_variables(weights_path) def _create_variables(self, weights_path): """Create all variables used by the network. This allows to share them between multiple calls to the loss function. Args: weights_path: the path to the ckpt file with dictionary of weights from .caffemodel. If none, initialise all variables randomly. Returns: A dictionary with all variables. """ var = list() index = 0 if weights_path is not None: with open(weights_path, "rb") as f: weights = cPickle.load(f) # Load pre-trained weights. for name, shape in net_skeleton: var.append(tf.Variable(weights[name], name=name)) del weights else: # Initialise all weights randomly with the Xavier scheme, # and # all biases to 0's. for name, shape in net_skeleton: if "/w" in name: # Weight filter. w = create_variable(name, list(shape)) var.append(w) else: b = create_bias_variable(name, list(shape)) var.append(b) return var def _create_network(self, input_batch, keep_prob): """Construct DeepLab-LargeFOV network. Args: input_batch: batch of pre-processed images. keep_prob: probability of keeping neurons intact. Returns: A downsampled segmentation mask. """ current = input_batch v_idx = 0 # Index variable. # Last block is the classification layer. for b_idx in xrange(len(dilations) - 1): for l_idx, dilation in enumerate(dilations[b_idx]): w = self.variables[v_idx * 2] b = self.variables[v_idx * 2 + 1] if dilation == 1: conv = tf.nn.conv2d(current, w, strides=[ 1, 1, 1, 1], padding='SAME') else: conv = tf.nn.atrous_conv2d( current, w, dilation, padding='SAME') current = tf.nn.relu(tf.nn.bias_add(conv, b)) v_idx += 1 # Optional pooling and dropout after each block. if b_idx < 3: current = tf.nn.max_pool(current, ksize=[1, ks, ks, 1], strides=[1, 2, 2, 1], padding='SAME') elif b_idx == 3: current = tf.nn.max_pool(current, ksize=[1, ks, ks, 1], strides=[1, 1, 1, 1], padding='SAME') elif b_idx == 4: current = tf.nn.max_pool(current, ksize=[1, ks, ks, 1], strides=[1, 1, 1, 1], padding='SAME') current = tf.nn.avg_pool(current, ksize=[1, ks, ks, 1], strides=[1, 1, 1, 1], padding='SAME') elif b_idx <= 6: current = tf.nn.dropout(current, keep_prob=keep_prob) # Classification layer; no ReLU. # w = self.variables[v_idx * 2] w = create_variable(name='w', shape=[1, 1, 1024, n_classes]) # b = self.variables[v_idx * 2 + 1] b = create_bias_variable(name='b', shape=[n_classes]) conv = tf.nn.conv2d(current, w, strides=[1, 1, 1, 1], padding='SAME') current = tf.nn.bias_add(conv, b) return current def prepare_label(self, input_batch, new_size): """Resize masks and perform one-hot encoding. Args: input_batch: input tensor of shape [batch_size H W 1]. new_size: a tensor with new height and width. Returns: Outputs a tensor of shape [batch_size h w 18] with last dimension comprised of 0's and 1's only. """ with tf.name_scope('label_encode'): # As labels are integer numbers, need to use NN interp. input_batch = tf.image.resize_nearest_neighbor( input_batch, new_size) # Reducing the channel dimension. input_batch = tf.squeeze(input_batch, squeeze_dims=[3]) input_batch = tf.one_hot(input_batch, depth=n_classes) return input_batch def preds(self, input_batch): """Create the network and run inference on the input batch. Args: input_batch: batch of pre-processed images. Returns: Argmax over the predictions of the network of the same shape as the input. """ raw_output = self._create_network( tf.cast(input_batch, tf.float32), keep_prob=tf.constant(1.0)) raw_output = tf.image.resize_bilinear( raw_output, tf.shape(input_batch)[1:3, ]) raw_output = tf.argmax(raw_output, dimension=3) raw_output = tf.expand_dims(raw_output, dim=3) # Create 4D-tensor. return tf.cast(raw_output, tf.uint8) def loss(self, img_batch, label_batch): """Create the network, run inference on the input batch and compute loss. Args: input_batch: batch of pre-processed images. Returns: Pixel-wise softmax loss. """ raw_output = self._create_network( tf.cast(img_batch, tf.float32), keep_prob=tf.constant(0.5)) prediction = tf.reshape(raw_output, [-1, n_classes]) # Need to resize labels and convert using one-hot encoding. label_batch = self.prepare_label( label_batch, tf.stack(raw_output.get_shape()[1:3])) gt = tf.reshape(label_batch, [-1, n_classes]) # Pixel-wise softmax loss. loss = tf.nn.softmax_cross_entropy_with_logits(logits=prediction, labels=gt) reduced_loss = tf.reduce_mean(loss) return reduced_loss ``` 按理说载入模型应该没有问题,可是不知道为什么结果却不一样? 图片:![图片说明](https://img-ask.csdn.net/upload/201911/15/1573810836_83106.jpg) ![图片说明](https://img-ask.csdn.net/upload/201911/15/1573810850_924663.png) 预测的结果: ![图片说明](https://img-ask.csdn.net/upload/201911/15/1573810884_985680.png) ![图片说明](https://img-ask.csdn.net/upload/201911/15/1573810904_577649.png) 两次结果不一样,与保存的模型算出来的结果也不一样。 我用的是GitHub上这个人的代码: https://github.com/minar09/DeepLab-LFOV-TensorFlow 急急急,请问有大神知道吗???
机器学习中,能不能对多个目标进行预测?
比如我能否用决策树回归去预测多个类型为连续值的目标?应该怎么做,或者有没有相关的参考资料。
分类模型预测的类别如何进行识别
我的模型数据中,原始目标变量设置了类别,分别是3,4,5(原来的标准是1-6,但是数据实际分类出来只符合了3,4,5三种类别,其他类别没有数据匹配到); 而模型预测出来的类别却自动命名为0,1,2。 那我该如何得知他们之间的对应关系呢? 我的代码该如何写?
如何进行机器学习算法的实验?
学习了很多的机器学习算法,但是理解的还是不够透彻,想自己跑实验试试,但是有不知如何下手?! 请教各位大神该如何深入理解和运用?
简单的机器学习更改,指定数据集预测
``` 就是我行对train文件训练后,直接训练test.xls。请问这个应该怎么办呢,越简单越好。 import numpy as np import pandas as pd import matplotlib.pyplot as plt import seaborn as sns #from competition.ml import score %matplotlib inline %config InlineBackend.figure_format = 'retina' %config IPCompleter.greedy = True %config IPCompleter.use_jedi = True pd.options.display.max_colwidth = 100 plt.rcParams['figure.figsize'] = (12, 8) train_path = r'C:\Users\MyPC\Desktop\train.xls' test_path = r'C:\Users\MyPC\Desktop\test.xls' train = pd.read_excel(train_path) test = pd.read_excel(test_path) train.shape, test.shape train.info() test.info() train.head() test.head() train.describe() test.describe() from sklearn.ensemble import ExtraTreesClassifier model=ExtraTreesClassifier() trainX=train[['X1','X2','X3','X4','X5','X6','X7','X8','X9','X10','X11','X12','X13','X14','X15','X16','X17','X18','X19','X20','X21','X22','X23']] trainY=train['Y'] testX=train[['X1','X2','X3','X4','X5','X6','X7','X8','X9','X10','X11','X12','X13','X14','X15','X16','X17','X18','X19','X20','X21','X22','X23']] testY=train['Y'] model.fit(trainX,trainY) y_pred =model.predict(testX)#######预测 np.savetxt(r'C:\Users\MyPC\Desktop\predict.csv', y_pred) #score(y_pred) 就是我行对train文件训练后,直接训练test.xls。请问这个应该怎么办呢,越简单越好。 ```
用python对图片进行CNN机器学习分类时,图片格式的不同会对学习的结果造成影响吗?
我从许多大的图片上扣下了许多小图,并且保存成了.png格式,也做好了标签,将要进行监督学习。 我突然想起来了不同格式的图片是否会影响学习的准确性?我是应该把图片统一保存成.png呢,还是.jpg,或者其他什么格式? 我就想让机器学习更加准确一些! 请求大神们告知,不胜感激!第一次在该网站发布,还没有悬赏积分,敬请谅解!以后常来,慢慢就有积分了。
C# 图形界面中是否有办法使用机器学习
是这样的 我想在图形化界面中使用机器学习的库来做一个界面使用 但我在网上目前找到的只有像ml.net或tensorFlowSharp 他们都是asp.net的框架来完成并不是C# winform (不知道这样描述对不对,有错请务必告诉我) 总之能否使用C#的视窗来调用像tensorflow这种库使用 目前似乎没看到有人做出这样的方法?
机器视觉软件中能否插入三维模型,,,,进行图像比对,提高检测的速度,急求!!
机器视觉软件中能否插入三维模型,,,,进行图像比对,提高检测的速度,急求!!(这是关于哪方面的知识,,想学习)
机器学习中数据标准差极小的预处理策略
##机器学习中数据标准差极小的预处理策略 现有数据大致上服从正态分布,但是标准差极小,如果简单地归一化到[-1,1]处理,得到的数据90%会集中在[-0.3,0.3]中间,数据变得没有什么区分度,请问这种类型的数据应该用什么预处理的策略比较好?
终于明白阿里百度这样的大公司,为什么面试经常拿ThreadLocal考验求职者了
点击上面↑「爱开发」关注我们每晚10点,捕获技术思考和创业资源洞察什么是ThreadLocalThreadLocal是一个本地线程副本变量工具类,各个线程都拥有一份线程私有的数
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过...
《奇巧淫技》系列-python!!每天早上八点自动发送天气预报邮件到QQ邮箱
此博客仅为我业余记录文章所用,发布到此,仅供网友阅读参考,如有侵权,请通知我,我会删掉。 补充 有不少读者留言说本文章没有用,因为天气预报直接打开手机就可以收到了,为何要多此一举发送到邮箱呢!!!那我在这里只能说:因为你没用,所以你没用!!! 这里主要介绍的是思路,不是天气预报!不是天气预报!!不是天气预报!!!天气预报只是用于举例。请各位不要再刚了!!! 下面是我会用到的两个场景: 每日下
面试官问我:什么是消息队列?什么场景需要他?用了会出现什么问题?
你知道的越多,你不知道的越多 点赞再看,养成习惯 GitHub上已经开源 https://github.com/JavaFamily 有一线大厂面试点脑图、个人联系方式,欢迎Star和完善 前言 消息队列在互联网技术存储方面使用如此广泛,几乎所有的后端技术面试官都要在消息队列的使用和原理方面对小伙伴们进行360°的刁难。 作为一个在互联网公司面一次拿一次Offer的面霸,打败了无数
8年经验面试官详解 Java 面试秘诀
    作者 | 胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。   Java程序员准备和投递简历的实
究竟你适不适合买Mac?
我清晰的记得,刚买的macbook pro回到家,开机后第一件事情,就是上了淘宝网,花了500元钱,找了一个上门维修电脑的师傅,上门给我装了一个windows系统。。。。。。 表砍我。。。 当时买mac的初衷,只是想要个固态硬盘的笔记本,用来运行一些复杂的扑克软件。而看了当时所有的SSD笔记本后,最终决定,还是买个好(xiong)看(da)的。 已经有好几个朋友问我mba怎么样了,所以今天尽量客观
程序员一般通过什么途径接私活?
二哥,你好,我想知道一般程序猿都如何接私活,我也想接,能告诉我一些方法吗? 上面是一个读者“烦不烦”问我的一个问题。其实不止是“烦不烦”,还有很多读者问过我类似这样的问题。 我接的私活不算多,挣到的钱也没有多少,加起来不到 20W。说实话,这个数目说出来我是有点心虚的,毕竟太少了,大家轻喷。但我想,恰好配得上“一般程序员”这个称号啊。毕竟苍蝇再小也是肉,我也算是有经验的人了。 唾弃接私活、做外
大学四年自学走来,这些珍藏的「实用工具/学习网站」我全贡献出来了
知乎高赞:文中列举了互联网一线大厂程序员都在用的工具集合,涉及面非常广,小白和老手都可以进来看看,或许有新收获。
《阿里巴巴开发手册》读书笔记-编程规约
Java编程规约命名风格 命名风格 类名使用UpperCamelCase风格 方法名,参数名,成员变量,局部变量都统一使用lowerCamelcase风格 常量命名全部大写,单词间用下划线隔开, 力求语义表达完整清楚,不要嫌名字长 ...
Python爬虫爬取淘宝,京东商品信息
小编是一个理科生,不善长说一些废话。简单介绍下原理然后直接上代码。 使用的工具(Python+pycharm2019.3+selenium+xpath+chromedriver)其中要使用pycharm也可以私聊我selenium是一个框架可以通过pip下载 pip install selenium -i https://pypi.tuna.tsinghua.edu.cn/simple/ 
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
你知道的越多,你不知道的越多 点赞再看,养成习惯 本文 GitHub https://github.com/JavaFamily 已收录,有一线大厂面试点思维导图,也整理了很多我的文档,欢迎Star和完善,大家面试可以参照考点复习,希望我们一起有点东西。 前前言 为啥今天有个前前言呢? 因为你们的丙丙啊,昨天有牌面了哟,直接被微信官方推荐,知乎推荐,也就仅仅是还行吧(心里乐开花)
Java工作4年来应聘要16K最后没要,细节如下。。。
前奏: 今天2B哥和大家分享一位前几天面试的一位应聘者,工作4年26岁,统招本科。 以下就是他的简历和面试情况。 基本情况: 专业技能: 1、&nbsp;熟悉Sping了解SpringMVC、SpringBoot、Mybatis等框架、了解SpringCloud微服务 2、&nbsp;熟悉常用项目管理工具:SVN、GIT、MAVEN、Jenkins 3、&nbsp;熟悉Nginx、tomca
Python爬虫精简步骤1 获取数据
爬虫的工作分为四步: 1.获取数据。爬虫程序会根据我们提供的网址,向服务器发起请求,然后返回数据。 2.解析数据。爬虫程序会把服务器返回的数据解析成我们能读懂的格式。 3.提取数据。爬虫程序再从中提取出我们需要的数据。 4.储存数据。爬虫程序把这些有用的数据保存起来,便于你日后的使用和分析。 这一篇的内容就是:获取数据。 首先,我们将会利用一个强大的库——requests来获取数据。 在电脑上安装
Python绘图,圣诞树,花,爱心 | Turtle篇
1.画圣诞树 import turtle screen = turtle.Screen() screen.setup(800,600) circle = turtle.Turtle() circle.shape('circle') circle.color('red') circle.speed('fastest') circle.up() square = turtle.Turtle()
作为一个程序员,CPU的这些硬核知识你必须会!
CPU对每个程序员来说,是个既熟悉又陌生的东西? 如果你只知道CPU是中央处理器的话,那可能对你并没有什么用,那么作为程序员的我们,必须要搞懂的就是CPU这家伙是如何运行的,尤其要搞懂它里面的寄存器是怎么一回事,因为这将让你从底层明白程序的运行机制。 随我一起,来好好认识下CPU这货吧 把CPU掰开来看 对于CPU来说,我们首先就要搞明白它是怎么回事,也就是它的内部构造,当然,CPU那么牛的一个东
破14亿,Python分析我国存在哪些人口危机!
2020年1月17日,国家统计局发布了2019年国民经济报告,报告中指出我国人口突破14亿。 猪哥的朋友圈被14亿人口刷屏,但是很多人并没有看到我国复杂的人口问题:老龄化、男女比例失衡、生育率下降、人口红利下降等。 今天我们就来分析一下我们国家的人口数据吧! 更多有趣分析教程,扫描下方二维码关注vx公号「裸睡的猪」 即可查看! 一、背景 1.人口突破14亿 2020年1月17日,国家统计局发布
听说想当黑客的都玩过这个Monyer游戏(1~14攻略)
第零关 进入传送门开始第0关(游戏链接) 请点击链接进入第1关: 连接在左边→ ←连接在右边 看不到啊。。。。(只能看到一堆大佬做完的留名,也能看到菜鸡的我,在后面~~) 直接fn+f12吧 &lt;span&gt;连接在左边→&lt;/span&gt; &lt;a href="first.php"&gt;&lt;/a&gt; &lt;span&gt;←连接在右边&lt;/span&gt; o
在家远程办公效率低?那你一定要收好这个「在家办公」神器!
相信大家都已经收到国务院延长春节假期的消息,接下来,在家远程办公可能将会持续一段时间。 但是问题来了。远程办公不是人在电脑前就当坐班了,相反,对于沟通效率,文件协作,以及信息安全都有着极高的要求。有着非常多的挑战,比如: 1在异地互相不见面的会议上,如何提高沟通效率? 2文件之间的来往反馈如何做到及时性?如何保证信息安全? 3如何规划安排每天工作,以及如何进行成果验收? ......
作为一个程序员,内存和磁盘的这些事情,你不得不知道啊!!!
截止目前,我已经分享了如下几篇文章: 一个程序在计算机中是如何运行的?超级干货!!! 作为一个程序员,CPU的这些硬核知识你必须会! 作为一个程序员,内存的这些硬核知识你必须懂! 这些知识可以说是我们之前都不太重视的基础知识,可能大家在上大学的时候都学习过了,但是嘞,当时由于老师讲解的没那么有趣,又加上这些知识本身就比较枯燥,所以嘞,大家当初几乎等于没学。 再说啦,学习这些,也看不出来有什么用啊!
别低估自己的直觉,也别高估自己的智商
所有群全部吵翻天,朋友圈全部沦陷,公众号疯狂转发。这两周没怎么发原创,只发新闻,可能有人注意到了。我不是懒,是文章写了却没发,因为大家的关注力始终在这次的疫情上面,发了也没人看。当然,我...
这个世界上人真的分三六九等,你信吗?
偶然间,在知乎上看到一个问题 一时间,勾起了我深深的回忆。 以前在厂里打过两次工,做过家教,干过辅导班,做过中介。零下几度的晚上,贴过广告,满脸、满手地长冻疮。   再回首那段岁月,虽然苦,但让我学会了坚持和忍耐。让我明白了,在这个世界上,无论环境多么的恶劣,只要心存希望,星星之火,亦可燎原。   下文是原回答,希望能对你能有所启发。   如果我说,这个世界上人真的分三六九等,
为什么听过很多道理,依然过不好这一生?
记录学习笔记是一个重要的习惯,不希望学习过的东西成为过眼云烟。做总结的同时也是一次复盘思考的过程。 本文是根据阅读得到 App上《万维钢·精英日课》部分文章后所做的一点笔记和思考。学习是一个系统的过程,思维模型的建立需要相对完整的学习和思考过程。以下观点是在碎片化阅读后总结的一点心得总结。
B 站上有哪些很好的学习资源?
哇说起B站,在小九眼里就是宝藏般的存在,放年假宅在家时一天刷6、7个小时不在话下,更别提今年的跨年晚会,我简直是跪着看完的!! 最早大家聚在在B站是为了追番,再后来我在上面刷欧美新歌和漂亮小姐姐的舞蹈视频,最近两年我和周围的朋友们已经把B站当作学习教室了,而且学习成本还免费,真是个励志的好平台ヽ(.◕ฺˇд ˇ◕ฺ;)ノ 下面我们就来盘点一下B站上优质的学习资源: 综合类 Oeasy: 综合
如何优雅地打印一个Java对象?
你好呀,我是沉默王二,一个和黄家驹一样身高,和刘德华一样颜值的程序员。虽然已经写了十多年的 Java 代码,但仍然觉得自己是个菜鸟(请允许我惭愧一下)。 在一个月黑风高的夜晚,我思前想后,觉得再也不能这么蹉跎下去了。于是痛下决心,准备通过输出的方式倒逼输入,以此来修炼自己的内功,从而进阶成为一名真正意义上的大神。与此同时,希望这些文章能够帮助到更多的读者,让大家在学习的路上不再寂寞、空虚和冷。 ...
雷火神山直播超两亿,Web播放器事件监听是怎么实现的?
Web播放器解决了在手机浏览器和PC浏览器上播放音视频数据的问题,让视音频内容可以不依赖用户安装App,就能进行播放以及在社交平台进行传播。在视频业务大数据平台中,播放数据的统计分析非常重要,所以Web播放器在使用过程中,需要对其内部的数据进行收集并上报至服务端,此时,就需要对发生在其内部的一些播放行为进行事件监听。 那么Web播放器事件监听是怎么实现的呢? 01 监听事件明细表 名
3万字总结,Mysql优化之精髓
本文知识点较多,篇幅较长,请耐心学习 MySQL已经成为时下关系型数据库产品的中坚力量,备受互联网大厂的青睐,出门面试想进BAT,想拿高工资,不会点MySQL优化知识,拿offer的成功率会大大下降。 为什么要优化 系统的吞吐量瓶颈往往出现在数据库的访问速度上 随着应用程序的运行,数据库的中的数据会越来越多,处理时间会相应变慢 数据是存放在磁盘上的,读写速度无法和内存相比 如何优化 设计
Linux 命令(122)—— watch 命令
1.命令简介 2.命令格式 3.选项说明 4.常用示例 参考文献 [1] watch(1) manual
Linux 命令(121)—— cal 命令
1.命令简介 2.命令格式 3.选项说明 4.常用示例 参考文献 [1] cal(1) manual
记jsp+servlet+jdbc实现的新闻管理系统
1.工具:eclipse+SQLyog 2.介绍:实现的内容就是显示新闻的基本信息,然后一个增删改查的操作。 3.数据库表设计 列名 中文名称 数据类型 长度 非空 newsId 文章ID int 11 √ newsTitle 文章标题 varchar 20 √ newsContent 文章内容 text newsStatus 是否审核 varchar 10 news...
Python新型冠状病毒疫情数据自动爬取+统计+发送报告+数据屏幕(三)发送篇
今天介绍的项目是使用 Itchat 发送统计报告 项目功能设计: 定时爬取疫情数据存入Mysql 进行数据分析制作疫情报告 使用itchat给亲人朋友发送分析报告(本文) 基于Django做数据屏幕 使用Tableau做数据分析 来看看最终效果 目前已经完成,预计2月12日前更新 使用 itchat 发送数据统计报告 itchat 是一个基于 web微信的一个框架,但微信官方并不允
相关热词 c#开发的dll注册 c#的反射 c# grid绑定数据源 c#多线程怎么循环 c# 鼠标左键 c# char占位符 c# 日期比较 c#16进制转换为int c#用递归求顺序表中最大 c#小型erp源代码
立即提问