机器学习中分类器验证AUC值不理想,能否比较验证集实际频率和预测概率均值来说明模型准确性。 80C

大家好,我目前在用一批土壤数据做二分类模型,尝试了随机森林、SVM、逻辑斯蒂回归、朴素贝叶斯等常用分类算法,但是结果不太理想。不理想指的是采用常规的ROC曲线法进行模型精度验证时,曲线基本就在0.5随机线附近,AUC也就0.53左右的样子。
之前看到过一篇关于贝叶斯概率预测模型的文章(Wu Bo, 2018),他在检验模型准确性时没有采取ROC曲线法或类似基于混淆矩阵的方法,而是把验证数据集当作一个整体,计算了两个分类各自的频率,然后将验证数据集参数的平均值带入训练好的贝叶斯模型,求出一个后验概率,通过比较后验概率与实际频率,来说明模型的好坏。
于是尝试用这种思路,去把我的验证数据集每个样本带入模型计算得到的那个数字(例如贝叶斯和逻辑斯蒂回归都可以给出后验概率)求平均,发现这个平均数确实和实际两个类别的频率很接近。我又通过改变数据的分类阈值(比如说原来是170cm以上算高个,现在调整成160就是高个儿),发现不同阈值下求得的这个平均数和相应的实际频率都很一致。
本人数学底子挺差的,不知道这种验证方法是否可行?如果可行的话,后面是什么原理?能否指点个参考文献?如果不行的话,又是为什么呢?

1个回答

感觉你的描述就是计算交叉熵(Cross Entropy)

https://blog.csdn.net/tsyccnh/article/details/79163834

tuzhiyoyo
tuzhiyoyo 十分感谢!我搜了下资料,交叉熵一般用于训练模型时构建损失函数。那么用交叉熵进行验证是否可行呢?没有看到有人提过。另外它用于比较几种不同模型泛化能力时,谁更小谁更好,那么有没有一个经验数值,交叉熵低于该数值时,即可认为模型泛化能力足够好呢?
一年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
关于机器学习中的交叉验证,有一个问题向问问大家?

将数据集随机分为训练集(80%),验证集(10%),测试集(10%)。进行一轮交叉验证操作后,得到了一组最优参数。但是由于数据集是随机划分的,同样的数据集,同样按照8:1:1随机划分数据,当我再一次进行交叉验证,得到的最优参数结果却与上次不同。那么利用交叉验证获取最优参数组合的意义何在?

是否有必要对多个分类模型的评价的AUC(线下面积)进行显著性比较?

各位先达大德, 在下刚接触机器学习两个月,在基于同一组临床数据利用R语言建立分类模型。我使用了ROC对各种不同分类算法得到的AUC进行比较评价。我也计算了sensitivity与specificity等指标。请问我是否有必要对不同模型间的AUC或者其他指标进行显著性验证来证明不同模型的分类能力有显著差异?如果要,使用哪种显著性比较方法较好?因为在下不确定AUC或其他指标是服从正态分布的。 望赐教!

学校机器学习的目录, 全部英文

• Features • Shape Signature, Shape Context • Unüberwachtes lernen (Cluster-Verfahren) • Minimale Spannbäume, Markov Clustering • Bayes Classifier • Appearance Based Object Recognition • Hidden Markov Models • PCA • Adaboost • Random Forest • Neuronale Netze • Faltungsnetze • Deep Learning 1. 各位大佬好,这个是我们学校的机器学习的目录,因为我学的是德语,所以上面这个英语目录一知半解。 2. 有没有大佬能翻译一下上面的这个目录,且推荐一个平台或者是书本,覆盖上面的知识点的,不用全部覆盖,覆盖一大部分就好了! 目的 : 想提前弄到符合上面目录的资料,然后自学,因为下学期教授出去搞项目所以不开课。。

如何用AUC值评价logistics模型和ANN模型?

应用患者的肿瘤标志物和B超数据收集的资料,用python语言建立了光使用肿瘤标志物和肿瘤标志物联合B超诊断卵巢包块良性、交界性、恶性的logistics回归模型和ANN模型,现在得出了logistics1(光用肿瘤标志物的logistics回归分类模型)、logistics2(肿瘤标志联合B超的logistics回归分类模型)、BP-ANN1光用肿瘤标志的BP-ANN模型)和BP-ANN2(肿瘤标志联合B超的BP-ANN模型)这4种模型针对卵巢良性、交界性、恶性的诊断ROC曲线和曲线下面积,用于建立这4种模型的样本资料都是一样的,想问下现在是直接对比AUC值得大小就可以评价他们诊断效能的高低吗?还是需要像网上一些算SE、Z值、P值才能评价这些模型间的好坏?比如我给出的图是做出来的四个模型对诊断卵巢良性疾病的ROC曲线,是不是能直接得出bp-ANN2优于logistics2优于bpANN1优于logistics1模型的结论?![图片说明](https://img-ask.csdn.net/upload/201904/16/1555345391_837510.png)

机器学习中整合不同预测方法的公式的含义

我运用机器学习的方法来预测两个蛋白质是否互作,而目前有4种基于氨基酸序列的编码方法结合SVM构成4种预测方法。我参考了别人的文献用下面的公式对4种方法进行一个整合,希望整合后能够比单种预测方法的预测精度要高。 每一个样本运用的公式如下: ![图片说明](https://img-ask.csdn.net/upload/201703/06/1488786783_62217.png) 这里的s_i指的是每个样本用第i种方法预测后的得分,〖AUC〗_i指的是所有样本用第i种预测方法预测后的得分做出ROC曲线下的面积,s ̂为整合后每个样本的分数。 我不明白的地方是,这两个公式背后到底蕴含着什么意义和道理,为何要这样进行处理?

keras验证的所有结果=1.0,啥原因?

keras做图像2分类,结果如下: [[173 0] [ 0 21]] keras的AUC为: 1.0 AUC: 1.0000 ACC: 1.0000 Recall: 1.0000 F1-score: 1.0000 Precesion: 1.0000 代码如下: data = np.load('1.npz') image_data, label_data= data['image'], data['label'] skf = StratifiedKFold(n_splits=3, shuffle=True) for train, test in skf.split(image_data, label_data): train_x=image_data[train] test_x=image_data[test] train_y=label_data[train] test_y=label_data[test] train_x = np.array(train_x) test_x = np.array(test_x) train_x = train_x.reshape(train_x.shape[0],1,28,28) test_x = test_x.reshape(test_x.shape[0],1,28,28) train_x = train_x.astype('float32') test_x = test_x.astype('float32') train_x /=255 test_x /=255 train_y = np.array(train_y) test_y = np.array(test_y) model.compile(optimizer='rmsprop',loss="binary_crossentropy",metrics=["accuracy"]) model.fit(train_x, train_y,batch_size=64,verbose=1) 根据结果判断,肯定是代码哪错的很离谱,请教到底错在哪?

交叉验证cross_val_score中y出现错误

![图片说明](https://img-ask.csdn.net/upload/201906/26/1561561318_185866.jpg) ![图片说明](https://img-ask.csdn.net/upload/201906/26/1561561340_595572.jpg) 做的是Kaggle的房价项目,交叉验证cross_val_score出现错误Classification metrics can't handle a mix of multiclass and continuous targets,bu'zhi'dao可以这么交叉验证么??

显著图的AUC实验结果分析

楼主您好,已有显著图,想完成显著图的AUC实验结果分析,能不能求教应该怎么操作?求相应代码~1498072980@qq.com

如何用BestExporter保存的最优模型验证测试集。

我训练了一个带early stopping的模型,用BestExporter保存最优模型,如何导出最优模型并且读取用测试集验证auc? ``` exporter = tf.estimator.BestExporter( name="best_exporter", serving_input_receiver_fn=serving_input_fn, exports_to_keep=5) # this will keep the 5 best checkpoints os.makedirs(model.eval_dir()) early_stopping = tf.contrib.estimator.stop_if_no_increase_hook(model, metric_name='eval_auc', max_steps_without_increase=20000, run_every_secs=400) train_spec = tf.estimator.TrainSpec(input_fn=make_input_fn('/hdfs/user/reco/sample_v1', 10), hooks=[early_stopping]) eval_spec = tf.estimator.EvalSpec(input_fn=make_evaluate_input_fn(), exporters=exporter, throttle_secs=120) tf.estimator.train_and_evaluate(model, train_spec, eval_spec) ```

分类预测问题使用梯度下降算法不收敛?

新手初次了解机器学习,用matlab写了一个使用batch梯度下降算法的房屋价格预测代码,其中假设输出函数为h(x)=a+b*x,代码中的c代表学习速率,price矩阵的第一行代表面积,第二行代表价格,但代码跑完后发现不收敛,麻烦各位大神帮忙看看呢? clc; clear; price=[100,125,300,350,475;1920,2100,2900,3200,3800]; a=10; b=1500; temp1_1=0; temp2_1=0; c=1; for num=1:100 for i=1:5 temp1_1=temp1_1+(a+b*price(1,i)-price(2,i))/5; end temp1_2=a-c*temp1_1; for t=1:5 temp2_1=temp2_1+((a+b*price(1,t)-price(2,t))/5)*price(1,t); end temp2_2=b-c*temp2_1; a=temp1_2 b=temp2_2 temp1_1=0; temp2_1=0; end

使用网格搜索时,模型是否需要先fit下?

有点迷糊了。。网格搜索前,模型是否需要fit下呢? 也就是下面代码对不对? params_1 = {'max_features':range(3,11,2)} rf1 = RandomForestClassifier(n_estimators=100,oob_score=True) **rf1.fit(X1,y1) #这个语句到底要不要加?** **grid1 = GridSearchCV(rf1,cv =kfold,param_grid =params_1) grid1.fit(X1,y1) print(grid1.best_params_,grid1.best_score_)**

TensorFlow2.0训练模型时,指标不收敛一直上升到1

我尝试着使用tf2.0来搭建一个DeepFM模型来预测用户是否喜欢某部影片, optimizer选择Adam,loss选择BinaryCrossentropy,评价指标是AUC; 因为涉及到了影片ID,所以我用了shared_embedding,并且必须关闭eager模式; 选用binary_crossentropy作为损失函数时模型在训练时AUC很快就到1了,但选用categorical_crossentropy时loss没太大变化,并且AUC一直保持在0.5,准确率也一直在0.5附近震荡。 下面是选用binary_crossentropy时的输出日志: ![图片说明](https://img-ask.csdn.net/upload/202002/21/1582271521_157835.png) ![图片说明](https://img-ask.csdn.net/upload/202002/21/1582271561_279055.png) 下面是我的代码: ``` one_order_feature_layer = tf.keras.layers.DenseFeatures(one_order_feature_columns) one_order_feature_layer_outputs = one_order_feature_layer(feature_layer_inputs) two_order_feature_layer = tf.keras.layers.DenseFeatures(two_order_feature_columns) two_order_feature_layer_outputs = two_order_feature_layer(feature_layer_inputs) # lr部分 lr_layer = tf.keras.layers.Dense(len(one_order_feature_columns), kernel_initializer=initializer)( one_order_feature_layer_outputs) # fm部分 reshape = tf.reshape(two_order_feature_layer_outputs, [-1, len(two_order_feature_columns), two_order_feature_columns[0].dimension]) sum_square = tf.square(tf.reduce_sum(reshape, axis=1)) square_sum = tf.reduce_sum(tf.square(reshape), axis=1) fm_layers = tf.multiply(0.5, tf.subtract(sum_square, square_sum)) # DNN部分 dnn_hidden_layer_1 = tf.keras.layers.Dense(64, activation='selu', kernel_initializer=initializer, kernel_regularizer=regularizer)(two_order_feature_layer_outputs) dnn_hidden_layer_2 = tf.keras.layers.Dense(64, activation='selu', kernel_initializer=initializer, kernel_regularizer=regularizer)(dnn_hidden_layer_1) dnn_hidden_layer_3 = tf.keras.layers.Dense(64, activation='selu', kernel_initializer=initializer, kernel_regularizer=regularizer)(dnn_hidden_layer_2) dnn_dropout = tf.keras.layers.Dropout(0.5, seed=29)(dnn_hidden_layer_3) # 连接并输出 concatenate_layer = tf.keras.layers.concatenate([lr_layer, fm_layers, dnn_dropout]) out_layer = tf.keras.layers.Dense(1, activation='sigmoid')(concatenate_layer) model = tf.keras.Model(inputs=[v for v in feature_layer_inputs.values()], outputs=out_layer) model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=learning_rate), loss=tf.keras.losses.BinaryCrossentropy(), metrics=['AUC']) # tf.keras.utils.plot_model(model, 'test.png', show_shapes=True) train_ds = make_dataset(train_df, buffer_size=None, shuffle=True) test_ds = make_dataset(test_df) with tf.compat.v1.Session() as sess: sess.run([tf.compat.v1.global_variables_initializer(), tf.compat.v1.tables_initializer()]) model.fit(train_ds, epochs=5) loss, auc = model.evaluate(test_ds) print("AUC", auc) ```

急急急!使用keras训练BiLSTM时,经过几个epoch后,loss增大,acc降低是什么原因?

急急急!使用keras训练BiLSTM时,经过几个epoch后,loss增大,acc降低是什么原因?

scikitlearn中,怎么判断哪个类是文档中说的positive class?

![图片说明](https://img-ask.csdn.net/upload/202001/07/1578382377_106583.png) y_true传真实类标,在我的案例中为0,1串。y_score要求传正类的概率,请问哪个类是正类?说的也太晦涩了吧,难道看类标的值?0是负1是正?那类标是2和3怎么办?我目前传的是分类器对未知样本判定是1类的概率,有毛病吗? 如果我用SVC,将真实类标(也是0,1串)和SVC的decision_function结果传入roc_auc_score计算曲线下面积,有毛病吗? (之所以这样,是scikitlearn建议使用decision_function计算置信度,而不是predict_proba,经过实验,我发现decision_function的结果是一个实数串,若分类器认为是1类,那么对应的实数是大于0的数,0类则是小于0的数,很多个数据集都是这个规律)

度小满的信用评价模型是什么流程以及步骤?

我想了解一下度小满的信用评价模型流程和步骤。 下面是与图相应的问题: 1. 该步骤具有多少个变量? 2. 原始数据池可以分成哪几个主要的特征集(如身份、资产、收入、行为偏好、社交网络)? 3. 各特征集里面是否再分成特征类型(如搜索内容的特征集会分成正面搜索内容、负面搜索内容、搜索及点击)?各特征集会分哪些类型呢? 4. 哪些特征类型的意义比较大? 5. 会筛选多少个特征进入特征工程步骤?能否按照不同特征工程方式分配 (2-1. 直接(或经过少量加工后)作为模型特征的原始数据、 2-2. 经过一定的加工后从原始数据输出的特征、2-3通过机器学习算法输出的特征) 6. 特征工程流程输出的特征最后有多少个被筛选纳入信用评分模型? (3-1直接(或经过少量加工后)作为模型特征的原始数据、3-2经过一定的加工后从原始数据输出的特征、3-3通过机器学习算法输出的特征) 7. ACS模型的最主要算法是什么? 8. 模型表现如何?(如:AUC>0.7、PSI>0.2) 谢谢大家 ![图片说明](https://img-ask.csdn.net/upload/202004/17/1587088917_705060.png)

为什么我使用TensorFlow2.0训练的时候loss的变化那么奇怪?

我使用tf2.0搭建了一个deepfm模型用来做一个二分类预测。 训练过程中train loss一直在下降,val loss却一直在上升,并且训练到一半内存就不够用了,这是怎么一回事? ``` Train on 19532 steps, validate on 977 steps Epoch 1/5 19532/19532 [==============================] - 549s 28ms/step - loss: 0.4660 - AUC: 0.8519 - val_loss: 1.0059 - val_AUC: 0.5829 Epoch 2/5 19532/19532 [==============================] - 522s 27ms/step - loss: 0.1861 - AUC: 0.9787 - val_loss: 1.7618 - val_AUC: 0.5590 Epoch 3/5 17150/19532 [=========================>....] - ETA: 1:06 - loss: 0.0877 - AUC: 0.9951 Process finished with exit code 137 ``` 还有个问题,我在设计过程中关闭了eager模式,必须使用了下面代码进行初始化: ``` sess.run([tf.compat.v1.global_variables_initializer(), tf.compat.v1.tables_initializer()]) ``` 但我的代码中使用了其他的初始化方法: ``` initializer = tf.keras.initializers.TruncatedNormal(stddev=stddev, seed=29) regularizer = tf.keras.regularizers.l2(l2_reg) .... dnn_hidden_layer_3 = tf.keras.layers.Dense(64, activation='selu', kernel_initializer=initializer, kernel_regularizer=regularizer)(dnn_hidden_layer_2) .... ``` 我这样做他还是按我定义的初始化方法那样初始化吗? 本人小白,在这里先跪谢大家了!

keras自定义metric计算精确率和召回率

在keras中,在model compile的时候可以通过设置metrics的方式确定预测指标,但是keras已经写好的函数中没有精确率和召回率的实现,因此需要自定义这两个指标,哪位大大能帮忙实现一下?拜谢!

蚂蚁金服的信用评价模型是什么流程以及步骤?

我想了解一下蚂蚁金服的信用评价模型流程和步骤。 下面是与图相应的问题: 1. 该步骤具有多少个变量? 2. 原始数据池可以分成哪几个主要的特征集(如身份、资产、收入、行为偏好、社交网络)? 3. 各特征集里面是否再分成特征类型(如搜索内容的特征集会分成正面搜索内容、负面搜索内容、搜索及点击)?各特征集会分哪些类型呢? 4. 哪些特征类型的意义比较大? 5. 会筛选多少个特征进入特征工程步骤?能否按照不同特征工程方式分配 (2-1. 直接(或经过少量加工后)作为模型特征的原始数据、 2-2. 经过一定的加工后从原始数据输出的特征、2-3通过机器学习算法输出的特征) 6. 特征工程流程输出的特征最后有多少个被筛选纳入信用评分模型? (3-1直接(或经过少量加工后)作为模型特征的原始数据、3-2经过一定的加工后从原始数据输出的特征、3-3通过机器学习算法输出的特征) 7. ACS模型的最主要算法是什么? 8. 模型表现如何?(如:AUC>0.7、PSI>0.2) 谢谢大家 ![图片说明](https://img-ask.csdn.net/upload/202004/17/1587099671_769196.png)

京东白条/ 小白信用的信用评价模型是什么流程以及步骤?

我想了解一下京东白条或小白信用的信用评价模型流程和步骤。 下面是与图相应的问题: 1. 该步骤具有多少个变量? 2. 原始数据池可以分成哪几个主要的特征集(如身份、资产、收入、行为偏好、社交网络)? 3. 各特征集里面是否再分成特征类型(如搜索内容的特征集会分成正面搜索内容、负面搜索内容、搜索及点击)?各特征集会分哪些类型呢? 4. 哪些特征类型的意义比较大? 5. 会筛选多少个特征进入特征工程步骤?能否按照不同特征工程方式分配 (2-1. 直接(或经过少量加工后)作为模型特征的原始数据、 2-2. 经过一定的加工后从原始数据输出的特征、2-3通过机器学习算法输出的特征) 6. 特征工程流程输出的特征最后有多少个被筛 选纳入信用评分模型? (3-1直接(或经过少量加工后)作为模型特征的原始数据、3-2经过一定的加工后从原始数据输出的特征、3-3通过机器学习算法输出的特征) 7. ACS模型的最主要算法是什么? 8. 模型表现如何?(如:AUC>0.7、PSI>0.2) 谢谢大家 ![图片说明](https://img-ask.csdn.net/upload/202004/17/1587099788_108764.png)

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

华为初面+综合面试(Java技术面)附上面试题

华为面试整体流程大致分为笔试,性格测试,面试,综合面试,回学校等结果。笔试来说,华为的难度较中等,选择题难度和网易腾讯差不多。最后的代码题,相比下来就简单很多,一共3道题目,前2题很容易就AC,题目已经记不太清楚,不过难度确实不大。最后一题最后提交的代码过了75%的样例,一直没有发现剩下的25%可能存在什么坑。 笔试部分太久远,我就不怎么回忆了。直接将面试。 面试 如果说腾讯的面试是挥金如土...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

win10暴力查看wifi密码

刚才邻居打了个电话说:喂小灰,你家wifi的密码是多少,我怎么连不上了。 我。。。 我也忘了哎,就找到了一个好办法,分享给大家: 第一种情况:已经连接上的wifi,怎么知道密码? 打开:控制面板\网络和 Internet\网络连接 然后右击wifi连接的无线网卡,选择状态 然后像下图一样: 第二种情况:前提是我不知道啊,但是我以前知道密码。 此时可以利用dos命令了 1、利用netsh wlan...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

!大部分程序员只会写3年代码

如果世界上都是这种不思进取的软件公司,那别说大部分程序员只会写 3 年代码,恐怕就没有程序员这种职业。

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

HTTP与HTTPS的区别

面试官问HTTP与HTTPS的区别,我这样回答让他竖起大拇指!

程序员毕业去大公司好还是小公司好?

虽然大公司并不是人人都能进,但我仍建议还未毕业的同学,尽力地通过校招向大公司挤,但凡挤进去,你这一生会容易很多。 大公司哪里好?没能进大公司怎么办?答案都在这里了,记得帮我点赞哦。 目录: 技术氛围 内部晋升与跳槽 啥也没学会,公司倒闭了? 不同的人脉圈,注定会有不同的结果 没能去大厂怎么办? 一、技术氛围 纵观整个程序员技术领域,哪个在行业有所名气的大牛,不是在大厂? 而且众所...

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

美团面试,问了ThreadLocal原理,这个回答让我通过了

他想都想不到,ThreadLocal我烂熟于心

大牛都会用的IDEA调试技巧!!!

导读 前天面试了一个985高校的实习生,问了他平时用什么开发工具,他想也没想的说IDEA,于是我抛砖引玉的问了一下IDEA的调试用过吧,你说说怎么设置断点...

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

立即提问
相关内容推荐