请教MATLAB中自带的SVM与Statistics and Machine Learning Toolbox工具箱中的SVM有什么区别?

目前需要用到SVM,但是查了一晚上,还是没决定用什么工具箱,目前有以下三个选择:
1.台湾大学林教授开发的工具箱LIBSVM,主要参考了下面的链接,已经实现。
https://blog.csdn.net/github_35807147/article/details/80725642

2.MATLAB的SVM函数,采用 svmtrain函数训练,svmclassify函数预测,下面
链接有实现的例子。
https://blog.csdn.net/NBE999/article/details/78415059

3.matlab的Machine Learning Toolbox工具箱中也可以使用SVM。官网上
https://ww2.mathworks.cn/help/stats/examples/classification.html
有给出具体的例子,该工具箱较低版本的matlab并没有,我现在用的R2016b破解版有自带。

已经决定用选择1,但我现在疑惑的选择2与选择3有什么区别,请大神指教!!!

标签贴不了matlab~_~

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
libsvm,matlab自带的svmtrain怎么用?

windows下,安装了libsvm3.22,matlab自带的svmtrain怎么用??????? 编译器 >> mex -setup Error using mex No supported compiler or SDK was found.

MATLAB的LS_SVM工具箱,怎么添加自定义核函数?

MATLAB的 LS_SVM工具箱,怎么添加自定义核函数? 想试试各种小波核函数效果怎么样,不知道怎么添加

MATLAB的LS-SVM工具对数据进行建模预测分析

对于MATLAB的LS-SVM工具的使用不是很清楚,希望有过经验的能教教我,有偿!

如何用matlab的QP工具箱(不用SMO算法)求出软间隔SVM的alpha?

![图片说明](https://img-ask.csdn.net/upload/201805/08/1525788591_997541.png) 由于目标函数内有松弛变量的累加和,那么matlab自带的qp函数该怎么写呢? 查了很多资料都没有查到。 谢谢~^-^

求matlab 用支持向量机进行预测的代码

用SVM进行预测 工具:matlab 最好讲解细一点。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。

关于MATLAB中SVM的imread指令的问题

之前下载了图像分类识别猫狗的程序,想照着这个程序去建一个txt文件存放图片名字然后去识别txt文件里描述的图片,但是用imread指令却提示无法打开要读取的文件,请问一下各位大佬这个报错该怎么解决啊 1. 完整代码: ``` ReadList1 = textread('list1.txt','%s','delimiter','\n');%载入正样本列表 sz1=size(ReadList1); label1=ones(sz1(1),1); %正样本标签设为1 ReadList2 = textread('list2.txt','%s','delimiter','\n');%载入负样本列表 sz2=size(ReadList2); label2=zeros(sz2(1),1);%负样本标签设为0 label=[label1',label2']';%标签汇总 total_num=length(label); data=zeros(total_num,1764); %读取正样本并计算hog特征 for i=1:sz1(1) name= char(ReadList1(i,1)); image=imread(strcat('D:\US\01\',name)); im=imresize(image,[64,64]); img=rgb2gray(im); hog =hogcalculator(img); data(i,:)=hog; end %读取负样本并计算hog特征 for j=1:sz2(1) name= char(ReadList2(j,1)); image=imread(strcat('D:\US\02\',name)); im=imresize(image,[64,64]); img=rgb2gray(im); hog =hogcalculator(img); data(sz1(1)+j,:)=hog; end [train, test] = crossvalind('holdOut',label); cp = classperf(label); svmStruct = svmtrain(data(train,:),label(train)); save svmStruct svmStruct classes = svmclassify(svmStruct,data(test,:)); classperf(cp,classes,test); fprintf('CorrectRate = %f\n',cp.CorrectRate); ``` 2. 报错部分: %读取正样本并计算hog特征 for i=1:sz1(1) name= char(ReadList1(i,1)); image=imread(strcat('D:\US\01\',name)); im=imresize(image,[64,64]); img=rgb2gray(im); hog =hogcalculator(img); data(i,:)=hog; end 3.报错提示: 错误使用 imread (line 347) 无法打开要读取的文件 "D:\US\01\"。您可能没有读取权限。 出错 test4 (line 21) image=imread(strcat('D:\US\01\',name));

训练1400个样本数据,用pso优化SVM大概需要多长时间?还是说,这个时间和训练数据的数量有关?(我用的matlab)

最近在用pso优化svm中的参数,用matlab运行的时间比较长,大概好几分钟吧,想问下这个优化一般需要多长时间? 还是说我的程序不好,所以运行时间长。

matlab编写的SVM程序,显示错误使用 sparse ,指向矩阵的索引必须为整数,求解决原因?

主程序 ```DataPdf =full(sparse(Ltrain, 1:length(Ltrain), 1)); [FourierBag,Weights,Q,A,b,fname,H]=DoubleNonLinearANNSoftmaxTrainning(DataPdf,Mtrain,5,40,Lamda,'gaussian',Num,[],1,1); Weighttest=DoubleNonLinearANNSoftmaxTesting(Mtest,1,Q,A,b,fname,H); [~,N]=max(Weighttest); 数据调用

T. Joachims的svm-struct-matlab的代码编译问题

在命令makefile___windows 下使用vs2015编辑器进行编译时会出现这样的错误提示 svm-struct-matlab-1.2\svm_light\svm_common.h(447): error C2059: 语法错误:“sizeof”,不知道是什么原因造成的,有哪位大神帮忙给看看

matlab编写SVM线性分类器,提示如下错误怎么办?求指导,菜鸟一枚

Warning: The default trust-region-reflective algorithm does not solve problems with the constraints you have specified. FMINCON will use the active-set algorithm instead. For information on applicable algorithms, see Choosing the Algorithm in the documentation. > In fmincon at 486 Error using feval Undefined function 'Optimization' for input arguments of type 'double'. Error in fmincon (line 601) initVals.f = feval(funfcn{3},X,varargin{:}); Caused by: Failure in initial user-supplied objective function evaluation. FMINCON cannot continue.

在SVM模型中使用递归特征消除法(RFE)筛选出的最优的特征并不符合期望

最近在做一个短文本分类(垃圾和非垃圾两类)的项目,样本数量大概几十万,分词后使用信息增益算法提取出了前3000条分数较高的特征作为分类的字典,但是感觉特征数量还是太多,训练速度太慢,且分类效果也没有很好(比不上简单的朴素贝叶斯)。 于是想到使用RFE算法进行降维。RFE算法的主要思想就是使用一个基模型(这里是S模型VM)来进行多轮训练,每轮训练后,根据每个特征的系数对特征打分,去掉得分最小的特征,然后用剩余的特征构建新的特征集,进行下一轮训练,直到所有的特征都遍历了。 然而,降维后,经交叉验证得到,最优的特征数量仅为27,且经RFE筛选出的前27个特征词也很奇怪,在字典中的排名普遍不是很靠前,在样本中的分布也看不出什么代表性(出现在10万条样本中的次数不多,且分布的倾向性也不高)。 如下图,第一张图是最优的27个特征在样本中的分布,第二张图是信息增益算法得到的字典中排名靠前的特征在样本中的分布。要说明的是,这两张图中的特征几乎不重合。 ![图片说明](https://img-ask.csdn.net/upload/201712/18/1513589321_150847.png) ![图片说明](https://img-ask.csdn.net/upload/201712/18/1513589337_878766.png) 可以看出,许多并不在最优特征中的特征在样本中的分布也非常具有倾向性,可是为什么却在SVM算法中的系数不大以至于被删除呢? 尽管这27个特征看上去特别不靠谱,但令人惊讶的是,仅使用它们训练SVM模型,其分类性能却非常优秀,甚至比3000条特征训练的模型还要好。 这让我非常不解,信息增益算法得到的字典中那么多评分很高的特征,为什么会是这27条评分并不高的特征是最优特征呢? 另外,为什么这27条出现次数如此之少的特征就可以达到比3000条特征还要好的分类性能呢? 若大家对此问题有什么见解,恳请指教!

python中运用SVM对新闻标题进行分类

在用jieba对新闻标题进行分词后,把这些标题都存入一个1.txt文档中,我之前所用的分类方法是导入四个词典然后分类,分成政治类、社会类、经济类和娱乐类,显然这是暴力法。。。现在想试一试svm算法能不能也实现这样的分类,网上看了很多svm的案例,大多都是对数据进行分类的,有一些是针对中文文本进行情感分类,所以我一直很迷。。而且我也一直搞不懂svm里训练集和测试集的概念。。。有没有大佬能针对这个分成四类的问题给点头绪呢?

求支持向量机算法MATLAB代码

目标是:对98个样本,1000个属性的Excel数据进行二分类,求最佳支持向量机。 ![图片说明](https://img-ask.csdn.net/upload/201712/21/1513864781_3309.jpg)

使用libsvm在matlab上做回归预测

训练精度非常高,但预测时预测值不变,出现了过学现象,怎么降低过学现象,求大神讲解

Matlab中libsvm工具箱用PSO优化SVM做回归,训练集结果很好,但测试集结果是一条直线?

![图片说明](https://img-ask.csdn.net/upload/202005/19/1589865266_890645.png) 部分代码如下: load data.mat %% % 1. 随机产生训练集和测试集 n = randperm(size(c,2)); %% % 2. 训练集——40个样本 p_train = c(:,n(1:40))'; t_train = d(:,n(1:40))'; %% % 3. 测试集——8个样本 p_test = c(:,n(41:end))'; t_test = d(:,n(41:end))'; %% III. 数据归一化 %% % 1. 训练集 [pn_train,inputps] = mapminmax(p_train'); pn_train = pn_train'; pn_test = mapminmax('apply',p_test',inputps); pn_test = pn_test'; %% % 2. 测试集 [tn_train,outputps] = mapminmax(t_train'); tn_train = tn_train'; tn_test = mapminmax('apply',t_test',outputps); tn_test = tn_test'; %% 参数初始化 ``` c1 = 1.5; % c1 belongs to [0,2] c2 = 1.5; % c2 belongs to [0,2] maxgen=200; % 进化次数 sizepop=50; % 种群规模 popcmax=10^(3); popcmin=10^(-5); popgmax=10^(3); popgmin=10^(-5); k = 0.02; % k belongs to [0.1,1.0]; Vcmax = k*popcmax; Vcmin = -Vcmax ; Vgmax = k*popgmax; Vgmin = -Vgmax ; ``` % SVM参数初始化 v = 5; %% 产生初始粒子和速度 ``` for i=1:sizepop pop(i,1) = (popcmax-popcmin)*rand+popcmin; % 初始种群 pop(i,2) = (popgmax-popgmin)*rand+popgmin; V(i,1)=Vcmax*rands(1); % 初始化速度 V(i,2)=Vgmax*rands(1); cmd = ['-v ',num2str(v),' -t 2',' -c ',num2str( pop(i,1) ),' -g ',num2str(pop(i,2) ),' -s 3 -p 0.1']; fitness(i) = svmtrain(tn_train, pn_train, cmd); fitness(i) = -fitness(i); end [global_fitness bestindex]=min(fitness); % 全局极值 local_fitness=fitness; % 个体极值初始化 global_x=pop(bestindex,:); % 全局极值点 local_x=pop; % 个体极值点初始化 ``` tic %% 迭代寻优 ``` for i=1:maxgen for j=1:sizepop %速度更新 wV = 0.4; % V(j,:) = wV*V(j,:) + c1*rand*(local_x(j,:) - pop(j,:)) + c2*rand*(global_x - pop(j,:)); if V(j,1) > Vcmax V(j,1) = Vcmax; end if V(j,1) < Vcmin V(j,1) = Vcmin; end if V(j,2) > Vgmax V(j,2) = Vgmax; end if V(j,2) < Vgmin V(j,2) = Vgmin; end %种群更新 wP = 0.6; pop(j,:)=pop(j,:)+wP*V(j,:); if pop(j,1) > popcmax pop(j,1) = popcmax; end if pop(j,1) < popcmin pop(j,1) = popcmin; end if pop(j,2) > popgmax pop(j,2) = popgmax; end if pop(j,2) < popgmin pop(j,2) = popgmin; end ```

如何让opencv中的SVM返回值为概率而不是1,-1之类的标签

如何让opencv中的SVM返回值:svm.predict(testFeatureMat)为概率而不是1,-1之类的标签。需要改什么参数?谢谢。

新人求助帖!!SVM与RSVM的区别。求解答!

SVM与RSVM的区别。主要介绍一下RSVM的相关知识点和应用。谢谢了!

如何使用matlab实现特征选择

如何使用matlab实现特征选择? 这个问题困扰我好久,大佬们帮帮忙啊?

求帮忙看一个python的SVM程序改主成分维度改哪里

从zouxy大神那里拷贝来的程序 # 源程序在这里 ``` from numpy import * import time import matplotlib.pyplot as plt # calulate kernel value def calcKernelValue(matrix_x, sample_x, kernelOption): kernelType = kernelOption[0] numSamples = matrix_x.shape[0] kernelValue = mat(zeros((numSamples, 1))) if kernelType == 'linear': kernelValue = matrix_x * sample_x.T elif kernelType == 'rbf': sigma = kernelOption[1] if sigma == 0: sigma = 1.0 for i in xrange(numSamples): diff = matrix_x[i, :] - sample_x kernelValue[i] = exp(diff * diff.T / (-2.0 * sigma**2)) else: raise NameError('Not support kernel type! You can use linear or rbf!') return kernelValue # calculate kernel matrix given train set and kernel type def calcKernelMatrix(train_x, kernelOption): numSamples = train_x.shape[0] kernelMatrix = mat(zeros((numSamples, numSamples))) for i in xrange(numSamples): kernelMatrix[:, i] = calcKernelValue(train_x, train_x[i, :], kernelOption) return kernelMatrix # define a struct just for storing variables and data class SVMStruct: def __init__(self, dataSet, labels, C, toler, kernelOption): self.train_x = dataSet # each row stands for a sample self.train_y = labels # corresponding label self.C = C # slack variable self.toler = toler # termination condition for iteration self.numSamples = dataSet.shape[0] # number of samples self.alphas = mat(zeros((self.numSamples, 1))) # Lagrange factors for all samples self.b = 0 self.errorCache = mat(zeros((self.numSamples, 2))) self.kernelOpt = kernelOption self.kernelMat = calcKernelMatrix(self.train_x, self.kernelOpt) # calculate the error for alpha k def calcError(svm, alpha_k): output_k = float(multiply(svm.alphas, svm.train_y).T * svm.kernelMat[:, alpha_k] + svm.b) error_k = output_k - float(svm.train_y[alpha_k]) return error_k # update the error cache for alpha k after optimize alpha k def updateError(svm, alpha_k): error = calcError(svm, alpha_k) svm.errorCache[alpha_k] = [1, error] # select alpha j which has the biggest step def selectAlpha_j(svm, alpha_i, error_i): svm.errorCache[alpha_i] = [1, error_i] # mark as valid(has been optimized) candidateAlphaList = nonzero(svm.errorCache[:, 0].A)[0] # mat.A return array maxStep = 0; alpha_j = 0; error_j = 0 # find the alpha with max iterative step if len(candidateAlphaList) > 1: for alpha_k in candidateAlphaList: if alpha_k == alpha_i: continue error_k = calcError(svm, alpha_k) if abs(error_k - error_i) > maxStep: maxStep = abs(error_k - error_i) alpha_j = alpha_k error_j = error_k # if came in this loop first time, we select alpha j randomly else: alpha_j = alpha_i while alpha_j == alpha_i: alpha_j = int(random.uniform(0, svm.numSamples)) error_j = calcError(svm, alpha_j) return alpha_j, error_j # the inner loop for optimizing alpha i and alpha j def innerLoop(svm, alpha_i): error_i = calcError(svm, alpha_i) ### check and pick up the alpha who violates the KKT condition ## satisfy KKT condition # 1) yi*f(i) >= 1 and alpha == 0 (outside the boundary) # 2) yi*f(i) == 1 and 0<alpha< C (on the boundary) # 3) yi*f(i) <= 1 and alpha == C (between the boundary) ## violate KKT condition # because y[i]*E_i = y[i]*f(i) - y[i]^2 = y[i]*f(i) - 1, so # 1) if y[i]*E_i < 0, so yi*f(i) < 1, if alpha < C, violate!(alpha = C will be correct) # 2) if y[i]*E_i > 0, so yi*f(i) > 1, if alpha > 0, violate!(alpha = 0 will be correct) # 3) if y[i]*E_i = 0, so yi*f(i) = 1, it is on the boundary, needless optimized if (svm.train_y[alpha_i] * error_i < -svm.toler) and (svm.alphas[alpha_i] < svm.C) or\ (svm.train_y[alpha_i] * error_i > svm.toler) and (svm.alphas[alpha_i] > 0): # step 1: select alpha j alpha_j, error_j = selectAlpha_j(svm, alpha_i, error_i) alpha_i_old = svm.alphas[alpha_i].copy() alpha_j_old = svm.alphas[alpha_j].copy() # step 2: calculate the boundary L and H for alpha j if svm.train_y[alpha_i] != svm.train_y[alpha_j]: L = max(0, svm.alphas[alpha_j] - svm.alphas[alpha_i]) H = min(svm.C, svm.C + svm.alphas[alpha_j] - svm.alphas[alpha_i]) else: L = max(0, svm.alphas[alpha_j] + svm.alphas[alpha_i] - svm.C) H = min(svm.C, svm.alphas[alpha_j] + svm.alphas[alpha_i]) if L == H: return 0 # step 3: calculate eta (the similarity of sample i and j) eta = 2.0 * svm.kernelMat[alpha_i, alpha_j] - svm.kernelMat[alpha_i, alpha_i] \ - svm.kernelMat[alpha_j, alpha_j] if eta >= 0: return 0 # step 4: update alpha j svm.alphas[alpha_j] -= svm.train_y[alpha_j] * (error_i - error_j) / eta # step 5: clip alpha j if svm.alphas[alpha_j] > H: svm.alphas[alpha_j] = H if svm.alphas[alpha_j] < L: svm.alphas[alpha_j] = L # step 6: if alpha j not moving enough, just return if abs(alpha_j_old - svm.alphas[alpha_j]) < 0.00001: updateError(svm, alpha_j) return 0 # step 7: update alpha i after optimizing aipha j svm.alphas[alpha_i] += svm.train_y[alpha_i] * svm.train_y[alpha_j] \ * (alpha_j_old - svm.alphas[alpha_j]) # step 8: update threshold b b1 = svm.b - error_i - svm.train_y[alpha_i] * (svm.alphas[alpha_i] - alpha_i_old) \ * svm.kernelMat[alpha_i, alpha_i] \ - svm.train_y[alpha_j] * (svm.alphas[alpha_j] - alpha_j_old) \ * svm.kernelMat[alpha_i, alpha_j] b2 = svm.b - error_j - svm.train_y[alpha_i] * (svm.alphas[alpha_i] - alpha_i_old) \ * svm.kernelMat[alpha_i, alpha_j] \ - svm.train_y[alpha_j] * (svm.alphas[alpha_j] - alpha_j_old) \ * svm.kernelMat[alpha_j, alpha_j] if (0 < svm.alphas[alpha_i]) and (svm.alphas[alpha_i] < svm.C): svm.b = b1 elif (0 < svm.alphas[alpha_j]) and (svm.alphas[alpha_j] < svm.C): svm.b = b2 else: svm.b = (b1 + b2) / 2.0 # step 9: update error cache for alpha i, j after optimize alpha i, j and b updateError(svm, alpha_j) updateError(svm, alpha_i) return 1 else: return 0 # the main training procedure def trainSVM(train_x, train_y, C, toler, maxIter, kernelOption = ('rbf', 1.0)): # calculate training time startTime = time.time() # init data struct for svm svm = SVMStruct(mat(train_x), mat(train_y), C, toler, kernelOption) # start training entireSet = True alphaPairsChanged = 0 iterCount = 0 # Iteration termination condition: # Condition 1: reach max iteration # Condition 2: no alpha changed after going through all samples, # in other words, all alpha (samples) fit KKT condition while (iterCount < maxIter) and ((alphaPairsChanged > 0) or entireSet): alphaPairsChanged = 0 # update alphas over all training examples if entireSet: for i in xrange(svm.numSamples): alphaPairsChanged += innerLoop(svm, i) print '---iter:%d entire set, alpha pairs changed:%d' % (iterCount, alphaPairsChanged) iterCount += 1 # update alphas over examples where alpha is not 0 & not C (not on boundary) else: nonBoundAlphasList = nonzero((svm.alphas.A > 0) * (svm.alphas.A < svm.C))[0] for i in nonBoundAlphasList: alphaPairsChanged += innerLoop(svm, i) print '---iter:%d non boundary, alpha pairs changed:%d' % (iterCount, alphaPairsChanged) iterCount += 1 # alternate loop over all examples and non-boundary examples if entireSet: entireSet = False elif alphaPairsChanged == 0: entireSet = True print 'Congratulations, training complete! Took %fs!' % (time.time() - startTime) return svm # testing your trained svm model given test set def testSVM(svm, test_x, test_y): test_x = mat(test_x) test_y = mat(test_y) numTestSamples = test_x.shape[0] supportVectorsIndex = nonzero(svm.alphas.A > 0)[0] supportVectors = svm.train_x[supportVectorsIndex] supportVectorLabels = svm.train_y[supportVectorsIndex] supportVectorAlphas = svm.alphas[supportVectorsIndex] matchCount = 0 for i in xrange(numTestSamples): kernelValue = calcKernelValue(supportVectors, test_x[i, :], svm.kernelOpt) predict = kernelValue.T * multiply(supportVectorLabels, supportVectorAlphas) + svm.b if sign(predict) == sign(test_y[i]): matchCount += 1 accuracy = float(matchCount) / numTestSamples return accuracy # show your trained svm model only available with 2-D data def showSVM(svm): if svm.train_x.shape[1] != 2: print "Sorry! I can not draw because the dimension of your data is not 2!" return 1 # draw all samples for i in xrange(svm.numSamples): if svm.train_y[i] == -1: plt.plot(svm.train_x[i, 0], svm.train_x[i, 1], 'or') elif svm.train_y[i] == 1: plt.plot(svm.train_x[i, 0], svm.train_x[i, 1], 'ob') # mark support vectors supportVectorsIndex = nonzero(svm.alphas.A > 0)[0] for i in supportVectorsIndex: plt.plot(svm.train_x[i, 0], svm.train_x[i, 1], 'oy') # draw the classify line w = zeros((2, 1)) for i in supportVectorsIndex: w += multiply(svm.alphas[i] * svm.train_y[i], svm.train_x[i, :].T) min_x = min(svm.train_x[:, 0])[0, 0] max_x = max(svm.train_x[:, 0])[0, 0] y_min_x = float(-svm.b - w[0] * min_x) / w[1] y_max_x = float(-svm.b - w[0] * max_x) / w[1] plt.plot([min_x, max_x], [y_min_x, y_max_x], '-g') plt.show() ``` # 测试代码在这里 ``` from numpy import * import SVM ################## test svm ##################### ## step 1: load data print ("step 1: load data...") dataSet = [] labels = [] fileIn = open('D:\Python33\SVM\testSet.txt') for line in fileIn.readlines(): lineArr = line.strip().split('\t') dataSet.append([float(lineArr[0]), float(lineArr[1])]) labels.append(float(lineArr[2])) dataSet = mat(dataSet) labels = mat(labels).T train_x = dataSet[0:81, :] train_y = labels[0:81, :] test_x = dataSet[80:101, :] test_y = labels[80:101, :] ## step 2: training... print ("step 2: training...") C = 0.6 toler = 0.001 maxIter = 50 svmClassifier = SVM.trainSVM(train_x, train_y, C, toler, maxIter, kernelOption = ('linear', 0)) ## step 3: testing print ("step 3: testing...") accuracy = SVM.testSVM(svmClassifier, test_x, test_y) ## step 4: show the result print ("step 4: show the result...") print ('The classify accuracy is: %.3f%%' % (accuracy * 100)) SVM.showSVM(svmClassifier) ``` # 测试的数据在这里 3.542485 1.977398 -1 3.018896 2.556416 -1 7.551510 -1.580030 1 2.114999 -0.004466 -1 8.127113 1.274372 1 7.108772 -0.986906 1 8.610639 2.046708 1 2.326297 0.265213 -1 3.634009 1.730537 -1 0.341367 -0.894998 -1 3.125951 0.293251 -1 2.123252 -0.783563 -1 0.887835 -2.797792 -1 .......... # 现在我想把这个二维主成分的SVM改成分类五维主成分的 就是把测试的数据改成比如 3.125951 0.293251 2.123252 -0.783563 0.887835 -1 0.887835 -2.797792 3.634009 1.730537 -2.797792 -1 但还是二分类, 请问源程序代码和测试代码应该改哪里?

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

我以为我学懂了数据结构,直到看了这个导图才发现,我错了

数据结构与算法思维导图

String s = new String(" a ") 到底产生几个对象?

老生常谈的一个梗,到2020了还在争论,你们一天天的,哎哎哎,我不是针对你一个,我是说在座的各位都是人才! 上图红色的这3个箭头,对于通过new产生一个字符串(”宜春”)时,会先去常量池中查找是否已经有了”宜春”对象,如果没有则在常量池中创建一个此字符串对象,然后堆中再创建一个常量池中此”宜春”对象的拷贝对象。 也就是说准确答案是产生了一个或两个对象,如果常量池中原来没有 ”宜春” ,就是两个。...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

Linux面试题(2020最新版)

文章目录Linux 概述什么是LinuxUnix和Linux有什么区别?什么是 Linux 内核?Linux的基本组件是什么?Linux 的体系结构BASH和DOS之间的基本区别是什么?Linux 开机启动过程?Linux系统缺省的运行级别?Linux 使用的进程间通信方式?Linux 有哪些系统日志文件?Linux系统安装多个桌面环境有帮助吗?什么是交换空间?什么是root帐户什么是LILO?什...

将一个接口响应时间从2s优化到 200ms以内的一个案例

一、背景 在开发联调阶段发现一个接口的响应时间特别长,经常超时,囧… 本文讲讲是如何定位到性能瓶颈以及修改的思路,将该接口从 2 s 左右优化到 200ms 以内 。 二、步骤 2.1 定位 定位性能瓶颈有两个思路,一个是通过工具去监控,一个是通过经验去猜想。 2.1.1 工具监控 就工具而言,推荐使用 arthas ,用到的是 trace 命令 具体安装步骤很简单,大家自行研究。 我的使用步骤是...

学历低,无法胜任工作,大佬告诉你应该怎么做

微信上收到一位读者小涛的留言,大致的意思是自己只有高中学历,经过培训后找到了一份工作,但很难胜任,考虑要不要辞职找一份他能力可以胜任的实习工作。下面是他留言的一部分内容: 二哥,我是 2016 年高中毕业的,考上了大学但没去成,主要是因为当时家里经济条件不太允许。 打工了三年后想学一门技术,就去培训了。培训的学校比较垃圾,现在非常后悔没去正规一点的机构培训。 去年 11 月份来北京找到了一份工...

JVM内存结构和Java内存模型别再傻傻分不清了

讲一讲什么是Java内存模型 Java内存模型虽说是一个老生常谈的问题 ,也是大厂面试中绕不过的,甚至初级面试也会问到。但是真正要理解起来,还是相当困难,主要这个东西看不见,摸不着。 这是一个比较开放的题目,面试官主要想考察的是对Java内存模型的了解到了什么程度了,然后根据回答进行进一步的提问 下面,我们就这个问题的回答列一下我们的思路 具体的思路如下: 说一说Java内存模型的缘由 简略辨析...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

Google 与微软的浏览器之争

浏览器再现“神仙打架”。整理 | 屠敏头图 | CSDN 下载自东方 IC出品 | CSDN(ID:CSDNnews)从 IE 到 Chrome,再从 Chrome 到 Edge,微软与...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

85后蒋凡:28岁实现财务自由、34岁成为阿里万亿电商帝国双掌门,他的人生底层逻辑是什么?...

蒋凡是何许人也? 2017年12月27日,在入职4年时间里,蒋凡开挂般坐上了淘宝总裁位置。 为此,时任阿里CEO张勇在任命书中力赞: 蒋凡加入阿里,始终保持创业者的冲劲,有敏锐的...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

什么时候跳槽,为什么离职,你想好了么?

都是出来打工的,多为自己着想

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

立即提问
相关内容推荐