关于PCA和KPCA的特征向量的维数问题~

想问一下PCA算出来的特征向量是和样本属性的维数一样,因为主成分是原来样本属性的线性组合,那么KPCA求出来的特征向量(利用核函数),为什么维数等于样本数呢?

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
求教matlab关于pca降维的问题
我想用30*3000的一组数据经pca降维之后使用lssvm来建模,然后用11*3000的一组数据来检验这个模型。 我想问的是,经过pca降维,30*3000的矩阵变成了30*29的矩阵,但是检验的数据经过pca降维之后成为了11*10的矩阵,这样还能检验吗?
OpenCV PCA人脸识别时欧氏距离的问题
我用PCA+SVM方式对ORL人脸库进行人脸识别,使用Opencv的PCA库进行降维及特征提取,提取后的特征用于SVM训练,如果每人用两个图进行学习,最终测试样本的识别率能到85%+。 但是我如果用测试样本的特征向量和训练样本的特征向量进行欧式距离(NORM_L2)的计算,计算结果十分没有规律,不管是不是同一个人的特征,距离从一千多到四千多的都有。这种情况十分不合理呀,opencv还有个基于PCA样本距离的特征脸识别库不就是用L2距离进行比较来进行识别的吗?鉴于此我又实验了一下使用opencv的特征脸识别库EigenFaceRecognizer进行人脸识别,同样的样本划分,但是不自己写特征提取代码,直接输入原始图片,因为特提取的工作是特征脸库自己做的,识别率也能到80%+。 总结起来问题就是,我用PCA提取的特征进行SVM人脸识别,效果还可以,但是直接用测试样本的特征值和训练样本的特征值进行距离比较,却并不能得出同一人的样本距离会比较近,不同人的会比较远的结果,和特征脸识别的工作原理不符。不知是哪里有问题,求解!
opencv pca投影 得到的特征脸问题
用opencv进行人脸识别,在训练阶段利用opencv自带的函数cvCalcEigenObjects获取pca的子空间,代码如下: cvCalcEigenObjects( nTrainFaces, //参加训练的图片 (void*)faceImgArr, //得到的特征脸 (void*)eigenVectArr, CV_EIGOBJ_NO_CALLBACK, 0, 0, &calcLimit, //得到的平均脸 pAvgTrainImg, eigenValMat->data.fl ); 执行该函数后,用cvShowImage()进行特征脸eigenVectArr的显示,特征脸显示结果都是一片漆黑,看网页上正常显示的特征脸应该是这样的吧[图片说明](https://img-ask.csdn.net/upload/201501/30/1422597863_788733.png) 而且我得出的平均脸pAvgTraining显示为一张白色图片,也是什么都没有的。 我用的人脸库是jaffe,想问下各位大神是什么原因导致无法得出特征脸和平均脸? 在此谢过。
C++代码改Python实现PCA算法:从一组照片中获取特征脸(特征向量)?
PCA处理的基本步骤为: 1、获取m个样本,每个样本有n个特征。 2、每个样本作为一行,构成m*n的举证A。 3、将矩阵转置再乘以自己得到C=A(t)*A。 4、求出矩阵C的特征值及特征向量,特征向量即为特征脸。 以下是C++实现代码,求解决一份Python实现出的代码 ``` #include "stdafx.h" #include <string> #include <opencv2\opencv.hpp> using namespace std; using namespace cv; int _tmain(int argc, _TCHAR* argv[]) { //获取了mean_face int num_sample = 38; int norm_row = 64, norm_col = 56; int num; Mat imgs = loadImages(num); Mat mean_face = Mat(norm_row, norm_col, CV_8UC1); vector<int> mean_face_total; mean_face_total.resize(norm_row * norm_col); for (int i = 0; i < num; i++) { for (int j = 0; j < norm_row * norm_col; j++) { mean_face_total.at(j) += imgs.at<uchar>(i * norm_row * norm_col + j); //eigen_face_total[j] += imgs.at<uchar>(i * 192 * 168 + j); } } for (int j = 0; j < norm_row * norm_col; j++) { mean_face.at<uchar>(j) = (uchar)(mean_face_total.at(j) / num); } imwrite("C:/Users/dhj555/Desktop/YelaFaces/eigen_face/0001.jpg", mean_face); imshow("eigen_face", mean_face); //1、初始化数据 CvMat* pData = cvCreateMat(num_sample, norm_row * norm_col, CV_32FC1); CvMat* pMean = cvCreateMat(1, norm_row * norm_col, CV_32FC1); //每个数标志一个特征值 CvMat* pEigVals = cvCreateMat(1, min(num_sample, norm_row * norm_col), CV_32FC1); //每行表示一个特征向量 CvMat* pEigVecs = cvCreateMat(min(num_sample, norm_row * norm_col), norm_row * norm_col, CV_32FC1); for (int i = 0; i < num_sample; i++) { for (int j = 0; j < norm_row * norm_col; j++) cvmSet(pData, i, j, imgs.at<uchar>(i * norm_row * norm_col + j)); } //2、PCA处理 cvCalcPCA(pData, pMean, pEigVals, pEigVecs, CV_PCA_DATA_AS_ROW); //3、选出前P个特征向量(主成份),然后投影,结果保存在pResult中,pResult中包含了P个系数 //CvMat* pResult = cvCreateMat(num_sample, 20, CV_32FC1); //cvProjectPCA(pData, pMean, pEigVecs, pResult); //4、重构, 结果保存在pRecon中 //CvMat* pRecon = cvCreateMat(num_sample, norm_row*norm_col, CV_32FC1); //cvBackProjectPCA(pResult, pMean, pEigVecs, pRecon); //5、显示重构的图像 //Mat mRecon = Mat(pRecon); //4、显示与保存特征向量 for (int i = 0; i < min(num_sample, norm_row * norm_col); i++) { float min = LLONG_MAX, max = LLONG_MIN, span = 0.0; for (int index = 0; index < norm_row*norm_col; index++) { float d = cvmGet(pEigVecs, i, index); if (d>max) max = d; if (d < min) min = d; } span = max - min; Mat eigen_face = Mat(norm_row, norm_col, CV_8UC1); for (int index = 0; index < norm_row*norm_col; index++) { float d = cvmGet(pEigVecs, i, index); eigen_face.at<uchar>(index) = (d - min) / span * 255.0; } char buffer[128]; sprintf_s(buffer, "C:/Users/dhj555/Desktop/YelaFaces/eigen_face/001/1-000%d.jpg", i); string imgPath(buffer); imshow(imgPath, eigen_face); printf("%d st:\t%f\n", i, cvmGet(pEigVals, 0, i)); imwrite(imgPath, eigen_face); } } ```
数据预处理:类别型变量的编码问题
在数据挖掘的数据预处理对类别型变量编码过程中,其中一个类别型变量含具有有很多不同的取值(200个),若对这个的类型做OneHot编码,会给数据增加200个特征,大大增加了数据的维数。 请问对于这样的类型变量该怎么处理呢? 1.需要做卡方封箱吗?用python该怎么分箱处理? 2.或者编码后做PCA降维处理?PCA具体怎么降维呢? 3.还有其他更好的方法吗? 谢谢
刚买的pca9685写的代码一直驱动不了舵机,小白求解
新手小白求问 刚买了pca9685模块,看数据手册没有中文的只好找了些别人stm32的代码改过来用在51上面,但是一直都驱动不了舵机,不是知道代码出了什么问题,求解 以下就是我用的所有源码。 ``` #ifndef __IIC_H #define __IIC_H sbit IIC_SDA = P3^6; sbit IIC_SCL = P3^7; #define u8 unsigned char #define u16 char //IIC所有操作函数 void delay_us(u8 i); void IIC_Start(void); //发送IIC开始信号 void IIC_Stop(void); //发送IIC停止信号 void IIC_Send_Byte(u8 txd); //IIC发送一个字节 u8 IIC_Read_Byte(unsigned char ack);//IIC读取一个字节 u8 IIC_Wait_Ack(void); //IIC等待ACK信号 void IIC_Ack(void); //IIC发送ACK信号 void IIC_NAck(void); //IIC不发送ACK信号 //void IIC_Write_One_Byte(u8 daddr,u8 addr,u8 dat); //u8 IIC_Read_One_Byte(u8 daddr,u8 addr); #endif ``` ``` #include <stc12c5a60s2.h> #include <IIC.h> #include <intrins.h> void delay_us(u8 i) { u8 j; for(j=i;j>0;j--) {_nop_();} } //产生IIC起始信号 void IIC_Start(void) { // SDA_OUT(); //sda线输出 IIC_SDA=1; IIC_SCL=1; delay_us(4); IIC_SDA=0;//START:when CLK is high,DATA change form high to low delay_us(4); IIC_SCL=0;//钳住I2C总线,准备发送或接收数据 } //产生IIC停止信号 void IIC_Stop(void) { // SDA_OUT();//sda线输出 IIC_SCL=0; IIC_SDA=0;//STOP:when CLK is high DATA change form low to high delay_us(4); IIC_SCL=1; IIC_SDA=1;//发送I2C总线结束信号 delay_us(4); } //等待应答信号到来 //返回值:1,接收应答失败 // 0,接收应答成功 u8 IIC_Wait_Ack(void) { u8 ucErrTime=0; // SDA_IN(); //SDA设置为输入 IIC_SDA=1;delay_us(1); IIC_SCL=1;delay_us(1); while(IIC_SDA) { ucErrTime++; if(ucErrTime>250) { IIC_Stop(); return 1; } } IIC_SCL=0;//时钟输出0 return 0; } //产生ACK应答 void IIC_Ack(void) { IIC_SCL=0; // SDA_OUT(); IIC_SDA=0; delay_us(2); IIC_SCL=1; delay_us(2); IIC_SCL=0; } //不产生ACK应答 void IIC_NAck(void) { IIC_SCL=0; // SDA_OUT(); IIC_SDA=1; delay_us(2); IIC_SCL=1; delay_us(2); IIC_SCL=0; } //IIC发送一个字节 //返回从机有无应答 //1,有应答 //0,无应答 void IIC_Send_Byte(u8 txd) { u8 t; // SDA_OUT(); IIC_SCL=0;//拉低时钟开始数据传输 for(t=0;t<8;t++) { IIC_SDA=(txd&0x80)>>7; txd<<=1; delay_us(2); //对TEA5767这三个延时都是必须的 IIC_SCL=1; delay_us(2); IIC_SCL=0; delay_us(2); } } //读1个字节,ack=1时,发送ACK,ack=0,发送nACK u8 IIC_Read_Byte(unsigned char ack) { unsigned char i,receive=0; // SDA_IN();//SDA设置为输入 for(i=0;i<8;i++ ) { IIC_SCL=0; delay_us(2); IIC_SCL=1; receive<<=1; if(IIC_SDA)receive++; delay_us(1); } if (!ack) IIC_NAck();//发送nACK else IIC_Ack(); //发送ACK return receive; } ``` ``` #include <stc12c5a60s2.h> #include <IIC.h> #include <intrins.h> #include <pca8574.h> #define uchar unsigned char #define uint unsigned int sbit scl=P3^6; //时钟输入线 sbit sda=P3^7; //数据输入/输出端 void PCA9685_write(unsigned char reg,unsigned char dat); u8 PCA9685_read(unsigned char reg); void setPWMFreq(u8 freq); void setPWM(u8 num, u16 on, u16 off); void down(); void up(); void delay_ms(u8 xms) { u8 i,j; for(i=xms;i>0;i--) for (j=200;j>0;j--); } void PCA9685_write(unsigned char reg,unsigned char dat) { IIC_Start(); IIC_Send_Byte(PCA9685_adrr); IIC_Wait_Ack(); IIC_Send_Byte(reg); IIC_Wait_Ack(); IIC_Send_Byte(dat); IIC_Wait_Ack(); IIC_Stop(); } u8 PCA9685_read(unsigned char reg) { u8 res; IIC_Start(); IIC_Send_Byte(PCA9685_adrr); IIC_Wait_Ack(); IIC_Send_Byte(reg); IIC_Wait_Ack(); IIC_Start(); IIC_Send_Byte(PCA9685_adrr|0X01); IIC_Wait_Ack(); res=IIC_Read_Byte(0); IIC_Stop(); return res; } void setPWMFreq(u8 freq) { u8 prescale,oldmode,newmode; double prescaleval; prescaleval = 25000000.0/(4096*freq*0.915); prescale = (u8)(prescaleval+0.5)-1; oldmode = PCA9685_read(PCA9685_MODE1); newmode = (oldmode&0x7F) | 0x10; // sleep PCA9685_write(PCA9685_MODE1, newmode); // go to sleep PCA9685_write(PCA9685_PRESCALE, prescale); // set the prescaler PCA9685_write(PCA9685_MODE1, oldmode); delay_ms(5); PCA9685_write(PCA9685_MODE1, oldmode | 0xa1); } void setPWM(u8 num, u16 on, u16 off) { PCA9685_write(LED0_ON_L+4*num,on); PCA9685_write(LED0_ON_H+4*num,on>>8); PCA9685_write(LED0_OFF_L+4*num,off); PCA9685_write(LED0_OFF_H+4*num,off>>8); } u16 calculate_PWM(u8 angle) { return (int)(204.8*(0.5+angle*1.0/90)); } void down() { u16 pwm = calculate_PWM(0); setPWM(0x0,0,pwm); delay_ms(1); setPWM(0x1,0,pwm); delay_ms(1); setPWM(0x2,0,pwm); delay_ms(1); setPWM(0x3,0,pwm); delay_ms(1); setPWM(0x4,0,pwm); delay_ms(1); setPWM(0x5,0,pwm); delay_ms(1); setPWM(0x6,0,pwm); delay_ms(1); setPWM(0x7,0,pwm); } void up() { u16 pwm = calculate_PWM(90); setPWM(0x0,0,pwm); delay_ms(1); setPWM(0x1,0,pwm); delay_ms(1); setPWM(0x2,0,pwm); delay_ms(1); setPWM(0x3,0,pwm); delay_ms(1); setPWM(0x4,0,pwm); delay_ms(1); setPWM(0x5,0,pwm); delay_ms(1); setPWM(0x6,0,pwm); delay_ms(1); setPWM(0x7,0,pwm); } void main() { PCA9685_write(PCA9685_MODE1,0x0);//PCA9685复位 setPWMFreq(50); while(1) { down(); up(); } } ``` ``` #ifndef __PCF8574_H #define __PCF8574_H #include <stc12c5a60s2.h> #define PCA9685_adrr 0x40 #define PCA9685_SUBADR1 0x2 #define PCA9685_SUBADR2 0x3 #define PCA9685_SUBADR3 0x4 #define PCA9685_MODE1 0x0 #define PCA9685_PRESCALE 0xFE #define LED0_ON_L 0x6 #define LED0_ON_H 0x7 #define LED0_OFF_L 0x8 #define LED0_OFF_H 0x9 #define ALLLED_ON_L 0xFA #define ALLLED_ON_H 0xFB #define ALLLED_OFF_L 0xFC #define ALLLED_OFF_H 0xFD #define u8 unsigned char #define u16 char ```
sparkMLlib PCA降维后的数据与原来的数据不一样了,怎么使用sparkMLlib PCA降维后得到数据?
原始数据矩阵如下 // 原始数据 val arr = Array( Vectors.dense(4.0,1.0, 4.0, 5.0), Vectors.dense(2.0,3.0, 4.0, 5.0), Vectors.dense(4.0,0.0, 6.0, 7.0)) 降维后的数据如下: [-5.061524965038313,2.6731387750445608] [-7.489827262491891,4.4347709591799624] [-2.9078143281202276,4.506586481532503] spark PCA处理后的数据代表什么意思,和原来的数据不一样,怎么利用这个数据,比如我想对它做线性回归?
大家帮忙看看我这段matlab,用pca处理图像,但是输出的图片为什么会是重复的三张?
function y=mypca() %%%%%%%%%%%%%%%%%%%%%%%%%PCA算法对人脸图像处理提取主成分程序 path = ['.\']; % 提取当前目录 %读取图像 numimage=4; %4张人脸 imagepath=[path 'ORL\ORL001' '.bmp']; %第一张人脸文件的路径及文件名:D:\PCA\ORL\ORL001.bmp immatrix=imread(imagepath); % 读入第一张人脸文件,构成矩阵immatrix [m,n]=size(immatrix); % 计算矩阵immatrix的行数m、列数n DATA = uint8 (rand(m*n, numimage)); %随机生成m*n行、numimage列的矩阵,并取uint8 for i=1:numimage s1=floor(i/100); % 取整,求第3位 tem=rem(i,100); % i除以100的余数,取后两位 s2=floor(tem/10); % 取第2位 s3=rem(tem,10); % 取第1位 imagepath=[path 'ORL\ORL' int2str(s1) int2str(s2) int2str(s3) '.bmp']; % 构成图像文件的路径即文件名 immatrix=imread(imagepath); % 读入每一张人脸文件,构成矩阵immatrix imVector=reshape(immatrix,m*n,1); % 将矩阵immatrix转化为一个列向量,长度为m*n DATA(:,i)=imVector; % 将列向量imVector依次加入到DATA矩阵的列中.DATA先随机生成过的 end clear i;clear j; save DATA DATA; % 保存DATA mn=mean(double(DATA'))'; % 计算DATA的行向量的均值 save mn mn; % 保存DATA的行向量的均值 %image substracted by mean of all train images DATAzeromean=double(DATA)-repmat(mn,1,numimage); save DATAzeromean DATAzeromean; clear DATA; L=DATAzeromean'*DATAzeromean; [V,D]=eig(L); enginvalue=diag(D); [enginvalue,ix]=sort(enginvalue);%按升序排列矩阵元素 ix=flipud(ix);%从上到下翻转矩阵,即按降序 V=V(:,ix); %对V的特征向量位置调整 facespace=DATAzeromean*V; %脸空间 for t=1:numimage facespace(:,t)=facespace(:,t)/norm(facespace(:,t));%Normalisation to unit length end subdim=4; facespace=facespace(:,1:subdim);%选择子特征向量的协方差矩阵 projdata=facespace'*DATAzeromean; save projdata projdata; save facespace facespace; datareconstruct=facespace*projdata; fprintf('正在保存 Wakesplace中的图片数据\n'); save datareconstruct datareconstruct; for i=1:numimage-1 imdata=datareconstruct(:,i); imdata=reshape(imdata,m,n); imwrite(imdata,['.\生成的特征脸\' int2str(i) '.bmp'],'bmp');%得到重构图像1.bmp---4.bmp end %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
MATLAB 中PCA特征提取用LDA和PLS代替的代码
function [Xs_new,Xt_new,G] = GFK_Map(Xs,Xt,dim) Ps = pca(Xs); Pt = pca(Xt); G = GFK_core([Ps,null(Ps')], Pt(:,1:dim)); sq_G = real(G); Xs_new = (sq_G * Xs')'; Xt_new = (sq_G * Xt')'; end 这里用PCA特征提取Xs和Xt,得到一个特征的转化矩阵(COEFF) ,这个矩阵在MATLAB里面 叫COEFF,是个n*n,n为原矩阵的维度,我想用LDA或者PLS代替或者有更好的特征提取方式,提取到这个类似COEFF的转化矩阵,代码都可以。
PCA降维后,求出多元线性函数,如何还原原始维度。
数据经过PCA将维后,例如,原本是10维,降维后为5维。 然后求出多元线性函数的系数为[1,2,3,4,5], 那么如何将个五个系数还原为10个系数。 因为降维后是5,根据降维后的数据计算线性函数, 系数必然是5. 但是原始维度是10,那么怎样将5个系数还原为10个系数。
子网1中的PCa和子网2中的PCb 怎么建立网络连接,相互通信?
子网1中的PCa和子网2中的PCb 怎么建立网络连接,相互通信?而且真心不明白编程socket通信上是怎么解决这个问题的。
求C#实现PCA算法的例子
求C#实现PCA算法的例子,PCA为主成分分析, 看了一天的百度,然而线性代数的知识完全不记得了。 求各位大神指点迷津,万分感谢!
主成分分析降维会影响到机器学习的精度么?
![图片说明](https://img-ask.csdn.net/upload/201907/18/1563440089_697335.png) 我使用五种方法同时对原始数据和主成分分析PCA处理之后的数据进行分析,并且进行回判和预测,发现SVM和神经网络前后变化不大,但是XGBoost、AdaBoost以及Bayes的成功率反而有所降低,请问是不是因为这几个方法不适合主成分分析降维?
emgucv PCA分析 总是报错
求大神指点 private void btn_hg_Click(object sender, EventArgs e) { int m = Wavelenth[0].Count; double[,] data=new double[num,m]; for(int i=0;i<num;i++) { for(int j=0;j<m;j++) { data[i,j]=Reflectance[j]; } } Matrix<Double> matrix1 = new Matrix<Double>(data); + 已引发: "不支持 URI 格式。" (System.ArgumentException) 异常消息 = "不支持 URI 格式。", 异常类型 = "System.ArgumentException", 异常 WinRT 数据 = null Matrix<Double> pMean = new Matrix<double>(1, m);//平均值 Matrix<Double> pEigVals = new Matrix<double>(num,1);//特征值 Matrix<Double> pEigVecs = new Matrix<double>(num,num);//特征向量 Matrix<Double> pResult = new Matrix<double>(num, 5);//结果 Emgu.CV.CvInvoke.cvCalcPCA(matrix1, pMean, pEigVals, pEigVecs, Emgu.CV.CvEnum.PCA_TYPE.CV_PCA_DATA_AS_ROW); + 已引发: "OpenCV: (evals0.cols == 1 || evals0.rows == 1) && ecount0 <= ecount && evects0.cols == evects.cols && evects0.rows == ecount0" (Emgu.CV.Util.CvException) 异常消息 = "OpenCV: (evals0.cols == 1 || evals0.rows == 1) && ecount0 <= ecount && evects0.cols == evects.cols && evects0.rows == ecount0", 异常类型 = "Emgu.CV.Util.CvException", 异常 WinRT 数据 = null //选出前P个特征向量(主成份),然后投影,结果保存在pResult中,pResult中包含了P个系数 CvInvoke.cvProjectPCA(matrix1, pMean, pEigVecs, pResult); MessageBox.Show("OK"); }
opencv svm detector该怎么写?
我用64*128的图片,hog特征+svm可以成功检测出行人。但是换成64*64尺寸的图片,可以训练出svm模型,但是检测时会出错,觉得应该是detector的问题,但是不知道该怎么重写? 对提取好的HogFeatureMat进行pca降维后检测同样会出现类似的错误。detector该怎么重写,里面哪些参数需要调整?谢谢。代码如下 ``` #include <iostream> #include <fstream> #include <opencv2/core/core.hpp> #include <opencv2/highgui/highgui.hpp> #include <opencv2/imgproc/imgproc.hpp> #include <opencv2/objdetect/objdetect.hpp> #include <opencv2/ml/ml.hpp> using namespace std; using namespace cv; #define PosSamNO 1114 //正样本个数 #define NegSamNO 12180 //负样本个数 #define TRAIN false//是否进行训练,true表示重新训练,false表示读取xml文件中的SVM模型 #define CENTRAL_CROP false //true:训练时,对96*160的INRIA正样本图片剪裁出中间的64*128大小人体 //HardExample:负样本个数。如果HardExampleNO大于0,表示处理完初始负样本集后,继续处理HardExample负样本集。 //不使用HardExample时必须设置为0,因为特征向量矩阵和特征类别矩阵的维数初始化时用到这个值 #define HardExampleNO 433 //继承自CvSVM的类,因为生成setSVMDetector()中用到的检测子参数时,需要用到训练好的SVM的decision_func参数, //但通过查看CvSVM源码可知decision_func参数是protected类型变量,无法直接访问到,只能继承之后通过函数访问 class MySVM : public CvSVM { public: //获得SVM的决策函数中的alpha数组 double * get_alpha_vector() { return this->decision_func->alpha; } //获得SVM的决策函数中的rho参数,即偏移量 float get_rho() { return this->decision_func->rho; } }; int main() { //检测窗口(64,128),块尺寸(16,16),块步长(8,8),cell尺寸(8,8),直方图bin个数9 HOGDescriptor hog(Size(64,128),Size(16,16),Size(8,8),Size(8,8),9);//HOG检测器,用来计算HOG描述子的 int DescriptorDim;//HOG描述子的维数,由图片大小、检测窗口大小、块大小、细胞单元中直方图bin个数决定 MySVM svm;//SVM分类器 //若TRAIN为true,重新训练分类器 if(TRAIN) { string ImgName;//图片名(绝对路径) ifstream finPos("d:/hogmit/pos/pos.txt");//正样本图片的文件名列表 //ifstream finPos("PersonFromVOC2012List.txt");//正样本图片的文件名列表 ifstream finNeg("d:/hogmit/neg/neg.txt");//负样本图片的文件名列表 Mat sampleFeatureMat;//所有训练样本的特征向量组成的矩阵,行数等于所有样本的个数,列数等于HOG描述子维数 Mat sampleLabelMat;//训练样本的类别向量,行数等于所有样本的个数,列数等于1;1表示有人,-1表示无人 //依次读取正样本图片,生成HOG描述子 for(int num=0; num<PosSamNO && getline(finPos,ImgName); num++) { cout<<"处理:"<<ImgName<<endl; //ImgName = "D:\\DataSet\\PersonFromVOC2012\\" + ImgName;//加上正样本的路径名 ImgName = "d:/hogmit/pos/" + ImgName;//加上正样本的路径名 Mat src = imread(ImgName);//读取图片 if(CENTRAL_CROP) src = src(Rect(16,16,64,128));//将96*160的INRIA正样本图片剪裁为64*128,即剪去上下左右各16个像素 //resize(src,src,Size(64,128)); vector<float> descriptors;//HOG描述子向量 hog.compute(src,descriptors,Size(8,8));//计算HOG描述子,检测窗口移动步长(8,8) // cout<<"描述子维数:"<<descriptors.size()<<endl; //处理第一个样本时初始化特征向量矩阵和类别矩阵,因为只有知道了特征向量的维数才能初始化特征向量矩阵 if( 0 == num ) { DescriptorDim = descriptors.size();//HOG描述子的维数 //初始化所有训练样本的特征向量组成的矩阵,行数等于所有样本的个数,列数等于HOG描述子维数sampleFeatureMat sampleFeatureMat = Mat::zeros(PosSamNO+NegSamNO+HardExampleNO, DescriptorDim, CV_32FC1); //初始化训练样本的类别向量,行数等于所有样本的个数,列数等于1;1表示有人,0表示无人 sampleLabelMat = Mat::zeros(PosSamNO+NegSamNO+HardExampleNO, 1, CV_32FC1); } //将计算好的HOG描述子复制到样本特征矩阵sampleFeatureMat for(int i=0; i<DescriptorDim; i++) sampleFeatureMat.at<float>(num,i) = descriptors[i];//第num个样本的特征向量中的第i个元素 sampleLabelMat.at<float>(num,0) = 1;//正样本类别为1,有人 } //依次读取负样本图片,生成HOG描述子 for(int num=0; num<NegSamNO && getline(finNeg,ImgName); num++) { cout<<"处理:"<<ImgName<<endl; ImgName = "d:/hogmit/neg/" + ImgName;//加上负样本的路径名 Mat src = imread(ImgName);//读取图片 //resize(src,img,Size(64,128)); vector<float> descriptors;//HOG描述子向量 hog.compute(src,descriptors,Size(8,8));//计算HOG描述子,检测窗口移动步长(8,8) //cout<<"描述子维数:"<<descriptors.size()<<endl; //将计算好的HOG描述子复制到样本特征矩阵sampleFeatureMat for(int i=0; i<DescriptorDim; i++) sampleFeatureMat.at<float>(num+PosSamNO,i) = descriptors[i];//第PosSamNO+num个样本的特征向量中的第i个元素 sampleLabelMat.at<float>(num+PosSamNO,0) = -1;//负样本类别为-1,无人 } //处理HardExample负样本 if(HardExampleNO > 0) { ifstream finHardExample("d:/hogmit/hard/hard.txt");//HardExample负样本的文件名列表 //依次读取HardExample负样本图片,生成HOG描述子 for(int num=0; num<HardExampleNO && getline(finHardExample,ImgName); num++) { cout<<"处理:"<<ImgName<<endl; ImgName = "d:/hogmit/hard/" + ImgName;//加上HardExample负样本的路径名 Mat src = imread(ImgName);//读取图片 //resize(src,img,Size(64,128)); vector<float> descriptors;//HOG描述子向量 hog.compute(src,descriptors,Size(8,8));//计算HOG描述子,检测窗口移动步长(8,8) //cout<<"描述子维数:"<<descriptors.size()<<endl; //将计算好的HOG描述子复制到样本特征矩阵sampleFeatureMat for(int i=0; i<DescriptorDim; i++) sampleFeatureMat.at<float>(num+PosSamNO+NegSamNO,i) = descriptors[i];//第PosSamNO+num个样本的特征向量中的第i个元素 sampleLabelMat.at<float>(num+PosSamNO+NegSamNO,0) = -1;//负样本类别为-1,无人 } } //输出样本的HOG特征向量矩阵到文件 ofstream fout("d:/hogmit/SampleFeatureMat.txt"); for(int i=0; i<PosSamNO+NegSamNO; i++) { fout<<i<<endl; for(int j=0; j<DescriptorDim; j++) { fout<<sampleFeatureMat.at<float>(i,j)<<" "; } fout<<endl; } //训练SVM分类器 //迭代终止条件,当迭代满1000次或误差小于FLT_EPSILON时停止迭代 CvTermCriteria criteria = cvTermCriteria(CV_TERMCRIT_ITER+CV_TERMCRIT_EPS, 1000, FLT_EPSILON); //SVM参数:SVM类型为C_SVC;线性核函数;松弛因子C=0.01 CvSVMParams param(CvSVM::C_SVC, CvSVM::LINEAR, 0, 1, 0, 0.01, 0, 0, 0, criteria); cout<<"开始训练SVM分类器"<<endl; svm.train(sampleFeatureMat,sampleLabelMat, Mat(), Mat(), param);//训练分类器 cout<<"训练完成"<<endl; svm.save("d:/hogmit/SVM_HOG_mit_inria(1114pos+12180neg+433hard).xml");//将训练好的SVM模型保存为xml文件 } else //若TRAIN为false,从XML文件读取训练好的分类器 { cout<<"fail train"<<endl; //svm.load("SVM_HOG_2400PosINRIA_12000Neg_HardExample(误报少了漏检多了).xml");//从XML文件读取训练好的SVM模型 svm.load("d:/hogmit/SVM_HOG_2400PosINRIA_12000Neg_HardExample(误报少了漏检多了).xml"); } /************************************************************************************************* 线性SVM训练完成后得到的XML文件里面,有一个数组,叫做support vector,还有一个数组,叫做alpha,有一个浮点数,叫做rho; 将alpha矩阵同support vector相乘,注意,alpha*supportVector,将得到一个列向量。之后,再该列向量的最后添加一个元素rho。 如此,变得到了一个分类器,利用该分类器,直接替换opencv中行人检测默认的那个分类器(cv::HOGDescriptor::setSVMDetector()), 就可以利用你的训练样本训练出来的分类器进行行人检测了。 ***************************************************************************************************/ DescriptorDim = svm.get_var_count();//特征向量的维数,即HOG描述子的维数 int supportVectorNum = svm.get_support_vector_count();//支持向量的个数 cout<<"支持向量个数:"<<supportVectorNum<<endl; Mat alphaMat = Mat::zeros(1, supportVectorNum, CV_32FC1);//alpha向量,长度等于支持向量个数 Mat supportVectorMat = Mat::zeros(supportVectorNum, DescriptorDim, CV_32FC1);//支持向量矩阵 Mat resultMat = Mat::zeros(1, DescriptorDim, CV_32FC1);//alpha向量乘以支持向量矩阵的结果 //将支持向量的数据复制到supportVectorMat矩阵中 for(int i=0; i<supportVectorNum; i++) { const float * pSVData = svm.get_support_vector(i);//返回第i个支持向量的数据指针 for(int j=0; j<DescriptorDim; j++) { //cout<<pData[j]<<" "; supportVectorMat.at<float>(i,j) = pSVData[j]; } } //将alpha向量的数据复制到alphaMat中 double * pAlphaData = svm.get_alpha_vector();//返回SVM的决策函数中的alpha向量 for(int i=0; i<supportVectorNum; i++) { alphaMat.at<float>(0,i) = pAlphaData[i]; } //计算-(alphaMat * supportVectorMat),结果放到resultMat中 //gemm(alphaMat, supportVectorMat, -1, 0, 1, resultMat);//不知道为什么加负号? resultMat = -1 * alphaMat * supportVectorMat; //得到最终的setSVMDetector(const vector<float>& detector)参数中可用的检测子 vector<float> myDetector; //将resultMat中的数据复制到数组myDetector中 for(int i=0; i<DescriptorDim; i++) { myDetector.push_back(resultMat.at<float>(0,i)); } //最后添加偏移量rho,得到检测子 myDetector.push_back(svm.get_rho()); cout<<"检测子维数:"<<myDetector.size()<<endl; //设置HOGDescriptor的检测子 HOGDescriptor myHOG; myHOG.setSVMDetector(myDetector); //myHOG.setSVMDetector(HOGDescriptor::getDefaultPeopleDetector()); //保存检测子参数到文件 ofstream fout("d:/hogmit/HOGDetectorForOpenCV.txt"); for(int i=0; i<myDetector.size(); i++) { fout<<myDetector[i]<<endl; } /**************读入图片进行HOG行人检测******************/ Mat src = imread("d:/hogmit/无标题.png"); //Mat src = imread("2007_000423.jpg"); //Mat src = imread("1.png"); vector<Rect> found, found_filtered;//矩形框数组 cout<<"进行多尺度HOG人体检测"<<endl; myHOG.detectMultiScale(src, found, 0, Size(8,8), Size(32,32), 1.05, 2);//对图片进行多尺度行人检测 //src为输入待检测的图片;found为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离; //参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即测试图片每次尺寸缩放增加的比例; //参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。 cout<<"找到的矩形框个数:"<<found.size()<<endl; //找出所有没有嵌套的矩形框r,并放入found_filtered中,如果有嵌套的话,则取外面最大的那个矩形框放入found_filtered中 for(int i=0; i < found.size(); i++) { Rect r = found[i]; int j=0; for(; j < found.size(); j++) if(j != i && (r & found[j]) == r) break; if( j == found.size()) found_filtered.push_back(r); } //画矩形框,因为hog检测出的矩形框比实际人体框要稍微大些,所以这里需要做一些调整 for(int i=0; i<found_filtered.size(); i++) { Rect r = found_filtered[i]; r.x += cvRound(r.width*0.1); r.width = cvRound(r.width*0.8); r.y += cvRound(r.height*0.07); r.height = cvRound(r.height*0.8); rectangle(src, r.tl(), r.br(), Scalar(0,255,0), 3); } imwrite("d:/hogmit/ImgProcessed3.jpg",src); namedWindow("src",0); imshow("src",src); waitKey();//注意:imshow之后必须加waitKey,否则无法显示图像 /******************读入单个64*128的测试图并对其HOG描述子进行分类*********************/ ////读取测试图片(64*128大小),并计算其HOG描述子 //Mat testImg = imread("person014142.jpg"); //Mat testImg = imread("noperson000026.jpg"); //vector<float> descriptor; //hog.compute(testImg,descriptor,Size(8,8));//计算HOG描述子,检测窗口移动步长(8,8) //Mat testFeatureMat = Mat::zeros(1,3780,CV_32FC1);//测试样本的特征向量矩阵 //将计算好的HOG描述子复制到testFeatureMat矩阵中 //for(int i=0; i<descriptor.size(); i++) // testFeatureMat.at<float>(0,i) = descriptor[i]; //用训练好的SVM分类器对测试图片的特征向量进行分类 //int result = svm.predict(testFeatureMat);//返回类标 //cout<<"分类结果:"<<result<<endl; system("pause"); } ```
用sklearn在图片分类中数据降维遇到的一些问题
我在用isomap、pca和MDS对原始矩阵处理后,发现分类成功率反而大大小于没有降维前,为什么会这样子。。 好像不是参数的问题,怎么调效果都不好。。是我的姿势不对吗 ``` # pca pca = PCA(n_components=30).fit(x) x2 = pca.transform(x) x_train, x_test, y_train, y_test = train_test_split(x2, y, train_size=0.9) model = RandomForestClassifier(n_estimators=20) model.fit(x_train, y_train) predict = model.predict(x_test) accuracy_pca = metrics.accuracy_score(y_test, predict) # MDS mds = manifold.MDS(n_components=30, eps=1e-10) X_r = mds.fit(x).embedding_ x_train, x_test, y_train, y_test = train_test_split(X_r, y, train_size=0.9) model.fit(x_train, y_train) predict = model.predict(x_test) accuracy_MDS = metrics.accuracy_score(y_test, predict) # isomap isomap = manifold.Isomap(15, n_components=30).fit_transform(x) x_train, x_test, y_train, y_test = train_test_split(isomap, y, train_size=0.9) model.fit(x_train, y_train) predict = model.predict(x_test) accuracy_isomap = metrics.accuracy_score(y_test, predict) print accuracy_isomap ``` 图片是100×100像素 x是数据矩阵(165×10000) y是标签,从1到15
关于PCA主成分分析32个指标,10年的数据,能做吗??
为什么我用R语言显示错误,指标数不能多于数据啊???????????????????????????
高光谱图像降维matlab代码
求使用PCA和低秩张量分解的方法对高光谱图像降维的matlab代码,谢谢大家
偏最小二乘法回归的Python代码看不懂,有大佬可以帮忙解释一下吗?
{ "cells": [ { "cell_type": "code", "execution_count": 1, "metadata": {}, "outputs": [], "source": [ "#basic module\n", "import warnings\n", "warnings.filterwarnings('ignore')\n", "from sklearn import preprocessing\n", "from sklearn import metrics\n", "from sklearn.decomposition import PCA \n", "import numpy as np\n", "import pandas as pd" ] }, { "cell_type": "code", "execution_count": 2, "metadata": {}, "outputs": [ { "data": { "text/html": [ "<div>\n", "<style scoped>\n", " .dataframe tbody tr th:only-of-type {\n", " vertical-align: middle;\n", " }\n", "\n", " .dataframe tbody tr th {\n", " vertical-align: top;\n", " }\n", "\n", " .dataframe thead th {\n", " text-align: right;\n", " }\n", "</style>\n", "<table border=\"1\" class=\"dataframe\">\n", " <thead>\n", " <tr style=\"text-align: right;\">\n", " <th></th>\n", " <th>Q41</th>\n", " <th>Q42</th>\n", " <th>Q43</th>\n", " <th>Q44</th>\n", " <th>Q45</th>\n", " <th>Q46</th>\n", " <th>Q47</th>\n", " <th>Q48</th>\n", " <th>Q49</th>\n", " <th>Q410</th>\n", " <th>Q411</th>\n", " <th>Q412</th>\n", " <th>Q413</th>\n", " <th>Q414</th>\n", " <th>A1</th>\n", " <th>A2</th>\n", " <th>A3</th>\n", " </tr>\n", " </thead>\n", " <tbody>\n", " <tr>\n", " <td>0</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>4</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>-1.61</td>\n", " <td>1.91</td>\n", " <td>-1.06</td>\n", " </tr>\n", " <tr>\n", " <td>1</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>2</td>\n", " <td>2</td>\n", " <td>2</td>\n", " <td>2</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>2</td>\n", " <td>2</td>\n", " <td>2</td>\n", " <td>1.29</td>\n", " <td>-2.49</td>\n", " <td>-0.99</td>\n", " </tr>\n", " <tr>\n", " <td>2</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>-0.04</td>\n", " <td>1.89</td>\n", " <td>-1.29</td>\n", " </tr>\n", " <tr>\n", " <td>3</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>-0.04</td>\n", " <td>1.89</td>\n", " <td>-1.29</td>\n", " </tr>\n", " <tr>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>3</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>5</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>3</td>\n", " <td>4</td>\n", " <td>4</td>\n", " <td>3</td>\n", " <td>-0.23</td>\n", " <td>0.77</td>\n", " <td>-0.60</td>\n", " </tr>\n", " </tbody>\n", "</table>\n", "</div>" ], "text/plain": [ " Q41 Q42 Q43 Q44 Q45 Q46 Q47 Q48 Q49 Q410 Q411 Q412 Q413 Q414 \\\n", "0 3 3 3 3 3 4 5 5 5 5 3 3 3 3 \n", "1 4 4 4 4 4 2 2 2 2 5 5 2 2 2 \n", "2 4 4 4 4 4 5 5 5 5 5 3 3 3 3 \n", "3 4 4 4 4 4 5 5 5 5 5 3 3 3 3 \n", "4 4 4 4 4 3 5 5 5 3 3 3 4 4 3 \n", "\n", " A1 A2 A3 \n", "0 -1.61 1.91 -1.06 \n", "1 1.29 -2.49 -0.99 \n", "2 -0.04 1.89 -1.29 \n", "3 -0.04 1.89 -1.29 \n", "4 -0.23 0.77 -0.60 " ] }, "execution_count": 2, "metadata": {}, "output_type": "execute_result" } ], "source": [ "raw_data = pd.read_csv(\"257 928.csv\").loc[:,['Q41','Q42','Q43','Q44','Q45',\n", " 'Q46','Q47','Q48','Q49','Q410',\n", " 'Q411','Q412','Q413','Q414',\n", " 'A1','A2','A3']]\n", "raw_data.head()" ] }, { "cell_type": "code", "execution_count": 3, "metadata": {}, "outputs": [ { "data": { "text/plain": [ "Index(['Q41', 'Q42', 'Q43', 'Q44', 'Q45', 'Q46', 'Q47', 'Q48', 'Q49', 'Q410',\n", " 'Q411', 'Q412', 'Q413', 'Q414', 'A1', 'A2', 'A3'],\n", " dtype='object')" ] }, "execution_count": 3, "metadata": {}, "output_type": "execute_result" } ], "source": [ "raw_data.columns" ] }, { "cell_type": "code", "execution_count": 4, "metadata": {}, "outputs": [], "source": [ "def linear_model(X,w):\n", " _,loop = np.shape(X)\n", " sum = 0\n", " for i in range(loop):\n", " sum += w[i] * X[:,i]\n", " return sum" ] }, { "cell_type": "code", "execution_count": 5, "metadata": {}, "outputs": [], "source": [ "def loss_function(x_train, y_train, w):\n", " X = x_train\n", " Y_pred = linear_model(X,w)\n", " J = metrics.mean_squared_error(y_train, Y_pred)\n", " return J" ] }, { "cell_type": "code", "execution_count": 6, "metadata": {}, "outputs": [], "source": [ "def model(x_train, y_train, mini=1e-10, alpha=0.001, delta = 0.005, max_iter = 100, max_step = 5000): \n", " step = 0\n", " _,loop = np.shape(x_train)\n", " w = np.random.rand(loop)\n", " while(True):\n", " weights = np.array(w)\n", " for i in range(0, len(w)):\n", " step_ = 0\n", " while (True):\n", " # simplified gradient descent\n", " w_backup = w[i] \n", " loss_present = loss_function(x_train, y_train, w)\n", " w[i] = w_backup + delta\n", " loss_plus = loss_function(x_train, y_train, w)\n", " w[i] = w_backup - delta\n", " loss_sub = loss_function(x_train, y_train, w)\n", " if (loss_present < loss_plus and loss_present < loss_sub) or step_ >= max_step:\n", " break\n", " # update weights\n", " w[i] = w_backup - alpha*(loss_plus - loss_sub)/(2*delta)\n", " #w[i] = w_backup + alpha if loss_plus < loss_sub else w_backup - alpha\n", " step_ += 1\n", " offset = np.sum(np.square(np.array(w) - weights))\n", " # end condition\n", " step += 1\n", " if (offset < mini) or (step >= max_iter):\n", " break\n", " return w, loss_present" ] }, { "cell_type": "code", "execution_count": 7, "metadata": {}, "outputs": [], "source": [ "def obtain_elements(x_data, y_data, num):\n", " comp_list = []\n", " metric_list = []\n", " w_list = []\n", " pca_list = []\n", " for comp in range(num):\n", " n_comp = comp + 1\n", " # pca\n", " comp_list.append(n_comp)\n", " pca = PCA(n_components=n_comp,svd_solver='auto')\n", " X_ = x_data - np.mean(x_data)\n", " pca.fit(X_, y_data)\n", " X = pca.transform(X_)\n", " # linear reg\n", " pca_list.append(pca)\n", " w, metric = model(X, y_data )\n", " w_list.append(w)\n", " metric_list.append(metric)\n", " ind = metric_list.index(min(metric_list))\n", " print(\"metrics :\" ,metric_list)\n", " return comp_list[ind], pca_list[ind], w_list[ind]" ] }, { "cell_type": "code", "execution_count": 8, "metadata": {}, "outputs": [], "source": [ "# 第一组\n", "x1_data = raw_data.loc[:,['Q41','Q42','Q43','Q44','Q45']]\n", "y1_data = raw_data.loc[:,['A2']]\n", "len1 = 5\n", "# 第二组\n", "x2_data = raw_data.loc[:,['Q46','Q47','Q48','Q49','Q410']]\n", "y2_data = raw_data.loc[:,['A1']]\n", "len2 = 5\n", "# 第三组\n", "x3_data = raw_data.loc[:,['Q411','Q412','Q413','Q414']]\n", "y3_data = raw_data.loc[:,['A3']]\n", "len3 = 4" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ "# 计算PLSR" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ " 第一组" ] }, { "cell_type": "code", "execution_count": 9, "metadata": {}, "outputs": [ { "name": "stdout", "output_type": "stream", "text": [ "metrics : [0.937338177736278, 0.90366935147199, 0.9036905658620544, 0.9028029958313659, 0.9022534567720741]\n", "第一组的主成分保留5个\n", "回归系数为: [-0.17477811 0.25885742 -0.01157531 -0.07843881 0.06077944]\n" ] } ], "source": [ "comp_1, pca_1, w1 = obtain_elements(x1_data, y1_data, len1)\n", "print(\"第一组的主成分保留%d个\"%comp_1)\n", "print(\"回归系数为:\", w1)" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ " 第二组" ] }, { "cell_type": "code", "execution_count": 10, "metadata": {}, "outputs": [ { "name": "stdout", "output_type": "stream", "text": [ "metrics : [0.9216669179495057, 0.9126959565507735, 0.900633447790304, 0.8930927646735571, 0.8824868647839249]\n", "第二组的主成分保留5个\n", "回归系数为: [-0.19525742 -0.14575206 -0.20305816 -0.17987887 -0.22941539]\n" ] } ], "source": [ "comp_2, pca_2, w2 = obtain_elements(x2_data, y2_data, len2)\n", "print(\"第二组的主成分保留%d个\"%comp_2)\n", "print(\"回归系数为:\", w2)" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ " 第三组" ] }, { "cell_type": "code", "execution_count": 11, "metadata": {}, "outputs": [ { "name": "stdout", "output_type": "stream", "text": [ "metrics : [0.07356179930507709, 0.06803873635782488, 0.06747567528450515, 0.06722983639980304]\n", "第三组的主成分保留4个\n", "回归系数为: [-0.67029064 -0.10083604 0.0447786 -0.04806739]\n" ] } ], "source": [ "comp_3, pca_3, w3 = obtain_elements(x3_data, y3_data, len3)\n", "print(\"第三组的主成分保留%d个\"%comp_3)\n", "print(\"回归系数为:\", w3)" ] } ], "metadata": { "kernelspec": { "display_name": "Python 3", "language": "python", "name": "python3" }, "language_info": { "codemirror_mode": { "name": "ipython", "version": 3 }, "file_extension": ".py", "mimetype": "text/x-python", "name": "python", "nbconvert_exporter": "python", "pygments_lexer": "ipython3", "version": "3.7.4" } }, "nbformat": 4, "nbformat_minor": 2 } ``` ```
相见恨晚的超实用网站
搞学习 知乎:www.zhihu.com 简答题:http://www.jiandati.com/ 网易公开课:https://open.163.com/ted/ 网易云课堂:https://study.163.com/ 中国大学MOOC:www.icourse163.org 网易云课堂:study.163.com 哔哩哔哩弹幕网:www.bilibili.com 我要自学网:www.51zxw
花了20分钟,给女朋友们写了一个web版群聊程序
参考博客 [1]https://www.byteslounge.com/tutorials/java-ee-html5-websocket-example
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
字节跳动视频编解码面经
引言 本文主要是记录一下面试字节跳动的经历。 三四月份投了字节跳动的实习(图形图像岗位),然后hr打电话过来问了一下会不会opengl,c++,shador,当时只会一点c++,其他两个都不会,也就直接被拒了。 七月初内推了字节跳动的提前批,因为内推没有具体的岗位,hr又打电话问要不要考虑一下图形图像岗,我说实习投过这个岗位不合适,不会opengl和shador,然后hr就说秋招更看重基础。我当时
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入 假设现有4个人...
Python 基础(一):入门必备知识
目录1 标识符2 关键字3 引号4 编码5 输入输出6 缩进7 多行8 注释9 数据类型10 运算符10.1 常用运算符10.2 运算符优先级 1 标识符 标识符是编程时使用的名字,用于给变量、函数、语句块等命名,Python 中标识符由字母、数字、下划线组成,不能以数字开头,区分大小写。 以下划线开头的标识符有特殊含义,单下划线开头的标识符,如:_xxx ,表示不能直接访问的类属性,需通过类提供
这30个CSS选择器,你必须熟记(上)
关注前端达人,与你共同进步CSS的魅力就是让我们前端工程师像设计师一样进行网页的设计,我们能轻而易举的改变颜色、布局、制作出漂亮的影音效果等等,我们只需要改几行代码,不需...
国产开源API网关项目进入Apache孵化器:APISIX
点击蓝色“程序猿DD”关注我回复“资源”获取独家整理的学习资料!近日,又有一个开源项目加入了这个Java开源界大名鼎鼎的Apache基金会,开始进行孵化器。项目名称:AP...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
杨辉三角 是经典算法,这篇博客对它的算法思想进行了讲解,并有完整的代码实现。
编写Spring MVC控制器的14个技巧
本期目录 1.使用@Controller构造型 2.实现控制器接口 3.扩展AbstractController类 4.为处理程序方法指定URL映射 5.为处理程序方法指定HTTP请求方法 6.将请求参数映射到处理程序方法 7.返回模型和视图 8.将对象放入模型 9.处理程序方法中的重定向 10.处理表格提交和表格验证 11.处理文件上传 12.在控制器中自动装配业务类 ...
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
求小姐姐抠图竟遭白眼?痛定思痛,我决定用 Python 自力更生!
点击蓝色“Python空间”关注我丫加个“星标”,每天一起快乐的学习大家好,我是 Rocky0429,一个刚恰完午饭,正在用刷网页浪费生命的蒟蒻...一堆堆无聊八卦信息的网页内容慢慢使我的双眼模糊,一个哈欠打出了三斤老泪,就在此时我看到了一张图片:是谁!是谁把我女朋友的照片放出来的!awsl!太好看了叭...等等,那个背景上的一堆鬼画符是什么鬼?!真是看不下去!叔叔婶婶能忍,隔壁老王的三姨妈的四表...
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
不要偷偷的查询我的个人资料,即使你再喜欢我,也不要这样,真的不好;
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,...
程序员:我终于知道post和get的区别
是一个老生常谈的话题,然而随着不断的学习,对于以前的认识有很多误区,所以还是需要不断地总结的,学而时习之,不亦说乎
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU...
相关热词 c#处理浮点数 c# 生成字母数字随机数 c# 动态曲线 控件 c# oracle 开发 c#选择字体大小的控件 c# usb 批量传输 c#10进制转8进制 c#转base64 c# 科学计算 c#下拉列表获取串口
立即提问