bp神经网络的参数问题

都说bp神经网络有45个参数,这45个参数到底是什么,我是一个新手,在此求教,谢谢各位大神了!

1个回答

谁知道你说的45个参数是什么鬼,还都听谁说的,这个取决于你的模型,可多可少

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
matlab中的bp神经网络参数问题
bp神经网络有哪些参数,有多少参数;每个参数代表什么意义;运用的时候,参数的多少会有什么影响,还是最好的拟合结果就好
matlab中如何将BP神经网络工具箱中的Gradient设置的更小
在matlab神经网络工具箱中,BP网络训练过程中最小梯度Gradient参数总是先达到要求,请问如何将BP神经网络工具箱中的Gradient如何设置的更小,尽管对网络精度没用,我只是想得到他陷入局部最小值的下降曲线。
遗传算法优化BP神经网络
主函数:需调用函数fx2、evaluate和errorBP clc clear %随机产生200组输入数据x、输出数据y input=10*rand(2,200)-5; output=zeros(1,200); for i=1:200 output(i)=fx2(input(:,i)); end %设置网络节点数 inputnum=2; hiddennum=5; outputnum=1; %随机选择100组训练数据和100组预测数据 input_train=input(:,1:100)'; output_train=output(1:100)'; input_test=input(:,101:200)'; output_test=output(101:200)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %模拟退火算法参数初始化 Tmax=50; %初温 L=100; %最大退火次数 Tmin=0.01; %终止温度 %BP神经网络算法优化权值和阈值 numsum=inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum; %权值和阈值总数 net=train(net,inputn',outputn'); %将BP神经网络优化后权值和阈值赋给模拟退火算法的初始解 s1=reshape(net.iw{1,1},1,inputnum*hiddennum); s2=reshape(net.b{1},1,hiddennum); s3=reshape(net.lw{2,1},1,hiddennum*outputnum); s4=reshape(net.b{2},1,outputnum); s=[s1,s2,s3,s4]; %模拟退火算法优化权值和阈值 t=Tmax; while t>Tmin k=1; for i=1:numsum sx(i)=s(i)+(0.2*rand-0.1)*errorBP; %产生新解 end c=evaluate(sx,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput)-evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput); %计算增量 if c<0 s=sx; t=t*0.95; %!!!!!! elseif rand<exp(-c/t) s=sx; t=t*0.99; else t=t*1.01; end % if t<=Tmin break; end k=k+1; end %将最优结果赋值给BP神经网络的权值和阈值 w1=s(1:inputnum*hiddennum); v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum); w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum); v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum); %网络权值和阈值赋值 net.iw{1,1}=reshape(w1,hiddennum,inputnum); net.lw{2,1}=reshape(w2,outputnum,hiddennum); net.b{1}=reshape(v1,hiddennum,1); net.b{2}=v2; %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=100; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=BPoutput-output_test'; %网络预测结果图像 figure(1) plot(BPoutput,':og') hold on plot(output_test,'-*'); legend('预测输出','期望输出') title('BP网络预测输出','fontsize',12) ylabel('函数输出','fontsize',12) xlabel('样本','fontsize',12) %网络预测误差图像 figure(2) plot(error,'-*') title('BP网络预测误差','fontsize',12) ylabel('误差','fontsize',12) xlabel('样本','fontsize',12) 拟合函数fx2 function y=fx2(x) y=x(1)^2+x(2)^2; 调用的适应度值函数evaluate function error=evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput) %%该函数用于计算模拟退火算法适应度值evaluate %s:权值、阈值的个体 %inputnum:输入层节点数 %hiddennum:隐含层节点数 %outputnum:输出层节点数 %net:网络 %inputn:训练输入数据 %outputn:训练输出数据 % % %BP神经网络初始权值和阈值 w1=s(1:inputnum*hiddennum); v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum); w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum); v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum); %网络权值和阈值赋值 net.iw{1,1}=reshape(w1,hiddennum,inputnum); net.lw{2,1}=reshape(w2,outputnum,hiddennum); net.b{1}=reshape(v1,hiddennum,1); net.b{2}=v2; %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); net.trainParam.epochs=20; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; net.trainParam.show=100; net.trainParam.showWindow=0; %BP神经网络训练 net=train(net,inputn',outputn'); %BP神经网络预测 an=sim(net,inputn'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %预测误差和作为个体适应度值 error=sum(abs(an-BPoutput)); 调用的误差函数errorBP function error=errorBP %%用于计算模拟退火算法产生新解时所需的BP神经网络的误差 %随机产生200组输入数据x、输出数据y input=10*rand(2,200)-5; output=zeros(1,200); for i=1:200 output(i)=fx2(input(:,i)); end %随机选择100组训练数据和100组预测数据 input_train=input(:,1:100)'; output_train=output(1:100)'; input_test=input(:,101:200)'; output_test=output(101:200)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=100; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=sum(abs(BPoutput-output_test'))/100;
BP神经网络拟合效果不好,怎么解决?附源程序
主函数,需调用fx2函数 %fun为进行拟合的非线性函数 %node为隐含层的节点数 %k为最大迭代次数,缺省时,默认为100 %eps为目标值,缺省时,默认为0.0001 %随机产生2000组输入数据x、输出数据y input=10*rand(1,2000)-5; output=zeros(1,2000); for i=1:2000 output(i)=fsin(input(i)); end %随机选择1000组训练数据和1000组预测数据 input_train=input(1:1000)'; output_train=output(1:1000)'; input_test=input(1001:2000)'; output_test=output(1001:2000)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=3; net.trainParam.lr=0.1; net.trainParam.goal=eps; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=BPoutput-output_test'; %网络预测结果图像 figure(1) plot(BPoutput,':og') hold on plot(output_test,'-*'); legend('预测输出','期望输出') title('BP网络预测输出','fontsize',12) ylabel('函数输出','fontsize',12) xlabel('样本','fontsize',12) %网络预测误差图像 figure(2) plot(error,'-*') title('BP网络预测误差','fontsize',12) ylabel('误差','fontsize',12) xlabel('样本','fontsize',12) fx2函数: function y=fx2(x) y=x(1)^2+x(2)^2;
matlab feedforwardnet创建的bp网络 输入输出层神经元个数确定
我已经用feedforwardnet训练好了bp神经网络,得到了权值阙值,我保存到到了TXT文本中,后面我打算load上这个数据,再构建基本的网络结构(各层神经元个数),将权值阙值赋给每层,我不想用configure这个函数来确定输入输出层的神经元个数,因为它需要要训练时的参数 input和ouput来确定,请问有没有其他方法直接定义输入输出层神经原个数
BP神经网络的训练函数和学习函数,还有性能函数分别代表什么
首先我现在知道激励函数是什么。但是经常说的训练函数、学习函数还有性能函数分别指的是什么? 例如以下例子:“ 设定网络隐层和输出层激励函数分别为tansig和logsig函数, 网络训练函数为traingdx, 网络性能函数为mse,隐层神经元数初设为6。设定网络参数。网络迭代次数epochs为5000次, 期望误差goal为0.00000001, 学习速率lr为0. 01。” 网络训练函数为traingdx,这个公式到底是什么?我在百度查半天都没有查到具体的公式。 网络性能函数为mse,mse的公式是什么?
bp神经网络不能正常分类
``` import numpy as np import sklearn from sklearn import datasets from matplotlib import pyplot as plt class Config: eta=0.003#学习率 input_dim=2#输入层神经元个数,即样本的特征数,这里是横纵坐标 hidden_dim=3#隐层神经元个数 output_dim=2#输出层神经元个数,分别代表P(y=0)与P(y=1),取较大者为数据点的分类 N=200#训练集样本数 def generate_data(): np.random.seed(0) X,Y=sklearn.datasets.make_moons(Config.N,noise=0.20)#大小为N的二分类非线性可分数据集 return X,Y def softmax(z):#输出层softmax函数,输出为yhat。为了数值稳定防止溢出,进行平移。 z-=np.max(z) return np.exp(z)/np.sum(np.exp(z)) def predict(x,model): ''' 得到预测输出 ''' p=np.dot(x,model['v'])+model['b']#隐层输入 a=np.tanh(p)#隐层输出 z=np.dot(a,model['w'])+model['c']#输出层输入 yhat=softmax(z)#输出层输出(概率) return np.argmax(yhat,axis=1),yhat#选概率大的作为分类 def CrossEntropyLoss(y,yhat):#单个样本交叉熵损失函数 return -np.sum(y*np.log(yhat)) def totalLoss(X,Y,model):#训练集总损失 Loss=0.0 for i in range(len(X)): ypred,yhat=predict(X[i],model) Loss+=CrossEntropyLoss(Y[i],yhat) return Loss/len(X) def build_model(X,Y,iters): ''' 在[0,1)区间内随机初始化连接权重与阈值 ''' v=np.random.random((Config.input_dim,Config.hidden_dim))#输入层到隐层的连接权重 w=np.random.random((Config.hidden_dim,Config.output_dim))#隐层到输出层的连接权重 b=np.random.random((1,Config.hidden_dim))#隐层的阈值 c=np.random.random((1,Config.output_dim))#输出层的阈值 model={} for t in range(iters): for i in range(len(X)):#一个训练样本就更新一次参数 #forward propagation p=np.dot(X[i],v)+b#隐层输入 a=np.tanh(p)#隐层输出 z=np.dot(a,w)+c#输出层输入 yhat=softmax(z)#输出层输出(概率) #back propagation g=yhat-Y[i]#输出层梯度 w+=-Config.eta*np.dot(a.transpose(),g)#更新隐层到输出层的连接权重 c+=-Config.eta*g#更新输出层的阈值 h=np.dot(g,w.transpose())*(1-np.power(a,2))#隐层梯度 v+=-Config.eta*np.dot(np.array([X[i]]).transpose(),h)#更新输入层到隐层的连接权重 b+=-Config.eta*h#更新隐层的阈值 model={'v': v, 'w': w, 'b': b, 'c': c} if(t%100==0): print "after",t,"iteration:",totalLoss(X,Y,model) return model def plot_decision_boundary(pred_func,X,Y): #设置最小最大值, 加上一点外边界 x_min,x_max=X[:,0].min()-.5,X[:,0].max()+.5 y_min,y_max=X[:,1].min()-.5,X[:,1].max()+.5 h=0.01 # 根据最小最大值和一个网格距离生成整个网格 xx,yy=np.meshgrid(np.arange(x_min,x_max,h),np.arange(y_min,y_max,h)) # 对整个网格预测边界值 Z,Yhat=pred_func(np.c_[xx.ravel(),yy.ravel()]) Z=Z.reshape(xx.shape) # 绘制边界和数据集的点 plt.contourf(xx,yy,Z,cmap=plt.cm.Spectral) plt.scatter(X[:,0],X[:,1],c=Y,cmap=plt.cm.Spectral) def NN(): X,Y=generate_data()#产生数据集 model=build_model(X,Y,1500)#建立神经网络模型,iters为迭代次数 plot_decision_boundary(lambda x: predict(x,model),X,Y) plt.title("Decision Boundary for hidden layer size %d" %Config.hidden_dim) plt.show() if __name__ == "__main__": NN() ``` 求解!!
BP神经网络法负荷预测,这段代码的输出神经元为什么是5个?隐含层神经元为什么为27个?
***小白,有很多还没搞懂,这段代码用了14天的负荷数据作为样本集(一天有288个数据,每5分钟一个数据),不能理解输入层神经元为什么设为5个,或者说这段代码就没怎么看懂,要是输入层神经元为5个,那根据一般规则隐含层神经元应该为11个啊,求大家帮我解释一下,这个输入是前五天负荷数据吗?预测的又是哪一天的负荷数据? ``` clc clear close all for i=1:14 str=['201010' num2str(i,'%02d'),'.镇江地区.txt'] data(:,i)=load('20101001.镇江地区.txt'); % A=load('20101001.镇江地区.txt'); end data=data(4:end,:); % P0=[data(:,1:2);data(:,2:3);data(:,14:18)]; p_train=[]; t_train=[]; for i=1:7 p_train=[p_train;data(:,0+i:4+i)]; t_train=[t_train;data(:,5+i)]; end p_test=[]; t_test=[]; for i=8:8 p_test=[p_test;data(:,0+i:4+i)]; t_test=[t_test;data(:,5+i)]; end %********************************* %% 数据归一化 % 训练集 [pn_train,inputps1] = mapminmax(p_train',0,1); pn_train = pn_train'; pn_test = mapminmax('apply',p_test',inputps1); pn_test = pn_test'; % 测试集 [tn_train,outputps1] = mapminmax(t_train',0,1); tn_train = tn_train'; tn_test = mapminmax('apply',t_test',outputps1); tn_test = tn_test'; %%BP 神经网络进行预测得代码 % 数据转置 pn_train = pn_train'; tn_train = tn_train'; pn_test = pn_test'; tn_test = tn_test'; net=newff(minmax(pn_train),[27,1],{'tansig' 'purelin'} ,'traingda');%logsig % 设置训练参数 net.trainparam.epochs = 4000; net.trainparam.goal = 0.0001; net.trainparam.show = 10; net.trainparam.lr = 0.1; % 训练网络 net = train(net,pn_train,tn_train); % 仿真测试 Predict_1 = sim(net,pn_train); Predict_2 = sim(net,pn_test); % % 反归一化 predict_1 = mapminmax('reverse',Predict_1,outputps1)'; predict_2 = mapminmax('reverse',Predict_2,outputps1)'; % 结果对比 figure() plot(1:length(t_train),t_train,'r-','LineWidth',2); hold on plot(1:length(t_train),predict_1,'b:o','LineWidth',2) % grid on legend('Train真实值','预测值') title('训练对比图'); figure() plot(1:length(t_train),t_train-predict_1,'r','LineWidth',0.5); title('训练误差'); figure() plot(linspace(1,24,288),t_test,'r-','LineWidth',2); hold on plot(linspace(1,24,288),predict_2,'b:o','LineWidth',2) % grid on legend('Test真实值','预测值') title('测试对比图'); xlim([1 24]); figure() plot(linspace(1,24,288),t_test-predict_2,'r','LineWidth',2);xlim([7 21]); title('测试误差'); figure() plot(linspace(1,24,288),(t_test-predict_2)./predict_2,'r','LineWidth',2);xlim([7 21]); title('相对误差'); E1=mse(t_train - predict_1); E2=mse(t_test - predict_2); R1=corr2(t_train,predict_1); R2=corr2(t_test,predict_2); mape2=mape(t_test,predict_2); %注index有指标的含义 RBF_index.E2=E2; RBF_index.R2=R2; RBF_index.mape2=mape2; fprintf('BP测试MSE=%4f\n',E2); fprintf('BP测试相关性=%4f\n',R2); fprintf('BP测试平均相对误差(Mape)=%4f\n',mape2); RBF_ouput=predict_2; ```
卷积神经网络里,卷积核如何更新,求梯度
如何求卷积核中参数的梯度, (典型的BP网络我会做,但是这个卷积核因为权值共享就搞不懂如何求了。看了很多博文,仍然不明白)
BP算法的C语言实现,代码个人测试正确, 但是wrong answer, 求大神指点
#include <stdlib.h> #include <math.h> #include <stdio.h> #include <time.h> #include <iostream> //#include "user.h" #include<cstdio> #include<iostream> #include<fstream> #include<cstdlib> #include<string> #include<algorithm> #define _CRT_SECURE_NO_WARNINGS #define _USE_MATH_DEFINES using namespace std; #define OUT_COUT 8 //输出向量维数 #define IN_COUT 72 //输入向量维数 #define COUT 792 //样本数量 #define NN 99 //单个样本数量 typedef struct { //bp人工神经网络结构 int h; //实际使用隐层数量 //double v[IN_COUT][IN_COUT/3]; //隐藏层权矩阵i,隐层节点最大数量为50 double v[IN_COUT/3][IN_COUT]; //double w[IN_COUT/3][OUT_COUT]; //输出层权矩阵 double w[OUT_COUT][IN_COUT/3]; double b1[IN_COUT/3]; double b2[OUT_COUT]; double x[COUT][IN_COUT]; double y[COUT][OUT_COUT]; double a; //学习率 double b; //精度控制参数 int LoopCout; //最大循环次数 } bp_nn; double fnet(double net) { //Sigmoid函数,神经网络激活函数 //return 1/(1+exp(-net)); return 2.0/(1+exp(-net))-1.0; } int InitBp(bp_nn *bp) { //初始化bp网络 /*printf("请输入隐层节点数,最大数为100:\n"); scanf_s("%d", &(*bp).h); printf("请输入学习率:\n"); scanf_s("%lf", &(*bp).a); //(*bp).a为double型数据,所以必须是lf printf("请输入精度控制参数:\n"); scanf_s("%lf", &(*bp).b); printf("请输入最大循环次数:\n"); scanf_s("%d", &(*bp).LoopCout);*/ (*bp).h = 24; (*bp).a = 0.4; (*bp).b = 0.0001; (*bp).LoopCout = 2000; int i, j; srand((unsigned)time(NULL)); for (i = 0; i < (*bp).h; i++) { for (j = 0; j < IN_COUT; j++) { (*bp).v[i][j] = rand() / (double)(RAND_MAX); } (*bp).b1[i] = rand()/(double)(RAND_MAX); } for (i = 0; i < OUT_COUT; i++) { for (j = 0; j < (*bp).h; j++) { (*bp).w[i][j] = rand() / (double)(RAND_MAX); } (*bp).b2[i] = rand()/(double)(RAND_MAX); } return 1; } int TrainBp(bp_nn *bp, double x[COUT][IN_COUT], double y[COUT][OUT_COUT]) { //训练bp网络,样本为x,理想输出为y double f = (*bp).b; //精度控制参数 double a = (*bp).a; //学习率 int h = (*bp).h; //隐层节点数 //double v[IN_COUT][IN_COUT/3], w[IN_COUT/3][OUT_COUT]; //权矩阵 double v[IN_COUT/3][IN_COUT], w[OUT_COUT][IN_COUT/3]; //权矩阵 double b1[IN_COUT/3],b2[OUT_COUT]; double ChgH[IN_COUT/3], ChgO[OUT_COUT]; //修改量矩阵 double O1[IN_COUT/3], O2[OUT_COUT]; //隐层和输出层输出量 int LoopCout = (*bp).LoopCout; //最大循环次数 int i, j, k, n; double temp; for (i = 0; i < h; i++) {// 复制结构体中的权矩阵 for (j = 0; j < IN_COUT; j++) { v[i][j] = (*bp).v[i][j]; } b1[i] = (*bp).b1[i]; } for (i = 0; i < OUT_COUT; i++) { for (j = 0; j < h; j++) { w[i][j] = (*bp).w[i][j]; } b2[i] = (*bp).b2[i]; } double e = f + 1; for (n = 0; e > f && n < LoopCout; n++) { //对每个样本训练网络 e = 0; for (i= 0; i < COUT; i++) { for (k= 0; k < h; k++) { //计算隐层输出向量 temp = 0; for (j = 0; j < IN_COUT; j++) temp = temp + x[i][j] * v[k][j]; O1[k] = fnet(temp+(*bp).b1[i]); } for (k = 0; k < OUT_COUT; k++) { //计算输出层输出向量 temp = 0; for (j = 0; j < h; j++) temp = temp + O1[j] * w[k][j]; O2[k] = fnet(temp+(*bp).b2[k]); } for (j = 0; j < OUT_COUT; j++) {//计算输出层的权修改量 ChgO[j] = O2[j] * (1 - O2[j]) * (y[i][j] - O2[j]); } for (j = 0; j < OUT_COUT ; j++) {//计算输出误差 e = e + (y[i][j] - O2[j]) * (y[i][j] - O2[j]); } for (j = 0; j < OUT_COUT; j++) { //计算隐层权修改量 temp = 0; for (k = 0; k < h; k++) temp = temp + w[j][k] * ChgO[k]; ChgH[j] = temp * O1[j] * (1 - O1[j]); } for (j = 0; j < OUT_COUT; j++) {//修改输出层权矩阵 for (k = 0; k < h; k++) { w[j][k] = w[j][k] + a * O1[j] * ChgO[k]; } } for (j = 0; j < h; j++) { for (k = 0; k < IN_COUT; k++) { v[j][k] = v[j][k] + a * x[i][j] * ChgH[k]; } } } if (n % 10 == 0) printf("误差 : %f\n", e); } printf("总共循环次数:%d\n", n); printf("调整后的隐层权矩阵:\n"); for (i = 0; i < h; i++) { for (j = 0; j < IN_COUT; j++) printf("%f ", v[i][j]); printf("\n"); } printf("调整后的输出层权矩阵:\n"); for (i = 0; i < OUT_COUT; i++) { for (j = 0; j < h; j++) printf("%f ", w[i][j]); printf("\n"); } for (i = 0; i < h; i++) {//把结果复制回结构体 for (j = 0; j < IN_COUT; j++) { (*bp).v[i][j] = v[i][j]; } (*bp).b1[i] = b1[i]; } for (i = 0; i < OUT_COUT; i++) { for (j = 0; j < h; j++) { (*bp).w[i][j] = w[i][j]; } (*bp).b2[i] = b2[i]; } printf("bp网络训练结束!\n"); return 1; } int UseBp(bp_nn *bp) { //使用bp网络 float Input[IN_COUT]; double O1[50]; double O2[OUT_COUT]; //O1为隐层输出,O2为输出层输出 while (1) { //持续执行,除非中断程序 printf("请输入3个数:\n"); int i, j; for (i = 0; i < IN_COUT; i++) scanf_s("%f", &Input[i]); double temp; for (i = 0; i < (*bp).h; i++) { temp = 0; for (j = 0; j < IN_COUT; j++) temp += Input[j] * (*bp).v[j][i]; O1[i] = fnet(temp-(*bp).b1[i]); } for (i = 0; i < OUT_COUT; i++) { temp = 0; for (j = 0; j < (*bp).h; j++) temp += O1[j] * (*bp).w[j][i]; O2[i] = fnet(temp-(*bp).b2[i]); } printf("结果: "); for (i = 0; i < OUT_COUT; i++) printf("%.3f ", O2[i]); printf("\n"); } return 1; } void readFP(double x[COUT][IN_COUT],double y[COUT][OUT_COUT]) { //bp_nn bp1; ifstream fileinput1; ifstream fileinput2; ifstream fileinput3; ifstream fileinput4; ifstream fileinput5; ifstream fileinput6; ifstream fileinput7; ifstream fileinput8; fileinput1.open("emgclose.txt"); fileinput2.open("emgopen.txt"); fileinput3.open("emgext.txt"); fileinput4.open("emgfle.txt"); fileinput5.open("emgsph.txt"); fileinput6.open("emgcyl.txt"); fileinput7.open("emgtri.txt"); fileinput8.open("emgkey.txt"); for(int m = 0;m< NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput1 >> x[m][i]; } } for(int m = NN;m<2*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput2 >> x[m][i]; } } for(int m = 2*NN;m<3*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput3 >> x[m][i]; } } for(int m = 3*NN;m<4*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput4 >> x[m][i]; } } for(int m = 4*NN;m<5*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput5 >> x[m][i]; } } for(int m = 5*NN;m<6*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput6 >> x[m][i]; } } for(int m = 6*NN;m<7*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput7 >> x[m][i]; } } for(int m = 7*NN;m<8*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput8 >> x[m][i]; } } fileinput1.close(); fileinput2.close(); fileinput3.close(); fileinput4.close(); fileinput5.close(); fileinput6.close(); fileinput7.close(); fileinput8.close(); ifstream fileinput; fileinput.open("teach.txt"); for (int m2 = 0; m2 < OUT_COUT; m2++) { for (int i = 0; i < OUT_COUT; i++) { fileinput>>y[m2][i]; } for (int j = m2*NN; j < (m2+1)*NN; j++) { for (int k = 0; k < OUT_COUT; k++) { y[j][k] = y[m2][k]; } } } for (int i = 0; i < NN; i++) { for (int j = 0; j < OUT_COUT; j++) { y[i][j] = y[0][j]; } } fileinput.close(); double Mininput[IN_COUT] = {0.0}; double Maxinput[IN_COUT] = {0.0}; //找出训练的数据相应的最大值、最小值,为归一化做准备 for (int i = 0; i < IN_COUT; i++) { Mininput[i] = Maxinput[i] = x[0][i]; for (int j = 0; j < COUT; j++) { Mininput[i] = Mininput[i] < x[j][i]?Mininput[i]:x[j][i]; Maxinput[i] = Maxinput[i] > x[j][i]?Maxinput[i]:x[j][i]; } } //归一化处理 for (int i = 0; i < OUT_COUT; i++) { for (int j = 0; j < COUT; j++) { y[j][i] = 2.0*(y[j][i] - 0.0)/(1.0 - 0.0)-1.0; } } for (int i = 0; i < IN_COUT; i++) { for (int j = 0; j < COUT; j++) { //X[i][j] = (X1[i][j] - Mininput[i]+1)/(Maxinput[i] - Mininput[i]+1); x[j][i] = 2.0*(x[j][i] - Mininput[i])/(Maxinput[i] - Mininput[i])-1.0; } } } int main() { /* float x[COUT][IN_COUT] = {{0.8,0.5,0}, {0.9,0.7,0.3}, {1,0.8,0.5}, {0,0.2,0.3}, {0.2,0.1,1.3}, {0.2,0.7,0.8}}; //训练样本 int y[COUT][OUT_COUT] = {{0,1}, {0,1}, {0,1}, {1,0}, {1,0}, {1,0}}; */ //理想输出 bp_nn bp; readFP(bp.x,bp.y); InitBp(&bp); //初始化bp网络结构 TrainBp(&bp, bp.x, bp.y); //训练bp神经网络 // UseBp(&bp); //测试bp神经网络 return 1; }
MATLAB智能算法第29个案例报错
%% 清空环境变量 clear all clc %% 导入数据 load concrete_data.mat % 随机产生训练集和测试集 n = randperm(size(attributes,2)); % 训练集——80个样本 p_train = attributes(:,n(1:80))'; t_train = strength(:,n(1:80))'; % 测试集——23个样本 p_test = attributes(:,n(81:end))'; t_test = strength(:,n(81:end))'; %% 数据归一化 % 训练集 [pn_train,inputps] = mapminmax(p_train'); pn_train = pn_train'; pn_test = mapminmax('apply',p_test',inputps); pn_test = pn_test'; % 测试集 [tn_train,outputps] = mapminmax(t_train'); tn_train = tn_train'; tn_test = mapminmax('apply',t_test',outputps); tn_test = tn_test'; %% SVM模型创建/训练 % 寻找最佳c参数/g参数 [c,g] = meshgrid(-10:0.5:10,-10:0.5:10); [m,n] = size(c); cg = zeros(m,n); eps = 10^(-4); v = 5; bestc = 0; bestg = 0; error = Inf; for i = 1:m for j = 1:n cmd = ['-v ',num2str(v),' -t 2',' -c ',num2str(2^c(i,j)),' -g ',num2str(2^g(i,j) ),' -s 3 -p 0.1']; cg(i,j) = svmtrain(tn_train,pn_train,cmd); if cg(i,j) < error error = cg(i,j); bestc = 2^c(i,j); bestg = 2^g(i,j); end if abs(cg(i,j) - error) <= eps && bestc > 2^c(i,j) error = cg(i,j); bestc = 2^c(i,j); bestg = 2^g(i,j); end end end % 创建/训练SVM cmd = [' -t 2',' -c ',num2str(bestc),' -g ',num2str(bestg),' -s 3 -p 0.01']; model = svmtrain(tn_train,pn_train,cmd); %% SVM仿真预测 [Predict_1,error_1] = svmpredict(tn_train,pn_train,model); [Predict_2,error_2] = svmpredict(tn_test,pn_test,model); % 反归一化 predict_1 = mapminmax('reverse',Predict_1,outputps); predict_2 = mapminmax('reverse',Predict_2,outputps); % 结果对比 result_1 = [t_train predict_1]; result_2 = [t_test predict_2]; %% 绘图 figure(1) plot(1:length(t_train),t_train,'r-*',1:length(t_train),predict_1,'b:o') grid on legend('真实值','预测值') xlabel('样本编号') ylabel('耐压强度') string_1 = {'训练集预测结果对比'; ['mse = ' num2str(error_1(2)) ' R^2 = ' num2str(error_1(3))]}; title(string_1) figure(2) plot(1:length(t_test),t_test,'r-*',1:length(t_test),predict_2,'b:o') grid on legend('真实值','预测值') xlabel('样本编号') ylabel('耐压强度') string_2 = {'测试集预测结果对比'; ['mse = ' num2str(error_2(2)) ' R^2 = ' num2str(error_2(3))]}; title(string_2) %% BP 神经网络 % 数据转置 pn_train = pn_train'; tn_train = tn_train'; pn_test = pn_test'; tn_test = tn_test'; % 创建BP神经网络 net = newff(pn_train,tn_train,10); % 设置训练参数 net.trainParam.epcohs = 1000; net.trainParam.goal = 1e-3; net.trainParam.show = 10; net.trainParam.lr = 0.1; % 训练网络 net = train(net,pn_train,tn_train); % 仿真测试 tn_sim = sim(net,pn_test); % 均方误差 E = mse(tn_sim - tn_test); % 决定系数 N = size(t_test,1); R2=(N*sum(tn_sim.*tn_test)-sum(tn_sim)*sum(tn_test))^2/((N*sum((tn_sim).^2)-(sum(tn_sim))^2)*(N*sum((tn_test).^2)-(sum(tn_test))^2)); % 反归一化 t_sim = mapminmax('reverse',tn_sim,outputps); % 绘图 figure(3) plot(1:length(t_test),t_test,'r-*',1:length(t_test),t_sim,'b:o') grid on legend('真实值','预测值') xlabel('样本编号') ylabel('耐压强度') string_3 = {'测试集预测结果对比(BP神经网络)'; ['mse = ' num2str(E) ' R^2 = ' num2str(R2)]}; title(string_3) 错误使用svmtrain(line233) Y must be a vector or a character array. 出错 main(line 48) cg (i,j)=svmtrain (tr_train,pn_train,cmd);我源码没改过,是不是因为版本的不同?我用的是2014a
关于Tensorflow的DNN分类器
用Tensorflow写了一个简易的DNN网络(输入,一个隐层,输出),用作分类,数据集选用的是UCI 的iris数据集 激活函数使用softmax loss函数使用对数似然 以便最后的结果是一个概率解,选概率最大的分类的结果 目前的问题是预测结果出现问题,用测试数据测试显示结果如下 ![图片说明](https://img-ask.csdn.net/upload/201811/27/1543322274_512329.png) 刚刚入门...希望大家指点一下,谢谢辣! ``` #coding:utf-8 import matplotlib.pyplot as plt import tensorflow as tf import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from sklearn.decomposition import PCA from sklearn import preprocessing from sklearn.model_selection import cross_val_score BATCH_SIZE = 30 iris = pd.read_csv('F:\dataset\iris\dataset.data', sep=',', header=None) ''' # 查看导入的数据 print("Dataset Lenght:: ", len(iris)) print("Dataset Shape:: ", iris.shape) print("Dataset:: ") print(iris.head(150)) ''' #将每条数据划分为样本值和标签值 X = iris.values[:, 0:4] Y = iris.values[:, 4] # 整理一下标签数据 # Iris-setosa ---> 0 # Iris-versicolor ---> 1 # Iris-virginica ---> 2 for i in range(len(Y)): if Y[i] == 'Iris-setosa': Y[i] = 0 elif Y[i] == 'Iris-versicolor': Y[i] = 1 elif Y[i] == 'Iris-virginica': Y[i] = 2 # 划分训练集与测试集 X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.3, random_state=10) #对数据集X与Y进行shape整理,让第一个参数为-1表示整理X成n行2列,整理Y成n行1列 X_train = np.vstack(X_train).reshape(-1, 4) Y_train = np.vstack(Y_train).reshape(-1, 1) X_test = np.vstack(X_test).reshape(-1, 4) Y_test = np.vstack(Y_test).reshape(-1, 1) ''' print(X_train) print(Y_train) print(X_test) print(Y_test) ''' #定义神经网络的输入,参数和输出,定义前向传播过程 def get_weight(shape): w = tf.Variable(tf.random_normal(shape), dtype=tf.float32) return w def get_bias(shape): b = tf.Variable(tf.constant(0.01, shape=shape)) return b x = tf.placeholder(tf.float32, shape=(None, 4)) yi = tf.placeholder(tf.float32, shape=(None, 1)) def BP_Model(): w1 = get_weight([4, 10]) # 第一个隐藏层,10个神经元,4个输入 b1 = get_bias([10]) y1 = tf.nn.softmax(tf.matmul(x, w1) + b1) # 注意维度 w2 = get_weight([10, 3]) # 输出层,3个神经元,10个输入 b2 = get_bias([3]) y = tf.nn.softmax(tf.matmul(y1, w2) + b2) return y def train(): # 生成计算图 y = BP_Model() # 定义损失函数 ce = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y, labels=tf.arg_max(yi, 1)) loss_cem = tf.reduce_mean(ce) # 定义反向传播方法,正则化 train_step = tf.train.AdamOptimizer(0.001).minimize(loss_cem) # 定义保存器 saver = tf.train.Saver(tf.global_variables()) #生成会话 with tf.Session() as sess: init_op = tf.global_variables_initializer() sess.run(init_op) Steps = 5000 for i in range(Steps): start = (i * BATCH_SIZE) % 300 end = start + BATCH_SIZE reslut = sess.run(train_step, feed_dict={x: X_train[start:end], yi: Y_train[start:end]}) if i % 100 == 0: loss_val = sess.run(loss_cem, feed_dict={x: X_train, yi: Y_train}) print("step: ", i, "loss: ", loss_val) print("保存模型: ", saver.save(sess, './model_iris/bp_model.model')) tf.summary.FileWriter("logs/", sess.graph) #train() def prediction(): # 生成计算图 y = BP_Model() # 定义损失函数 ce = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y, labels=tf.arg_max(yi, 1)) loss_cem = tf.reduce_mean(ce) # 定义保存器 saver = tf.train.Saver(tf.global_variables()) with tf.Session() as sess: saver.restore(sess, './model_iris/bp_model.model') result = sess.run(y, feed_dict={x: X_test}) loss_val = sess.run(loss_cem, feed_dict={x: X_test, yi: Y_test}) print("result :", result) print("loss :", loss_val) result_set = sess.run(tf.argmax(result, axis=1)) print("predict result: ", result_set) print("real result: ", Y_test.reshape(1, -1)) #prediction() ```
在中国程序员是青春饭吗?
今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...
我在支付宝花了1分钟,查到了女朋友的开房记录!
在大数据时代下,不管你做什么都会留下蛛丝马迹,只要学会把各种软件运用到极致,捉奸简直轻而易举。今天就来给大家分享一下,什么叫大数据抓出轨。据史料证明,马爸爸年轻时曾被...
程序员请照顾好自己,周末病魔差点一套带走我。
程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。
卸载 x 雷某度!GitHub 标星 1.5w+,从此我只用这款全能高速下载工具!
作者 | Rocky0429 来源 | Python空间 大家好,我是 Rocky0429,一个喜欢在网上收集各种资源的蒟蒻… 网上资源眼花缭乱,下载的方式也同样千奇百怪,比如 BT 下载,磁力链接,网盘资源等等等等,下个资源可真不容易,不一样的方式要用不同的下载软件,因此某比较有名的 x 雷和某度网盘成了我经常使用的工具。 作为一个没有钱的穷鬼,某度网盘几十 kb 的下载速度让我...
20道你必须要背会的微服务面试题,面试一定会被问到
写在前面: 在学习springcloud之前大家一定要先了解下,常见的面试题有那块,然后我们带着问题去学习这个微服务技术,那么就会更加理解springcloud技术。如果你已经学了springcloud,那么在准备面试的时候,一定要看看看这些面试题。 文章目录1、什么是微服务?2、微服务之间是如何通讯的?3、springcloud 与dubbo有哪些区别?4、请谈谈对SpringBoot 和S...
讲真,这两个IDE插件,可以让你写出质量杠杠的代码
周末躺在床上看《拯救大兵瑞恩》 周末在闲逛的时候,发现了两个优秀的 IDE 插件,据说可以提高代码的质量,我就安装了一下,试了试以后发现,确实很不错,就推荐给大家。 01、Alibaba Java 代码规范插件 《阿里巴巴 Java 开发手册》,相信大家都不会感到陌生,其 IDEA 插件的下载次数据说达到了 80 万次,我今天又贡献了一次。嘿嘿。 该项目的插件地址: https://github....
为什么猝死的都是程序员,基本上不见产品经理猝死呢?
相信大家时不时听到程序员猝死的消息,但是基本上听不到产品经理猝死的消息,这是为什么呢? 我们先百度搜一下:程序员猝死,出现将近700多万条搜索结果: 搜索一下:产品经理猝死,只有400万条的搜索结果,从搜索结果数量上来看,程序员猝死的搜索结果就比产品经理猝死的搜索结果高了一倍,而且从下图可以看到,首页里面的五条搜索结果,其实只有两条才是符合条件。 所以程序员猝死的概率真的比产品经理大,并不是错...
毕业5年,我问遍了身边的大佬,总结了他们的学习方法
我问了身边10个大佬,总结了他们的学习方法,原来成功都是有迹可循的。
推荐10个堪称神器的学习网站
每天都会收到很多读者的私信,问我:“二哥,有什么推荐的学习网站吗?最近很浮躁,手头的一些网站都看烦了,想看看二哥这里有什么新鲜货。” 今天一早做了个恶梦,梦到被老板辞退了。虽然说在我们公司,只有我辞退老板的份,没有老板辞退我这一说,但是还是被吓得 4 点多都起来了。(主要是因为我掌握着公司所有的核心源码,哈哈哈) 既然 4 点多起来,就得好好利用起来。于是我就挑选了 10 个堪称神器的学习网站,推...
这些软件太强了,Windows必装!尤其程序员!
Windows可谓是大多数人的生产力工具,集娱乐办公于一体,虽然在程序员这个群体中都说苹果是信仰,但是大部分不都是从Windows过来的,而且现在依然有很多的程序员用Windows。 所以,今天我就把我私藏的Windows必装的软件分享给大家,如果有一个你没有用过甚至没有听过,那你就赚了????,这可都是提升你幸福感的高效率生产力工具哦! 走起!???? NO、1 ScreenToGif 屏幕,摄像头和白板...
大学四年因为知道了这32个网站,我成了别人眼中的大神!
依稀记得,毕业那天,我们导员发给我毕业证的时候对我说“你可是咱们系的风云人物啊”,哎呀,别提当时多开心啦????,嗯,我们导员是所有导员中最帅的一个,真的???? 不过,导员说的是实话,很多人都叫我大神的,为啥,因为我知道这32个网站啊,你说强不强????,这次是绝对的干货,看好啦,走起来! PS:每个网站都是学计算机混互联网必须知道的,真的牛杯,我就不过多介绍了,大家自行探索,觉得没用的,尽管留言吐槽吧???? 社...
有网友说:2020年还不懂Spring就放弃Java吧?
前言 Spring这个词对于开发者想必不会陌生,可能你每天都在使用Spring,享受着Spring生态提供的服务,理所当然的用着SpringIOC和SpringAOP去实现老板交给你的功能 ,唔 它就是这样使用的(类声明为Bean组件,然后注入),没错 能完成老板任务,没毛病。如果向你提问什么是Spring,Spring有什么核心功能呢,你会想:这太简单了,Spring就是框架嘛,Spring核...
良心推荐,我珍藏的一些Chrome插件
上次搬家的时候,发了一个朋友圈,附带的照片中不小心暴露了自己的 Chrome 浏览器插件之多,于是就有小伙伴评论说分享一下我觉得还不错的浏览器插件。 我下面就把我日常工作和学习中经常用到的一些 Chrome 浏览器插件分享给大家,随便一个都能提高你的“生活品质”和工作效率。 Markdown Here Markdown Here 可以让你更愉快的写邮件,由于支持 Markdown 直接转电子邮...
看完这篇HTTP,跟面试官扯皮就没问题了
我是一名程序员,我的主要编程语言是 Java,我更是一名 Web 开发人员,所以我必须要了解 HTTP,所以本篇文章就来带你从 HTTP 入门到进阶,看完让你有一种恍然大悟、醍醐灌顶的感觉。 最初在有网络之前,我们的电脑都是单机的,单机系统是孤立的,我还记得 05 年前那会儿家里有个电脑,想打电脑游戏还得两个人在一个电脑上玩儿,及其不方便。我就想为什么家里人不让上网,我的同学 xxx 家里有网,每...
2020 年,大火的 Python 和 JavaScript 是否会被取而代之?
Python 和 JavaScript 是目前最火的两大编程语言,但是2020 年,什么编程语言将会取而代之呢? 作者 |Richard Kenneth Eng 译者 |明明如月,责编 | 郭芮 出品 | CSDN(ID:CSDNnews) 以下为译文: Python 和 JavaScript 是目前最火的两大编程语言。然而,他们不可能永远屹立不倒。最终,必将像其他编程语言一...
史上最全的IDEA快捷键总结
现在Idea成了主流开发工具,这篇博客对其使用的快捷键做了总结,希望对大家的开发工作有所帮助。
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
谁是华为扫地僧?
是的,华为也有扫地僧!2020年2月11-12日,“养在深闺人不知”的华为2012实验室扫地僧们,将在华为开发者大会2020(Cloud)上,和大家见面。到时,你可以和扫地僧们,吃一个洋...
没用过这些 IDEA 插件?怪不得写代码头疼
使用插件,可以提高开发效率。对于开发人员很有帮助。这篇博客介绍了IDEA中最常用的一些插件。
AI 没让人类失业,搞 AI 的人先失业了
最近和几个 AI 领域的大佬闲聊 根据他们讲的消息和段子 改编出下面这个故事 如有雷同 都是巧合 1. 老王创业失败,被限制高消费 “这里写我跑路的消息实在太夸张了。” 王葱葱哼笑一下,把消息分享给群里。 阿杰也看了消息,笑了笑。在座几位也都笑了。 王葱葱是个有名的人物,21岁那年以全额奖学金进入 KMU 攻读人工智能博士,累计发表论文 40 余篇,个人技术博客更是成为深度学习领域内风向标。 ...
最全最强!世界大学计算机专业排名总结!
我正在参与CSDN200进20,希望得到您的支持,扫码续投票5次。感谢您! (为表示感谢,您投票后私信我,我把我总结的人工智能手推笔记和思维导图发送给您,感谢!) 目录 泰晤士高等教育世界大学排名 QS 世界大学排名 US News 世界大学排名 世界大学学术排名(Academic Ranking of World Universities) 泰晤士高等教育世界大学排名 中国共...
《java面试宝典》三 类初始化和类实例化顺序
前言: 社长,4年api搬运工程师,之前做的都是一些框架的搬运工作,做的时间越长,越发感觉自己技术越菜,有同感的社友,可以在下方留言。现侧重于java底层学习和算法结构学习,希望自己能改变这种现状。 为什么大厂面试,更侧重于java原理底层的提问,因为通过底层的提问,他能看出一个人的学习能力,看看这个人的可培养潜力。随着springboot的流行,大部分的开发,起步就是springboot。也...
一份王者荣耀的英雄数据报告
咪哥杂谈本篇阅读时间约为 6 分钟。1前言前一阵写了关于王者的一些系列文章,从数据的获取到数据清洗,数据落地,都是为了本篇的铺垫。今天来实现一下,看看不同维度得到的结论。2环境准备本次实...
工作十年的数据分析师被炒,没有方向,你根本躲不过中年危机
2020年刚刚开始,就意味着离职潮高峰的到来,我身边就有不少人拿着年终奖离职了,而最让我感到意外的,是一位工作十年的数据分析师也离职了,不同于别人的主动辞职,他是被公司炒掉的。 很多人都说数据分析是个好饭碗,工作不累薪资高、入门简单又好学。然而今年34的他,却真正尝到了中年危机的滋味,平时也有不少人都会私信问我: 数据分析师也有中年危机吗?跟程序员一样是吃青春饭的吗?该怎么保证自己不被公司淘汰...
作为一名大学生,如何在B站上快乐的学习?
B站是个宝,谁用谁知道???? 作为一名大学生,你必须掌握的一项能力就是自学能力,很多看起来很牛X的人,你可以了解下,人家私底下一定是花大量的时间自学的,你可能会说,我也想学习啊,可是嘞,该学习啥嘞,不怕告诉你,互联网时代,最不缺的就是学习资源,最宝贵的是啥? 你可能会说是时间,不,不是时间,而是你的注意力,懂了吧! 那么,你说学习资源多,我咋不知道,那今天我就告诉你一个你必须知道的学习的地方,人称...
那些年,我们信了课本里的那些鬼话
教材永远都是有错误的,从小学到大学,我们不断的学习了很多错误知识。 斑羚飞渡 在我们学习的很多小学课文里,有很多是错误文章,或者说是假课文。像《斑羚飞渡》: 随着镰刀头羊的那声吼叫,整个斑羚群迅速分成两拨,老年斑羚为一拨,年轻斑羚为一拨。 就在这时,我看见,从那拨老斑羚里走出一只公斑羚来。公斑羚朝那拨年轻斑羚示意性地咩了一声,一只半大的斑羚应声走了出来。一老一少走到伤心崖,后退了几步,突...
张朝阳回应迟到 1 分钟罚 500:资本家就得剥削员工
loonggg读完需要2分钟速读仅需 1 分钟大家我,我是你们的校长。前几天,搜狐的董事局主席兼 CEO 张朝阳和搜狐都上热搜了。原因很简单,就是搜狐出了“考勤新规”。一封搜狐对员工发布...
一个程序在计算机中是如何运行的?超级干货!!!
强烈声明:本文很干,请自备茶水!???? 开门见山,咱不说废话! 你有没有想过,你写的程序,是如何在计算机中运行的吗?比如我们搞Java的,肯定写过这段代码 public class HelloWorld { public static void main(String[] args) { System.out.println("Hello World!"); } ...
【蘑菇街技术部年会】程序员与女神共舞,鼻血再次没止住。(文末内推)
蘑菇街技术部的年会,别开生面,一样全是美女。
那个在阿里养猪的工程师,5年了……
简介: 在阿里,走过1825天,没有趴下,依旧斗志满满,被称为“五年陈”。他们会被授予一枚戒指,过程就叫做“授戒仪式”。今天,咱们听听阿里的那些“五年陈”们的故事。 下一个五年,猪圈见! 我就是那个在养猪场里敲代码的工程师,一年多前我和20位工程师去了四川的猪场,出发前总架构师慷慨激昂的说:同学们,中国的养猪产业将因为我们而改变。但到了猪场,发现根本不是那么回事:要个WIFI,没有;...
为什么程序猿都不愿意去外包?
分享外包的组织架构,盈利模式,亲身经历,以及根据一些外包朋友的反馈,写了这篇文章 ,希望对正在找工作的老铁有所帮助
Java校招入职华为,半年后我跑路了
何来 我,一个双非本科弟弟,有幸在 19 届的秋招中得到前东家华为(以下简称 hw)的赏识,当时秋招签订就业协议,说是入了某 java bg,之后一系列组织架构调整原因等等让人无法理解的神操作,最终毕业前夕,被通知调往其他 bg 做嵌入式开发(纯 C 语言)。 由于已至于校招末尾,之前拿到的其他 offer 又无法再收回,一时感到无力回天,只得默默接受。 毕业后,直接入职开始了嵌入式苦旅,由于从未...
世界上有哪些代码量很少,但很牛逼很经典的算法或项目案例?
点击上方蓝字设为星标下面开始今天的学习~今天分享四个代码量很少,但很牛逼很经典的算法或项目案例。1、no code 项目地址:https://github.com/kelseyhight...
作为 IT 从业人员,你觉得有什么工具大大提高了你的工作效率?
目录 前言: 1. 禅道 2. Jenkins 3. sonarqube 4.showdoc 5.swgger 6.分布式配置中心apollo 7. appscan 8.项目开发文档流程化归档 9.MybatisX 快速开发插件 前言: 社长,4年api搬运工程师,现打算沉下心来,花一年时间,好好了解底层源码,结构与算法,有兴趣的...
Python全栈 Linux基础之3.Linux常用命令
Linux对文件(包括目录)有很多常用命令,可以加快开发效率:ls是列出当前目录下的文件列表,选项有-a、-l、-h,还可以使用通配符;c功能是跳转目录,可以使用相对路径和绝对路径;mkdir命令创建一个新的目录,有-p选项,rm删除文件或目录,有-f、-r选项;cp用于复制文件,有-i、-r选项,tree命令可以将目录结构显示出来(树状显示),有-d选项,mv用来移动文件/目录,有-i选项;cat查看文件内容,more分屏显示文件内容,grep搜索内容;>、>>将执行结果重定向到一个文件;|用于管道输出。
​两年前不知如何编写代码的我,现在是一名人工智能工程师
全文共3526字,预计学习时长11分钟 图源:Unsplash 经常有小伙伴私信给小芯,我没有编程基础,不会写代码,如何进入AI行业呢?还能赶上AI浪潮吗? 任何时候努力都不算晚。 下面,小芯就给大家讲一个朋友的真实故事,希望能给那些处于迷茫与徘徊中的小伙伴们一丝启发。(下文以第一人称叙述) 图源:Unsplash 正如Elsa所说,职业转换是...
强烈推荐10本程序员必读的书
很遗憾,这个春节注定是刻骨铭心的,新型冠状病毒让每个人的神经都是紧绷的。那些处在武汉的白衣天使们,尤其值得我们的尊敬。而我们这些窝在家里的程序员,能不外出就不外出,就是对社会做出的最大的贡献。 有些读者私下问我,窝了几天,有点颓丧,能否推荐几本书在家里看看。我花了一天的时间,挑选了 10 本我最喜欢的书,你可以挑选感兴趣的来读一读。读书不仅可以平复恐惧的压力,还可以对未来充满希望,毕竟苦难终将会...
立即提问