遗传算法优化BP神经网络

主函数:需调用函数fx2、evaluate和errorBP
clc
clear

%随机产生200组输入数据x、输出数据y
input=10*rand(2,200)-5;
output=zeros(1,200);
for i=1:200
output(i)=fx2(input(:,i));
end

%设置网络节点数
inputnum=2;
hiddennum=5;
outputnum=1;

%随机选择100组训练数据和100组预测数据
input_train=input(:,1:100)';
output_train=output(1:100)';
input_test=input(:,101:200)';
output_test=output(101:200)';

%训练数据归一化
[inputn,mininput,maxinput]=premnmx(input_train);
[outputn,minoutput,maxoutput]=premnmx(output_train);

%构建BP神经网络
net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' );

%模拟退火算法参数初始化
Tmax=50; %初温
L=100; %最大退火次数
Tmin=0.01; %终止温度

%BP神经网络算法优化权值和阈值
numsum=inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum; %权值和阈值总数
net=train(net,inputn',outputn');

%将BP神经网络优化后权值和阈值赋给模拟退火算法的初始解
s1=reshape(net.iw{1,1},1,inputnum*hiddennum);
s2=reshape(net.b{1},1,hiddennum);
s3=reshape(net.lw{2,1},1,hiddennum*outputnum);
s4=reshape(net.b{2},1,outputnum);
s=[s1,s2,s3,s4];

%模拟退火算法优化权值和阈值
t=Tmax;
while t>Tmin
k=1;
for i=1:numsum
sx(i)=s(i)+(0.2*rand-0.1)*errorBP; %产生新解
end
c=evaluate(sx,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput)-evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput);
%计算增量
if c<0
s=sx;
t=t*0.95; %!!!!!!
elseif rand<exp(-c/t)
s=sx;
t=t*0.99;
else
t=t*1.01;
end
%
if t<=Tmin
break;
end
k=k+1;
end

%将最优结果赋值给BP神经网络的权值和阈值
w1=s(1:inputnum*hiddennum);
v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);

%网络权值和阈值赋值
net.iw{1,1}=reshape(w1,hiddennum,inputnum);
net.lw{2,1}=reshape(w2,outputnum,hiddennum);
net.b{1}=reshape(v1,hiddennum,1);
net.b{2}=v2;

%配置网络参数(迭代次数、学习率、目标)
net.trainParam.epochs=100;
net.trainParam.lr=0.1;
net.trainParam.goal=0.00001;

%BP神经网络训练
net=train(net,inputn',outputn');

%预测数据归一化
inputn_test=tramnmx(input_test,mininput,maxinput);

%BP神经网络预测输出
an=sim(net,inputn_test');

%输出结果反归一化
BPoutput=postmnmx (an,minoutput,maxoutput);
%计算误差
error=BPoutput-output_test';

%网络预测结果图像
figure(1)
plot(BPoutput,':og')
hold on
plot(output_test,'-*');
legend('预测输出','期望输出')
title('BP网络预测输出','fontsize',12)
ylabel('函数输出','fontsize',12)
xlabel('样本','fontsize',12)

%网络预测误差图像
figure(2)
plot(error,'-*')
title('BP网络预测误差','fontsize',12)
ylabel('误差','fontsize',12)
xlabel('样本','fontsize',12)

拟合函数fx2
function y=fx2(x)
y=x(1)^2+x(2)^2;

调用的适应度值函数evaluate
function error=evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput)
%%该函数用于计算模拟退火算法适应度值evaluate
%s:权值、阈值的个体
%inputnum:输入层节点数
%hiddennum:隐含层节点数
%outputnum:输出层节点数
%net:网络
%inputn:训练输入数据
%outputn:训练输出数据
%
%

%BP神经网络初始权值和阈值
w1=s(1:inputnum*hiddennum);
v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);

%网络权值和阈值赋值
net.iw{1,1}=reshape(w1,hiddennum,inputnum);
net.lw{2,1}=reshape(w2,outputnum,hiddennum);
net.b{1}=reshape(v1,hiddennum,1);
net.b{2}=v2;

%构建BP神经网络
net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' );
net.trainParam.epochs=20;
net.trainParam.lr=0.1;
net.trainParam.goal=0.00001;
net.trainParam.show=100;
net.trainParam.showWindow=0;

%BP神经网络训练
net=train(net,inputn',outputn');

%BP神经网络预测
an=sim(net,inputn');

%输出结果反归一化
BPoutput=postmnmx (an,minoutput,maxoutput);

%预测误差和作为个体适应度值
error=sum(abs(an-BPoutput));

调用的误差函数errorBP
function error=errorBP
%%用于计算模拟退火算法产生新解时所需的BP神经网络的误差

%随机产生200组输入数据x、输出数据y
input=10*rand(2,200)-5;
output=zeros(1,200);
for i=1:200
output(i)=fx2(input(:,i));
end

%随机选择100组训练数据和100组预测数据
input_train=input(:,1:100)';
output_train=output(1:100)';
input_test=input(:,101:200)';
output_test=output(101:200)';

%训练数据归一化
[inputn,mininput,maxinput]=premnmx(input_train);
[outputn,minoutput,maxoutput]=premnmx(output_train);

%构建BP神经网络
net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' );

%配置网络参数(迭代次数、学习率、目标)
net.trainParam.epochs=100;
net.trainParam.lr=0.1;
net.trainParam.goal=0.00001;

%BP神经网络训练
net=train(net,inputn',outputn');

%预测数据归一化
inputn_test=tramnmx(input_test,mininput,maxinput);

%BP神经网络预测输出
an=sim(net,inputn_test');

%输出结果反归一化
BPoutput=postmnmx (an,minoutput,maxoutput);

%计算误差
error=sum(abs(BPoutput-output_test'))/100;

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
/*c语言实现*/遗传算法改进BP神经网络原理和算法实现怎么弄?

我现在在研究遗传算法改进BP神经网络,大概明白原理,但算法程序还有很多问题,求大神们教教我具体怎么把GA和BP结合,算法如何实现,给出代码或伪代码行吗?

基于BP神经网络的图像分割

如何在matlab使用BP神经网络算法模型实现图像分割,精准的图像分割如何实现?

bp神经网络的参数问题

都说bp神经网络有45个参数,这45个参数到底是什么,我是一个新手,在此求教,谢谢各位大神了!

bp神经网络实现价格预测

BP神经网络基于spark实现,要求三个输入:商品历史价格,商品替代品历史价格,居民消费水平,一个输出商品预测价格,实现价格预测

BP神经网络对股票未来进行预测的Python代码

如何用BP神经网络通过已获取的股票的开盘价收盘价最高最低价的数据对未来未获取数据的股票进行之后的预测,激活函数用sigmod即可。总而言之,就是用现在预测未来。求Python代码

BP神经网络预测效果不好是什么原因?

BP神经网络的预测结果的回归效果很好,但是预测误差很大,是什么原因呢? 我以为是过拟合,但是采取正则化之类的一些方法之后,并没有改善多少。 但是BP神经网络的输入数据和输出数据相关性很低(低于0.2,甚至负相关),会不会是这个原因呢? 原始数据样表如图:这里是用T、PH、DO、EC作为输入数据,预测Imn。 ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989411_839837.jpeg) 预测效果如下图,预测的MAPE=0.27,多次训练大多是0.3左右,这是不是BP神经网络训练得到的最好的结果呢?是不是需要换模型? 这种数据之间相关性很低的该怎么预测? ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989215_333538.png) ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989227_329592.png)

MATLAB怎么实现bp神经网络仿真

如图所示,数据即有文字,又有数值,最后一列为输出,前面为输入,怎么实现bp神经网络仿真]![图片说明](https://img-ask.csdn.net/upload/201809/17/1537183744_466736.png)

L-BFGS算法和神经网络

各位大哥,,, 我想问一下 这个L-BFGS算法的可以跟神经网络结合用于对传感器采集的数据进行数据融合么? 麻烦您有时间的话看下 谢谢大家

bp神经网络怎么实际应用啊?Python

原始数据输入,但是输出节点使用激活函数之后结果都是小于一的数,求出来的误差很大,而且误差会先减小后变大,感觉错误好多但不知道在哪 ``` import numpy as np def sigmoid(x): return 1 / (1 + np.exp(-x)) def main(): # 14条数据 data = np.array([ [1, 0, 0, 1, 0, 1, 1, 1], [0, 0, 1, 1, 0, 0, 1, 0], [1, 1, 0, 1, 1, 1, 0, 1], [0, 1, 0, 1, 0, 0, 1, 1], [1, 0, 1, 1, 0, 1, 1, 1], [1, 1, 0, 0, 1, 1, 1, 0], [0, 0, 0, 1, 0, 0, 1, 1], [1, 0, 1, 1, 0, 1, 1, 1], [1, 1, 0, 1, 0, 1, 0, 1], [1, 0, 0, 0, 1, 0, 1, 1], [1, 0, 0, 1, 0, 1, 1, 0], [0, 0, 1, 1, 0, 1, 0, 1], [1, 0, 0, 1, 0, 0, 1, 1], [0, 1, 0, 1, 0, 1, 1, 1]]) print("原始数据:\n", data) # 十四条数据的跳高成绩 highJump = np.array( [0, 1, 0, 1, 0, 1, 0, 1, 1, 1, 0, 1, 0, 0]) print("十四条数据的跳高成绩:\n", highJump) # 第十五条数据的输入 data15 = np.array([0, 1, 0, 1, 1, 0, 1, 0]) print("第十五条数据的输入:\n", data15) # 设置输入层与隐藏层之间的权值和阈值 wInput = np.random.random(size=(6, 8))/10 print("输入层与隐藏层之间的六组权值:\n", wInput) bInput = np.random.random(size=(6, 8))/10 print("输入层与隐藏层之间的六组阈值:\n", bInput) # 设置隐藏层与输出层之间的权值和阈值 wOutput = np.random.random(size=6)/10 print("隐藏层与输出层之间的一组权值", wOutput) bOutput = np.random.random(size=6)/10 print("隐藏层与输出层之间的一组阈值", bOutput) loss = 1 count = 0 while loss > 0.1: count = count + 1 loss = 0 outputNode = [] for i in range(0, 14): # 正向传播 # 计算隐藏层节点输入 hide = [] for j in range(0, 6): hideNode = 0 for k in range(0, 8): hideNode = data[i, k] * wInput[j, k] + \ bInput[j, k] + hideNode # print(hideNode) hideNode = sigmoid(hideNode) # 激活函数 hide.append(hideNode) hide = np.array(hide) # print("隐藏层结点", hide) output = 0 for j in range(0, 6): output = hide[j] * wOutput[j] + bOutput[j] + output output = sigmoid(output) outputNode.append(output) # print("输出层结点", output) loss = ((output - highJump[i]) * (output - highJump[i])) / 2 + loss outputNode = np.array(outputNode) # 反向传播 # print("隐藏层结点", hide) for i in range(0, 14): # 隐藏层与输出层之间权值阈值更新 wOutputLoss = [] for j in range(0, 6): wOutputLoss.append((outputNode[i] - highJump[i]) * outputNode[i] * (1 - outputNode[i]) * hide[j]) wOutputLoss = np.array(wOutputLoss) # print("wOutputLoss", wOutputLoss) bOutputLoss = [] for j in range(0, 6): bOutputLoss.append((outputNode[i] - highJump[i]) * outputNode[i] * (1 - outputNode[i])) bOutputLoss = np.array(bOutputLoss) # print("bOutputLoss", bOutputLoss) for j in range(0, 6): wOutput[j] = wOutput[j] - 0.1 * wOutputLoss[j] bOutput[j] = bOutput[j] - 0.1 * bOutputLoss[j] # print("隐藏层与输出层更新后权值和阈值", wOutput, bOutput) # 输入层与隐藏层之间权值更新 wInputLoss = np.ones((6, 8)) * 0 for j in range(0, 6): for k in range(0, 8): wInputLoss[j][k] = ((outputNode[i] - highJump[i]) * outputNode[i] * (1 - outputNode[i]) * wOutput[j] * hide[j] * (1 - hide[j]) * data[i][k]) wInputLoss = np.array(wInputLoss) # print("wIutputLoss", wInputLoss) bInputLoss = np.ones((6, 8)) * 0 for j in range(0, 6): for k in range(0, 8): bInputLoss[j][k] = ((outputNode[i] - highJump[i]) * outputNode[i] * (1 - outputNode[i]) * wOutput[j] * hide[j] * (1 - hide[j])) bInputLoss = np.array(bInputLoss) # print("bIutputLoss", bInputLoss) for j in range(0, 6): for k in range(0, 8): wInput[j][k] = wInput[j][k] - 0.1 * wInputLoss[j][k] bInput[j][k] = bInput[j][k] - 0.1 * bInputLoss[j][k] # print("输入层与隐藏层之间更新后的权值和阈值", wInput, bInput) # print("输出", output) print("学习前的loss", loss) loss = 0 for i in range(0, 14): # 正向传播 # 计算隐藏层节点输入 hide = [] for j in range(0, 6): hideNode = 0 for k in range(0, 8): hideNode = data[i, k] * wInput[j, k] + \ bInput[j, k] + hideNode hideNode = sigmoid(hideNode) # 激活函数 hide.append(hideNode) hide = np.array(hide) output = 0 for j in range(0, 6): output = hide[j] * wOutput[j] + bOutput[j] + output output = sigmoid(output) loss = ((output - highJump[i]) * (output - highJump[i])) / 2 + loss # print("输出", output) print("学习后的loss", loss) # 预测 hide = [] for j in range(0, 6): hideNode = 0 for k in range(0, 8): hideNode = data15[k] * wInput[j, k] + \ bInput[j, k] + hideNode hideNode = sigmoid(hideNode) # 激活函数 hide.append(hideNode) hide = np.array(hide) output = 0 for j in range(0, 6): output = hide[j] * wOutput[j] + bOutput[j] + output output = sigmoid(output) print(output) print(loss) print(count) if __name__ == '__main__': main() ```

BP神经网络拟合效果不好,怎么解决?附源程序

主函数,需调用fx2函数 %fun为进行拟合的非线性函数 %node为隐含层的节点数 %k为最大迭代次数,缺省时,默认为100 %eps为目标值,缺省时,默认为0.0001 %随机产生2000组输入数据x、输出数据y input=10*rand(1,2000)-5; output=zeros(1,2000); for i=1:2000 output(i)=fsin(input(i)); end %随机选择1000组训练数据和1000组预测数据 input_train=input(1:1000)'; output_train=output(1:1000)'; input_test=input(1001:2000)'; output_test=output(1001:2000)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=3; net.trainParam.lr=0.1; net.trainParam.goal=eps; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=BPoutput-output_test'; %网络预测结果图像 figure(1) plot(BPoutput,':og') hold on plot(output_test,'-*'); legend('预测输出','期望输出') title('BP网络预测输出','fontsize',12) ylabel('函数输出','fontsize',12) xlabel('样本','fontsize',12) %网络预测误差图像 figure(2) plot(error,'-*') title('BP网络预测误差','fontsize',12) ylabel('误差','fontsize',12) xlabel('样本','fontsize',12) fx2函数: function y=fx2(x) y=x(1)^2+x(2)^2;

matlab中的bp神经网络参数问题

bp神经网络有哪些参数,有多少参数;每个参数代表什么意义;运用的时候,参数的多少会有什么影响,还是最好的拟合结果就好

bp神经网络的权值有没有收敛曲线?是什么样的?

在网上收不到关于bp神经网络的权值收敛曲线,类似lms算法的迭代收敛曲线这样。是什么样的?有没有代码参考一下。谢谢,刚入门还有很多不懂地地方.

简单BP神经网络训练鸢尾花

大佬们,请问result为什么大于0.8就是1,小于0.2是0,其他值则为0.5啊? ``` import pandas as pd import matplotlib.pyplot as plt import numpy as np import tensorflow as tf iris = pd.read_csv("Iris.txt",names=['a','b','c','d','class']) iris['class'][iris['class']=="Iris-setosa"] = 0 iris['class'][iris['class']=="Iris-versicolor"] = 0.5 iris['class'][iris['class']=="Iris-virginica"] = 1 iris_class1 = iris[iris["class"]==0] iris_class2 = iris[iris["class"]==0.5] iris_class3 = iris[iris["class"]==1] temp = np.array(iris) train_data = np.delete(temp,range(len(temp))[::3],axis=0) test_data = temp[::3,:] """ 添加神经网络层的函数 inputs -- 输入内容 in_size -- 输入尺寸 out_size -- 输出尺寸 activation_function --- 激励函数,可以不用输入 """ def add_layer(inputs,in_size,out_size,activation_function=None): W = tf.Variable(tf.zeros([in_size,out_size])+0.01) #定义,in_size行,out_size列的矩阵,随机矩阵,全为0效果不佳 b = tf.Variable(tf.zeros([1,out_size])+0.01) #不建议为0 Wx_plus_b = tf.matmul(inputs,W) + b # WX + b if activation_function is None: #如果有激励函数就激励,否则直接输出 output = Wx_plus_b else: output = activation_function(Wx_plus_b) return output X = tf.placeholder(tf.float32,[None,4]) Y = tf.placeholder(tf.float32,[None,1]) output1 = add_layer(X,4,8,activation_function = tf.nn.sigmoid) output2 = add_layer(output1,8,3,activation_function = tf.nn.sigmoid) temp_y = add_layer(output2,3,1,activation_function = tf.nn.sigmoid) #先求平方,再求和,在求平均 loss = tf.reduce_mean(tf.reduce_sum(tf.square(Y-temp_y),reduction_indices=[1])) #通过优化器,以0.001的学习率,减小误差loss train_step = tf.train.AdamOptimizer(0.001).minimize(loss) #拆分训练集数据集,分为输入和输出 train_x = train_data[:,:4] train_y = train_data[:,-1:] sess = tf.Session() sess.run(tf.global_variables_initializer()) save_process = [] for i in range(90000):#训练90000次 sess.run(train_step,feed_dict={X:train_x,Y:train_y}) if i%300 == 0:#每300次记录损失值(偏差值) save_process.append(sess.run(loss,feed_dict={X:train_x,Y:train_y})) #第前两个数据比较大,踢掉 # save_process = np.delete(save_process,[0,1]) # plt.plot(range(len(save_process)),save_process) def compare_numpy(a,b,is_num=False): """比较两个维度相同的数组,返回相同数字个数/相似度""" num = 0 for i in range(len(a)): if a[i]==b[i]: num+=1 return num if is_num else num/len(a) test_x = test_data[:,:4] test_y = test_data[:,-1:] result = sess.run(temp_y,feed_dict={X:test_x}) result[result > 0.8] = 1 result[result < 0.2] = 0 result[(result < 0.8) & ( result > 0.2)] = 0.5 print("总数:",len(test_data)," 准确个数:",compare_numpy(result,test_y,True)," 精确度:",compare_numpy(result,test_y)) ```

BP神经网络模型,如果要预测数据,是每一个数据都迭代N次吗?

比如,以下例子: 某地区20年公路运量数据 年份 人口数量 机动车数量 公路面积 公路客运量 公路货运量 1990 20.55 0.6 0.09 5126 1237 1991 22.44 0.75 0.11 6217 1379 1992 25.37 0.85 0.11 7730 1385 1993 27.13 0.90 0.14 9145 1399 1994 29.45 1.05 0.20 10460 1663 1995 30.1 1.35 0.23 11387 1714 1996 30.96 1.45 0.23 12353 1834 1997 34.06 1.60 0.32 15750 4322 1998 36.42 1.70 0.32 18304 8132 1999 38.09 1.85 0.34 19836 8936 2000 39.13 2.15 0.36 21024 11099 2001 39.99 2.20 0.36 19490 11203 2002 41.93 2.25 0.38 20433 10524 2003 44.59 2.35 0.49 22598 11115 2004 47.30 2.50 0.56 ? ? 2005 52.89 2.60 0.59 ? ? 题目的要求要我们预测2004和2005两年的公路客运量与公路货运量。 首先,我现在已经清楚了BP神经网络的原理,包括正向传播反向传播激励函数等等,我自己也编写了一套BP神经网络的运算程序。现在我只想搞清楚一个简单的问题,对于这个实例,具体的运算步骤,是否是将人口数量、机动车数量以及公路面积作为3个输入层节点,隐藏层节点数就自己定了,输出层节点是公路客运量和公路货运量2个节点。那么我如果设置学习迭代次数为1000次。步骤是否是:对1990年的数据进行迭代1000次的学习,然后再对1991年的数据进行迭代1000次学习,对1991年初始权重值和偏值为1990年迭代1000次后最终更新的各节点的权重值和偏值,然后依次往下,即每年都会迭代1000次学习。 各位一定看懂我的问题,不要答非所问

BP神经网络,分六类的话用什么激活函数比较好

请问如果用BP神经网络,将数据分六类的话用什么激活函数比较好?

为什呢matlab建立BP神经网络正确率很低?

![图片说明](https://img-ask.csdn.net/upload/201912/26/1577352928_112062.jpg) 上图: 1.蓝色部分表示一类数据,红色部分表示二类数据 2.数据都只有一个特征向量为y轴的值 3.x轴为数据在训练集中的下标 问题: 本来应该是很简单的,利用一个特征向量(y轴的值)作为分类依据,将红色数据和蓝色数据分开。 然而,利用matlab建立BP神经网络,训练结果有时候非常好,测试正确率能达到98以上,有时候正确率只有20~30。 ``` %训练样本 train_sample=[trainECG']; %21*25 %测试样本 test_sample=[testECG']; %输出类别,建立HotCode t1=[trainLabel']; t2=[testLabel']; train_result = ind2vec(t1); test_result = ind2vec(t2); net = newff(train_sample,train_result,4,{ 'tansig' 'purelin' } ,'traingdx'); net.trainParam.show=50; % 显示训练迭代过程 net.trainParam.epochs=15000; % 最大训练磁数 net.trainParam.goal=0.001; % 要求训练精度 net.trainParam.lr=0.02; % 学习率 net=init(net); %网络初始化 [net,tr]=train(net,train_sample,train_result); % 网络训练 result_sim=sim(net,test_sample); % 利用得到的神经网络仿真 result_sim_ind=vec2ind(result_sim); correct=0; for i=1:length(result_sim_ind) if result_sim_ind(i)==t2(i); correct=correct+1; end end disp('正确率:'); correct / length(result_sim_ind) ```

bp神经网络 汉字识别问题

刚在网上下载了一个神经网络汉字识别程序,程序本身自带三个汉字,执行程序可识别,但我用Windows画板编辑了一个字就识别不了,哪位大神可帮忙解决一下,小弟感激不尽

python语言中BP神经网络分类中如何画roc曲线?

使用bp神经网络进行分类,但是不知道如何画ROC曲线,和代价敏感曲线。有老师知道吗?望指点一下。

BP神经网络的训练集和测试集可以相同吗?如图中,floor函数为什么要乘以0.8呢?

您好,我在使用PSO优化BP神经网络做预测。有如下几个问题想请教: 1.我想请问数据划分时,训练集和测试集可以相同吗?我之前是训练集(1:150),测试集(151,200),但是预测效果不好,把训练集和测试集划分相同之后效果变得非常好 小白真诚发问,希望各位不嫌弃问题幼稚帮忙解答,感激不尽。

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

C++11:一些微小的变化(新的数据类型、template表达式内的空格、nullptr、std::nullptr_t)

本文介绍一些C++的两个新特性,它们虽然微小,但对你的编程十分重要 一、Template表达式内的空格 C++11标准之前建议在“在两个template表达式的闭符之间放一个空格”的要求已经过时了 例如: vector&lt;list&lt;int&gt; &gt;; //C++11之前 vector&lt;list&lt;int&gt;&gt;; //C++11 二、nullptr ...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

深入剖析Springboot启动原理的底层源码,再也不怕面试官问了!

大家现在应该都对Springboot很熟悉,但是你对他的启动原理了解吗?

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

【阿里P6面经】二本,curd两年,疯狂复习,拿下阿里offer

二本的读者,在老东家不断学习,最后逆袭

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

微软为一人收购一公司?破解索尼程序、写黑客小说,看他彪悍的程序人生!...

作者 | 伍杏玲出品 | CSDN(ID:CSDNnews)格子衬衫、常掉发、双肩包、修电脑、加班多……这些似乎成了大众给程序员的固定标签。近几年流行的“跨界风”开始刷新人们对程序员的...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

我说我懂多线程,面试官立马给我发了offer

不小心拿了几个offer,有点烦

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐