简单BP神经网络训练鸢尾花

大佬们,请问result为什么大于0.8就是1,小于0.2是0,其他值则为0.5啊?

import pandas as pd
import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tf


iris = pd.read_csv("Iris.txt",names=['a','b','c','d','class'])
iris['class'][iris['class']=="Iris-setosa"] = 0
iris['class'][iris['class']=="Iris-versicolor"] = 0.5
iris['class'][iris['class']=="Iris-virginica"] = 1

iris_class1 = iris[iris["class"]==0]
iris_class2 = iris[iris["class"]==0.5]
iris_class3 = iris[iris["class"]==1]

temp = np.array(iris)
train_data = np.delete(temp,range(len(temp))[::3],axis=0)
test_data = temp[::3,:]

"""
添加神经网络层的函数
inputs -- 输入内容
in_size -- 输入尺寸
out_size -- 输出尺寸
activation_function --- 激励函数,可以不用输入
"""
def add_layer(inputs,in_size,out_size,activation_function=None):
    W = tf.Variable(tf.zeros([in_size,out_size])+0.01)   #定义,in_size行,out_size列的矩阵,随机矩阵,全为0效果不佳
    b = tf.Variable(tf.zeros([1,out_size])+0.01)       #不建议为0
    Wx_plus_b = tf.matmul(inputs,W) + b            # WX + b
    if activation_function is None:         #如果有激励函数就激励,否则直接输出
        output = Wx_plus_b
    else:
        output = activation_function(Wx_plus_b)
    return output

X = tf.placeholder(tf.float32,[None,4])
Y = tf.placeholder(tf.float32,[None,1])

output1 = add_layer(X,4,8,activation_function = tf.nn.sigmoid)
output2 = add_layer(output1,8,3,activation_function = tf.nn.sigmoid)
temp_y = add_layer(output2,3,1,activation_function = tf.nn.sigmoid)
#先求平方,再求和,在求平均
loss = tf.reduce_mean(tf.reduce_sum(tf.square(Y-temp_y),reduction_indices=[1]))
#通过优化器,以0.001的学习率,减小误差loss
train_step = tf.train.AdamOptimizer(0.001).minimize(loss)

#拆分训练集数据集,分为输入和输出
train_x = train_data[:,:4]
train_y = train_data[:,-1:]

sess = tf.Session()
sess.run(tf.global_variables_initializer())
save_process = []
for i in range(90000):#训练90000次
    sess.run(train_step,feed_dict={X:train_x,Y:train_y})
    if i%300 == 0:#每300次记录损失值(偏差值)
        save_process.append(sess.run(loss,feed_dict={X:train_x,Y:train_y}))

#第前两个数据比较大,踢掉
# save_process = np.delete(save_process,[0,1])
# plt.plot(range(len(save_process)),save_process)

def compare_numpy(a,b,is_num=False):
    """比较两个维度相同的数组,返回相同数字个数/相似度"""
    num = 0
    for i in range(len(a)):
        if a[i]==b[i]:
            num+=1
    return num if is_num else num/len(a)

test_x = test_data[:,:4]
test_y = test_data[:,-1:]

result = sess.run(temp_y,feed_dict={X:test_x})
result[result > 0.8] = 1
result[result < 0.2] = 0
result[(result < 0.8) & ( result > 0.2)] = 0.5

print("总数:",len(test_data),"  准确个数:",compare_numpy(result,test_y,True),"  精确度:",compare_numpy(result,test_y))

1个回答

这个是置信度,>0.8和<0.2表示非常有把握判断是或者不是,在此之间表示不确定
caozhy
贵阳老马马善福专业维修游泳池堵漏防水工程 回复cylhs: 这是超参数,如果0.3/0.7会增加误报但是减少漏报反之增加漏报减小误报,所以需要权衡
大约一年之前 回复
m0_37644267
cylhs 这个置信度是根据什么得出的啊?就不能是大于0.7或小于0.3?
大约一年之前 回复
m0_37644267
cylhs 不好意思啊,点错了。。。改不了
大约一年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
BP神经网络预测效果不好是什么原因?

BP神经网络的预测结果的回归效果很好,但是预测误差很大,是什么原因呢? 我以为是过拟合,但是采取正则化之类的一些方法之后,并没有改善多少。 但是BP神经网络的输入数据和输出数据相关性很低(低于0.2,甚至负相关),会不会是这个原因呢? 原始数据样表如图:这里是用T、PH、DO、EC作为输入数据,预测Imn。 ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989411_839837.jpeg) 预测效果如下图,预测的MAPE=0.27,多次训练大多是0.3左右,这是不是BP神经网络训练得到的最好的结果呢?是不是需要换模型? 这种数据之间相关性很低的该怎么预测? ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989215_333538.png) ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989227_329592.png)

用nnstart训练好的神经网络来预测数据(鸢尾花数据)结果为什么和神经网络内输出的内容形式不一样?

我用nnstart训练了一个BP神经网络,用其自带的MATLAB Function将这个神经网络保存, 然后在指令里调用,用来做150组鸢尾花数据集里面其中一组数据的预测。 我训练的时候是用的[0 1 0 ]这种格式定义的分类也就是输出的: ![图片说明](https://img-ask.csdn.net/upload/201909/01/1567309766_356407.png) ![图片说明](https://img-ask.csdn.net/upload/201909/01/1567309048_619273.png) 保存为myneural network ![图片说明](https://img-ask.csdn.net/upload/201909/01/1567309197_264326.png) 然后我输入一组鸢尾花的数据进行预测 ![图片说明](https://img-ask.csdn.net/upload/201909/01/1567309346_231580.png) 然后得到一个[0 0.7 0.2]的预测结果,和神经网络的输入维度倒是一样,但是不是[0 1 0]的这种格式,为什么啊? 第一次接触这个很多东西网上查不到,请各位神仙指点一下。

训练BP神经网络得不到预定的结果

用BP神经网络去训练3755个手写汉字,测试的准确率为0,不知道问题出在哪里,求解?

BP神经网络的训练函数和学习函数,还有性能函数分别代表什么

首先我现在知道激励函数是什么。但是经常说的训练函数、学习函数还有性能函数分别指的是什么? 例如以下例子:“ 设定网络隐层和输出层激励函数分别为tansig和logsig函数, 网络训练函数为traingdx, 网络性能函数为mse,隐层神经元数初设为6。设定网络参数。网络迭代次数epochs为5000次, 期望误差goal为0.00000001, 学习速率lr为0. 01。” 网络训练函数为traingdx,这个公式到底是什么?我在百度查半天都没有查到具体的公式。 网络性能函数为mse,mse的公式是什么?

bp神经网络怎么实际应用啊?Python

原始数据输入,但是输出节点使用激活函数之后结果都是小于一的数,求出来的误差很大,而且误差会先减小后变大,感觉错误好多但不知道在哪 ``` import numpy as np def sigmoid(x): return 1 / (1 + np.exp(-x)) def main(): # 14条数据 data = np.array([ [1, 0, 0, 1, 0, 1, 1, 1], [0, 0, 1, 1, 0, 0, 1, 0], [1, 1, 0, 1, 1, 1, 0, 1], [0, 1, 0, 1, 0, 0, 1, 1], [1, 0, 1, 1, 0, 1, 1, 1], [1, 1, 0, 0, 1, 1, 1, 0], [0, 0, 0, 1, 0, 0, 1, 1], [1, 0, 1, 1, 0, 1, 1, 1], [1, 1, 0, 1, 0, 1, 0, 1], [1, 0, 0, 0, 1, 0, 1, 1], [1, 0, 0, 1, 0, 1, 1, 0], [0, 0, 1, 1, 0, 1, 0, 1], [1, 0, 0, 1, 0, 0, 1, 1], [0, 1, 0, 1, 0, 1, 1, 1]]) print("原始数据:\n", data) # 十四条数据的跳高成绩 highJump = np.array( [0, 1, 0, 1, 0, 1, 0, 1, 1, 1, 0, 1, 0, 0]) print("十四条数据的跳高成绩:\n", highJump) # 第十五条数据的输入 data15 = np.array([0, 1, 0, 1, 1, 0, 1, 0]) print("第十五条数据的输入:\n", data15) # 设置输入层与隐藏层之间的权值和阈值 wInput = np.random.random(size=(6, 8))/10 print("输入层与隐藏层之间的六组权值:\n", wInput) bInput = np.random.random(size=(6, 8))/10 print("输入层与隐藏层之间的六组阈值:\n", bInput) # 设置隐藏层与输出层之间的权值和阈值 wOutput = np.random.random(size=6)/10 print("隐藏层与输出层之间的一组权值", wOutput) bOutput = np.random.random(size=6)/10 print("隐藏层与输出层之间的一组阈值", bOutput) loss = 1 count = 0 while loss > 0.1: count = count + 1 loss = 0 outputNode = [] for i in range(0, 14): # 正向传播 # 计算隐藏层节点输入 hide = [] for j in range(0, 6): hideNode = 0 for k in range(0, 8): hideNode = data[i, k] * wInput[j, k] + \ bInput[j, k] + hideNode # print(hideNode) hideNode = sigmoid(hideNode) # 激活函数 hide.append(hideNode) hide = np.array(hide) # print("隐藏层结点", hide) output = 0 for j in range(0, 6): output = hide[j] * wOutput[j] + bOutput[j] + output output = sigmoid(output) outputNode.append(output) # print("输出层结点", output) loss = ((output - highJump[i]) * (output - highJump[i])) / 2 + loss outputNode = np.array(outputNode) # 反向传播 # print("隐藏层结点", hide) for i in range(0, 14): # 隐藏层与输出层之间权值阈值更新 wOutputLoss = [] for j in range(0, 6): wOutputLoss.append((outputNode[i] - highJump[i]) * outputNode[i] * (1 - outputNode[i]) * hide[j]) wOutputLoss = np.array(wOutputLoss) # print("wOutputLoss", wOutputLoss) bOutputLoss = [] for j in range(0, 6): bOutputLoss.append((outputNode[i] - highJump[i]) * outputNode[i] * (1 - outputNode[i])) bOutputLoss = np.array(bOutputLoss) # print("bOutputLoss", bOutputLoss) for j in range(0, 6): wOutput[j] = wOutput[j] - 0.1 * wOutputLoss[j] bOutput[j] = bOutput[j] - 0.1 * bOutputLoss[j] # print("隐藏层与输出层更新后权值和阈值", wOutput, bOutput) # 输入层与隐藏层之间权值更新 wInputLoss = np.ones((6, 8)) * 0 for j in range(0, 6): for k in range(0, 8): wInputLoss[j][k] = ((outputNode[i] - highJump[i]) * outputNode[i] * (1 - outputNode[i]) * wOutput[j] * hide[j] * (1 - hide[j]) * data[i][k]) wInputLoss = np.array(wInputLoss) # print("wIutputLoss", wInputLoss) bInputLoss = np.ones((6, 8)) * 0 for j in range(0, 6): for k in range(0, 8): bInputLoss[j][k] = ((outputNode[i] - highJump[i]) * outputNode[i] * (1 - outputNode[i]) * wOutput[j] * hide[j] * (1 - hide[j])) bInputLoss = np.array(bInputLoss) # print("bIutputLoss", bInputLoss) for j in range(0, 6): for k in range(0, 8): wInput[j][k] = wInput[j][k] - 0.1 * wInputLoss[j][k] bInput[j][k] = bInput[j][k] - 0.1 * bInputLoss[j][k] # print("输入层与隐藏层之间更新后的权值和阈值", wInput, bInput) # print("输出", output) print("学习前的loss", loss) loss = 0 for i in range(0, 14): # 正向传播 # 计算隐藏层节点输入 hide = [] for j in range(0, 6): hideNode = 0 for k in range(0, 8): hideNode = data[i, k] * wInput[j, k] + \ bInput[j, k] + hideNode hideNode = sigmoid(hideNode) # 激活函数 hide.append(hideNode) hide = np.array(hide) output = 0 for j in range(0, 6): output = hide[j] * wOutput[j] + bOutput[j] + output output = sigmoid(output) loss = ((output - highJump[i]) * (output - highJump[i])) / 2 + loss # print("输出", output) print("学习后的loss", loss) # 预测 hide = [] for j in range(0, 6): hideNode = 0 for k in range(0, 8): hideNode = data15[k] * wInput[j, k] + \ bInput[j, k] + hideNode hideNode = sigmoid(hideNode) # 激活函数 hide.append(hideNode) hide = np.array(hide) output = 0 for j in range(0, 6): output = hide[j] * wOutput[j] + bOutput[j] + output output = sigmoid(output) print(output) print(loss) print(count) if __name__ == '__main__': main() ```

Python作业 机器学习 用bp神经网络建立预测模型的问题

如题,选择最佳的特征组合,建立bp神经网络模型,并用10折交叉验证评价模型 原数据集data,excel文件,前几行如下,46列,44行,第一列为分类标签(N和P),其余为特征,已经做过归一化等预处理 ![图片说明](https://img-ask.csdn.net/upload/202006/21/1592716100_989103.jpg) 我自己做了一个随机森林的特征选择,选了得分较高的前五个特征,生成新数据集data2,前几行如下 ![图片说明](https://img-ask.csdn.net/upload/202006/21/1592716121_585226.jpg) 然后原本的要求是寻找最佳的模型,这里我选了bp算法,但我不太会写,就先用mlp做了一个极简的模型,结果准确率太低了。。。 ![图片说明](https://img-ask.csdn.net/upload/202006/21/1592716155_102950.jpg) 菜鸟求教代码,用bp算法,分训练集和测试集,10折交叉验证,优化模型提高准确率,老师给的准确率在90%以上,我不太清楚,是我特征选择选的不好,还是神经网络的模型不适合这个数据集,准确率就比较低?所以应该选哪个模型呢?

bp神经网络的参数问题

都说bp神经网络有45个参数,这45个参数到底是什么,我是一个新手,在此求教,谢谢各位大神了!

matlab实现BP神经网络,训练结果不好,附源代码

希望大家看看,谢谢了!自己看了一整天都不知道哪里出现了问题,编程思想按照经典的机器学习的书 lr=0.05; %lr为学习速率; err_goal=0.1; %err_goal为期望误差最小值 max_epoch=15000; %max_epoch为训练的最大次数; a=0.9; %a为惯性系数 Oi=0; Ok=0; %置隐含层和输出层各神经元输出初值为0 %提供两组训练集和目标值(3输入神经元,2输出) %X=[1 1;-1 -1;1 1]; %T=[1 1;1 1]; load house_dataset; x=houseInputs; t=houseTargets; %数据的归一化 maxRowx=max(x,[],2); maxRowt=max(t,[],2); minRowx=min(x,[],2); minRowt=min(t,[],2); % y = ( x - min )/( max - min ) for i=1:size(x,2) x(:,i)=(x(:,i)-minRowx)./(maxRowx-minRowx); t(:,i)=(t(:,i)-minRowt)./(maxRowt-minRowt); end %初始化wki,wij(M为输入节点j的数量;q为隐含层节点i的数量;L为输出节点k的数量) [M,N]=size(x); q=8; [L,N]=size(t); %N为训练集对数量 wij=rand(q,M); wki=rand(L,q);%随机值在-0.05到0.05之间 wij0=zeros(size(wij)); wki0=zeros(size(wki)); for epoch=1:max_epoch for n=1:N %for every example neti=wij*x(:,n);%q*1 每个隐藏层的输出 oi=1./(1+exp(-neti)); netk=wki*oi;%L*1 每个输出层的输出 ok=1./(1+exp(-netk)); deltak=ok.*(1-ok).*(t(:,n)-ok);%输出层的误差项 deltai=oi.*(1-oi).*(wki'*deltak);%隐藏层de误差项 %更新对应的权值 deltawij=lr*deltai*(x(:,n)'); deltawki=lr*deltak*(ok'); wij=wij+deltawij; wki=wki+deltawki; %计算误差函数 E=0.0; for i=1:N %N为训练的总数 neti=wij*x(:,i);%q*1 每个隐藏层的输出 oi=1./(1+exp(-neti)); netk=wki*oi;%L*1 每个输出层的输出 ok=1./(1+exp(-netk)); E=E+(ok-t)*(ok-t)'; end E=E/2; fprintf('the error is %f, the iteration is %d\n',E,epoch); end if E<err_goal break; end end

BP神经网络的训练集和测试集可以相同吗?如图中,floor函数为什么要乘以0.8呢?

您好,我在使用PSO优化BP神经网络做预测。有如下几个问题想请教: 1.我想请问数据划分时,训练集和测试集可以相同吗?我之前是训练集(1:150),测试集(151,200),但是预测效果不好,把训练集和测试集划分相同之后效果变得非常好 小白真诚发问,希望各位不嫌弃问题幼稚帮忙解答,感激不尽。

遗传算法优化BP神经网络

主函数:需调用函数fx2、evaluate和errorBP clc clear %随机产生200组输入数据x、输出数据y input=10*rand(2,200)-5; output=zeros(1,200); for i=1:200 output(i)=fx2(input(:,i)); end %设置网络节点数 inputnum=2; hiddennum=5; outputnum=1; %随机选择100组训练数据和100组预测数据 input_train=input(:,1:100)'; output_train=output(1:100)'; input_test=input(:,101:200)'; output_test=output(101:200)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %模拟退火算法参数初始化 Tmax=50; %初温 L=100; %最大退火次数 Tmin=0.01; %终止温度 %BP神经网络算法优化权值和阈值 numsum=inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum; %权值和阈值总数 net=train(net,inputn',outputn'); %将BP神经网络优化后权值和阈值赋给模拟退火算法的初始解 s1=reshape(net.iw{1,1},1,inputnum*hiddennum); s2=reshape(net.b{1},1,hiddennum); s3=reshape(net.lw{2,1},1,hiddennum*outputnum); s4=reshape(net.b{2},1,outputnum); s=[s1,s2,s3,s4]; %模拟退火算法优化权值和阈值 t=Tmax; while t>Tmin k=1; for i=1:numsum sx(i)=s(i)+(0.2*rand-0.1)*errorBP; %产生新解 end c=evaluate(sx,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput)-evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput); %计算增量 if c<0 s=sx; t=t*0.95; %!!!!!! elseif rand<exp(-c/t) s=sx; t=t*0.99; else t=t*1.01; end % if t<=Tmin break; end k=k+1; end %将最优结果赋值给BP神经网络的权值和阈值 w1=s(1:inputnum*hiddennum); v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum); w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum); v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum); %网络权值和阈值赋值 net.iw{1,1}=reshape(w1,hiddennum,inputnum); net.lw{2,1}=reshape(w2,outputnum,hiddennum); net.b{1}=reshape(v1,hiddennum,1); net.b{2}=v2; %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=100; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=BPoutput-output_test'; %网络预测结果图像 figure(1) plot(BPoutput,':og') hold on plot(output_test,'-*'); legend('预测输出','期望输出') title('BP网络预测输出','fontsize',12) ylabel('函数输出','fontsize',12) xlabel('样本','fontsize',12) %网络预测误差图像 figure(2) plot(error,'-*') title('BP网络预测误差','fontsize',12) ylabel('误差','fontsize',12) xlabel('样本','fontsize',12) 拟合函数fx2 function y=fx2(x) y=x(1)^2+x(2)^2; 调用的适应度值函数evaluate function error=evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput) %%该函数用于计算模拟退火算法适应度值evaluate %s:权值、阈值的个体 %inputnum:输入层节点数 %hiddennum:隐含层节点数 %outputnum:输出层节点数 %net:网络 %inputn:训练输入数据 %outputn:训练输出数据 % % %BP神经网络初始权值和阈值 w1=s(1:inputnum*hiddennum); v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum); w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum); v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum); %网络权值和阈值赋值 net.iw{1,1}=reshape(w1,hiddennum,inputnum); net.lw{2,1}=reshape(w2,outputnum,hiddennum); net.b{1}=reshape(v1,hiddennum,1); net.b{2}=v2; %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); net.trainParam.epochs=20; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; net.trainParam.show=100; net.trainParam.showWindow=0; %BP神经网络训练 net=train(net,inputn',outputn'); %BP神经网络预测 an=sim(net,inputn'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %预测误差和作为个体适应度值 error=sum(abs(an-BPoutput)); 调用的误差函数errorBP function error=errorBP %%用于计算模拟退火算法产生新解时所需的BP神经网络的误差 %随机产生200组输入数据x、输出数据y input=10*rand(2,200)-5; output=zeros(1,200); for i=1:200 output(i)=fx2(input(:,i)); end %随机选择100组训练数据和100组预测数据 input_train=input(:,1:100)'; output_train=output(1:100)'; input_test=input(:,101:200)'; output_test=output(101:200)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=100; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=sum(abs(BPoutput-output_test'))/100;

MATLAB怎么实现bp神经网络仿真

如图所示,数据即有文字,又有数值,最后一列为输出,前面为输入,怎么实现bp神经网络仿真]![图片说明](https://img-ask.csdn.net/upload/201809/17/1537183744_466736.png)

用matlab训练好的BP神经网络后,可以把训练好的权值直接用,然后自己利用该权值放在C语言中实现吗?

用matlab训练好的BP神经网络后,可以把训练好的权值直接用,然后自己利用该权值放在C语言中实现吗?

Bp神经网络图像处理怎么分块

有人知道bp神经网络用于图像处理时,图像怎么分成块,训练后块又怎么合成图像的吗?图像块之间还有重叠,英文overlapping 是怎么回事,请大神们帮帮忙,小弟最近刚学不太懂~在此谢过了~

R BP神经网络建模报错

data_ys <- read.csv("q345.csv",header = TRUE,fill = TRUE, sep = ",") norm.data <- scale(data_ys,center = TRUE,scale = TRUE) set.seed(1) sample_Index <- createDataPartition(y=norm.data[,5], p=0.7,list= FALSE) train_data <- as.data.frame(norm.data[sample_Index,]) test_data <- as.data.frame(norm.data[-sample_Index,]) net <- newff(n.neurons = c(4,3,1), learning.rate.global = 1e-2, momentum.global = 0.5, error.criterium = "LMS", Stao = NA, hidden.layer = "tansig", output.layer = "purelin", method = "ADAPTgdwm") model <- train(net, train_data[1:4], train_data[5], Pval = NULL, error.criterium = "LMS", report = TRUE, n.shows = 5, show.step = 100) Error: Please use column names for `x` 运行到train函数报错,刚刚开始学习R建模,不知道怎么解决啦,大神们帮帮忙吧,感谢!

为什呢matlab建立BP神经网络正确率很低?

![图片说明](https://img-ask.csdn.net/upload/201912/26/1577352928_112062.jpg) 上图: 1.蓝色部分表示一类数据,红色部分表示二类数据 2.数据都只有一个特征向量为y轴的值 3.x轴为数据在训练集中的下标 问题: 本来应该是很简单的,利用一个特征向量(y轴的值)作为分类依据,将红色数据和蓝色数据分开。 然而,利用matlab建立BP神经网络,训练结果有时候非常好,测试正确率能达到98以上,有时候正确率只有20~30。 ``` %训练样本 train_sample=[trainECG']; %21*25 %测试样本 test_sample=[testECG']; %输出类别,建立HotCode t1=[trainLabel']; t2=[testLabel']; train_result = ind2vec(t1); test_result = ind2vec(t2); net = newff(train_sample,train_result,4,{ 'tansig' 'purelin' } ,'traingdx'); net.trainParam.show=50; % 显示训练迭代过程 net.trainParam.epochs=15000; % 最大训练磁数 net.trainParam.goal=0.001; % 要求训练精度 net.trainParam.lr=0.02; % 学习率 net=init(net); %网络初始化 [net,tr]=train(net,train_sample,train_result); % 网络训练 result_sim=sim(net,test_sample); % 利用得到的神经网络仿真 result_sim_ind=vec2ind(result_sim); correct=0; for i=1:length(result_sim_ind) if result_sim_ind(i)==t2(i); correct=correct+1; end end disp('正确率:'); correct / length(result_sim_ind) ```

matlab中的bp神经网络参数问题

bp神经网络有哪些参数,有多少参数;每个参数代表什么意义;运用的时候,参数的多少会有什么影响,还是最好的拟合结果就好

BP神经网络模型,如果要预测数据,是每一个数据都迭代N次吗?

比如,以下例子: 某地区20年公路运量数据 年份 人口数量 机动车数量 公路面积 公路客运量 公路货运量 1990 20.55 0.6 0.09 5126 1237 1991 22.44 0.75 0.11 6217 1379 1992 25.37 0.85 0.11 7730 1385 1993 27.13 0.90 0.14 9145 1399 1994 29.45 1.05 0.20 10460 1663 1995 30.1 1.35 0.23 11387 1714 1996 30.96 1.45 0.23 12353 1834 1997 34.06 1.60 0.32 15750 4322 1998 36.42 1.70 0.32 18304 8132 1999 38.09 1.85 0.34 19836 8936 2000 39.13 2.15 0.36 21024 11099 2001 39.99 2.20 0.36 19490 11203 2002 41.93 2.25 0.38 20433 10524 2003 44.59 2.35 0.49 22598 11115 2004 47.30 2.50 0.56 ? ? 2005 52.89 2.60 0.59 ? ? 题目的要求要我们预测2004和2005两年的公路客运量与公路货运量。 首先,我现在已经清楚了BP神经网络的原理,包括正向传播反向传播激励函数等等,我自己也编写了一套BP神经网络的运算程序。现在我只想搞清楚一个简单的问题,对于这个实例,具体的运算步骤,是否是将人口数量、机动车数量以及公路面积作为3个输入层节点,隐藏层节点数就自己定了,输出层节点是公路客运量和公路货运量2个节点。那么我如果设置学习迭代次数为1000次。步骤是否是:对1990年的数据进行迭代1000次的学习,然后再对1991年的数据进行迭代1000次学习,对1991年初始权重值和偏值为1990年迭代1000次后最终更新的各节点的权重值和偏值,然后依次往下,即每年都会迭代1000次学习。 各位一定看懂我的问题,不要答非所问

bp神经网络拟合二次函数,训练后网络只对最后一个训练样本的数据有效。请问为什么?

输入层节点数为1 隐含层有一个,包含10个节点 输出层节点数为1 现在发现一个问题, 我有300个二次函数输入输出的样本,最后一个训练的样本是,输入0.5,输出0.25 那么训练完成后只有当该网络的输入为0.5附近时,网络输出的误差才很小,而输入其他数据时,误差很大。 请问这是隐含层过少的原因吗?或者各位大佬有什么思路可以提醒我一下?

matlab中如何将BP神经网络工具箱中的Gradient设置的更小

在matlab神经网络工具箱中,BP网络训练过程中最小梯度Gradient参数总是先达到要求,请问如何将BP神经网络工具箱中的Gradient如何设置的更小,尽管对网络精度没用,我只是想得到他陷入局部最小值的下降曲线。

初级玩转Linux+Ubuntu(嵌入式开发基础课程)

课程主要面向嵌入式Linux初学者、工程师、学生 主要从一下几方面进行讲解: 1.linux学习路线、基本命令、高级命令 2.shell、vi及vim入门讲解 3.软件安装下载、NFS、Samba、FTP等服务器配置及使用

我以为我对Mysql事务很熟,直到我遇到了阿里面试官

太惨了,面试又被吊打

Python代码实现飞机大战

文章目录经典飞机大战一.游戏设定二.我方飞机三.敌方飞机四.发射子弹五.发放补给包六.主模块 经典飞机大战 源代码以及素材资料(图片,音频)可从下面的github中下载: 飞机大战源代码以及素材资料github项目地址链接 ————————————————————————————————————————————————————————— 不知道大家有没有打过飞机,喜不喜欢打飞机。当我第一次接触这个东西的时候,我的内心是被震撼到的。第一次接触打飞机的时候作者本人是身心愉悦的,因为周边的朋友都在打飞机, 每

Python数据分析与挖掘

92讲视频课+16大项目实战+源码+¥800元课程礼包+讲师社群1V1答疑+社群闭门分享会=99元 &nbsp; 为什么学习数据分析? &nbsp; &nbsp; &nbsp; 人工智能、大数据时代有什么技能是可以运用在各种行业的?数据分析就是。 &nbsp; &nbsp; &nbsp; 从海量数据中获得别人看不见的信息,创业者可以通过数据分析来优化产品,营销人员可以通过数据分析改进营销策略,产品经理可以通过数据分析洞察用户习惯,金融从业者可以通过数据分析规避投资风险,程序员可以通过数据分析进一步挖掘出数据价值,它和编程一样,本质上也是一个工具,通过数据来对现实事物进行分析和识别的能力。不管你从事什么行业,掌握了数据分析能力,往往在其岗位上更有竞争力。 &nbsp;&nbsp; 本课程共包含五大模块: 一、先导篇: 通过分析数据分析师的一天,让学员了解全面了解成为一个数据分析师的所有必修功法,对数据分析师不在迷惑。 &nbsp; 二、基础篇: 围绕Python基础语法介绍、数据预处理、数据可视化以及数据分析与挖掘......这些核心技能模块展开,帮助你快速而全面的掌握和了解成为一个数据分析师的所有必修功法。 &nbsp; 三、数据采集篇: 通过网络爬虫实战解决数据分析的必经之路:数据从何来的问题,讲解常见的爬虫套路并利用三大实战帮助学员扎实数据采集能力,避免没有数据可分析的尴尬。 &nbsp; 四、分析工具篇: 讲解数据分析避不开的科学计算库Numpy、数据分析工具Pandas及常见可视化工具Matplotlib。 &nbsp; 五、算法篇: 算法是数据分析的精华,课程精选10大算法,包括分类、聚类、预测3大类型,每个算法都从原理和案例两个角度学习,让你不仅能用起来,了解原理,还能知道为什么这么做。

如何在虚拟机VM上使用串口

在系统内核开发中,经常会用到串口调试,利用VMware的Virtual Machine更是为调试系统内核如虎添翼。那么怎么搭建串口调试环境呢?因为最近工作涉及到这方面,利用强大的google搜索和自己

程序员的兼职技能课

获取讲师答疑方式: 在付费视频第一节(触摸命令_ALL)片头有二维码及加群流程介绍 限时福利 原价99元,今日仅需39元!购课添加小助手(微信号:csdn590)按提示还可领取价值800元的编程大礼包! 讲师介绍: 苏奕嘉&nbsp;前阿里UC项目工程师 脚本开发平台官方认证满级(六级)开发者。 我将如何教会你通过【定制脚本】赚到你人生的第一桶金? 零基础程序定制脚本开发课程,是完全针对零脚本开发经验的小白而设计,课程内容共分为3大阶段: ①前期将带你掌握Q开发语言和界面交互开发能力; ②中期通过实战来制作有具体需求的定制脚本; ③后期将解锁脚本的更高阶玩法,打通任督二脉; ④应用定制脚本合法赚取额外收入的完整经验分享,带你通过程序定制脚本开发这项副业,赚取到你的第一桶金!

MFC一站式终极全套课程包

该套餐共包含从C小白到C++到MFC的全部课程,整套学下来绝对成为一名C++大牛!!!

C++语言基础视频教程

C++语言基础视频培训课程:本课与主讲者在大学开出的程序设计课程直接对接,准确把握知识点,注重教学视频与实践体系的结合,帮助初学者有效学习。本教程详细介绍C++语言中的封装、数据隐藏、继承、多态的实现等入门知识;主要包括类的声明、对象定义、构造函数和析构函数、运算符重载、继承和派生、多态性实现等。 课程需要有C语言程序设计的基础(可以利用本人开出的《C语言与程序设计》系列课学习)。学习者能够通过实践的方式,学会利用C++语言解决问题,具备进一步学习利用C++开发应用程序的基础。

北京师范大学信息科学与技术学院笔试10复试真题

北京师范大学信息科学与技术学院笔试,可以更好的让你了解北师大该学院的复试内容,获得更好的成绩。

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

网络工程师小白入门--【思科CCNA、华为HCNA等网络工程师认证】

本课程适合CCNA或HCNA网络小白同志,高手请绕道,可以直接学习进价课程。通过本预科课程的学习,为学习网络工程师、思科CCNA、华为HCNA这些认证打下坚实的基础! 重要!思科认证2020年2月24日起,已启用新版认证和考试,包括题库都会更新,由于疫情原因,请关注官网和本地考点信息。题库网络上很容易下载到。

Python界面版学生管理系统

前不久上传了一个控制台版本的学生管理系统,这个是Python界面版学生管理系统,这个是使用pycharm开发的一个有界面的学生管理系统,基本的增删改查,里面又演示视频和完整代码,有需要的伙伴可以自行下

软件测试2小时入门

本课程内容系统、全面、简洁、通俗易懂,通过2个多小时的介绍,让大家对软件测试有个系统的理解和认识,具备基本的软件测试理论基础。 主要内容分为5个部分: 1 软件测试概述,了解测试是什么、测试的对象、原则、流程、方法、模型;&nbsp; 2.常用的黑盒测试用例设计方法及示例演示;&nbsp; 3 常用白盒测试用例设计方法及示例演示;&nbsp; 4.自动化测试优缺点、使用范围及示例‘;&nbsp; 5.测试经验谈。

Tomcat服务器下载、安装、配置环境变量教程(超详细)

未经我的允许,请不要转载我的文章,在此郑重声明!!! 请先配置安装好Java的环境,若没有安装,请参照我博客上的步骤进行安装! 安装Java环境教程https://blog.csdn.net/qq_40881680/article/details/83585542 Tomcat部署Web项目(一)·内嵌https://blog.csdn.net/qq_40881680/article/d...

2019数学建模A题高压油管的压力控制 省一论文即代码

2019数学建模A题高压油管的压力控制省一完整论文即详细C++和Matlab代码,希望对同学们有所帮助

图书管理系统(Java + Mysql)我的第一个完全自己做的实训项目

图书管理系统 Java + MySQL 完整实训代码,MVC三层架构组织,包含所有用到的图片资源以及数据库文件,大三上学期实训,注释很详细,按照阿里巴巴Java编程规范编写

linux下利用/proc进行进程树的打印

在linux下利用c语言实现的进程树的打印,主要通过/proc下的目录中的进程文件,获取status中的进程信息内容,然后利用递归实现进程树的打印

微信小程序开发实战之番茄时钟开发

微信小程序番茄时钟视频教程,本课程将带着各位学员开发一个小程序初级实战类项目,针对只看过官方文档而又无从下手的开发者来说,可以作为一个较好的练手项目,对于有小程序开发经验的开发者而言,可以更好加深对小程序各类组件和API 的理解,为更深层次高难度的项目做铺垫。

[已解决]踩过的坑之mysql连接报“Communications link failure”错误

目录 前言 第一种方法: 第二种方法 第三种方法(适用于项目和数据库在同一台服务器) 第四种方法 第五种方法(项目和数据库不在同一台服务器) 总结 前言 先给大家简述一下我的坑吧,(我用的是mysql,至于oracle有没有这样的问题,有心的小伙伴们可以测试一下哈), 在自己做个javaweb测试项目的时候,因为买的是云服务器,所以数据库连接的是用ip地址,用IDE开发好...

人工智能-计算机视觉实战之路(必备算法+深度学习+项目实战)

系列课程主要分为3大阶段:(1)首先掌握计算机视觉必备算法原理,结合Opencv进行学习与练手,通过实际视项目进行案例应用展示。(2)进军当下最火的深度学习进行视觉任务实战,掌握深度学习中必备算法原理与网络模型架构。(3)结合经典深度学习框架与实战项目进行实战,基于真实数据集展开业务分析与建模实战。整体风格通俗易懂,项目驱动学习与就业面试。 建议同学们按照下列顺序来进行学习:1.Python入门视频课程 2.Opencv计算机视觉实战(Python版) 3.深度学习框架-PyTorch实战/人工智能框架实战精讲:Keras项目 4.Python-深度学习-物体检测实战 5.后续实战课程按照自己喜好选择就可以

2019 AI开发者大会

2019 AI开发者大会(AI ProCon 2019)是由中国IT社区CSDN主办的AI技术与产业年度盛会。多年经验淬炼,如今蓄势待发:2019年9月6-7日,大会将有近百位中美顶尖AI专家、知名企业代表以及千余名AI开发者齐聚北京,进行技术解读和产业论证。我们不空谈口号,只谈技术,诚挚邀请AI业内人士一起共铸人工智能新篇章!

机器学习初学者必会的案例精讲

通过六个实际的编码项目,带领同学入门人工智能。这些项目涉及机器学习(回归,分类,聚类),深度学习(神经网络),底层数学算法,Weka数据挖掘,利用Git开源项目实战等。

Python数据分析师-实战系列

系列课程主要包括Python数据分析必备工具包,数据分析案例实战,核心算法实战与企业级数据分析与建模解决方案实战,建议大家按照系列课程阶段顺序进行学习。所有数据集均为企业收集的真实数据集,整体风格以实战为导向,通俗讲解Python数据分析核心技巧与实战解决方案。

YOLOv3目标检测实战系列课程

《YOLOv3目标检测实战系列课程》旨在帮助大家掌握YOLOv3目标检测的训练、原理、源码与网络模型改进方法。 本课程的YOLOv3使用原作darknet(c语言编写),在Ubuntu系统上做项目演示。 本系列课程包括三门课: (1)《YOLOv3目标检测实战:训练自己的数据集》 包括:安装darknet、给自己的数据集打标签、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计(mAP计算和画出PR曲线)和先验框聚类。 (2)《YOLOv3目标检测:原理与源码解析》讲解YOLOv1、YOLOv2、YOLOv3的原理、程序流程并解析各层的源码。 (3)《YOLOv3目标检测:网络模型改进方法》讲解YOLOv3的改进方法,包括改进1:不显示指定类别目标的方法 (增加功能) ;改进2:合并BN层到卷积层 (加快推理速度) ; 改进3:使用GIoU指标和损失函数 (提高检测精度) ;改进4:tiny YOLOv3 (简化网络模型)并介绍 AlexeyAB/darknet项目。

2021考研数学张宇基础30讲.pdf

张宇:博士,全国著名考研数学辅导专家,教育部“国家精品课程建设骨干教师”,全国畅销书《张宇高等数学18讲》《张宇线性代数9讲》《张宇概率论与数理统计9讲》《张宇考研数学题源探析经典1000题》《张宇考

三个项目玩转深度学习(附1G源码)

从事大数据与人工智能开发与实践约十年,钱老师亲自见证了大数据行业的发展与人工智能的从冷到热。事实证明,计算机技术的发展,算力突破,海量数据,机器人技术等,开启了第四次工业革命的序章。深度学习图像分类一直是人工智能的经典任务,是智慧零售、安防、无人驾驶等机器视觉应用领域的核心技术之一,掌握图像分类技术是机器视觉学习的重中之重。针对现有线上学习的特点与实际需求,我们开发了人工智能案例实战系列课程。打造:以项目案例实践为驱动的课程学习方式,覆盖了智能零售,智慧交通等常见领域,通过基础学习、项目案例实践、社群答疑,三维立体的方式,打造最好的学习效果。

DirectX修复工具V4.0增强版

DirectX修复工具(DirectX Repair)是一款系统级工具软件,简便易用。本程序为绿色版,无需安装,可直接运行。 本程序的主要功能是检测当前系统的DirectX状态,如果发现异常则进行修复

期末考试评分标准的数学模型

大学期末考试与高中的考试存在很大的不同之处,大学的期末考试成绩是主要分为两个部分:平时成绩和期末考试成绩。平时成绩和期末考试成绩总分一般为一百分,然而平时成绩与期末考试成绩所占的比例不同会导致出现不同

Vue.js 2.0之全家桶系列视频课程

基于新的Vue.js 2.3版本, 目前新全的Vue.js教学视频,让你少走弯路,直达技术前沿! 1. 包含Vue.js全家桶(vue.js、vue-router、axios、vuex、vue-cli、webpack、ElementUI等) 2. 采用笔记+代码案例的形式讲解,通俗易懂

c语言项目开发实例

十个c语言案例 (1)贪吃蛇 (2)五子棋游戏 (3)电话薄管理系统 (4)计算器 (5)万年历 (6)电子表 (7)客户端和服务器通信 (8)潜艇大战游戏 (9)鼠标器程序 (10)手机通讯录系统

相关热词 c#中如何设置提交按钮 c#帮助怎么用 c# 读取合并单元格的值 c#带阻程序 c# 替换span内容 c# rpc c#控制台点阵字输出 c#do while循环 c#调用dll多线程 c#找出两个集合不同的
立即提问