我该如何设计利用bp算法解决今天是不是应该出去玩的神经网络(影响因素有天气,湿度)

图片说明
不用代码,我是萌新,我只想知道怎么设计神经网络

1个回答

weixin_43183608
巴扎嘿(假条,影视) 谢谢
大约一个月之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
跪求大神帮我检查一下BP算法计算异或问题程序的错误

感觉是权值更新部分出错了 运行出来都是0.5左右 不知道为啥 ``` import math import numpy as np import random as rd def sigmoid(x): f = 1/(1+np.exp(-1*x)) return f def sigmoid_(x): f = [[sigmoid(x[i][j])*(1-sigmoid(x[i][j])) for j in range(len(x[i]))] for i in range(len(x))] return f def differentail_matrix(x): f = np.diag(x[0]) return f input_X = np.array([[0,0],[1,0],[0,1],[1,1]]) #print(input_X.shape) input_Y = np.array([[0],[1],[1],[0]]) #print(input_Y.shape) W1 = np.random.rand(2,2) #later input,former output b1 = np.zeros([2,1]) #W1 = np.array([[2,2],[-1,-1]]) #b1 = np.array([[-1],[1.5]]) W2 = np.random.rand(1,2) b2 = np.random.rand(1,1) # W2 = np.array([1,1]) # W2.shape = 1,2 # b2 = np.array([-1.0]) #print(W1,b1) alpha = 0.05 #learn rate for k in range(10000): r = rd.sample([0,1,2,3], 1) #随机抽取 X = np.array(input_X[r]) X.shape = 2,1 #transpose Y = np.array(input_Y[r]) out1 = sigmoid(np.dot(W1,X) + b1) pred_y = sigmoid(np.dot(W2,out1) + b2) #print('predy:',pred_y) err = Y-pred_y #print('err:',err) #back propagation s2 = -2*sigmoid(pred_y)*(1-sigmoid(pred_y))*err #计算敏感度 temp = sigmoid_(out1) temp = np.array(temp) temp.shape = 1, 2 temp2 = np.array(differentail_matrix(temp)) s1 = np.dot(temp2, W2.T)*s2 W2 = W2-alpha*s2*np.transpose(out1) #权值更新 b2 = b2 - alpha*s2 W1 = W1 - alpha*np.dot(s1,np.transpose(X)) b1 = b1 - alpha*s1 #print('第:',i,'次迭代','\n','权值1',W1,'\n',b1) #print() if k%500 == 0: out1 = sigmoid(np.dot(W1,np.transpose(input_X)) + b1) pred_y = sigmoid(np.dot(W2,out1) + b2) print(pred_y) ```

BP算法的C语言实现,代码个人测试正确, 但是wrong answer, 求大神指点

#include <stdlib.h> #include <math.h> #include <stdio.h> #include <time.h> #include <iostream> //#include "user.h" #include<cstdio> #include<iostream> #include<fstream> #include<cstdlib> #include<string> #include<algorithm> #define _CRT_SECURE_NO_WARNINGS #define _USE_MATH_DEFINES using namespace std; #define OUT_COUT 8 //输出向量维数 #define IN_COUT 72 //输入向量维数 #define COUT 792 //样本数量 #define NN 99 //单个样本数量 typedef struct { //bp人工神经网络结构 int h; //实际使用隐层数量 //double v[IN_COUT][IN_COUT/3]; //隐藏层权矩阵i,隐层节点最大数量为50 double v[IN_COUT/3][IN_COUT]; //double w[IN_COUT/3][OUT_COUT]; //输出层权矩阵 double w[OUT_COUT][IN_COUT/3]; double b1[IN_COUT/3]; double b2[OUT_COUT]; double x[COUT][IN_COUT]; double y[COUT][OUT_COUT]; double a; //学习率 double b; //精度控制参数 int LoopCout; //最大循环次数 } bp_nn; double fnet(double net) { //Sigmoid函数,神经网络激活函数 //return 1/(1+exp(-net)); return 2.0/(1+exp(-net))-1.0; } int InitBp(bp_nn *bp) { //初始化bp网络 /*printf("请输入隐层节点数,最大数为100:\n"); scanf_s("%d", &(*bp).h); printf("请输入学习率:\n"); scanf_s("%lf", &(*bp).a); //(*bp).a为double型数据,所以必须是lf printf("请输入精度控制参数:\n"); scanf_s("%lf", &(*bp).b); printf("请输入最大循环次数:\n"); scanf_s("%d", &(*bp).LoopCout);*/ (*bp).h = 24; (*bp).a = 0.4; (*bp).b = 0.0001; (*bp).LoopCout = 2000; int i, j; srand((unsigned)time(NULL)); for (i = 0; i < (*bp).h; i++) { for (j = 0; j < IN_COUT; j++) { (*bp).v[i][j] = rand() / (double)(RAND_MAX); } (*bp).b1[i] = rand()/(double)(RAND_MAX); } for (i = 0; i < OUT_COUT; i++) { for (j = 0; j < (*bp).h; j++) { (*bp).w[i][j] = rand() / (double)(RAND_MAX); } (*bp).b2[i] = rand()/(double)(RAND_MAX); } return 1; } int TrainBp(bp_nn *bp, double x[COUT][IN_COUT], double y[COUT][OUT_COUT]) { //训练bp网络,样本为x,理想输出为y double f = (*bp).b; //精度控制参数 double a = (*bp).a; //学习率 int h = (*bp).h; //隐层节点数 //double v[IN_COUT][IN_COUT/3], w[IN_COUT/3][OUT_COUT]; //权矩阵 double v[IN_COUT/3][IN_COUT], w[OUT_COUT][IN_COUT/3]; //权矩阵 double b1[IN_COUT/3],b2[OUT_COUT]; double ChgH[IN_COUT/3], ChgO[OUT_COUT]; //修改量矩阵 double O1[IN_COUT/3], O2[OUT_COUT]; //隐层和输出层输出量 int LoopCout = (*bp).LoopCout; //最大循环次数 int i, j, k, n; double temp; for (i = 0; i < h; i++) {// 复制结构体中的权矩阵 for (j = 0; j < IN_COUT; j++) { v[i][j] = (*bp).v[i][j]; } b1[i] = (*bp).b1[i]; } for (i = 0; i < OUT_COUT; i++) { for (j = 0; j < h; j++) { w[i][j] = (*bp).w[i][j]; } b2[i] = (*bp).b2[i]; } double e = f + 1; for (n = 0; e > f && n < LoopCout; n++) { //对每个样本训练网络 e = 0; for (i= 0; i < COUT; i++) { for (k= 0; k < h; k++) { //计算隐层输出向量 temp = 0; for (j = 0; j < IN_COUT; j++) temp = temp + x[i][j] * v[k][j]; O1[k] = fnet(temp+(*bp).b1[i]); } for (k = 0; k < OUT_COUT; k++) { //计算输出层输出向量 temp = 0; for (j = 0; j < h; j++) temp = temp + O1[j] * w[k][j]; O2[k] = fnet(temp+(*bp).b2[k]); } for (j = 0; j < OUT_COUT; j++) {//计算输出层的权修改量 ChgO[j] = O2[j] * (1 - O2[j]) * (y[i][j] - O2[j]); } for (j = 0; j < OUT_COUT ; j++) {//计算输出误差 e = e + (y[i][j] - O2[j]) * (y[i][j] - O2[j]); } for (j = 0; j < OUT_COUT; j++) { //计算隐层权修改量 temp = 0; for (k = 0; k < h; k++) temp = temp + w[j][k] * ChgO[k]; ChgH[j] = temp * O1[j] * (1 - O1[j]); } for (j = 0; j < OUT_COUT; j++) {//修改输出层权矩阵 for (k = 0; k < h; k++) { w[j][k] = w[j][k] + a * O1[j] * ChgO[k]; } } for (j = 0; j < h; j++) { for (k = 0; k < IN_COUT; k++) { v[j][k] = v[j][k] + a * x[i][j] * ChgH[k]; } } } if (n % 10 == 0) printf("误差 : %f\n", e); } printf("总共循环次数:%d\n", n); printf("调整后的隐层权矩阵:\n"); for (i = 0; i < h; i++) { for (j = 0; j < IN_COUT; j++) printf("%f ", v[i][j]); printf("\n"); } printf("调整后的输出层权矩阵:\n"); for (i = 0; i < OUT_COUT; i++) { for (j = 0; j < h; j++) printf("%f ", w[i][j]); printf("\n"); } for (i = 0; i < h; i++) {//把结果复制回结构体 for (j = 0; j < IN_COUT; j++) { (*bp).v[i][j] = v[i][j]; } (*bp).b1[i] = b1[i]; } for (i = 0; i < OUT_COUT; i++) { for (j = 0; j < h; j++) { (*bp).w[i][j] = w[i][j]; } (*bp).b2[i] = b2[i]; } printf("bp网络训练结束!\n"); return 1; } int UseBp(bp_nn *bp) { //使用bp网络 float Input[IN_COUT]; double O1[50]; double O2[OUT_COUT]; //O1为隐层输出,O2为输出层输出 while (1) { //持续执行,除非中断程序 printf("请输入3个数:\n"); int i, j; for (i = 0; i < IN_COUT; i++) scanf_s("%f", &Input[i]); double temp; for (i = 0; i < (*bp).h; i++) { temp = 0; for (j = 0; j < IN_COUT; j++) temp += Input[j] * (*bp).v[j][i]; O1[i] = fnet(temp-(*bp).b1[i]); } for (i = 0; i < OUT_COUT; i++) { temp = 0; for (j = 0; j < (*bp).h; j++) temp += O1[j] * (*bp).w[j][i]; O2[i] = fnet(temp-(*bp).b2[i]); } printf("结果: "); for (i = 0; i < OUT_COUT; i++) printf("%.3f ", O2[i]); printf("\n"); } return 1; } void readFP(double x[COUT][IN_COUT],double y[COUT][OUT_COUT]) { //bp_nn bp1; ifstream fileinput1; ifstream fileinput2; ifstream fileinput3; ifstream fileinput4; ifstream fileinput5; ifstream fileinput6; ifstream fileinput7; ifstream fileinput8; fileinput1.open("emgclose.txt"); fileinput2.open("emgopen.txt"); fileinput3.open("emgext.txt"); fileinput4.open("emgfle.txt"); fileinput5.open("emgsph.txt"); fileinput6.open("emgcyl.txt"); fileinput7.open("emgtri.txt"); fileinput8.open("emgkey.txt"); for(int m = 0;m< NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput1 >> x[m][i]; } } for(int m = NN;m<2*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput2 >> x[m][i]; } } for(int m = 2*NN;m<3*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput3 >> x[m][i]; } } for(int m = 3*NN;m<4*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput4 >> x[m][i]; } } for(int m = 4*NN;m<5*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput5 >> x[m][i]; } } for(int m = 5*NN;m<6*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput6 >> x[m][i]; } } for(int m = 6*NN;m<7*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput7 >> x[m][i]; } } for(int m = 7*NN;m<8*NN;++m) { for(int i =0;i < IN_COUT;++i) { fileinput8 >> x[m][i]; } } fileinput1.close(); fileinput2.close(); fileinput3.close(); fileinput4.close(); fileinput5.close(); fileinput6.close(); fileinput7.close(); fileinput8.close(); ifstream fileinput; fileinput.open("teach.txt"); for (int m2 = 0; m2 < OUT_COUT; m2++) { for (int i = 0; i < OUT_COUT; i++) { fileinput>>y[m2][i]; } for (int j = m2*NN; j < (m2+1)*NN; j++) { for (int k = 0; k < OUT_COUT; k++) { y[j][k] = y[m2][k]; } } } for (int i = 0; i < NN; i++) { for (int j = 0; j < OUT_COUT; j++) { y[i][j] = y[0][j]; } } fileinput.close(); double Mininput[IN_COUT] = {0.0}; double Maxinput[IN_COUT] = {0.0}; //找出训练的数据相应的最大值、最小值,为归一化做准备 for (int i = 0; i < IN_COUT; i++) { Mininput[i] = Maxinput[i] = x[0][i]; for (int j = 0; j < COUT; j++) { Mininput[i] = Mininput[i] < x[j][i]?Mininput[i]:x[j][i]; Maxinput[i] = Maxinput[i] > x[j][i]?Maxinput[i]:x[j][i]; } } //归一化处理 for (int i = 0; i < OUT_COUT; i++) { for (int j = 0; j < COUT; j++) { y[j][i] = 2.0*(y[j][i] - 0.0)/(1.0 - 0.0)-1.0; } } for (int i = 0; i < IN_COUT; i++) { for (int j = 0; j < COUT; j++) { //X[i][j] = (X1[i][j] - Mininput[i]+1)/(Maxinput[i] - Mininput[i]+1); x[j][i] = 2.0*(x[j][i] - Mininput[i])/(Maxinput[i] - Mininput[i])-1.0; } } } int main() { /* float x[COUT][IN_COUT] = {{0.8,0.5,0}, {0.9,0.7,0.3}, {1,0.8,0.5}, {0,0.2,0.3}, {0.2,0.1,1.3}, {0.2,0.7,0.8}}; //训练样本 int y[COUT][OUT_COUT] = {{0,1}, {0,1}, {0,1}, {1,0}, {1,0}, {1,0}}; */ //理想输出 bp_nn bp; readFP(bp.x,bp.y); InitBp(&bp); //初始化bp网络结构 TrainBp(&bp, bp.x, bp.y); //训练bp神经网络 // UseBp(&bp); //测试bp神经网络 return 1; }

遗传算法优化BP神经网络

主函数:需调用函数fx2、evaluate和errorBP clc clear %随机产生200组输入数据x、输出数据y input=10*rand(2,200)-5; output=zeros(1,200); for i=1:200 output(i)=fx2(input(:,i)); end %设置网络节点数 inputnum=2; hiddennum=5; outputnum=1; %随机选择100组训练数据和100组预测数据 input_train=input(:,1:100)'; output_train=output(1:100)'; input_test=input(:,101:200)'; output_test=output(101:200)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %模拟退火算法参数初始化 Tmax=50; %初温 L=100; %最大退火次数 Tmin=0.01; %终止温度 %BP神经网络算法优化权值和阈值 numsum=inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum; %权值和阈值总数 net=train(net,inputn',outputn'); %将BP神经网络优化后权值和阈值赋给模拟退火算法的初始解 s1=reshape(net.iw{1,1},1,inputnum*hiddennum); s2=reshape(net.b{1},1,hiddennum); s3=reshape(net.lw{2,1},1,hiddennum*outputnum); s4=reshape(net.b{2},1,outputnum); s=[s1,s2,s3,s4]; %模拟退火算法优化权值和阈值 t=Tmax; while t>Tmin k=1; for i=1:numsum sx(i)=s(i)+(0.2*rand-0.1)*errorBP; %产生新解 end c=evaluate(sx,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput)-evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput); %计算增量 if c<0 s=sx; t=t*0.95; %!!!!!! elseif rand<exp(-c/t) s=sx; t=t*0.99; else t=t*1.01; end % if t<=Tmin break; end k=k+1; end %将最优结果赋值给BP神经网络的权值和阈值 w1=s(1:inputnum*hiddennum); v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum); w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum); v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum); %网络权值和阈值赋值 net.iw{1,1}=reshape(w1,hiddennum,inputnum); net.lw{2,1}=reshape(w2,outputnum,hiddennum); net.b{1}=reshape(v1,hiddennum,1); net.b{2}=v2; %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=100; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=BPoutput-output_test'; %网络预测结果图像 figure(1) plot(BPoutput,':og') hold on plot(output_test,'-*'); legend('预测输出','期望输出') title('BP网络预测输出','fontsize',12) ylabel('函数输出','fontsize',12) xlabel('样本','fontsize',12) %网络预测误差图像 figure(2) plot(error,'-*') title('BP网络预测误差','fontsize',12) ylabel('误差','fontsize',12) xlabel('样本','fontsize',12) 拟合函数fx2 function y=fx2(x) y=x(1)^2+x(2)^2; 调用的适应度值函数evaluate function error=evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput) %%该函数用于计算模拟退火算法适应度值evaluate %s:权值、阈值的个体 %inputnum:输入层节点数 %hiddennum:隐含层节点数 %outputnum:输出层节点数 %net:网络 %inputn:训练输入数据 %outputn:训练输出数据 % % %BP神经网络初始权值和阈值 w1=s(1:inputnum*hiddennum); v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum); w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum); v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum); %网络权值和阈值赋值 net.iw{1,1}=reshape(w1,hiddennum,inputnum); net.lw{2,1}=reshape(w2,outputnum,hiddennum); net.b{1}=reshape(v1,hiddennum,1); net.b{2}=v2; %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); net.trainParam.epochs=20; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; net.trainParam.show=100; net.trainParam.showWindow=0; %BP神经网络训练 net=train(net,inputn',outputn'); %BP神经网络预测 an=sim(net,inputn'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %预测误差和作为个体适应度值 error=sum(abs(an-BPoutput)); 调用的误差函数errorBP function error=errorBP %%用于计算模拟退火算法产生新解时所需的BP神经网络的误差 %随机产生200组输入数据x、输出数据y input=10*rand(2,200)-5; output=zeros(1,200); for i=1:200 output(i)=fx2(input(:,i)); end %随机选择100组训练数据和100组预测数据 input_train=input(:,1:100)'; output_train=output(1:100)'; input_test=input(:,101:200)'; output_test=output(101:200)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=100; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=sum(abs(BPoutput-output_test'))/100;

雷达逆投影成像算法BP算法网格划分

雷达成像算法BP算法,逆投影。江湖救急,可有chang。 ![图片说明](https://img-ask.csdn.net/upload/202006/11/1591881913_682867.png)![图片说明](https://img-ask.csdn.net/upload/202006/11/1591881942_973825.png)

Bp算法结果值与预期不符,结果值很平均

本人小白,通过学习网上的Bp算法的定义和公式,自己写了一个自己的Bp算法。 但是写完,运算 后发现其计算学习后的预测值与实际想要的不太相符,预测的数值非常平均。 平均现象如下: ![图片说明](https://img-ask.csdn.net/upload/202006/08/1591589575_65054.jpg) 麻烦各位大佬帮忙看看··这已经是我写的第三个版本了··出现的预测值还是很平均,不清楚到底是哪里出错了......真心求助 有任何疑问可以que我 我用的是java实现的。 总共有4个class Bp.class :主类 ``` import java.util.ArrayList; import java.util.List; import java.util.Random; public class Bp{ int length;//层数长度 List<Layer> mLayer; void setlen(int len){ //设置层数 length = len; } void setin(double[] in){//输入初始化 mLayer.get(0).setin(in); } void settarget(double[] target){//输出初始化 mLayer.get(length -1).settarget(target); } void init(int len,double[] in ,int nelen,double[] out){//初始化权值和偏置 //随机生成 //len 总层数 //in 输入值数组 //nelen 层中总neural个数 //out 目标输出 setlen(len); mLayer = new ArrayList<>(); Layer inlayer = new Layer(); inlayer.addcount(); mLayer.add(inlayer); for(int i = 0; i < len -1;i++){ Layer l = new Layer(); l.addcount(); l.randomWeight(len); mLayer.add(l); } for(int j =0; j < mLayer.size();j++){ if(j == 0) mLayer.get(j).Next = mLayer.get(j+1); else if(j == length -1) mLayer.get(j).pre = mLayer.get(j-1); else{ mLayer.get(j).pre = mLayer.get(j-1); mLayer.get(j).Next = mLayer.get(j+1); } } setin(in); settarget(out); } void feedward(){ for(int i =0;i< length;i++) mLayer.get(i).feedward(); } void backward(){ for(int i =length -1;i >= 0 ;i--) mLayer.get(i).backward(); } void printConstruction(){ System.out.println("输入值:"); for( int i =0; i < mLayer.get(0).length;i ++) System.out.println("第"+i+"层:"+mLayer.get(0).lin[i]); System.out.println("目标输出值:"); for( int i =0; i < mLayer.get(length-1).length ;i ++) System.out.println("第"+i+"层:"+mLayer.get(length-1).lout[i]); System.out.println("真实输出值:"); for( int i =0; i < mLayer.get(length-1).length ;i ++) System.out.println("第"+i+"层:"+mLayer.get(length-1).realout[i]); } void printError(){ double sum = 0; for( int i =0; i < mLayer.get(length-1).length ;i ++) sum += mLayer.get(length-1).realout[i] - mLayer.get(length-1).lout[i]; sum = sum /(length -1); System.out.println("误差:"+sum); } public static void main(String[] args) { Bp backfeed = new Bp(); double[] in = {1,0,0}; double[] out = {1,0,0}; backfeed.init(3,in,3,out); for (int i =0;i <3000;i++){ double[] in1 = {1,0,0}; double[] out1 = {1,0,0}; //Random r = new Random(); int y =0; y = i%3; if (y ==0){ in1 = new double[] {1,0,0}; out1 = new double[] {1,0,0}; } if (y ==1){ in1 = new double[] {0,1,0}; out1 = new double[] {0,1,0}; } if (y ==2){ in1 = new double[] {0,0,1}; out1 = new double[] {0,0,1}; } backfeed.setin(in1); backfeed.settarget(out1); backfeed.feedward(); backfeed.backward(); backfeed.printError(); } double[] in1 = {1,0,0}; System.out.println("当: {1,0,0}时"); in1 = new double[] {1,0,0}; backfeed.setin(in1); backfeed.feedward(); backfeed.printConstruction(); System.out.println("当: {0,1,0}时"); in1 = new double[] {0,1,0}; backfeed.setin(in1); backfeed.feedward(); backfeed.printConstruction(); } } //Layer.class import java.util.*; import java.lang.Math; public class Layer{ static int _layercount = 0;//总层数 int layercount;//该层数 int length; Neural[] neurals; double[] lin; double[] lout;//目标输出点 double[] net; double[] realout;//真实输出点 Layer pre; Layer Next; double[] delta;//误差 double meu = Settings.meu; void setin(double[] in){ length = in.length; if(lin == null) lin = new double[length]; if(net == null) net = new double[length]; lin = in; } void settarget(double[] out){ length = out.length; if(lout == null) lout = new double[length]; lout = out; } void randomWeight(int len){ Random r = new Random(); length = len; if(neurals ==null) neurals = new Neural[length]; for(int i = 0; i < neurals.length; i++){ if (neurals[i] ==null){ neurals[i] = new Neural(); neurals[i].length = len; } if (neurals[i].Weight ==null) neurals[i].Weight = new double[length]; for(int j = 0; j< neurals[i].Weight.length;j++){ neurals[i].Weight[j] = r.nextDouble(); } } } void feedward(){ if(realout == null) realout = new double[length]; if(net == null) net = new double[length]; if(layercount == 1) for (int i =0;i < length ;i++){ realout[i] = lin[i]; //输入层的输出 = 输入 } else{ for (int i =0;i < length ;i++){ //这一层细胞数 double sum = 0; for(int j =0;j< neurals[i].length;j++)//细胞数的weight总数 sum += neurals[i].Weight[j] * pre.realout[i]; //前者所有细胞的输出分别与该层这个细胞的权值相乘。 net[i] = sum; realout[i] = sigmoid(net[i]); } } //初始化 } void calc_deta(){//计算误差delta δ if (delta == null){ delta = new double[length]; } if (layercount == _layercount) for(int i = 0;i < length;i++){ double aj = realout[i]; delta[i] = aj * (1-aj)*(lout[i] -aj); //该层下这个细胞对应delta误差 } else{ for(int i =0; i < length;i++){ double sum =0; double aj = realout[i]; for(int j =0; j > Next.neurals[i].Weight.length;j++){ sum += Next.delta[i] * Next.neurals[j].Weight[i];//下一层细胞的对应权值 * 通用误差δ 之和 } delta[i] = sum * aj * (1-aj); } } } void updatew(){ if(layercount == 1) return; if(layercount == _layercount){ for(int i =0; i< length; i++) for(int j =0; j < neurals[i].Weight.length;j++) neurals[i].Weight[j] = neurals[i].Weight[j] + (delta[i] * pre.realout[i] * meu); return; }else{ for(int i =0; i< length; i++) for(int j =0; j < neurals[i].Weight.length;j++) neurals[i].Weight[j] = neurals[i].Weight[j] + (delta[i] * pre.realout[i] * meu); } //这一层的Δw = 这一层权值 - (上一层 与 权值 相对应的细胞输出值 * 学习率 * δ) } void backward(){ calc_deta(); updatew(); } void addcount(){ _layercount++; layercount = _layercount; } double sigmoid(double mnet){ return 1 / (1 + Math.exp(-mnet)); } } //Neurals.class public class Neural{ int length; double[] Weight; } //Settings.class class Settings{ static double meu = 0.5; } ```

tensorflow实现BP算法遇到了问题,求大神指点!!!

import tensorflow as tf import numpy as np #from tensorflow.examples.tutorials.mnist import input_data #载入数据集 #mnist = input_data.read_data_sets("MNIST_data",one_hot=True) #每个批次的大小 #batch_size = 100 #????????????????????????????????? #计算一共有多少个批次 #n_batch = mnist.train.num_examples // batch_size #定义placeholder x_data=np.mat([[0.4984,0.5102,0.5213,0.5340], [0.5102,0.5213,0.5340,0.5407], [0.5213,0.5340,0.5407,0.5428], [0.5340,0.5407,0.5428,0.5530], [0.5407,0.5428,0.5530,0.5632], [0.5428,0.5530,0.5632,0.5739], [0.5530,0.5632,0.5739,0.5821], [0.5632,0.5739,0.5821,0.5920], [0.5739,0.5821,0.5920,0.5987], [0.5821,0.5920,0.5987,0.6043], [0.5920,0.5987,0.6043,0.6095], [0.5987,0.6043,0.6095,0.6161], [0.6043,0.6095,0.6161,0.6251], [0.6095,0.6161,0.6251,0.6318], [0.6161,0.6251,0.6318,0.6387], [0.6251,0.6318,0.6387,0.6462], [0.6318,0.6387,0.6462,0.6518], [0.6387,0.6462,0.6518,0.6589], [0.6462,0.6518,0.6589,0.6674], [0.6518,0.6589,0.6674,0.6786], [0.6589,0.6674,0.6786,0.6892], [0.6674,0.6786,0.6892,0.6988]]) y_data=np.mat([[0.5407], [0.5428], [0.5530], [0.5632], [0.5739], [0.5821], [0.5920], [0.5987], [0.6043], [0.6095], [0.6161], [0.6251], [0.6318], [0.6387], [0.6462], [0.6518], [0.6589], [0.6674], [0.6786], [0.6892], [0.6988], [0.7072]]) xs = tf.placeholder(tf.float32,[None,4]) # 样本数未知,特征数为1,占位符最后要以字典形式在运行中填入 ys = tf.placeholder(tf.float32,[None,1]) #创建一个简单的神经网络 W1 = tf.Variable(tf.truncated_normal([4,10],stddev=0.1)) b1 = tf.Variable(tf.zeros([10])+0.1) L1 = tf.nn.tanh(tf.matmul(x,W1)+b1) W2 = tf.Variable(tf.truncated_normal([10,1],stddev=0.1)) b2 = tf.Variable(tf.zeros([1])+0.1) L2 = tf.nn.softmax(tf.matmul(L1,W2)+b2) #二次代价函数 #loss = tf.reduce_mean(tf.square(y-prediction)) #loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=ys,logits=prediction)) loss = tf.reduce_mean(tf.reduce_sum(tf.square((ys-L2)),reduction_indices = [1]))#需要向相加索引号,redeuc执行跨纬度操作 #使用梯度下降法 #train_step = tf.train.GradientDescentOptimizer(0.1).mnimize(loss) train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #train = tf.train.GradientDescentOptimizer(0.1).minimize(loss) # 选择梯度下降法 #初始化变量 #init = tf.global_variables_initializer() init = tf.initialize_all_variables() #结果存放在一个布尔型列表中 #correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1)) #求准确率 #accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) with tf.Session() as sess: sess.run(init) for epoch in range(21): for i in range(22): #batch_xs,batch_ys = mnist.train.next_batch(batch_size) #????????????????????????? sess.run(train_step,feed_dict={xs:x_data,ys:y_data}) #test_acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels,keep_prob:1.0}) #train_acc = sess.run(accuracy,feed_dict={x:mnist.train.images,y:mnist.train.labels,keep_prob:1.0}) print (sess.run(prediction,feed_dict={xs:x_data,ys:y_data})) 提示:WARNING:tensorflow:From <ipython-input-10-578836c021a3>:89 in <module>.: initialize_all_variables (from tensorflow.python.ops.variables) is deprecated and will be removed after 2017-03-02. Instructions for updating: Use `tf.global_variables_initializer` instead. --------------------------------------------------------------------------- InvalidArgumentError Traceback (most recent call last) C:\Users\Administrator\Anaconda3\lib\site-packages\tensorflow\python\client\session.py in _do_call(self, fn, *args) 1020 try: -> 1021 return fn(*args) 1022 except errors.OpError as e: C:\Users\Administrator\Anaconda3\lib\site-packages\tensorflow\python\client\session.py in _run_fn(session, feed_dict, fetch_list, target_list, options, run_metadata) 1002 feed_dict, fetch_list, target_list, -> 1003 status, run_metadata) 1004 。。。

/*c语言实现*/遗传算法改进BP神经网络原理和算法实现怎么弄?

我现在在研究遗传算法改进BP神经网络,大概明白原理,但算法程序还有很多问题,求大神们教教我具体怎么把GA和BP结合,算法如何实现,给出代码或伪代码行吗?

基于BP神经网络的图像分割

如何在matlab使用BP神经网络算法模型实现图像分割,精准的图像分割如何实现?

用java写可以识别数字的BP神经网络

现在学校要求写一个可以识别数字的神经网络,要求最好用bp, 也可以用别的算法,语言可以任意,最好是java。数据事uci的optical recognition of handwritten digits 想知道有没有指导怎么一步一步建立的的教程,不知道如何建立这样的网络,代码里需要几层方法?

用matlab编写好了利用训练好的bp模型来预测输出的程序,转成exe单独运行老是报错,应该怎么解决呢?

1.我已经用程序训练得到了bp模型,然后编写了一段代码来调用这个模型预测输出。我想将这段代码转成exe文件单独在window环境下运行,但是转成后再cmd中运行老是报错,不知道为什么。 2.程序如下: function yanzheng1(net) %网络加载,注意文件名要加单引号 load('-mat','C:\Users\lei\Desktop\BP训练exe\aaa.mat') inv=[0.550000000000001,0.475000000000001;0.468937500000000,0.964890020864981;1,1;0,0;1,1;0.557000000000000,0.426450000000000;0.961586638830898,0.405219206680585;1,1;0.354100000000000,0.563100000000000;0.0689600000000000,0.0875800000000000;0.551800000000000,0.498900000000000]; %进行仿真 outv=net(inv); outv(1,:) end 3.报错信息如下: C:\Users\lei>C:\Users\lei\Desktop\exe\yanzheng1.exe 警告: 类 'network' 是未知对象类,或者没有有效的 'loadobj' 方法。该类的对象 'net' 已转换为结构体。 > In yanzheng1 (line 3) 下标索引必须为正整数类型或逻辑类型。 出错 yanzheng1 (line 6) MATLAB:badsubscript 希望能帮我看看是哪里问了问题,万分感谢!!

基于人工神经网络的人脸识别算法

本人初次接触机器学习,0基础,现不得已需要学习BP和RBF算法,求高手指导(注:以前从未接触过这两种算法,所以最好能提供些具体讲解此两种算法的资料)

BP神经网络,relu做激活函数,求大神帮忙

写了一个用relu实现BP神经网络的代码,但是发现relu使得ou输出都是0,但是还是不行,错误率高达60%,我是自学的,代码可能存在错误,下面是主要的代码,希望能够得到网上各位大神的帮忙,谢谢了 ``` ``` double* backward(double *delta) { for (int i = 0; i < onum; i++) { deto[i] = delta[i]; for (int j = 0; j < hnum; j++) wo[j][i] = wo[j][i] + learnrate*delta[i]*xh[j]; } for (int i = 0; i < hnum; i++) { for (int j = 0; j < onum; j++) deth[i] += deto[j] * wo[i][j]*relubk(xh[i]); for (int j = 0; j < inum; j++) wi[j][i] += learnrate*deth[i]*xi[j]; } for (int i = 0; i < inum; i++) for (int j = 0; j < hnum; j++) deti[i] += deth[j] * wi[i][j] * relubk(xi[i]); for(int i=0;i<onum;i++) obias[i]+= learnrate*delta[i]; for (int i = 0; i < hnum; i++) hbias[i] += learnrate*deth[i]; return deti; } 我最后一级用了sigmoid double *dec(double *x, double *y, int l, double *det) { double det2[N] = { 0 }; for (int i = 0; i < l; i++) { xou[i] = 0; for (int j = 0; j < l; j++) xou[i] += x[j] * weight[j][i]; xou[i] = 1.0 / (1.0 + exp(-xou[i] - bias[i])); //fl << "xou" << i << xou[i] << ' '; } fl << endl; for (int i = 0; i < l; i++) { det2[i] = (y[i] - xou[i])*(1-xou[i])*xou[i]; fl << det2[i] << "," << y[i] << endl; for (int j = 0; j < l; j++) { weight[j][i] += learnrate*det2[i] * x[i]; } } for (int i = 0; i < l; i++) { bias[i] += learnrate*det2[i]; } for (int i = 0; i < l; i++) { det[i] = 0; for (int j = 0; j < l; j++) det[i] += relubk(x[i])*det2[j] * weight[i][j]; fl << "det" << i << ":" << det[i] << ' '; }

寻找两条最接近的路径的算法问题,采用C语言程序设计的办法如何解决的呢?

Problem Description JFantasy has fallen in love with a beautiful girl (An ICPC volunteer?). Every afternoon, when the sun set, the girl comes out from her dorm, walks around the campus, and returns to her dorm. The girl’s walking path can be considered as a closed polyline. A closed polyline is a curve specified by a sequence of points (P1, P2, …, Pn) so that the curve consists of the line segments P1P2, P2P3, …, Pn-1Pn, PnP1. Note that two line segments may intersect, coincide or partially coincide with each other. The points P1, P2, …, Pn are also called vertices of the polyline. While the girl is walking along the path, JFantasy is standing at some point which is not lying on the path. During the girl’s walking, the spoony boy rotates himself such that he can always see the girl directly in front of him. The boy may sometimes rotate counter-clockwise, and sometimes rotate clockwise. If the boy stands at point P, let AP denote the total degrees the boy rotate counter-clockwise, and BP denote the total degrees the boy rotate clockwise. It is not difficult to see that AP – BP is a multiple of 360, because when the girl finishes walking, the boy faces in the same direction as when the girl starts walking. We define the rotation number of P to be (AP – BP) / 360. LCQ is one of JFantasy’s G (G for good) friends. He has found JFantasy’s secret, and got an idea of making fun of him. He wants to put JFantasy at some point of which the rotation number is maximum given the walking path of the girl. To simplify the problem, we assume that the point where JFantasy can be put must be on a straight line. Formally, the problem can be stated as follows: Given the coordinates of (P1, P2, …, Pn), which specifies the girl’s walking path, you are asked to find the largest possible rotation number among all the points that are on the X axis, but not on the girl’s walking path. Input The input begins with a line containing an integer T (T<=100), which indicates the number of test cases. Each case begins with a line containing an integer N (2<=N<=1000), indicating the number of vertices of the girl’s walking path. The following N lines each contain two integers xi and yi (-1000<= xi, yi <=1000), indicating the coordinates of the ith vertex Pi. Output For each case, output the largest possible rotation number in a line. Sample Input 3 2 1 2 2 1 6 1 -1 2 -1 2 1 3 1 3 0 1 0 5 1 1 -1 0 1 -1 0 1 0 -1 Sample Output 0 0 2

需要bp网络预测彩票的数据结果,会的请联系我,很急,具体的请私聊我

会用java,matlab,c等来编码实现神经网络预测,我需要预测彩票的数据结果。会的请尽快回复我,就是帮我做一下数据预测,三层bp神经网络预测彩票数据,我需要这个结果

有关bp神经网络及特征脸实现人脸识别

使用神经网络以及特征脸的办法,只能是 识别训练集中的脸,如果要投入使用,添加 新的人脸还要调整网络,还要重新训练,而且还需要一个人的不同照片,请问 真正可以 应用的人脸识别 是如何利用神经网络的啊?

基于ID3算法构建决策树

4、考虑去卡拉OK厅唱歌的时候,是否要等待包间的问题。规定如下属性可用于描述该领域内的实例: (1)Others(其他地点):附近是否有其他卡拉OK厅; (2)WaitCond(等候条件):供顾客等候的地方是否舒适; (3)Weekend(周末):若是周六或周日,则为真; (4)Conssumers(顾客):店中有多少顾客(值为None(没人),Some(一些)或Full(满座)); (5)Price(价格):价格范围(值为Cheep(便宜),Middle(中等),Expensive(较贵)); (6)Raining(下雨):外面是否在下雨; (7)Reservation(预约):是否预约过; (8)WaitEstimate(等候时间估计):估计的等候时间(值为0—10,10—30,30—60,>60,单位为分钟)。 训练集见图![图片说明](https://img-ask.csdn.net/upload/202006/10/1591798429_179050.png) 数字化结果![图片说明](https://img-ask.csdn.net/upload/202006/10/1591798553_770257.png) 问题:考虑该问题是否可以基于ID3算法构建决策树,若可行,其分类结果与BP神经网络模型进行对比分析。 (ps请给出ID3算法代码及运行过程、分析结果,编程语言自选)

有没有可以用来验证BP神经网络准确性的数据

我自己写成了一套BP神经网络的代码,现在想验证该套程序是否运算准确,有没有人能提供一套训练数据,以及结果数据,我来

bp神经网络的参数问题

都说bp神经网络有45个参数,这45个参数到底是什么,我是一个新手,在此求教,谢谢各位大神了!

4小时玩转微信小程序——基础入门与微信支付实战

这是一个门针对零基础学员学习微信小程序开发的视频教学课程。课程采用腾讯官方文档作为教程的唯一技术资料来源。杜绝网络上质量良莠不齐的资料给学员学习带来的障碍。 视频课程按照开发工具的下载、安装、使用、程序结构、视图层、逻辑层、微信小程序等几个部分组织课程,详细讲解整个小程序的开发过程

Python可以这样学(第四季:数据分析与科学计算可视化)

董付国老师系列教材《Python程序设计(第2版)》(ISBN:9787302436515)、《Python可以这样学》(ISBN:9787302456469)配套视频,在教材基础上又增加了大量内容,通过实例讲解numpy、scipy、pandas、statistics、matplotlib等标准库和扩展库用法。

组成原理课程设计(实现机器数的真值还原等功能)

实现机器数的真值还原(定点小数)、定点小数的单符号位补码加减运算、定点小数的补码乘法运算和浮点数的加减运算。

javaWeb图书馆管理系统源码mysql版本

系统介绍 图书馆管理系统主要的目的是实现图书馆的信息化管理。图书馆的主要业务就是新书的借阅和归还,因此系统最核心的功能便是实现图书的借阅和归还。此外,还需要提供图书的信息查询、读者图书借阅情况的查询等

土豆浏览器

土豆浏览器可以用来看各种搞笑、电影、电视剧视频

Java面试题大全(2020版)

发现网上很多Java面试题都没有答案,所以花了很长时间搜集整理出来了这套Java面试题大全,希望对大家有帮助哈~ 本套Java面试题大全,全的不能再全,哈哈~ 一、Java 基础 1. JDK 和 JRE 有什么区别? JDK:Java Development Kit 的简称,java 开发工具包,提供了 java 的开发环境和运行环境。 JRE:Java Runtime Environ...

Java8零基础入门视频教程

这门课程基于主流的java8平台,由浅入深的详细讲解了java SE的开发技术,可以使java方向的入门学员,快速扎实的掌握java开发技术!

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

TTP229触摸代码以及触摸返回值处理

自己总结的ttp229触摸代码,触摸代码以及触摸按键处理

网络工程师小白入门--【思科CCNA、华为HCNA等网络工程师认证】

本课程适合CCNA或HCNA网络小白同志,高手请绕道,可以直接学习进价课程。通过本预科课程的学习,为学习网络工程师、思科CCNA、华为HCNA这些认证打下坚实的基础! 重要!思科认证2020年2月24日起,已启用新版认证和考试,包括题库都会更新,由于疫情原因,请关注官网和本地考点信息。题库网络上很容易下载到。

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

java jdk 8 帮助文档 中文 文档 chm 谷歌翻译

JDK1.8 API 中文谷歌翻译版 java帮助文档 JDK API java 帮助文档 谷歌翻译 JDK1.8 API 中文 谷歌翻译版 java帮助文档 Java最新帮助文档 本帮助文档是使用谷

Ubuntu18.04安装教程

Ubuntu18.04.1安装一、准备工作1.下载Ubuntu18.04.1 LTS2.制作U盘启动盘3.准备 Ubuntu18.04.1 的硬盘空间二、安装Ubuntu18.04.1三、安装后的一些工作1.安装输入法2.更换软件源四、双系统如何卸载Ubuntu18.04.1新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列...

快速排序---(面试碰到过好几次)

原理:    快速排序,说白了就是给基准数据找其正确索引位置的过程.    如下图所示,假设最开始的基准数据为数组第一个元素23,则首先用一个临时变量去存储基准数据,即tmp=23;然后分别从数组的两端扫描数组,设两个指示标志:low指向起始位置,high指向末尾.    首先从后半部分开始,如果扫描到的值大于基准数据就让high减1,如果发现有元素比该基准数据的值小(如上图中18&amp;lt...

手把手实现Java图书管理系统(附源码)

【超实用课程内容】 本课程演示的是一套基于Java的SSM框架实现的图书管理系统,主要针对计算机相关专业的正在做毕设的学生与需要项目实战练习的java人群。详细介绍了图书管理系统的实现,包括:环境搭建、系统业务、技术实现、项目运行、功能演示、系统扩展等,以通俗易懂的方式,手把手的带你从零开始运行本套图书管理系统,该项目附带全部源码可作为毕设使用。 【课程如何观看?】 PC端:https://edu.csdn.net/course/detail/27513 移动端:CSDN 学院APP(注意不是CSDN APP哦) 本课程为录播课,课程2年有效观看时长,大家可以抓紧时间学习后一起讨论哦~ 【学员专享增值服务】 源码开放 课件、课程案例代码完全开放给你,你可以根据所学知识,自行修改、优化 下载方式:电脑登录https://edu.csdn.net/course/detail/27513,点击右下方课程资料、代码、课件等打包下载

HTML期末大作业

这是我自己做的HTML期末大作业,花了很多时间,稍加修改就可以作为自己的作业了,而且也可以作为学习参考

Python数据挖掘简易入门

&nbsp; &nbsp; &nbsp; &nbsp; 本课程为Python数据挖掘方向的入门课程,课程主要以真实数据为基础,详细介绍数据挖掘入门的流程和使用Python实现pandas与numpy在数据挖掘方向的运用,并深入学习如何运用scikit-learn调用常用的数据挖掘算法解决数据挖掘问题,为进一步深入学习数据挖掘打下扎实的基础。

极简JAVA学习营第四期(报名以后加助教微信:eduxy-1)

想学好JAVA必须要报两万的培训班吗? Java大神勿入 如果你: 零基础想学JAVA却不知道从何入手 看了一堆书和视频却还是连JAVA的环境都搭建不起来 囊中羞涩面对两万起的JAVA培训班不忍直视 在职没有每天大块的时间专门学习JAVA 那么恭喜你找到组织了,在这里有: 1. 一群志同道合立志学好JAVA的同学一起学习讨论JAVA 2. 灵活机动的学习时间完成特定学习任务+每日编程实战练习 3. 热心助人的助教和讲师及时帮你解决问题,不按时完成作业小心助教老师的家访哦 上一张图看看前辈的感悟: &nbsp; &nbsp; 大家一定迫不及待想知道什么是极简JAVA学习营了吧,下面就来给大家说道说道: 什么是极简JAVA学习营? 1. 针对Java小白或者初级Java学习者; 2. 利用9天时间,每天1个小时时间; 3.通过 每日作业 / 组队PK / 助教答疑 / 实战编程 / 项目答辩 / 社群讨论 / 趣味知识抢答等方式让学员爱上学习编程 , 最终实现能独立开发一个基于控制台的‘库存管理系统’ 的学习模式 极简JAVA学习营是怎么学习的? &nbsp; 如何报名? 只要购买了极简JAVA一:JAVA入门就算报名成功! &nbsp;本期为第四期极简JAVA学习营,我们来看看往期学员的学习状态: 作业看这里~ &nbsp; 助教的作业报告是不是很专业 不交作业打屁屁 助教答疑是不是很用心 &nbsp; 有奖抢答大家玩的很嗨啊 &nbsp; &nbsp; 项目答辩终于开始啦 &nbsp; 优秀者的获奖感言 &nbsp; 这是答辩项目的效果 &nbsp; &nbsp; 这么细致的服务,这么好的氛围,这样的学习效果,需要多少钱呢? 不要1999,不要199,不要99,只要9.9 是的你没听错,只要9.9以上所有就都属于你了 如果你: 1、&nbsp;想学JAVA没有基础 2、&nbsp;想学JAVA没有整块的时间 3、&nbsp;想学JAVA没有足够的预算 还等什么?赶紧报名吧,抓紧抢位,本期只招300人,错过只有等时间待定的下一期了 &nbsp; 报名请加小助手微信:eduxy-1 &nbsp; &nbsp;

C++语言基础视频教程

C++语言基础视频培训课程:本课与主讲者在大学开出的程序设计课程直接对接,准确把握知识点,注重教学视频与实践体系的结合,帮助初学者有效学习。本教程详细介绍C++语言中的封装、数据隐藏、继承、多态的实现等入门知识;主要包括类的声明、对象定义、构造函数和析构函数、运算符重载、继承和派生、多态性实现等。 课程需要有C语言程序设计的基础(可以利用本人开出的《C语言与程序设计》系列课学习)。学习者能够通过实践的方式,学会利用C++语言解决问题,具备进一步学习利用C++开发应用程序的基础。

UnityLicence

UnityLicence

软件测试2小时入门

本课程内容系统、全面、简洁、通俗易懂,通过2个多小时的介绍,让大家对软件测试有个系统的理解和认识,具备基本的软件测试理论基础。 主要内容分为5个部分: 1 软件测试概述,了解测试是什么、测试的对象、原则、流程、方法、模型;&nbsp; 2.常用的黑盒测试用例设计方法及示例演示;&nbsp; 3 常用白盒测试用例设计方法及示例演示;&nbsp; 4.自动化测试优缺点、使用范围及示例‘;&nbsp; 5.测试经验谈。

YOLOv3目标检测实战:训练自己的数据集

YOLOv3是一种基于深度学习的端到端实时目标检测方法,以速度快见长。本课程将手把手地教大家使用labelImg标注和使用YOLOv3训练自己的数据集。课程分为三个小项目:足球目标检测(单目标检测)、梅西目标检测(单目标检测)、足球和梅西同时目标检测(两目标检测)。 本课程的YOLOv3使用Darknet,在Ubuntu系统上做项目演示。包括:安装Darknet、给自己的数据集打标签、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计(mAP计算和画出PR曲线)和先验框聚类。 Darknet是使用C语言实现的轻型开源深度学习框架,依赖少,可移植性好,值得深入探究。 除本课程《YOLOv3目标检测实战:训练自己的数据集》外,本人推出了有关YOLOv3目标检测的系列课程,请持续关注该系列的其它课程视频,包括: 《YOLOv3目标检测实战:交通标志识别》 《YOLOv3目标检测:原理与源码解析》 《YOLOv3目标检测:网络模型改进方法》 敬请关注并选择学习!

Python数据分析师-实战系列

系列课程主要包括Python数据分析必备工具包,数据分析案例实战,核心算法实战与企业级数据分析与建模解决方案实战,建议大家按照系列课程阶段顺序进行学习。所有数据集均为企业收集的真实数据集,整体风格以实战为导向,通俗讲解Python数据分析核心技巧与实战解决方案。

YOLOv3目标检测实战系列课程

《YOLOv3目标检测实战系列课程》旨在帮助大家掌握YOLOv3目标检测的训练、原理、源码与网络模型改进方法。 本课程的YOLOv3使用原作darknet(c语言编写),在Ubuntu系统上做项目演示。 本系列课程包括三门课: (1)《YOLOv3目标检测实战:训练自己的数据集》 包括:安装darknet、给自己的数据集打标签、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计(mAP计算和画出PR曲线)和先验框聚类。 (2)《YOLOv3目标检测:原理与源码解析》讲解YOLOv1、YOLOv2、YOLOv3的原理、程序流程并解析各层的源码。 (3)《YOLOv3目标检测:网络模型改进方法》讲解YOLOv3的改进方法,包括改进1:不显示指定类别目标的方法 (增加功能) ;改进2:合并BN层到卷积层 (加快推理速度) ; 改进3:使用GIoU指标和损失函数 (提高检测精度) ;改进4:tiny YOLOv3 (简化网络模型)并介绍 AlexeyAB/darknet项目。

超详细MySQL安装及基本使用教程

一、下载MySQL 首先,去数据库的官网http://www.mysql.com下载MySQL。 点击进入后的首页如下:  然后点击downloads,community,选择MySQL Community Server。如下图:  滑到下面,找到Recommended Download,然后点击go to download page。如下图:  点击download进入下载页面选择No...

一学即懂的计算机视觉(第一季)

图像处理和计算机视觉的课程大家已经看过很多,但总有“听不透”,“用不了”的感觉。课程致力于创建人人都能听的懂的计算机视觉,通过生动、细腻的讲解配合实战演练,让学生真正学懂、用会。 【超实用课程内容】 课程内容分为三篇,包括视觉系统构成,图像处理基础,特征提取与描述,运动跟踪,位姿估计,三维重构等内容。课程理论与实战结合,注重教学内容的可视化和工程实践,为人工智能视觉研发及算法工程师等相关高薪职位就业打下坚实基础。 【课程如何观看?】 PC端:https://edu.csdn.net/course/detail/26281 移动端:CSDN 学院APP(注意不是CSDN APP哦) 本课程为录播课,课程2年有效观看时长,但是大家可以抓紧时间学习后一起讨论哦~ 【学员专享增值服务】 源码开放 课件、课程案例代码完全开放给你,你可以根据所学知识,自行修改、优化 下载方式:电脑登录https://edu.csdn.net/course/detail/26281,点击右下方课程资料、代码、课件等打包下载

董付国老师Python全栈学习优惠套餐

购买套餐的朋友可以关注微信公众号“Python小屋”,上传付款截图,然后领取董老师任意图书1本。

爬取妹子图片(简单入门)

安装第三方请求库 requests 被网站禁止了访问 原因是我们是Python过来的 重新给一段 可能还是存在用不了,使用网页的 编写代码 上面注意看匹配内容 User-Agent:请求对象 AppleWebKit:请求内核 Chrome浏览器 //请求网页 import requests import re //正则表达式 就是去不规则的网页里面提取有规律的信息 headers = { 'User-Agent':'存放浏览器里面的' } response = requests.get

web网页制作期末大作业

分享思维,改变世界. web网页制作,期末大作业. 所用技术:html css javascript 分享所学所得

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

Spring Boot -01- 快速入门篇(图文教程)

Spring Boot -01- 快速入门篇 今天开始不断整理 Spring Boot 2.0 版本学习笔记,大家可以在博客看到我的笔记,然后大家想看视频课程也可以到【慕课网】手机 app,去找【Spring Boot 2.0 深度实践】的课程,令人开心的是,课程完全免费! 什么是 Spring Boot? Spring Boot 是由 Pivotal 团队提供的全新框架。Spring Boot...

相关热词 c# 按行txt c#怎么扫条形码 c#打包html c# 实现刷新数据 c# 两个自定义控件重叠 c#浮点类型计算 c#.net 中文乱码 c# 时间排序 c# 必备书籍 c#异步网络通信
立即提问