BP算法的C语言实现,代码个人测试正确, 但是wrong answer, 求大神指点

#include
#include
#include
#include
#include
//#include "user.h"
#include
#include
#include
#include
#include
#include

#define _CRT_SECURE_NO_WARNINGS
#define _USE_MATH_DEFINES

using namespace std;

#define OUT_COUT 8 //输出向量维数
#define IN_COUT 72 //输入向量维数
#define COUT 792 //样本数量
#define NN 99 //单个样本数量

typedef struct { //bp人工神经网络结构
int h; //实际使用隐层数量
//double v[IN_COUT][IN_COUT/3]; //隐藏层权矩阵i,隐层节点最大数量为50
double v[IN_COUT/3][IN_COUT];
//double w[IN_COUT/3][OUT_COUT]; //输出层权矩阵
double w[OUT_COUT][IN_COUT/3];

double b1[IN_COUT/3];
double b2[OUT_COUT];
double x[COUT][IN_COUT];
double y[COUT][OUT_COUT];

double a;          //学习率
double b;          //精度控制参数
int LoopCout;      //最大循环次数

} bp_nn;

double fnet(double net) { //Sigmoid函数,神经网络激活函数
//return 1/(1+exp(-net));
return 2.0/(1+exp(-net))-1.0;
}

int InitBp(bp_nn *bp) { //初始化bp网络

/*printf("请输入隐层节点数,最大数为100:\n");    
scanf_s("%d", &(*bp).h);

printf("请输入学习率:\n");
scanf_s("%lf", &(*bp).a);    //(*bp).a为double型数据,所以必须是lf

printf("请输入精度控制参数:\n");
scanf_s("%lf", &(*bp).b);

printf("请输入最大循环次数:\n");
scanf_s("%d", &(*bp).LoopCout);*/

(*bp).h = 24;
(*bp).a = 0.4;
(*bp).b = 0.0001;
(*bp).LoopCout = 2000;

int i, j;
srand((unsigned)time(NULL));
for (i = 0; i < (*bp).h; i++) 
{
    for (j = 0; j < IN_COUT; j++)
    {
        (*bp).v[i][j] = rand() / (double)(RAND_MAX);  
    }
(*bp).b1[i] = rand()/(double)(RAND_MAX);
}

for (i = 0; i < OUT_COUT; i++) 
{
    for (j = 0; j < (*bp).h; j++)
    {
        (*bp).w[i][j] = rand() / (double)(RAND_MAX); 
    }
(*bp).b2[i] = rand()/(double)(RAND_MAX);
}

return 1;

}

int TrainBp(bp_nn *bp, double x[COUT][IN_COUT], double y[COUT][OUT_COUT]) {
//训练bp网络,样本为x,理想输出为y
double f = (*bp).b; //精度控制参数
double a = (*bp).a; //学习率
int h = (*bp).h; //隐层节点数
//double v[IN_COUT][IN_COUT/3], w[IN_COUT/3][OUT_COUT]; //权矩阵
double v[IN_COUT/3][IN_COUT], w[OUT_COUT][IN_COUT/3]; //权矩阵
double b1[IN_COUT/3],b2[OUT_COUT];
double ChgH[IN_COUT/3], ChgO[OUT_COUT]; //修改量矩阵
double O1[IN_COUT/3], O2[OUT_COUT]; //隐层和输出层输出量
int LoopCout = (*bp).LoopCout; //最大循环次数
int i, j, k, n;
double temp;

for (i = 0; i < h; i++) 
{// 复制结构体中的权矩阵 
    for (j = 0; j < IN_COUT; j++)
    {
        v[i][j] = (*bp).v[i][j];
    }
    b1[i] = (*bp).b1[i];
}

for (i = 0; i < OUT_COUT; i++)
{
    for (j = 0; j < h; j++)
    {
        w[i][j] = (*bp).w[i][j];
    }
    b2[i] = (*bp).b2[i];
}


double e = f + 1;
for (n = 0; e > f && n < LoopCout; n++) 
{ //对每个样本训练网络
    e = 0;
    for (i= 0; i < COUT; i++) 
    { 
        for (k= 0; k < h; k++) 
        {          //计算隐层输出向量
            temp = 0;
            for (j = 0; j < IN_COUT; j++)
                temp = temp + x[i][j] * v[k][j];    
            O1[k] = fnet(temp+(*bp).b1[i]);
        }

        for (k = 0; k < OUT_COUT; k++) 
        { //计算输出层输出向量
            temp = 0;
            for (j = 0; j < h; j++)
                temp = temp + O1[j] * w[k][j];
            O2[k] = fnet(temp+(*bp).b2[k]);
        }

        for (j = 0; j < OUT_COUT; j++)
        {//计算输出层的权修改量    
            ChgO[j] = O2[j] * (1 - O2[j]) * (y[i][j] - O2[j]);
        }

        for (j = 0; j < OUT_COUT ; j++)
        {//计算输出误差
            e = e + (y[i][j] - O2[j]) * (y[i][j] - O2[j]);
        }

        for (j = 0; j < OUT_COUT; j++) 
        {         //计算隐层权修改量
            temp = 0;
            for (k = 0; k < h; k++)
                temp = temp + w[j][k] * ChgO[k];
            ChgH[j] = temp * O1[j] * (1 - O1[j]);
        }

        for (j = 0; j < OUT_COUT; j++)
        {//修改输出层权矩阵
            for (k = 0; k < h; k++)
            {
                w[j][k] = w[j][k] + a * O1[j] * ChgO[k];
            }
        }
        for (j = 0; j < h; j++)
        {
            for (k = 0; k < IN_COUT; k++)
            {
                v[j][k] = v[j][k] + a * x[i][j] * ChgH[k]; 
            }
        }
    }
    if (n % 10 == 0)
        printf("误差 : %f\n", e);
}

printf("总共循环次数:%d\n", n);
printf("调整后的隐层权矩阵:\n");
for (i = 0; i < h; i++) {    
    for (j = 0; j < IN_COUT; j++)
        printf("%f    ", v[i][j]);    
    printf("\n");
}
printf("调整后的输出层权矩阵:\n");
for (i = 0; i < OUT_COUT; i++) {
    for (j = 0; j < h; j++)
        printf("%f    ", w[i][j]);    
    printf("\n");
}
for (i = 0; i < h; i++) 
{//把结果复制回结构体 
    for (j = 0; j < IN_COUT; j++)
    {
        (*bp).v[i][j] = v[i][j];
    }
    (*bp).b1[i] = b1[i];
}
for (i = 0; i < OUT_COUT; i++)
{
    for (j = 0; j < h; j++)
    {
        (*bp).w[i][j] = w[i][j];
    }
    (*bp).b2[i] = b2[i];
}
printf("bp网络训练结束!\n");

return 1;

}

int UseBp(bp_nn *bp) { //使用bp网络
float Input[IN_COUT];
double O1[50];
double O2[OUT_COUT]; //O1为隐层输出,O2为输出层输出
while (1) { //持续执行,除非中断程序
printf("请输入3个数:\n");
int i, j;
for (i = 0; i < IN_COUT; i++)
scanf_s("%f", &Input[i]);
double temp;
for (i = 0; i < (*bp).h; i++) {
temp = 0;
for (j = 0; j < IN_COUT; j++)
temp += Input[j] * (*bp).v[j][i];
O1[i] = fnet(temp-(*bp).b1[i]);
}
for (i = 0; i < OUT_COUT; i++) {
temp = 0;
for (j = 0; j < (*bp).h; j++)
temp += O1[j] * (*bp).w[j][i];
O2[i] = fnet(temp-(*bp).b2[i]);
}
printf("结果: ");
for (i = 0; i < OUT_COUT; i++)
printf("%.3f ", O2[i]);
printf("\n");
}
return 1;
}

void readFP(double x[COUT][IN_COUT],double y[COUT][OUT_COUT])
{
//bp_nn bp1;
ifstream fileinput1;
ifstream fileinput2;
ifstream fileinput3;
ifstream fileinput4;
ifstream fileinput5;
ifstream fileinput6;
ifstream fileinput7;
ifstream fileinput8;

fileinput1.open("emgclose.txt");
fileinput2.open("emgopen.txt");
fileinput3.open("emgext.txt");
fileinput4.open("emgfle.txt");
fileinput5.open("emgsph.txt");
fileinput6.open("emgcyl.txt");
fileinput7.open("emgtri.txt");
fileinput8.open("emgkey.txt");
    for(int m = 0;m< NN;++m)
    {
        for(int i =0;i < IN_COUT;++i)
        {
            fileinput1 >> x[m][i];
        }
    }

    for(int m = NN;m<2*NN;++m)
    {
        for(int i =0;i < IN_COUT;++i)
        {
            fileinput2 >> x[m][i];
        }
    }

    for(int m = 2*NN;m<3*NN;++m)
    {
        for(int i =0;i < IN_COUT;++i)
        {
            fileinput3 >> x[m][i];
        }
    }

    for(int m = 3*NN;m<4*NN;++m)
    {
        for(int i =0;i < IN_COUT;++i)
        {
            fileinput4 >> x[m][i];
        }
    }

    for(int m = 4*NN;m<5*NN;++m)
    {
        for(int i =0;i < IN_COUT;++i)
        {
            fileinput5 >> x[m][i];
        }
    }

    for(int m = 5*NN;m<6*NN;++m)
    {
        for(int i =0;i < IN_COUT;++i)
        {
            fileinput6 >> x[m][i];
        }
    }

    for(int m = 6*NN;m<7*NN;++m)
    {
        for(int i =0;i < IN_COUT;++i)
        {
            fileinput7 >> x[m][i];
        }
    }

    for(int m = 7*NN;m<8*NN;++m)
    {
        for(int i =0;i < IN_COUT;++i)
        {
            fileinput8 >> x[m][i];
        }
    }

fileinput1.close();
fileinput2.close();
fileinput3.close();
fileinput4.close();
fileinput5.close();
fileinput6.close();
fileinput7.close();
fileinput8.close();

ifstream fileinput;
fileinput.open("teach.txt");

for (int m2 = 0; m2 < OUT_COUT; m2++)
    {
        for (int i = 0; i < OUT_COUT; i++)
        {
            fileinput>>y[m2][i];
        }
        for (int j = m2*NN; j < (m2+1)*NN; j++)
        {
            for (int k = 0; k < OUT_COUT; k++)
            {
                y[j][k] = y[m2][k];
            }
        }

    }
for (int i = 0; i < NN; i++)
{
    for (int j = 0; j < OUT_COUT; j++)
    {
        y[i][j] = y[0][j];
    }
}

fileinput.close();

double Mininput[IN_COUT] = {0.0};
double Maxinput[IN_COUT] = {0.0};
//找出训练的数据相应的最大值、最小值,为归一化做准备
for (int i = 0; i < IN_COUT; i++)
    {
        Mininput[i] = Maxinput[i] = x[0][i];
        for (int j = 0; j < COUT; j++)
        {
            Mininput[i] = Mininput[i] < x[j][i]?Mininput[i]:x[j][i];
            Maxinput[i] = Maxinput[i] > x[j][i]?Maxinput[i]:x[j][i];
        }
    }

//归一化处理
for (int i = 0; i < OUT_COUT; i++)
{
    for (int j = 0; j < COUT; j++)
    {
        y[j][i] = 2.0*(y[j][i] - 0.0)/(1.0 - 0.0)-1.0;
    }
}

for (int i = 0; i < IN_COUT; i++)
{
    for (int j = 0; j < COUT; j++)
    {
        //X[i][j] = (X1[i][j] - Mininput[i]+1)/(Maxinput[i] - Mininput[i]+1);
        x[j][i] = 2.0*(x[j][i] - Mininput[i])/(Maxinput[i] - Mininput[i])-1.0;
    }
}

}

int main()
{
/* float x[COUT][IN_COUT] = {{0.8,0.5,0},
{0.9,0.7,0.3},
{1,0.8,0.5},
{0,0.2,0.3},
{0.2,0.1,1.3},
{0.2,0.7,0.8}}; //训练样本
int y[COUT][OUT_COUT] = {{0,1},
{0,1},
{0,1},
{1,0},
{1,0},
{1,0}}; */ //理想输出

bp_nn bp;
readFP(bp.x,bp.y);




InitBp(&bp);                    //初始化bp网络结构
TrainBp(&bp, bp.x, bp.y);             //训练bp神经网络

// UseBp(&bp); //测试bp神经网络

return 1;

}

1个回答

你试着调整下隐含层节点数,学习率这些参数,其次看看修正权值是否正确
http://www.hankcs.com/ml/back-propagation-neural-network.html

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
/*c语言实现*/遗传算法改进BP神经网络原理和算法实现怎么弄?
我现在在研究遗传算法改进BP神经网络,大概明白原理,但算法程序还有很多问题,求大神们教教我具体怎么把GA和BP结合,算法如何实现,给出代码或伪代码行吗?
用MATLAB实现BP神经网络对二手车价格的预测误差很大
基于BP神经网络建立了二手车价格预测模型,建立的双隐层结构。 思路为根据二手的品牌、里程、车龄等信息预测二手车价格。共3500条数据,3000训练,500调试。 但是不管怎么调试一直误差很大。求大神帮忙调试一下,怎么降低误差。 ``` clear; clc; % 清空环境变量 % 原始数据 %名字 name = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','A1:A3000'); %新车指导价 new_price = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','B1:B3000'); %表现里程 mileage = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','C1:C3000'); %排放标准 discharge = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','D1:D3000'); %变速箱类型 transmission_case = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','E1:E3000'); %排量 displacement = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','F1:F3000'); %过户次数 transfer = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','G1:G3000'); %车龄 age = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','H1:H3000'); %二手车价格 price = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','I1:I3000'); %目标数据 ptest = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','A3001:H3475'); ptest = ptest'; ttest = xlsread('E:\毕业论文\Data\瓜子二手车数据处理.xlsx','I3001:I3475'); ttest = ttest'; % 输入数据矩阵 p = [name';new_price';mileage';discharge';transmission_case';displacement';transfer';age']; %输入目标矩阵 t = [price']; %数据归一化 [pn, minp, maxp, tn, mint, maxt] = premnmx(p, t); %隐含层节点数 NodeNum1 = 20; NodeNum2 = 20; %输出维数 TypeNum = 1; TF1 = 'tansig'; TF2 = 'tansig'; TF3 = 'tansig'; net = newff(minmax(pn),[NodeNum1,NodeNum2,TypeNum],{TF1 TF2 TF3},'traingdx'); %网络创建traingdm %每间隔50步显示一次训练 net.trainParam.show = 50; %最大训练次数 net.trainParam.epochs = 50000; %训练所要达到的精度 net.trainParam.goal = 1e-4; %学习速率 net.trainParam.lr = 0.0001; %最小梯度 net.trainParam.min_grad = 1e-15; net = train(net,pn,tn); %测试数据的归一化 p2n = tramnmx(ptest,minp,maxp); an = sim(net,p2n); %数据的反归一化,即最终想得到的预测结果 [a] = postmnmx(an,mint,maxt); plot(1:length(ttest),ttest,'o',1:length(ttest),a,'+'); title('o表示预测值--- *表示实际值'); grid on m = length(a); t1 = [ttest]; error = (t1-a)./a; figure plot(1:length(error),error,'o'); title('误差变化图'); grid on ``` 结果图片是: ![图片说明](https://img-ask.csdn.net/upload/202001/14/1578988212_623706.jpg) ![图片说明](https://img-ask.csdn.net/upload/202001/14/1578988228_219711.jpg) 数据截图![图片说明](https://img-ask.csdn.net/upload/202001/14/1578988287_246300.png)
为什呢matlab建立BP神经网络正确率很低?
![图片说明](https://img-ask.csdn.net/upload/201912/26/1577352928_112062.jpg) 上图: 1.蓝色部分表示一类数据,红色部分表示二类数据 2.数据都只有一个特征向量为y轴的值 3.x轴为数据在训练集中的下标 问题: 本来应该是很简单的,利用一个特征向量(y轴的值)作为分类依据,将红色数据和蓝色数据分开。 然而,利用matlab建立BP神经网络,训练结果有时候非常好,测试正确率能达到98以上,有时候正确率只有20~30。 ``` %训练样本 train_sample=[trainECG']; %21*25 %测试样本 test_sample=[testECG']; %输出类别,建立HotCode t1=[trainLabel']; t2=[testLabel']; train_result = ind2vec(t1); test_result = ind2vec(t2); net = newff(train_sample,train_result,4,{ 'tansig' 'purelin' } ,'traingdx'); net.trainParam.show=50; % 显示训练迭代过程 net.trainParam.epochs=15000; % 最大训练磁数 net.trainParam.goal=0.001; % 要求训练精度 net.trainParam.lr=0.02; % 学习率 net=init(net); %网络初始化 [net,tr]=train(net,train_sample,train_result); % 网络训练 result_sim=sim(net,test_sample); % 利用得到的神经网络仿真 result_sim_ind=vec2ind(result_sim); correct=0; for i=1:length(result_sim_ind) if result_sim_ind(i)==t2(i); correct=correct+1; end end disp('正确率:'); correct / length(result_sim_ind) ```
用matlab训练好的BP神经网络后,可以把训练好的权值直接用,然后自己利用该权值放在C语言中实现吗?
用matlab训练好的BP神经网络后,可以把训练好的权值直接用,然后自己利用该权值放在C语言中实现吗?
bp神经网络的参数问题
都说bp神经网络有45个参数,这45个参数到底是什么,我是一个新手,在此求教,谢谢各位大神了!
BP神经网络预测效果不好是什么原因?
BP神经网络的预测结果的回归效果很好,但是预测误差很大,是什么原因呢? 我以为是过拟合,但是采取正则化之类的一些方法之后,并没有改善多少。 但是BP神经网络的输入数据和输出数据相关性很低(低于0.2,甚至负相关),会不会是这个原因呢? 原始数据样表如图:这里是用T、PH、DO、EC作为输入数据,预测Imn。 ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989411_839837.jpeg) 预测效果如下图,预测的MAPE=0.27,多次训练大多是0.3左右,这是不是BP神经网络训练得到的最好的结果呢?是不是需要换模型? 这种数据之间相关性很低的该怎么预测? ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989215_333538.png) ![图片说明](https://img-ask.csdn.net/upload/201912/10/1575989227_329592.png)
matlab中的bp神经网络参数问题
bp神经网络有哪些参数,有多少参数;每个参数代表什么意义;运用的时候,参数的多少会有什么影响,还是最好的拟合结果就好
MATLAB智能算法第29个案例报错
%% 清空环境变量 clear all clc %% 导入数据 load concrete_data.mat % 随机产生训练集和测试集 n = randperm(size(attributes,2)); % 训练集——80个样本 p_train = attributes(:,n(1:80))'; t_train = strength(:,n(1:80))'; % 测试集——23个样本 p_test = attributes(:,n(81:end))'; t_test = strength(:,n(81:end))'; %% 数据归一化 % 训练集 [pn_train,inputps] = mapminmax(p_train'); pn_train = pn_train'; pn_test = mapminmax('apply',p_test',inputps); pn_test = pn_test'; % 测试集 [tn_train,outputps] = mapminmax(t_train'); tn_train = tn_train'; tn_test = mapminmax('apply',t_test',outputps); tn_test = tn_test'; %% SVM模型创建/训练 % 寻找最佳c参数/g参数 [c,g] = meshgrid(-10:0.5:10,-10:0.5:10); [m,n] = size(c); cg = zeros(m,n); eps = 10^(-4); v = 5; bestc = 0; bestg = 0; error = Inf; for i = 1:m for j = 1:n cmd = ['-v ',num2str(v),' -t 2',' -c ',num2str(2^c(i,j)),' -g ',num2str(2^g(i,j) ),' -s 3 -p 0.1']; cg(i,j) = svmtrain(tn_train,pn_train,cmd); if cg(i,j) < error error = cg(i,j); bestc = 2^c(i,j); bestg = 2^g(i,j); end if abs(cg(i,j) - error) <= eps && bestc > 2^c(i,j) error = cg(i,j); bestc = 2^c(i,j); bestg = 2^g(i,j); end end end % 创建/训练SVM cmd = [' -t 2',' -c ',num2str(bestc),' -g ',num2str(bestg),' -s 3 -p 0.01']; model = svmtrain(tn_train,pn_train,cmd); %% SVM仿真预测 [Predict_1,error_1] = svmpredict(tn_train,pn_train,model); [Predict_2,error_2] = svmpredict(tn_test,pn_test,model); % 反归一化 predict_1 = mapminmax('reverse',Predict_1,outputps); predict_2 = mapminmax('reverse',Predict_2,outputps); % 结果对比 result_1 = [t_train predict_1]; result_2 = [t_test predict_2]; %% 绘图 figure(1) plot(1:length(t_train),t_train,'r-*',1:length(t_train),predict_1,'b:o') grid on legend('真实值','预测值') xlabel('样本编号') ylabel('耐压强度') string_1 = {'训练集预测结果对比'; ['mse = ' num2str(error_1(2)) ' R^2 = ' num2str(error_1(3))]}; title(string_1) figure(2) plot(1:length(t_test),t_test,'r-*',1:length(t_test),predict_2,'b:o') grid on legend('真实值','预测值') xlabel('样本编号') ylabel('耐压强度') string_2 = {'测试集预测结果对比'; ['mse = ' num2str(error_2(2)) ' R^2 = ' num2str(error_2(3))]}; title(string_2) %% BP 神经网络 % 数据转置 pn_train = pn_train'; tn_train = tn_train'; pn_test = pn_test'; tn_test = tn_test'; % 创建BP神经网络 net = newff(pn_train,tn_train,10); % 设置训练参数 net.trainParam.epcohs = 1000; net.trainParam.goal = 1e-3; net.trainParam.show = 10; net.trainParam.lr = 0.1; % 训练网络 net = train(net,pn_train,tn_train); % 仿真测试 tn_sim = sim(net,pn_test); % 均方误差 E = mse(tn_sim - tn_test); % 决定系数 N = size(t_test,1); R2=(N*sum(tn_sim.*tn_test)-sum(tn_sim)*sum(tn_test))^2/((N*sum((tn_sim).^2)-(sum(tn_sim))^2)*(N*sum((tn_test).^2)-(sum(tn_test))^2)); % 反归一化 t_sim = mapminmax('reverse',tn_sim,outputps); % 绘图 figure(3) plot(1:length(t_test),t_test,'r-*',1:length(t_test),t_sim,'b:o') grid on legend('真实值','预测值') xlabel('样本编号') ylabel('耐压强度') string_3 = {'测试集预测结果对比(BP神经网络)'; ['mse = ' num2str(E) ' R^2 = ' num2str(R2)]}; title(string_3) 错误使用svmtrain(line233) Y must be a vector or a character array. 出错 main(line 48) cg (i,j)=svmtrain (tr_train,pn_train,cmd);我源码没改过,是不是因为版本的不同?我用的是2014a
如何确定神经网络中各特征对输出结果影响程度的大小
比如我用遗传算法对BP神经网络的初始权值与阈值进行了优化,这个权值是代表着这个特征对我结果输出的影响程度吗? 我想了想好像有点想不通 如果不是的话,他这个影响输出的程度要怎样才能看出来呢
新手请问,Matlab里有关于卷积神经网络的BP算法可直接调用的函数或文件吗?麻烦大神求告知
对Matlab不熟,在学习卷积神经网络BP算法,想请问Matlab里有没有可调用的文件或函数直接拿来用的
基于BP神经网络的图像分割
如何在matlab使用BP神经网络算法模型实现图像分割,精准的图像分割如何实现?
多发多收合成孔径雷达bp成像
Matlab仿真成像出来的图不聚焦,代码里面改变目标位置的横坐标后在出来的图像中横坐标还是没有改变
遗传算法优化BP神经网络
主函数:需调用函数fx2、evaluate和errorBP clc clear %随机产生200组输入数据x、输出数据y input=10*rand(2,200)-5; output=zeros(1,200); for i=1:200 output(i)=fx2(input(:,i)); end %设置网络节点数 inputnum=2; hiddennum=5; outputnum=1; %随机选择100组训练数据和100组预测数据 input_train=input(:,1:100)'; output_train=output(1:100)'; input_test=input(:,101:200)'; output_test=output(101:200)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %模拟退火算法参数初始化 Tmax=50; %初温 L=100; %最大退火次数 Tmin=0.01; %终止温度 %BP神经网络算法优化权值和阈值 numsum=inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum; %权值和阈值总数 net=train(net,inputn',outputn'); %将BP神经网络优化后权值和阈值赋给模拟退火算法的初始解 s1=reshape(net.iw{1,1},1,inputnum*hiddennum); s2=reshape(net.b{1},1,hiddennum); s3=reshape(net.lw{2,1},1,hiddennum*outputnum); s4=reshape(net.b{2},1,outputnum); s=[s1,s2,s3,s4]; %模拟退火算法优化权值和阈值 t=Tmax; while t>Tmin k=1; for i=1:numsum sx(i)=s(i)+(0.2*rand-0.1)*errorBP; %产生新解 end c=evaluate(sx,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput)-evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput); %计算增量 if c<0 s=sx; t=t*0.95; %!!!!!! elseif rand<exp(-c/t) s=sx; t=t*0.99; else t=t*1.01; end % if t<=Tmin break; end k=k+1; end %将最优结果赋值给BP神经网络的权值和阈值 w1=s(1:inputnum*hiddennum); v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum); w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum); v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum); %网络权值和阈值赋值 net.iw{1,1}=reshape(w1,hiddennum,inputnum); net.lw{2,1}=reshape(w2,outputnum,hiddennum); net.b{1}=reshape(v1,hiddennum,1); net.b{2}=v2; %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=100; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=BPoutput-output_test'; %网络预测结果图像 figure(1) plot(BPoutput,':og') hold on plot(output_test,'-*'); legend('预测输出','期望输出') title('BP网络预测输出','fontsize',12) ylabel('函数输出','fontsize',12) xlabel('样本','fontsize',12) %网络预测误差图像 figure(2) plot(error,'-*') title('BP网络预测误差','fontsize',12) ylabel('误差','fontsize',12) xlabel('样本','fontsize',12) 拟合函数fx2 function y=fx2(x) y=x(1)^2+x(2)^2; 调用的适应度值函数evaluate function error=evaluate(s,inputnum,hiddennum,outputnum,net,inputn,outputn,minoutput,maxoutput) %%该函数用于计算模拟退火算法适应度值evaluate %s:权值、阈值的个体 %inputnum:输入层节点数 %hiddennum:隐含层节点数 %outputnum:输出层节点数 %net:网络 %inputn:训练输入数据 %outputn:训练输出数据 % % %BP神经网络初始权值和阈值 w1=s(1:inputnum*hiddennum); v1=s(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum); w2=s(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum); v2=s(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum); %网络权值和阈值赋值 net.iw{1,1}=reshape(w1,hiddennum,inputnum); net.lw{2,1}=reshape(w2,outputnum,hiddennum); net.b{1}=reshape(v1,hiddennum,1); net.b{2}=v2; %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); net.trainParam.epochs=20; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; net.trainParam.show=100; net.trainParam.showWindow=0; %BP神经网络训练 net=train(net,inputn',outputn'); %BP神经网络预测 an=sim(net,inputn'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %预测误差和作为个体适应度值 error=sum(abs(an-BPoutput)); 调用的误差函数errorBP function error=errorBP %%用于计算模拟退火算法产生新解时所需的BP神经网络的误差 %随机产生200组输入数据x、输出数据y input=10*rand(2,200)-5; output=zeros(1,200); for i=1:200 output(i)=fx2(input(:,i)); end %随机选择100组训练数据和100组预测数据 input_train=input(:,1:100)'; output_train=output(1:100)'; input_test=input(:,101:200)'; output_test=output(101:200)'; %训练数据归一化 [inputn,mininput,maxinput]=premnmx(input_train); [outputn,minoutput,maxoutput]=premnmx(output_train); %构建BP神经网络 net=newff([-5 5;-5 5],[5,1],{'tansig' 'purelin'}, 'trainlm' ); %配置网络参数(迭代次数、学习率、目标) net.trainParam.epochs=100; net.trainParam.lr=0.1; net.trainParam.goal=0.00001; %BP神经网络训练 net=train(net,inputn',outputn'); %预测数据归一化 inputn_test=tramnmx(input_test,mininput,maxinput); %BP神经网络预测输出 an=sim(net,inputn_test'); %输出结果反归一化 BPoutput=postmnmx (an,minoutput,maxoutput); %计算误差 error=sum(abs(BPoutput-output_test'))/100;
Perfect Pth Powers 正确实现的方式
Description We say that x is a perfect square if, for some integer b, x = b2. Similarly, x is a perfect cube if, for some integer b, x = b3. More generally, x is a perfect pth power if, for some integer b, x = bp. Given an integer x you are to determine the largest p such that x is a perfect pth power. Input Each test case is given by a line of input containing x. The value of x will have magnitude at least 2 and be within the range of a (32-bit) int in C, C++, and Java. A line containing 0 follows the last test case. Output For each test case, output a line giving the largest integer p such that x is a perfect pth power. Sample Input 17 1073741824 25 0 Sample Output 1 30 2
请教:BP神经网络分词算法怎么整合到Elasticsearch中?急求解
我想在Elasticsearch中使用BP神经网络分词算法,应该怎么样的步骤把算法嵌入到Elasticsearch的代码中,请大侠们指教
有没有可以用来验证BP神经网络准确性的数据
我自己写成了一套BP神经网络的代码,现在想验证该套程序是否运算准确,有没有人能提供一套训练数据,以及结果数据,我来
用java写可以识别数字的BP神经网络
现在学校要求写一个可以识别数字的神经网络,要求最好用bp, 也可以用别的算法,语言可以任意,最好是java。数据事uci的optical recognition of handwritten digits 想知道有没有指导怎么一步一步建立的的教程,不知道如何建立这样的网络,代码里需要几层方法?
bp神经网络的c语言实例求解~
用bp神经网络实现以下分类 {circular=1,0}, texture {slick=1,0} and weight {heavy=1,0}. shape texture weight Fruit 1 0 0 orange=1 1 1 0 apple=0 急求~感谢大神
tensorflow实现BP算法遇到了问题,求大神指点!!!
import tensorflow as tf import numpy as np #from tensorflow.examples.tutorials.mnist import input_data #载入数据集 #mnist = input_data.read_data_sets("MNIST_data",one_hot=True) #每个批次的大小 #batch_size = 100 #????????????????????????????????? #计算一共有多少个批次 #n_batch = mnist.train.num_examples // batch_size #定义placeholder x_data=np.mat([[0.4984,0.5102,0.5213,0.5340], [0.5102,0.5213,0.5340,0.5407], [0.5213,0.5340,0.5407,0.5428], [0.5340,0.5407,0.5428,0.5530], [0.5407,0.5428,0.5530,0.5632], [0.5428,0.5530,0.5632,0.5739], [0.5530,0.5632,0.5739,0.5821], [0.5632,0.5739,0.5821,0.5920], [0.5739,0.5821,0.5920,0.5987], [0.5821,0.5920,0.5987,0.6043], [0.5920,0.5987,0.6043,0.6095], [0.5987,0.6043,0.6095,0.6161], [0.6043,0.6095,0.6161,0.6251], [0.6095,0.6161,0.6251,0.6318], [0.6161,0.6251,0.6318,0.6387], [0.6251,0.6318,0.6387,0.6462], [0.6318,0.6387,0.6462,0.6518], [0.6387,0.6462,0.6518,0.6589], [0.6462,0.6518,0.6589,0.6674], [0.6518,0.6589,0.6674,0.6786], [0.6589,0.6674,0.6786,0.6892], [0.6674,0.6786,0.6892,0.6988]]) y_data=np.mat([[0.5407], [0.5428], [0.5530], [0.5632], [0.5739], [0.5821], [0.5920], [0.5987], [0.6043], [0.6095], [0.6161], [0.6251], [0.6318], [0.6387], [0.6462], [0.6518], [0.6589], [0.6674], [0.6786], [0.6892], [0.6988], [0.7072]]) xs = tf.placeholder(tf.float32,[None,4]) # 样本数未知,特征数为1,占位符最后要以字典形式在运行中填入 ys = tf.placeholder(tf.float32,[None,1]) #创建一个简单的神经网络 W1 = tf.Variable(tf.truncated_normal([4,10],stddev=0.1)) b1 = tf.Variable(tf.zeros([10])+0.1) L1 = tf.nn.tanh(tf.matmul(x,W1)+b1) W2 = tf.Variable(tf.truncated_normal([10,1],stddev=0.1)) b2 = tf.Variable(tf.zeros([1])+0.1) L2 = tf.nn.softmax(tf.matmul(L1,W2)+b2) #二次代价函数 #loss = tf.reduce_mean(tf.square(y-prediction)) #loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=ys,logits=prediction)) loss = tf.reduce_mean(tf.reduce_sum(tf.square((ys-L2)),reduction_indices = [1]))#需要向相加索引号,redeuc执行跨纬度操作 #使用梯度下降法 #train_step = tf.train.GradientDescentOptimizer(0.1).mnimize(loss) train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #train = tf.train.GradientDescentOptimizer(0.1).minimize(loss) # 选择梯度下降法 #初始化变量 #init = tf.global_variables_initializer() init = tf.initialize_all_variables() #结果存放在一个布尔型列表中 #correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1)) #求准确率 #accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) with tf.Session() as sess: sess.run(init) for epoch in range(21): for i in range(22): #batch_xs,batch_ys = mnist.train.next_batch(batch_size) #????????????????????????? sess.run(train_step,feed_dict={xs:x_data,ys:y_data}) #test_acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels,keep_prob:1.0}) #train_acc = sess.run(accuracy,feed_dict={x:mnist.train.images,y:mnist.train.labels,keep_prob:1.0}) print (sess.run(prediction,feed_dict={xs:x_data,ys:y_data})) 提示:WARNING:tensorflow:From <ipython-input-10-578836c021a3>:89 in <module>.: initialize_all_variables (from tensorflow.python.ops.variables) is deprecated and will be removed after 2017-03-02. Instructions for updating: Use `tf.global_variables_initializer` instead. --------------------------------------------------------------------------- InvalidArgumentError Traceback (most recent call last) C:\Users\Administrator\Anaconda3\lib\site-packages\tensorflow\python\client\session.py in _do_call(self, fn, *args) 1020 try: -> 1021 return fn(*args) 1022 except errors.OpError as e: C:\Users\Administrator\Anaconda3\lib\site-packages\tensorflow\python\client\session.py in _run_fn(session, feed_dict, fetch_list, target_list, options, run_metadata) 1002 feed_dict, fetch_list, target_list, -> 1003 status, run_metadata) 1004 。。。
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、PDF搜索网站推荐 对于大部
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入  假设现有4个人
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
一 说明 如果是初学者,建议去网上寻找安装Mysql的文章安装,以及使用navicat连接数据库,以后的示例基本是使用mysql数据库管理系统; 二 准备前提 需要建立一张学生表,列分别是id,名称,年龄,学生信息;本示例中文章篇幅原因SQL注释略; 建表语句: CREATE TABLE `student` ( `id` int(11) NOT NULL AUTO_INCREMENT, `
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // dosho
【图解经典算法题】如何用一行代码解决约瑟夫环问题
约瑟夫环问题算是很经典的题了,估计大家都听说过,然后我就在一次笔试中遇到了,下面我就用 3 种方法来详细讲解一下这道题,最后一种方法学了之后保证让你可以让你装逼。 问题描述:编号为 1-N 的 N 个士兵围坐在一起形成一个圆圈,从编号为 1 的士兵开始依次报数(1,2,3…这样依次报),数到 m 的 士兵会被杀死出列,之后的士兵再从 1 开始报数。直到最后剩下一士兵,求这个士兵的编号。 1、方
致 Python 初学者
文章目录1. 前言2. 明确学习目标,不急于求成,不好高骛远3. 在开始学习 Python 之前,你需要做一些准备2.1 Python 的各种发行版2.2 安装 Python2.3 选择一款趁手的开发工具3. 习惯使用IDLE,这是学习python最好的方式4. 严格遵从编码规范5. 代码的运行、调试5. 模块管理5.1 同时安装了py2/py35.2 使用Anaconda,或者通过IDE来安装模
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
      11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI 算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC
【技巧总结】位运算装逼指南
位算法的效率有多快我就不说,不信你可以去用 10 亿个数据模拟一下,今天给大家讲一讲位运算的一些经典例子。不过,最重要的不是看懂了这些例子就好,而是要在以后多去运用位运算这些技巧,当然,采用位运算,也是可以装逼的,不信,你往下看。我会从最简单的讲起,一道比一道难度递增,不过居然是讲技巧,那么也不会太难,相信你分分钟看懂。 判断奇偶数 判断一个数是基于还是偶数,相信很多人都做过,一般的做法的代码如下
日均350000亿接入量,腾讯TubeMQ性能超过Kafka
整理 | 夕颜出品 | AI科技大本营(ID:rgznai100) 【导读】近日,腾讯开源动作不断,相继开源了分布式消息中间件TubeMQ,基于最主流的 OpenJDK8开发的
8年经验面试官详解 Java 面试秘诀
    作者 | 胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。   Java程序员准备和投递简历的实
面试官如何考察你的思维方式?
1.两种思维方式在求职面试中,经常会考察这种问题:北京有多少量特斯拉汽车? 某胡同口的煎饼摊一年能卖出多少个煎饼? 深圳有多少个产品经理? 一辆公交车里能装下多少个乒乓球? 一
相关热词 c#处理浮点数 c# 生成字母数字随机数 c# 动态曲线 控件 c# oracle 开发 c#选择字体大小的控件 c# usb 批量传输 c#10进制转8进制 c#转base64 c# 科学计算 c#下拉列表获取串口
立即提问