文件输入输出目录为:F:\BP\

训练样本文件名:训练样本.txt

值为:

1

1

-1

1

-1

1

0

1

0

1

输出文件名为:阈值.txt 权值.txt

=========================

#include "stdlib.h"

#include "math.h"

#include "conio.h"

#include "stdio.h"

#define N 2 /*/学习样本个数*/

#define IN 3 /*/输入层神经元数目*/

#define HN 3 /*/隐层神经元数目*/

#define ON 2 /*/输出层神经元数目*/

#define Z 20 /*/旧权值保存-》每次study的权值都保存下来*/

double P[IN]; /*/单个样本输入数据*/

double T[ON]; /*/单个样本教师数据*/

double W[HN][IN]; /*/输入层至隐层权值*/

double V[ON][HN]; /*/隐层至输出层权值*/

double X[HN]; /*/隐层的输入*/

double Y[ON]; /*/输出层的输入*/

double H[HN]; /*/隐层的输出*/

double O[ON]; /*/输出层的输出*/

double YU_HN[HN]; /*/隐层的阈值*/

double YU_ON[ON]; /*/输出层的阈值*/

double err_m[N]; /*/第m个样本的总误差*/

double a; /*/输出层至隐层的学习效率*/

double b; /*/隐层至输入层学习效率*/

double alpha; /*/动量因子,改进型bp算法使用*/

double d_err[ON];

FILE *fp;

/*定义一个放学习样本的结构*/

struct {

double input[IN];

double teach[ON];

}Study_Data[N];

/*改进型bp算法用来保存每次计算的权值*/

struct {

double old_W[HN][IN];

double old_V[ON][HN];

}Old_WV[Z];

int Start_Show()

{

clrscr();

printf("\n ***********************\n");

printf(" * Welcome to

use *\n");

printf(" * this program

of *\n");

printf(" * calculating the BP *\n");

printf(" * model! *\n");

printf(" * Happy every

day! *\n");

printf(" ***********************\n");

printf("\n\nBefore starting,please read the follows

carefully:\n\n");

printf(" 1.Please ensure the Path of the '训练样本.txt'(xunlianyangben.txt)

is \ncorrect,like 'F:\BP\训练样本.txt'!\n");

printf(" 2.The calculating results will be saved in the Path of

'F:\\BP\\'!\n");

printf(" 3.The program will load 10 datas when running from

'F:\\BP\\训练样本.txt'!\n");

printf(" 4.The program of BP can study itself for no more than 30000

times.\nAnd surpassing the number,the program will be ended by

itself in\npreventing running infinitely because of

error!\n");

printf("\n\n\n");

printf("Now press any key to start...\n");

getch();

getch();

clrscr();

}

int End_Show()

{

printf("\n\n---------------------------------------------------\n");

printf("The program has reached the end successfully!\n\nPress any

key to exit!\n\n");

printf("\n ***********************\n");

printf(" * This is the

end *\n");

printf(" * of the program which*\n");

printf(" * can calculate the BP*\n");

printf(" * model! *\n");

printf(" ***********************\n");

printf(" * Thanks for using! *\n");

printf(" * Happy every

day! *\n");

printf(" ***********************\n");

getch();

exit(0);

}

GetTrainingData() /*OK*/

{ int m,i,j;

int datr;

if((fp=fopen("f:\\bp\\训练样本.txt","r"))==NULL) /*读取训练样本*/

{

printf("Cannot open file strike any key

exit!");

getch();

exit(1);

}

m=0;

i=0;

j=0;

while(fscanf(fp,"%d",&datr)!=EOF)

{j++;

if(j<=(N*IN))

{if(i {

Study_Data[m].input[i]=datr;

/*printf("\nthe

Study_Datat[%d].input[%d]=%f\n",m,i,Study_Data[m].input[i]);getch();*/ /*use to check the loaded training datas*/

}

if(m==(N-1)&&i==(IN-1))

{

m=0;

i=-1;

}

if(i==(IN-1))

{

m++;

i=-1;

}

}

else

if((N*IN) {if(i {Study_Data[m].teach[i]=datr;

/*printf("\nThe

Study_Data[%d].teach[%d]=%f",m,i,Study_Data[m].teach[i]);getch();*/ /*use to check the loaded training datas*/

}

if(m==(N-1)&&i==(ON-1))

printf("\n");

if(i==(ON-1))

{m++;

i=-1;

}

}

i++;

}

fclose(fp);

printf("\nThere are [%d] datats that have been loaded

successfully!\n",j);

/*show the data which has been loaded!*/

printf("\nShow the data which has been loaded as

follows:\n");

for(m=0;m {for(i=0;i {printf("\nStudy_Data[%d].input[%d]=%f",m,i,Study_Data[m].input[i]);

}

for(j=0;j {printf("\nStudy_Data[%d].teach[%d]=%f",m,j,Study_Data[m].teach[j]);

}

}

printf("\n\nPress any key to start calculating...");

getch();

return 1;

}

/*///*/

/*初始化权、阈值子程序*/

/*///*/

initial()

{int i;

int ii;

int j;

int jj;

int k;

int kk;

/*隐层权、阈值初始化*/

for(i=0;i {

for(j=1;j {W[i][j]=(double)((rand()/32767.0)*2-1);

/*初始化输入层到隐层的权值,随机模拟0 和 1 -1 */

printf("w[%d][%d]=%f\n",i,j,W[i][j]);

}

}

for(ii=0;ii {

for(jj=0;jj {V[ii][jj]= (double)((rand()/32767.0)*2-1);

/*初始化隐层到输出层的权值,随机模拟0 和 1 -1*/

printf("V[%d][%d]=%f\n",ii,jj,V[ii][jj]);

}

}

for(k=0;k {

YU_HN[k] =

(double)((rand()/32767.0)*2-1); /*隐层阈值初始化

,-0.01 ~ 0.01 之间*/

printf("YU_HN[%d]=%f\n",k,YU_HN[k]);

}

for(kk=0;kk {

YU_ON[kk] = (double)((rand()/32767.0)*2-1);

/*输出层阈值初始化 ,-0.01 ~ 0.01 之间*/

}

return 1;

}/*子程序initial()结束*/

/*//*/

/*第m个学习样本输入子程序*/

/*/*/

input_P(int m)

{ int i,j;

for(i=0;i {P[i]=Study_Data[m].input[i];

printf("P[%d]=%f\n",i,P[i]);

}

/*获得第m个样本的数据*/

return 1;

}/*子程序input_P(m)结束*/

/*/*/

/*第m个样本教师信号子程序*/

/*/*/

input_T(int m)

{int k;

for(k=0;k T[k]=Study_Data[m].teach[k];

return 1;

}/*子程序input_T(m)结束*/

H_I_O()

{

double sigma;

int i,j;

for(j=0;j {

sigma=0;

for(i=0;i {sigma+=W[j][i]*P[i];/*求隐层内积*/

}

X[j]=sigma-YU_HN[i];/*求隐层净输入,为什么减隐层的阀值*/

H[j]=1.0/(1.0+exp(-X[j]));/*求隐层输出 siglon算法*/

}

return 1;

}/*子程序H_I_O()结束*/

O_I_O()

{int k;

int j;

double sigma;

for(k=0;k {

sigma=0.0;

for(j=0;j {

sigma+=V[k][j]*H[k];

}

Y[k]=sigma-YU_ON[k];

O[k]=1.0/(1.0+exp(-Y[k]));

}

return 1;

}

int Err_O_H(int m)

{int k;

double abs_err[ON];

double sqr_err=0;

for (k=0;k {

abs_err[k]=T[k]-O[k];

sqr_err+=(abs_err[k])*(abs_err[k]);

d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);

err_m[m]=sqr_err/2;

}

return 1;

}

double e_err[HN];

int Err_H_I()

{

int j,k;

double sigma;

for(j=0;j {

sigma=0.0;

for(k=0;k {

sigma=d_err[k]*V[k][j];

}

e_err[j]=sigma*H[j]*(1-H[j]);

}

return 1;

}

saveWV(int m)

{int i;

int ii;

int j;

int jj;

for(i=0;i {

for(j=0;j {

Old_WV[m].old_W[i][j] = W[i][j];

}

}

for(ii=0;ii {

for(jj=0;jj {

Old_WV[m].old_V[ii][jj] = V[ii][jj];

}

}

return 1;

}

int Delta_O_H(int

n) /*(int m,int n)*/

{int k,j;

if(n<1) /*n<=1*/

{

for

(k=0;k {

for

(j=0;j {

V[k][j]=V[k][j]+a*d_err[k]*H[j];

}

YU_ON[k]+=a*d_err[k];

}

}

else if(n>1)

{

for

(k=0;k {

for

(j=0;j {

V[k][j]=V[k][j]+a*d_err[k]*H[j]+alpha*(V[k][j]-Old_WV[(n-1)].old_V[k][j]);

}

YU_ON[k]+=a*d_err[k];

}

}

return 1;

}

Delta_H_I(int

n) /*(int m,int n)*/

{ int i,j;

if(n<=1) /*n<=1*/

{

for (j=0;j {

for

(i=0;i {

W[j][i]=W[j][i]+b*e_err[j]*P[i];

}

YU_HN[j]+=b*e_err[j];

}

}

else if(n>1)

{

for(j=0;j {

for(i=0;i {

W[j][i]=W[j][i]+b*e_err[j]*P[i]+alpha*(W[j][i]-Old_WV[(n-1)].old_W[j][i]);

}

YU_HN[j]+=b*e_err[j];

}

}

return 1;

}

double Err_Sum()

{int m;

double total_err=0;

for(m=0;m {

total_err+=err_m[m];

}

return total_err;

}

void savequan()

{ int i,j,k;

int ii,jj,kk;

if((fp=fopen("f:\\bp\\权值.txt","a"))==NULL) /*save the result at f:\hsz\bpc\*.txt*/

{

printf("Cannot open file strike any key

exit!");

getch();

exit(1);

}

fprintf(fp,"Save the result of “权值”(quanzhi) as

follows:\n");

for(i=0;i {

for(j=0;j fprintf(fp,"W[%d][%d]=%f\n",i,j,W[i][j]);

}

fprintf(fp,"\n");

for(ii=0;ii {

for(jj=0;jj fprintf(fp,"V[%d][%d]=%f\n",ii,jj,V[ii][jj]);

}

fclose(fp);

printf("\nThe result of “权值.txt”(quanzhi) has been saved

successfully!\nPress any key to continue...");

getch();

if((fp=fopen("f:\\bp\\阈值.txt","a"))==NULL) /*save the result at f:\hsz\bpc\*/

{

printf("Cannot open file strike any key

exit!");

getch();

exit(1);

}

fprintf(fp,"Save the result of “输出层的阈值”(huozhi) as

follows:\n");

for(k=0;k fprintf(fp,"YU_ON[%d]=%f\n",k,YU_ON[k]);

fprintf(fp,"\nSave the result of “隐层的阈值为”(huozhi) as

follows:\n");

for(kk=0;kk fprintf(fp,"YU_HN[%d]=%f\n",kk,YU_HN[kk]);

fclose(fp);

printf("\nThe result of “阈值.txt”(huozhi) has been saved

successfully!\nPress any key to continue...");

getch();

}

/**********************/

/**程序入口,即主程序**/

/**********************/

void main()

{double Pre_error;

double sum_err;

int study;

int flag;

flag=30000;

a=0.7;

b=0.7;

alpha=0.9;

study=0;

Pre_error=0.0001;/*实际值为Pre_error=0.0001;*/

Start_Show();

GetTrainingData();

initial();

do

{int m;

++study;

for(m=0;m {

input_P(m);

input_T(m);

H_I_O();

O_I_O();

Err_O_H(m);

Err_H_I();

saveWV(m); /****************/

Delta_O_H(m); /*(m,study)*/

Delta_H_I(m); /*(m,study)*/

}

sum_err=Err_Sum();

printf("sum_err=%f\n",sum_err);

printf("Pre_error=%f\n\n",Pre_error);

if(study>flag)

{

printf("\n*******************************\n");

printf("The

program is ended by itself because of error!\nThe learning times is

surpassed!\n");

printf("*****************************\n");

getch();

break;

}

}while (sum_err>Pre_error);

printf("\n****************\n");

printf("\nThe program have studyed for [%d] times!\n",study);

printf("\n****************\n");

savequan(); /*save the results*/

End_Show();

}

==========================

权值.txt

{Save the result of “权值”(quanzhi) as follows:

W[0][0]=0.350578

W[0][1]=-1.008697

W[0][2]=-0.962250

W[1][0]=0.055661

W[1][1]=-0.372367

W[1][2]=-0.890795

W[2][0]=0.129752

W[2][1]=-0.332591

W[2][2]=-0.521561

V[0][0]=-2.932654

V[0][1]=-3.720583

V[0][2]=-2.648183

V[1][0]=2.938970

V[1][1]=1.633281

V[1][2]=1.944077

}

阈值.txt

{Save the result of “输出层的阈值”(huozhi) as follows:

YU_ON[0]=-4.226843

YU_ON[1]=1.501791

Save the result of “隐层的阈值为”(huozhi) as follows:

YU_HN[0]=-0.431459

YU_HN[1]=0.452127

YU_HN[2]=0.258449

}

c 语言实现神经网络算法,神经网络BP算法(C程序实现)[转载]相关推荐

  1. Stanford UFLDL教程 反向传播算法(BP算法)

    反向传播算法(BP算法) 假设我们有一个固定样本集 ,它包含  个样例.我们可以用批量梯度下降法来求解神经网络.具体来讲,对于单个样例,其代价函数为: 这是一个(二分之一的)方差代价函数.给定一个包含 ...

  2. 温故知新——前向传播算法和反向传播算法(BP算法)及其推导

    1. 前向传播算法 所谓的前向传播算法就是:将上一层的输出作为下一层的输入,并计算下一层的输出,一直到运算到输出层为止. 从上面可以看出,使用代数法一个个的表示输出比较复杂,而如果使用矩阵法则比较的简 ...

  3. 《机器学习与数据挖掘》实验五 编程实现误差逆传播算法(BP算法)

    前言: 摘要:本文对机器学习实验五 标准BP算法的代码进行实现,如果不了解的BP算法的话,可以自行上网搜索BP算法的详解. 实验题目:编程实现误差逆传播算法(BP算法) 实验目的:掌握误差逆传播算法( ...

  4. 反向传播算法(BP算法)学习总结

    反向传播算法(BP算法)学习总结 1.简介   BP算法是由学习过程由信号的正向传播与误差的反向传播两个过程组成.由于多层前馈网络的训练经常采用误差反向传播算法,人们也常把将多层前馈网络直接称为BP网 ...

  5. CS231n 学习笔记(4)——神经网络 part4 :BP算法与链式法则

    这一部分主要是关于用BP算法来计算梯度,在这一章中,主要解决下面三个问题: 1.梯度的意义(what the gradients mean?) 2.在网络中梯度如何通过反向传播(how they fl ...

  6. 今天开始学Pattern Recognition and Machine Learning (PRML),章节5.2-5.3,Neural Networks神经网络训练(BP算法)

    这一篇是整个第五章的精华了,会重点介绍一下Neural Networks的训练方法--反向传播算法(backpropagation,BP),这个算法提出到现在近30年时间都没什么变化,可谓极其经典.也 ...

  7. 机器学习——人工神经网络之后向传播算法(BP算法)

    目录 一.后向传播算法的本质--梯度下降法求局部极值 1.w迭代公式的合理性 二.后向传播算法的推导(以二层神经网络为例) 1.问题描述(创建目标函数loss函数,求参数) 2.求解参数的流程(四步曲 ...

  8. 经典神经网络分类器之BP算法和自组织竞争网络

    经典神经网络分类器 感知器 感知器学习算法是误分类驱动的在线学习算法,任意选取一个具有参数的分离超平面,采用随机梯度下降法不断极小化损失函数,多次迭代训练得到感知器参数w b. 定义损失函数(训练样本 ...

  9. 神经网络——反向传播BP算法应用案例

    案例应用(一)--20个样本的两层(单隐藏层)神经网络 知识点: 1.tolist() 链接:http://blog.csdn.net/akagi_/article/details/76382918 ...

  10. 神经网络简史:BP算法后的又一突破—信念网络

    随着训练多层神经网络的谜题被揭开,这个话题再一次变得空前热门,罗森布拉特的崇高雄心似乎也将得以实现.直到1989年另一个关键发现被公布,现在仍广为教科书及各大讲座引用. 多层前馈神经网络是普适模拟器( ...

最新文章

  1. 响应式的无限滚动全屏dribbble作品集布局展示效果
  2. ElasticSearch index 剖析
  3. IIS7日志文件位置
  4. 使用栈实现队列 Implement Queue using Stacks
  5. Java基础学习总结(74)——Java常见笔试题及答案汇总
  6. MVC使用jQuery从视图向控制器传递Model的2种方法
  7. 华硕物联网机器人今年推出 开发进入最后阶段
  8. 查看别人IP经典办法
  9. Eclipse调试:改变颜色, 背景与字体大小 和xml字体调整
  10. java get与post区别_POST和GET区别
  11. js通过pako压缩数据后java解压数据
  12. 实验三:树莓派-暴力破解无线网络密码
  13. 李宏毅2020机器学习深度学习(完整版)国语课程PPT
  14. SQLite3 学习3
  15. RabbitMQ之业务场景:动态创建,删除队列工具类(一)
  16. [024] 欢迎大家关注我的微信公众帐号小q机器人(xiaoqrobot)
  17. 计算机三级的英语单词,大学英语三级词汇表(新版)资料.doc
  18. K8S——存储-Secret
  19. 悟空问答死于知乎十周年
  20. php缓存怎么清理,php怎么清除opcache缓存

热门文章

  1. JS 获取元素到浏览器页面最左侧和顶部的距离
  2. 线段(向量)的计算(判断线段重叠、相交,合并线段,点与线的关系)
  3. python - .py文件打包成.exe文件, 发送给别人
  4. 如何手写一个闭包函数
  5. CentOS6.8中RabbitMQ的安装和配置俺们这些逗比遇到的坑好难填
  6. os.listdir的随机性
  7. 后浪推前浪,一浪比一浪高;来自老鸟们的分享
  8. Chrome无法调用preventDefault阻止touch事件解决办法
  9. 数仓范式建模、ER实体建模和维度建模
  10. 【windows脚本】组策略\关机脚本