前几日美赛建模前准备的BP神经网络模板,纯C++手写。
之后会找时间写一个使用方法,并配上测试样例,尽量加上过程图。
代码:
#include<bits/stdc++.h>
using namespace std;
#define maxn 150
#define p2(x) ((x)*(x))
const double len_v=0.5;///学习速率
int n,m,p,dep;///输入层n个神经元,输出层m个神经元,隐含层p个神经元,有dep层神经网络
struct level{
double state[maxn];//激活情况
int len;//该层网络的神经元个数
void input(int x){
len=x;
for(int i=0;i<len;i++){
scanf("%lf",&state[i]);
}
}
}in,out,hide[maxn];
struct netval{
int s,t;//s个连接到t个
double v[maxn][maxn];
}w[maxn];
double dif(level a,level b){
double ret=0;
for(int i=0;i<a.len;i++){
ret+=p2(a.state[i]-b.state[i]);
}
return ret;
}
double sigmoid(double x){
return 1/(1+exp(-x));
}
void init(){//初始化
n=9;
m=1;
dep=1;
p=6;
for(int i=0;i<p;i++){
hide[i].len=p;
}
for(int i=0;i<=dep;i++){//初始化边权网络w[]
w[i].s=w[i].t=p;
if(i==0)w[i].s=n;
if(i==p)w[i].t=m;
for(int j=0;j<w[i].s;j++){
for(int k=0;k<w[i].s;k++){
w[i].v[j][k]=(rand()%9+1)/10.0;
}
}
}
}
level operator * (level a,netval b){//将a的状态通过b表转化
level ret;
memset(ret.state,0,sizeof(ret.state));
ret.len=a.len;
for(int i=0;i<ret.len;i++){
for(int j=0;j<a.len;j++){
ret.state[i]+=a.state[j]*b.v[j][i];
}
}
return ret;
}
level operator * (netval a,level b){//根据a表将b的状态反推
level ret;
memset(ret.state,0,sizeof(ret.state));
ret.len=b.len;
for(int i=0;i<ret.len;i++){
for(int j=0;j<b.len;j++){
ret.state[i]+=b.state[j]*a.v[i][j];
}
}
return ret;
}
netval operator * (level a,level b){//状态a和状态b生成转移二维表,受学习概率影响
netval ret;
ret.s=a.len;
ret.t=b.len;
for(int i=0;i<a.len;i++){
for(int j=0;j<b.len;j++){
ret.v[i][j]=a.state[i]*b.state[j];
}
}
return ret;
}
netval operator + (netval a,netval b){
for(int i=0;i<a.s;i++){
for(int j=0;j<a.t;j++){
a.v[i][j]+=b.v[i][j];
}
}
return a;
}
level f(level x){//把x状态激活
for(int i=0;i<x.len;i++){
x.state[i]=sigmoid(x.state[i]);
}
return x;
}
level rf(level &x,level y){//用上一层反馈向量y,将当前状态x更新成残差状态
for(int i=0;i<x.len;i++){
x.state[i]= x.state[i]* (1-x.state[i])* y.state[i];
}
}
level cal(level x){//把x作为输入层正向传播,返回输出层
in=x;
hide[0]=f(x*w[0]);
for(int i=1;i<dep;i++){
hide[i]=f(hide[i-1]*w[i]);
}
return out=f(hide[dep-1]*w[dep]);
}
void rebuild(level real){//将当前网络返向回馈改进边权
//----------------反推回残差---------------------------------
for(int i=0;i<out.len;i++){
out.state[i]=-(out.state[i]-real.state[i])*out.state[i]*(1-out.state[i]);
}
rf(hide[dep-1],w[dep]*out);
for(int i=dep-2;i>=0;i--){
rf(hide[i],w[i+1]*hide[i+1]);
}
//----------------重新正推更新边权---------------------------
w[0]=w[0]+in*hide[0];
for(int i=1;i<dep;i++){
w[i]=w[i]+hide[i-1]*hide[i];
}
w[dep]=w[dep]+hide[dep-1]*out;
}
void train(){
}
void my_test(){
double s;
while(scanf("%lf",&s)){
printf("%lf\n",exp(s));
}
}
int main(){
init();
my_test();
test();
return 0;
}
/* in --w[0]--> hide[0] --w[1]--> hide[1] -->...--w[dep-1]--> hide[dep-1] --w[dep]--> out */