BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。

import java.util.Random;

/**
 * BPNN.
 *
 * @author RenaQiu
 *
 */
public class BP {
    /**
     * input vector.
     */
    private final double[] input;
    /**
     * hidden layer.
     */
    private final double[] hidden;
    /**
     * output layer.
     */
    private final double[] output;
    /**
     * target.
     */
    private final double[] target;

/**
     * delta vector of the hidden layer .
     */
    private final double[] hidDelta;
    /**
     * output layer of the output layer.
     */
    private final double[] optDelta;

/**
     * learning rate.
     */
    private final double eta;
    /**
     * momentum.
     */
    private final double momentum;

/**
     * weight matrix from input layer to hidden layer.
     */
    private final double[][] iptHidWeights;
    /**
     * weight matrix from hidden layer to output layer.
     */
    private final double[][] hidOptWeights;

/**
     * previous weight update.
     */
    private final double[][] iptHidPrevUptWeights;
    /**
     * previous weight update.
     */
    private final double[][] hidOptPrevUptWeights;

public double optErrSum = 0d;

public double hidErrSum = 0d;

private final Random random;

/**
     * Constructor.
     * <p>
     * <strong>Note:</strong> The capacity of each layer will be the parameter
     * plus 1. The additional unit is used for smoothness.
     * </p>
     *
     * @param inputSize
     * @param hiddenSize
     * @param outputSize
     * @param eta
     * @param momentum
     * @param epoch
     */
    public BP(int inputSize, int hiddenSize, int outputSize, double eta,
            double momentum) {

input = new double[inputSize + 1];
        hidden = new double[hiddenSize + 1];
        output = new double[outputSize + 1];
        target = new double[outputSize + 1];

hidDelta = new double[hiddenSize + 1];
        optDelta = new double[outputSize + 1];

iptHidWeights = new double[inputSize + 1][hiddenSize + 1];
        hidOptWeights = new double[hiddenSize + 1][outputSize + 1];

random = new Random(19881211);
        randomizeWeights(iptHidWeights);
        randomizeWeights(hidOptWeights);

iptHidPrevUptWeights = new double[inputSize + 1][hiddenSize + 1];
        hidOptPrevUptWeights = new double[hiddenSize + 1][outputSize + 1];

this.eta = eta;
        this.momentum = momentum;
    }

private void randomizeWeights(double[][] matrix) {
        for (int i = 0, len = matrix.length; i != len; i++)
            for (int j = 0, len2 = matrix[i].length; j != len2; j++) {
                double real = random.nextDouble();
                matrix[i][j] = random.nextDouble() > 0.5 ? real : -real;
            }
    }

/**
     * Constructor with default eta = 0.25 and momentum = 0.3.
     *
     * @param inputSize
     * @param hiddenSize
     * @param outputSize
     * @param epoch
     */
    public BP(int inputSize, int hiddenSize, int outputSize) {
        this(inputSize, hiddenSize, outputSize, 0.25, 0.9);
    }

/**
     * Entry method. The train data should be a one-dim vector.
     *
     * @param trainData
     * @param target
     */
    public void train(double[] trainData, double[] target) {
        loadInput(trainData);
        loadTarget(target);
        forward();
        calculateDelta();
        adjustWeight();
    }

/**
     * Test the BPNN.
     *
     * @param inData
     * @return
     */
    public double[] test(double[] inData) {
        if (inData.length != input.length - 1) {
            throw new IllegalArgumentException("Size Do Not Match.");
        }
        System.arraycopy(inData, 0, input, 1, inData.length);
        forward();
        return getNetworkOutput();
    }

/**
     * Return the output layer.
     *
     * @return
     */
    private double[] getNetworkOutput() {
        int len = output.length;
        double[] temp = new double[len - 1];
        for (int i = 1; i != len; i++)
            temp[i - 1] = output[i];
        return temp;
    }

/**
     * Load the target data.
     *
     * @param arg
     */
    private void loadTarget(double[] arg) {
        if (arg.length != target.length - 1) {
            throw new IllegalArgumentException("Size Do Not Match.");
        }
        System.arraycopy(arg, 0, target, 1, arg.length);
    }

/**
     * Load the training data.
     *
     * @param inData
     */
    private void loadInput(double[] inData) {
        if (inData.length != input.length - 1) {
            throw new IllegalArgumentException("Size Do Not Match.");
        }
        System.arraycopy(inData, 0, input, 1, inData.length);
    }

/**
     * Forward.
     *
     * @param layer0
     * @param layer1
     * @param weight
     */
    private void forward(double[] layer0, double[] layer1, double[][] weight) {
        // threshold unit.
        layer0[0] = 1.0;
        for (int j = 1, len = layer1.length; j != len; ++j) {
            double sum = 0;
            for (int i = 0, len2 = layer0.length; i != len2; ++i)
                sum += weight[i][j] * layer0[i];
            layer1[j] = sigmoid(sum);
        }
    }

/**
     * Forward.
     */
    private void forward() {
        forward(input, hidden, iptHidWeights);
        forward(hidden, output, hidOptWeights);
    }

/**
     * Calculate output error.
     */
    private void outputErr() {
        double errSum = 0;
        for (int idx = 1, len = optDelta.length; idx != len; ++idx) {
            double o = output[idx];
            optDelta[idx] = o * (1d - o) * (target[idx] - o);
            errSum += Math.abs(optDelta[idx]);
        }
        optErrSum = errSum;
    }

/**
     * Calculate hidden errors.
     */
    private void hiddenErr() {
        double errSum = 0;
        for (int j = 1, len = hidDelta.length; j != len; ++j) {
            double o = hidden[j];
            double sum = 0;
            for (int k = 1, len2 = optDelta.length; k != len2; ++k)
                sum += hidOptWeights[j][k] * optDelta[k];
            hidDelta[j] = o * (1d - o) * sum;
            errSum += Math.abs(hidDelta[j]);
        }
        hidErrSum = errSum;
    }

/**
     * Calculate errors of all layers.
     */
    private void calculateDelta() {
        outputErr();
        hiddenErr();
    }

/**
     * Adjust the weight matrix.
     *
     * @param delta
     * @param layer
     * @param weight
     * @param prevWeight
     */
    private void adjustWeight(double[] delta, double[] layer,
            double[][] weight, double[][] prevWeight) {

layer[0] = 1;
        for (int i = 1, len = delta.length; i != len; ++i) {
            for (int j = 0, len2 = layer.length; j != len2; ++j) {
                double newVal = momentum * prevWeight[j][i] + eta * delta[i]
                        * layer[j];
                weight[j][i] += newVal;
                prevWeight[j][i] = newVal;
            }
        }
    }

/**
     * Adjust all weight matrices.
     */
    private void adjustWeight() {
        adjustWeight(optDelta, hidden, hidOptWeights, hidOptPrevUptWeights);
        adjustWeight(hidDelta, input, iptHidWeights, iptHidPrevUptWeights);
    }

/**
     * Sigmoid.
     *
     * @param val
     * @return
     */
    private double sigmoid(double val) {
        return 1d / (1d + Math.exp(-val));
    }

}

测试代码:#################################start#################

import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.Random;

public class Test {

/**
     * @param args
     * @throws IOException
     */
    public static void main(String[] args) throws IOException {
        BP bp = new BP(32, 15, 4);

Random random = new Random();
        List<Integer> list = new ArrayList<Integer>();
        for (int i = 0; i != 1000; i++) {
            int value = random.nextInt();
            list.add(value);
        }

for (int i = 0; i != 200; i++) {
            for (int value : list) {
                double[] real = new double[4];
                if (value >= 0)
                    if ((value & 1) == 1)
                        real[0] = 1;
                    else
                        real[1] = 1;
                else if ((value & 1) == 1)
                    real[2] = 1;
                else
                    real[3] = 1;
                double[] binary = new double[32];
                int index = 31;
                do {
                    binary[index--] = (value & 1);
                    value >>>= 1;
                } while (value != 0);

bp.train(binary, real);
            }
        }

System.out.println("训练完毕,下面请输入一个任意数字,神经网络将自动判断它是正数还是复数,奇数还是偶数。");

while (true) {
            byte[] input = new byte[10];
            System.in.read(input);
            Integer value = Integer.parseInt(new String(input).trim());
            int rawVal = value;
            double[] binary = new double[32];
            int index = 31;
            do {
                binary[index--] = (value & 1);
                value >>>= 1;
            } while (value != 0);

double[] result = bp.test(binary);

double max = -Integer.MIN_VALUE;
            int idx = -1;

for (int i = 0; i != result.length; i++) {
                if (result[i] > max) {
                    max = result[i];
                    idx = i;
                }
            }

switch (idx) {
            case 0:
                System.out.format("%d是一个正奇数\n", rawVal);
                break;
            case 1:
                System.out.format("%d是一个正偶数\n", rawVal);
                break;
            case 2:
                System.out.format("%d是一个负奇数\n", rawVal);
                break;
            case 3:
                System.out.format("%d是一个负偶数\n", rawVal);
                break;
            }
        }
    }

}

BP神经网络的Java实现相关推荐

  1. 数据挖掘—BP神经网络(Java实现)

    public class Test {public static void main(String args[]) throws Exception {ArrayList<ArrayList&l ...

  2. BP神经网络的Java实现(转载)

    神经网络的计算过程 神经网络结构如下图所示,最左边的是输入层,最右边的是输出层,中间是多个隐含层,隐含层和输出层的每个神经节点,都是由上一层节点乘以其权重累加得到,标上"+1"的圆 ...

  3. 遗传+BP神经网络 求解故障诊断问题(python)

    遗传+BP神经网络 求解拖拉机齿轮箱故障诊断问题(python3) 通过学习书籍<matlab智能优化算法30个案例分析(第2版)>中有关神经网络算法的编程知识,初步了解神经网络的编码思想 ...

  4. 机器学习知识点(九)BP神经网络Java实现

    为深入理解机器学习中BP神经网络算法,从网上找到的Java实现代码. 1.BP神经网络结构如下图所示,最左边的是输入层,最右边的是输出层,中间是多个隐含层,隐含层和输出层的每个神经节点,都是由上一层节 ...

  5. Java实现手写数字的识别(BP神经网络的运用)

    最近对机器学习方面的知识有点感兴趣,所以特别的对神经网络方面的知识进行了了解.然而,发现大部分的人都是通过Python或者R语言及其Matlab来进行实验的,而自己却还没有时间进行学习,而且对Java ...

  6. Java学习日记(71-80天,BP 神经网络)

    学习地址 目录 第 71 天: BP神经网络基础类 (数据读取与基本结构) 第 72 天: 固定激活函数的BP神经网络 (1. 网络结构理解) 第 73 天: 固定激活函数的BP神经网络 (2. 训练 ...

  7. 用java实现三层BP神经网络算法

    首先大家了解一下BP神经网络,如下: BP(back propagation)神经网络是1986年由Rumelhart和McClelland为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层 ...

  8. 基于java的BP神经网络-初步调超参的体会

    最初实现BP神经网络的时候,我只是简单地用梯度检验法检验了一下,验证自己的求导计算应该是没有问题的. 采用的是标准minist手写数字数据集,就是60000个训练样本和10000个测试样本那个.真的上 ...

  9. 基于三层BP神经网络的人脸识别

    实验四.基于三层BP神经网络的人脸识别 一. 实验要求 采用三层前馈BP神经网络实现标准人脸YALE数据库的识别,编程语言为C系列语言. 二.BP神经网络的结构和学习算法 实验中建议采用如下最简单的三 ...

最新文章

  1. 消息中间件之ActiveMQ 入门
  2. 每天一个linux命令(53)--ps命令
  3. warning.js:7 Warning: [antdv: Table] Each record in dataSource of table should have a unique `key`
  4. 两次结果的绝对差值_你知道电子天平的检定和检定结果的影响因素有哪些吗?...
  5. 新发布AlbumOnNet 、dotnetCharting控件注册资料
  6. IIS 10 安装URLRewrite组件 方式
  7. Spring源码分析-Bean生命周期概述
  8. 教程:使用Java以编程方式将PLT转换为PDF或图像
  9. 企业微信通讯录可以导出吗?如何导出?
  10. android 音乐播放器关于歌词的处理
  11. 可视化设计之迷失扁平化风潮
  12. Eclipse - 取消英文拼写检查
  13. Spring Cache key生成策略, 不要想当然认为是全类名+方法+参数
  14. 没学历,没技术除了进厂,还有哪些出路?
  15. Discuz x2 数据字典
  16. 【pytorch】ResNet18、ResNet20、ResNet34、ResNet50网络结构与实现
  17. yui2 datatable转换至yui3 (3)
  18. python 下载图片
  19. java自带JWS开发Webservice服务
  20. 必不可少的数学基础-单调有界定理

热门文章

  1. linux rm 提示权限不足
  2. Linux搭建下载机(Deluge/BT)
  3. 将 EGL 代码与 DXGI 和 Direct3D 进行比较
  4. 新安装的office(已激活),出现新建没有Word
  5. html 如何设置选择图片,html中如何设置默认图片?
  6. 基站信号强度和位置变化详解(可获得其他系统信息)
  7. 搭建运营工单数据分析系统
  8. [python]matplotlib.pyplot模块
  9. html可以有多个h1,HTML5大纲和多个H1 SEO
  10. 如何禁止计算机用户修改时间,win10禁止用户修改系统时间的方法