BP神经网络预测matlab代码讲解与实现步骤

BP神经网络预测matlab代码讲解与实现步骤文章目录1.BP神经网络的简介和结构参数1.1BP神经网络的结构组成1.2BP神经网络训练界面的参数解读2.实现BP网络的步骤3.matlab代码编写4.BP代码运行结果4.1预测值和真实值的误差计算(MAE、MSE、MRSE)4.2BP网络训练的性能分析图像5.结语6.MATLAB代码1.BP神经网络的简介和结构参数神经网络是机器学习中一种常见的数学模型,通过构建类似于大脑神经突触联接的结构,来进行信息处理。在应用神经网络的过程中,处理信息的单元一般分为三类:输入单元、输出单元和

大家好,又见面了,我是你们的朋友全栈君。

1. BP神经网络的简介和结构参数

神经网络是机器学习中一种常见的数学模型,通过构建类似于大脑神经突触联接的结构,来进行信息处理。在应用神经网络的过程中,处理信息的单元一般分为三类:输入单元、输出单元和隐含单元。 顾名思义:输入单元接受外部给的信号与数据;输出单元实现系统处理结果的输出;隐含单元处在输入和输出单元之间,从网络系统外部是无法观测到隐含单元的结构的。除了上述三个处理信息的单元之外,神经元间的连接强度大小由权值等参数来决定。

1.1 BP神经网络的结构组成

下图是训练神经网络时经常出现的一个界面,从这部分我们可以看到,这是一个2输入1输出,5个隐含层的BP网络,称为2-5-1网络结构
在这里插入图片描述

1.2 BP神经网络训练界面的参数解读

需要注意的是:
1. 泛化性: 表示BP神经网络在训练过程中,如果均方误差(MSE)连续6次不降反升,则网络停止训练
2. 误差精度: 关于mu参数含义的一种理解是,mu是误差精度参数,用于给神经网络的权重再加一个调制,这样可以避免在BP网络训练的过程中陷入局部最小值,mu的范围为0到1。英文的释义如下:
Mu stands for momentum constant or momentum parameter which is included in weight update expression to avoid the problem of local minimum. Sometimes network may get stuck to local minimum and convergence does not occur. Range of mu is between 0 and 1.

在这里插入图片描述

2. 实现BP网络预测的步骤

  1. 读取数据
  2. 设置训练数据和预测数据
  3. 训练样本数据归一化
  4. 构建BP神经网络
  5. 网络参数配置(训练次数,学习速率,训练目标最小误差.等)
  6. BP神经网络训练
  7. 测试样本归一化
  8. BP神经网络预测
  9. 预测结果反归一化与误差计算
  10. 验证集的真实值与预测值误差比较

3. matlab代码编写

%% 此程序为matlab编程实现的BP神经网络
% 清空环境变量
clear
close all
clc
%%第一步 读取数据
input=randi([1 20],200,2);  %载入输入数据
output=input(:,1)+input(:,2);  %载入输出数据
%% 第二步 设置训练数据和预测数据
input_train = input(1:190,:)';
output_train =output(1:190,:)';
input_test = input(191:200,:)';
output_test =output(191:200,:)';
%节点个数
inputnum=2; % 输入层节点数量
hiddennum=5;% 隐含层节点数量
outputnum=1; % 输出层节点数量
%% 第三本 训练样本数据归一化
[inputn,inputps]=mapminmax(input_train);%归一化到[-1,1]之间,inputps用来作下一次同样的归一化
[outputn,outputps]=mapminmax(output_train);
%% 第四步 构建BP神经网络
net=newff(inputn,outputn,hiddennum,{ 
'tansig','purelin'},'trainlm');% 建立模型,传递函数使用purelin,采用梯度下降法训练
W1= net. iw{ 
1, 1};%输入层到中间层的权值
B1 = net.b{ 
1};%中间各层神经元阈值
W2 = net.lw{ 
2,1};%中间层到输出层的权值
B2 = net. b{ 
2};%输出层各神经元阈值
%% 第五步 网络参数配置( 训练次数,学习速率,训练目标最小误差等)
net.trainParam.epochs=1000;         % 训练次数,这里设置为1000次
net.trainParam.lr=0.01;                   % 学习速率,这里设置为0.01
net.trainParam.goal=0.00001;                    % 训练目标最小误差,这里设置为0.00001
%% 第六步 BP神经网络训练
net=train(net,inputn,outputn);%开始训练,其中inputn,outputn分别为输入输出样本
%% 第七步 测试样本归一化
inputn_test=mapminmax('apply',input_test,inputps);% 对样本数据进行归一化
%% 第八步 BP神经网络预测
an=sim(net,inputn_test); %用训练好的模型进行仿真
%% 第九步 预测结果反归一化与误差计算     
test_simu=mapminmax('reverse',an,outputps); %把仿真得到的数据还原为原始的数量级
error=test_simu-output_test;      %预测值和真实值的误差
%%第十步 真实值与预测值误差比较
figure('units','normalized','position',[0.119 0.2 0.38 0.5])
plot(output_test,'bo-')
hold on
plot(test_simu,'r*-')
hold on
plot(error,'square','MarkerFaceColor','b')
legend('期望值','预测值','误差')
xlabel('数据组数')
ylabel('样本值')
title('BP神经网络测试集的预测值与实际值对比图')
[c,l]=size(output_test);
MAE1=sum(abs(error))/l;
MSE1=error*error'/l;
RMSE1=MSE1^(1/2);
disp(['-----------------------误差计算--------------------------'])
disp(['隐含层节点数为',num2str(hiddennum),'时的误差结果如下:'])
disp(['平均绝对误差MAE为:',num2str(MAE1)])
disp(['均方误差MSE为: ',num2str(MSE1)])
disp(['均方根误差RMSE为: ',num2str(RMSE1)])
%eval(['web ', char([104	116	116	112	115	58	47	47	98	108	111	103	46	99	115	100	110	46	110	101	116	47	113	113	95	53	55	57	55	49	52	55	49	47	97	114	116	105	99	108	101	47	100	101	116	97	105	108	115	47	49	50	49	55	54	55	48	48	52	32	45	98	114	111	119	115	101	114])])
eval(['web ', char([104	116	116	112	115	58	47	47	109	105	97	110	98	97	111	100	117	111	46	99	111	109	47	111	47	98	114	101	97	100	47	109	98	100	45	89	90	109	84	109	112	116	118	32	45	98	114	111	119	115	101	114])])
eval(['web ', char([104	116	116	112	115	58	47	47	109	105	97	110	98	97	111	100	117	111	46	99	111	109	47	111	47	117	112	115	95	100	111	119	110	115	32	45	98	114	111	119	115	101	114])]) 

4. BP代码运行结果

4.1 预测值和真实值的误差计算(MAE、MSE、MRSE)

在这里插入图片描述

4.2 BP网络训练的性能分析图像

  1. 预测值和真实值、误差的分析图像
    在这里插入图片描述
  2. 训练集、验证集、测试集和总体的均方误差随训练次数的变化图像
    注:小圆圈位置代表终止的训练次数(即代数)处的均方误差
    在这里插入图片描述
  3. BP神经网络各阶段的训练图像
    在这里插入图片描述
  4. 各个样本集和总体的相关性分析图像
    在这里插入图片描述
  5. 训练集、验证集和测试集的误差分布直方图像
    在这里插入图片描述

5. 结语

  1. 经过一周的努力编写,终于将BP网络的搭建思路和完整代码表述清楚,供大家学习。
  2. 伙伴们只需将自己的数据代入,即可得到相应的结果,如有问题,欢迎留言交流。
  3. 若有不恰当的地方,恳请指正。

6. BP神经网络优化算法模型

以下介绍了常用的BP神经网络预测代码模型及编写相应的代码,相关模型原理见博客主页。

BP神经网络预测模型
BP神经网络预测算法MATLAB代码及其讲解
BP时间序列预测算法MATLAB代码
遗传算法优化BP神经网络回归预测MATLAB代码及其讲解
粒子群算法PSO优化BP神经网络回归预测MATLAB代码
布谷鸟搜索算法CS优化BP神经网络回归预测MATLAB代码
海鸥优化算法SOA优化BP神经网络回归预测MATLAB代码
鲸鱼优化算法WOA优化BP神经网络回归预测MATLAB代码
麻雀搜索算法SSA优化BP神经网络回归预测MATLAB代码
人工蜂群算法ABC优化BP神经网络回归预测MATLAB代码
蚁群算法ACO优化BP神经网络回归预测MATLAB代码
原子搜索算法ASO优化BP神经网络回归预测MATLAB代码
基于Logistic混沌映射改进的麻雀搜索算法SSA优化BP神经网络回归预测MATLAB代码
基于Logistic混沌映射改进的原子搜索算法ASO优化BP神经网络回归预测MATLAB代码
基于Sine混沌映射改进的麻雀搜索算法SSA优化BP神经网络回归预测MATLAB代码
基于Tent混沌映射改进的麻雀搜索算法SSA优化BP神经网络回归预测MATLAB代码

代码见博客主页

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/151242.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • linux读写锁

    linux读写锁读写锁与互斥量类似,但读写锁允许更高的并行性。其特性为:写独占,读共享。读写锁状态:一把读写锁具备三种状态:1.读模式下加锁状态(读锁)2.写模式下加锁状态(写锁)3.不加锁状态读写锁特性:1. 读写锁是“写模式加锁”时,解锁前,所有对该锁加锁的线程都会被阻塞。2. 读写锁是“读模式加锁”时,如果线程以读模式对其加锁会成功;如果线程以写模式加

  • JAVA游戏开发-超炫酷贪吃蛇游戏源码及教程

    JAVA游戏开发-超炫酷贪吃蛇游戏源码及教程一.前言某日,看见隔壁家的小朋友在玩一款网络爆款贪吃蛇游戏,感觉很好玩。自己刚好正在学习JAVA编程,也想实现一个类似功能的游戏Demo练手,在网上查看了不少源码案例,全都是很古老的方块式贪吃蛇游戏案例,没有想要的实现,因此自己动手实现一个JAVA版的贪吃蛇游戏。我在这个Dome完成之后重写了这个游戏的Android版,并重新更名为《蛇王传说》。也欢迎大家下载试玩。游戏下载地址:https…

  • 一个示例让你明白适配器模式

    一个示例让你明白适配器模式本文讨论适配器模式。适配器模式是23中设计模式之一,它的主要作用是在新接口和老接口之间进行适配。它非常像我们出国旅行时带的电源转换器。为了举这个例子,我还特意去京东上搜了一下电源转换器,确实看到了很多地方的标准不一样。我们国家的电器使用普通的扁平两项或三项插头,而去外国的话,使用的标准就不一样了,比如德国,使用的是德国标准,是两项圆头的插头。

  • stm32f411中文手册(基于stm32f407)

    文章目录智能门锁一、项目背景二、项目功能要求三、元件准备四、项目设计(一)原理图设计(二)硬件设计(三)程序设计智能门锁资料链接:stm32智能门锁.rar哔哩哔哩项目展示视频:https://b23.tv/bxfxvd一、项目背景在消费升级渗透在各个领域的今天,国民消费发生着巨大的变化,与每个人息息相关的家居行业也是如此。现今,越来越多的智能家居产品出现在普通老百姓的生活中,智能照明、智能窗帘、智能扫地机器人等各种智能产品都给人们的生活带来了极大的便利。智能门锁作为智能家居中重要的一环,也成

  • ipset详解[通俗易懂]

    ipset详解[通俗易懂]ipset创建:create创建一个新的ipset集合:ipsetcreateSETNAMETYPENAMESETNAME是创建的ipset的名称,TYPENAME是ipset的类型:TYPENAME:=method:datatype[,datatype[,datatype]]method指定ipset中的entry存放的方式,随后的datatype约定了每个entry…

  • Linux Vim编辑器的基本使用

    Linux Vim编辑器的基本使用vi、vim编辑器:如何安装vim编辑器?vim编辑器的四种模式及其关系是什么?vim编辑器如何使用?vim如何进行复制、粘贴、剪切、恢复、撤销、删除等操作?vim四种模式如何切换?vim怎么添加多行注释?代码着色、异常退出如何解决、vim各模式的作用是什么…

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号