大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺
单独的ESN仿真:
ESN的运行结果如下所示:
这个部分的误差为:
0.0435
ESN部分就不多做介绍了,你应该了解的,下面我们对ESN和BP改进和极限学习改进分别进行修改和说明,并进行仿真。
ESN+BP的仿真:
首先,在原始的ESN中,权值的计算是通过pseudoinverse.m这个函数进行计算的,其主要内容就是:
即:
这里,我们的主要方法为:
将计算得到的权值作为bp神经网络迭代的初始值,然后以这个初始值为迭代过程的第一个值,不断的训练迭代,最后得到ESN-BP输出的权值,然后进行测试。
因此,其基本思路就是通过B-1T得到初始权值,然后通过bp网络进行迭代,得到最后优化后的值。
计算后的误差为0.0427
从上面的对比可知,采用BP神经网络进行权值系数的非线性更新之后,其误差可以进一步降低。但提升性能有限。
ESN+极限学习算法的仿真:
这个部分的原理和上面的相同,不同的是,我们需要使用极限学习方法对ESN网络的中的权值进行更新。
误差为:0.1050
下面给出整个算法的流程框图:
2.部分核心代码
clc;
clear;
close all;
warning off;
RandStream.setDefaultStream(RandStream('mt19937ar','seed',1));
addpath 'func\data_process\'
addpath 'func\Initial_ESN\'
addpath 'func\train_esn\'
addpath 'func\test_esn\'
load data.mat
%数据分割
train_fraction = 0.5;
[trainInputSequence, testInputSequence] = split_train_test(inputSequence,train_fraction);
[trainOutputSequence,testOutputSequence] = split_train_test(outputSequence,train_fraction);
%generate an esn
nInputUnits = 2;
nInternalUnits = 32;
nOutputUnits = 1;
esn = generate_esn(nInputUnits,nInternalUnits,nOutputUnits,'spectralRadius',0.5,'inputScaling',[0.1;0.1],'inputShift',[0;0],'teacherScaling',[0.3],'teacherShift',[-0.2],'feedbackScaling',0,'type','plain_esn');
esn.internalWeights = esn.spectralRadius * esn.internalWeights_UnitSR;
%train the ESN
%discard the first 100 points
nForgetPoints = 100;
%这里,就固定设置一种默认的学习方式,其他的就注释掉了
[trainedEsn,stateMatrix] = train_esn(trainInputSequence,trainOutputSequence,esn,nForgetPoints) ;
%test the ESN
nForgetPoints = 100 ;
predictedTrainOutput = test_esn(trainInputSequence, trainedEsn, nForgetPoints);
predictedTestOutput = test_esn(testInputSequence, trainedEsn, nForgetPoints) ;
figure;
plot(testOutputSequence(nForgetPoints+4:end),'b');
hold on
plot(predictedTestOutput,'r');
legend('原数据','预测数据');
title('ESN-ELM:测试数据的预测');
%计算测试数据的预测结果:
estimatedOutput = predictedTestOutput(1:end-3);
correctOutput = testOutputSequence(nForgetPoints+4:end);
nEstimatePoints = length(estimatedOutput) ;
nForgetPoints = length(correctOutput) - nEstimatePoints ;
correctVariance = 1;
meanerror = sum((estimatedOutput - correctOutput).^2)/nEstimatePoints ;
err =(sqrt(meanerror./correctVariance));
err
3.参考文献
A05-22
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/179752.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...