您好,登錄后才能下訂單哦!
本篇文章為大家展示了基于的強預測器設計是怎么樣的,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。
Adaboost方法不僅可以用語設計強分類器,還可以用于設計強預測器。
強預測器設計思路與強分類器設計類似,都是先富裕測試樣本權重,然后根據弱預測器預測結果調整測試樣本權重并確定弱預測器權重,最后把弱預測器序列作為強預測器。不同的是在強預測器中增加預測錯類別樣本的權重,增加預測誤差超過閥值的樣本權重。
仍然預測之前預測的函數
%% 清空環境變量
clc
clear
%% 下載數據
load data1 input output
%% 權重初始化
k=rand(1,2000);
[m,n]=sort(k);
%訓練樣本
input_train=input(n(1:1900),:)';
output_train=output(n(1:1900),:)';
%測試樣本
input_test=input(n(1901:2000),:)';
output_test=output(n(1901:2000),:)';
%樣本權重
[mm,nn]=size(input_train);
D(1,:)=ones(1,nn)/nn;
%訓練樣本歸一化
[inputn,inputps]=mapminmax(input_train);
[outputn,outputps]=mapminmax(output_train);
K=10;
for i=1:K
%弱預測器訓練
net=newff(inputn,outputn,5);
net.trainParam.epochs=20;
net.trainParam.lr=0.1;
net=train(net,inputn,outputn);
%弱預測器預測
an1=sim(net,inputn);
BPoutput=mapminmax('reverse',an1,outputps);
%預測誤差
erroryc(i,:)=output_train-BPoutput;
%測試數據預測
inputn1=mapminmax('apply',input_test,inputps);
an2=sim(net,inputn1);
test_simu(i,:)=mapminmax('reverse',an2,outputps);
%調整D值
Error(i)=0;
for j=1:nn
if abs(erroryc(i,j))>0.2 %較大誤差
Error(i)=Error(i)+D(i,j);
D(i+1,j)=D(i,j)*1.1;
else
D(i+1,j)=D(i,j);
end
end
%計算弱預測器權重
at(i)=0.5/exp(abs(Error(i)));
%D值歸一化
D(i+1,:)=D(i+1,:)/sum(D(i+1,:));
end
%% 強預測器預測
at=at/sum(at);
%% 結果統計
%強分離器效果
output=at*test_simu;
error=output_test-output;
plot(abs(error),'-*')
hold on
for i=1:8
error1(i,:)=test_simu(i,:)-output;
end
plot(mean(abs(error1)),'-or')
title('強預測器預測誤差絕對值','fontsize',12)
xlabel('預測樣本','fontsize',12)
ylabel('誤差絕對值','fontsize',12)
legend('強預測器預測','弱預測器預測')
上述內容就是基于的強預測器設計是怎么樣的,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。