当前位置: 首页 > news >正文

哪吒闹海!SCI算法+分解组合+四模型原创对比首发!SGMD-FATA-Transformer-LSTM多变量时序预测

哪吒闹海!SCI算法+分解组合+四模型原创对比首发!SGMD-FATA-Transformer-LSTM多变量时序预测

目录

    • 哪吒闹海!SCI算法+分解组合+四模型原创对比首发!SGMD-FATA-Transformer-LSTM多变量时序预测
      • 效果一览
      • 基本介绍
      • 程序设计
      • 参考资料

效果一览

在这里插入图片描述

在这里插入图片描述

基本介绍

1.SCI算法海市蜃楼优化算法优化算法+分解组合对比!SGMD-FATA-Transformer-LSTM多变量时间序列光伏功率预测,辛几何模态分解+海市蜃楼优化算法优化Transformer结合长短期记忆神经网络多变量时间序列预测(程序可以作为核心级论文代码支撑,目前尚未发表);
海市蜃楼优化算法(Fata morgana algorithm, FATA)是一种新型的元启发式算法(智能优化算法),灵感来源于海市蜃楼的形成过程,该成果由Ailiang Qi于2024年8月发表在SCI的Top期刊《Neurocomputing》上!
2.算法优化参数为:学习率,隐含层单元数目,最大训练周期,运行环境为Matlab2023b及以上;
3.数据集为excel(光伏功率数据集,输入辐射度、气温、气压、湿度,输出光伏功率),输入多个特征,输出单个变量,考虑历史特征的影响,多变量时间序列预测,主程序运行即可,所有文件放在一个文件夹;
4.命令窗口输出R2、MSE、RMSE、MAE、MAPE、MBE等多指标评价。
先运行main1SGMD,进行SGMD分解;再运行main2FATATransformerLSTM,四个模型对比;注意:一种算法不是万能的,不同的数据集效果会有差别,后面的工作就是需要调整参数。

数据集
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参考文献
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

程序设计

  • 完整程序和数据获取方式私信博主回复哪吒闹海!SCI算法+分解组合+四模型原创对比首发!SGMD-FATA-Transformer-LSTM多变量时序预测(Matlab)




%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行

clc;
clear 
close all
warning off
%% CSDN《机器学习之心》
%% Transformer预测
tic
X = xlsread('北半球光伏数据.xlsx');
load SGMD_data.mat


disp('…………………………………………………………………………………………………………………………')

num_samples = length(X);       % 样本个数 
kim = 5;                       % 延时步长(kim个历史数据作为自变量)
zim =  1;                      % 跨zim个时间点进行预测
or_dim = size(X,2);

%  重构数据集
for i = 1: num_samples - kim - zim + 1
    res(i, :) = [reshape(X(i: i + kim - 1,:), 1, kim*or_dim), X(i + kim + zim - 1,:)];
end


% 训练集和测试集划分
outdim = 1;                                  % 最后一列为输出
num_size = 0.7;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度


P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

%  数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);

%%  数据平铺
%   将数据平铺成1维数据只是一种处理方式
%   也可以平铺成2维数据,以及3维数据,需要修改对应模型结构
%   但是应该始终和输入层数据结构保持一致
P_train =  double(reshape(P_train, f_, 1, 1, M));
P_test  =  double(reshape(P_test , f_, 1, 1, N));

t_train = t_train';
t_test  = t_test' ;

%%  数据格式转换%% CSDN《机 器 学 习 之 心》
for i = 1 : M
    p_train{i, 1} = P_train(:, :, 1, i);
end

for i = 1 : N
    p_test{i, 1}  = P_test( :, :, 1, i);
end

% Transformer建模
numChannels = f_;                                             % 定义输入的通道数,变量 f_ 代表特征的维度
maxPosition = 256*2;                                          % 最大位置编码,通常用于序列长度的上限,这里设为 512
numHeads = 4;                                                 % 自注意力机制中的头数
numKeyChannels = numHeads*32;                                 % 每个头的键通道数,总键通道数为 128








参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/127931217
[2] https://blog.csdn.net/kjm13182345320/article/details/127418340

相关文章:

  • 6.appender
  • MySQL、MariaDB 和 TDSQL 的区别
  • 10 FastAPI 的自动文档
  • Golang的图形编程应用案例
  • github不翻墙就可以访问
  • 数据结构——【二叉树模版】
  • vue项目使用vite和vue-router实现history路由模式空白页以及404问题
  • fetch() 与 XMLHttpRequest 的差异
  • AI知识库和全文检索的区别
  • C++设计模式 - 模板模式
  • 使用 Notepad++ 编辑显示 MarkDown
  • C# sealed 、GetType、序列化static
  • 【网络安全.渗透测试】Cobalt strike(CS)工具使用说明
  • 【状态空间方程】对于状态空间方程矩阵D≠0时的状态反馈与滑模控制
  • 细说STM32F407单片机RTC入侵检测和时间戳的原理及使用方法
  • 当没有OpenGL时,Skia如何绘制?
  • qt的QMainWindow保存窗口和恢复窗口状态
  • 《Stable Diffusion绘画完全指南:从入门到精通的Prompt设计艺术》 第一章
  • HCIA-路由器相关知识和面试问题
  • 《Performance Analysisi and Tuning on Modern CPU》阅读笔记
  • 联合国:欢迎俄乌伊斯坦布尔会谈,希望实现全面停火
  • 坚决打好产业生态培育攻坚战!陈吉宁调研奉贤区
  • 病重老人取钱在银行门口去世,家属:已协商一致
  • 再现五千多年前“古国时代”:凌家滩遗址博物馆今开馆
  • 蒋圣龙突遭伤病出战世预赛存疑,国足生死战后防线严重减员
  • 澳大利亚首例“漂绿”诉讼开庭:能源巨头因“碳中和”承诺遭起诉