当前位置: 首页 > news >正文

(PyTorch)TCN和RNN/LSTM/GRU结合实现时间序列预测

目录

  • I. 前言
  • II. TCN
  • III. TCN-RNN/LSTM/GRU
    • 3.1 TCN-RNN
    • 3.2 TCN-LSTM
    • 3.3 TCN-GRU
  • IV. 实验结果

I. 前言

前面已经写了一系列有关LSTM时间序列预测的文章:

  1. 深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)
  2. PyTorch搭建LSTM实现时间序列预测(负荷预测)
  3. PyTorch中利用LSTMCell搭建多层LSTM实现时间序列预测
  4. PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)
  5. PyTorch搭建双向LSTM实现时间序列预测(负荷预测)
  6. PyTorch搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  7. PyTorch搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  8. PyTorch搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  9. PyTorch搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  10. PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  11. PyTorch中实现LSTM多步长时间序列预测的几种方法总结(负荷预测)
  12. PyTorch-LSTM时间序列预测中如何预测真正的未来值
  13. PyTorch搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  14. PyTorch搭建ANN实现时间序列预测(风速预测)
  15. PyTorch搭建CNN实现时间序列预测(风速预测)
  16. PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  17. PyTorch搭建Transformer实现多变量多步长时间序列预测(负荷预测)
  18. PyTorch时间序列预测系列文章总结(代码使用方法)
  19. TensorFlow搭建LSTM实现时间序列预测(负荷预测)
  20. TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)
  21. TensorFlow搭建双向LSTM实现时间序列预测(负荷预测)
  22. TensorFlow搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  23. TensorFlow搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  24. TensorFlow搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  25. TensorFlow搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  26. TensorFlow搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  27. TensorFlow搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  28. TensorFlow搭建ANN实现时间序列预测(风速预测)
  29. TensorFlow搭建CNN实现时间序列预测(风速预测)
  30. TensorFlow搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  31. PyG搭建图神经网络实现多变量输入多变量输出时间序列预测
  32. PyTorch搭建GNN-LSTM和LSTM-GNN模型实现多变量输入多变量输出时间序列预测
  33. PyG Temporal搭建STGCN实现多变量输入多变量输出时间序列预测
  34. 时序预测中Attention机制是否真的有效?盘点LSTM/RNN中24种Attention机制+效果对比
  35. 详解Transformer在时序预测中的Encoder和Decoder过程:以负荷预测为例
  36. (PyTorch)TCN和RNN/LSTM/GRU结合实现时间序列预测

时间卷积网络TCN和CNN都是一种利用卷积操作提取特征的模型,CNN是通过卷积层来提取图像中的特征,而TCN则通过时序卷积层来处理时间序列数据。TCN强调如何使用非常深的网络(residual)和膨胀卷积的组合来扩大感受野进而捕捉更广泛的上下文信息。

有关TCN的原理部分不做过多讲解,原理比较简单,下面直接讲解代码。

II. TCN

class Chomp1d(nn.Module):def __init__(self, chomp_size):super(Chomp1d, self).__init__()self.chomp_size = chomp_sizedef forward(self, x):"""裁剪的模块,裁剪多出来的padding"""return x[:, :, :-self.chomp_size].contiguous()class TemporalBlock(nn.Module):def __init__(self, n_inputs, n_outputs, kernel_size, stride, dilation, padding, dropout=0.2):"""相当于一个Residual block:param n_inputs: int, 输入通道数:param n_outputs: int, 输出通道数:param kernel_size: int, 卷积核尺寸:param stride: int, 步长,一般为1:param dilation: int, 膨胀系数:param padding: int, 填充系数:param dropout: float, dropout比率"""super(TemporalBlock, self).__init__()self.conv1 = weight_norm(nn.Conv1d(n_inputs, n_outputs, kernel_size,stride=stride, padding=padding, dilation=dilation))# 经过conv1,输出的size其实是(Batch, input_channel, seq_len + padding)self.chomp1 = Chomp1d(padding)  # 裁剪掉多出来的padding部分,维持输出时间步为seq_lenself.relu1 = nn.ReLU()self.dropout1 = nn.Dropout(dropout)self.conv2 = weight_norm(nn.Conv1d(n_outputs, n_outputs, kernel_size,stride=stride, padding=padding, dilation=dilation))self.chomp2 = Chomp1d(padding)  # 裁剪掉多出来的padding部分,维持输出时间步为seq_lenself.relu2 = nn.ReLU()self.dropout2 = nn.Dropout(dropout)self.net = nn.Sequential(self.conv1, self.chomp1, self.relu1, self.dropout1,self.conv2, self.chomp2, self.relu2, self.dropout2)self.downsample = nn.Conv1d(n_inputs, n_outputs, 1) if n_inputs != n_outputs else Noneself.relu = nn.ReLU()self.init_weights()def init_weights(self):"""参数初始化:return:"""self.conv1.weight.data.normal_(0, 0.01)self.conv2.weight.data.normal_(0, 0.01)if self.downsample is not None:self.downsample.weight.data.normal_(0, 0.01)def forward(self, x):""":param x: size of (Batch, input_channel, seq_len):return:"""out = self.net(x)res = x if self.downsample is None else self.downsample(x)return self.relu(out + res)class TCN(nn.Module):def __init__(self, num_inputs, channels, kernel_size=2, dropout=0.2):""":param num_inputs: int, 输入通道数:param channels: list,每层的hidden_channel数,例如[25,25,25,25]表示有4个隐层,每层hidden_channel数为25:param kernel_size: int, 卷积核尺寸:param dropout: float, drop_out比率"""super(TCN, self).__init__()super().__init__()layers = []num_levels = len(channels)for i in range(num_levels):dilation_size = 2 ** i  # 膨胀系数:1,2,4,8……in_channels = num_inputs if i == 0 else channels[i - 1]  # 确定每一层的输入通道数out_channels = channels[i]  # 确定每一层的输出通道数layers += [TemporalBlock(in_channels, out_channels, kernel_size, stride=1, dilation=dilation_size,padding=(kernel_size - 1) * dilation_size, dropout=dropout)]self.network = nn.Sequential(*layers)def forward(self, x):""":param x: size of (Batch, input_channel, seq_len):return: size of (Batch, output_channel, seq_len)"""x = self.network(x)return x

可以看到这里TCN输入的尺寸是(batch_size, input_channel, seq_len),输出尺寸是(batch_size, output_channel, seq_len)。这与前面讲的文章大致类似,如果需要直接利用TCN得到输出,可以取输出的最后一个时间步,然后经过一个nn.Linear即可得到预测结果,即:

self.fc = nn.Linear(channels[-1], output_size)
x = x[:, :, -1]
x = self.fc(x)

III. TCN-RNN/LSTM/GRU

TCN的输出尺寸为(batch_size, output_channel, seq_len),这天然满足了RNN类模型的输入要求,因此将时序数据先经过TCN再经过RNN等模型是很自然的想法。

3.1 TCN-RNN

TCN-RNN模型搭建如下:

class TCN_RNN(nn.Module):def __init__(self):super(TCN_RNN, self).__init__()self.tcn = TCN(num_inputs=7, channels=[32, 32, 32])self.rnn = nn.RNN(input_size=32, hidden_size=64,num_layers=2, batch_first=True)self.fc = nn.Linear(64, 1)def forward(self, x):x = x.permute(0, 2, 1)  # b i sx = self.tcn(x)  # b h sx = x.permute(0, 2, 1)  # b s hx, _ = self.rnn(x)  # b, s, hx = x[:, -1, :]x = self.fc(x)  # b output_sizereturn x

由于我们构建的输入为(batch_size, seq_len, input_size),而TCN要求的输入为(batch_size, input_channel, seq_len),因此首先需要进行一个permute操作。经过TCN后,输出为(batch_size, output_channel, seq_len),其中output_channelchannels=[32, 32, 32]中最后一个数,即32。

接着RNN的输入应该为(batch_size, seq_len, output_channel),因此还需要经过一个permute。最后利用一个nn.Linear得到这个batch的预测结果。

3.2 TCN-LSTM

相比TCN-RNN,TCN-LSTM只是进行了简单替换:

class TCN_LSTM(nn.Module):def __init__(self):super(TCN_LSTM, self).__init__()self.tcn = TCN(num_inputs=7, channels=[32, 32, 32])self.lstm = nn.LSTM(input_size=32, hidden_size=64,num_layers=2, batch_first=True)self.fc = nn.Linear(64, 1)def forward(self, x):x = x.permute(0, 2, 1)  # b i sx = self.tcn(x)  # b h sx = x.permute(0, 2, 1)  # b s hx, _ = self.lstm(x)  # b, s, hx = x[:, -1, :]x = self.fc(x)  # b output_sizereturn x

3.3 TCN-GRU

TCN-GRU类似:

class TCN_GRU(nn.Module):def __init__(self):super(TCN_GRU, self).__init__()self.tcn = TCN(num_inputs=7, channels=[32, 32, 32])self.gru = nn.GRU(input_size=32, hidden_size=64,num_layers=2, batch_first=True)self.fc = nn.Linear(64, 1)def forward(self, x):x = x.permute(0, 2, 1)  # b i sx = self.tcn(x)  # b h sx = x.permute(0, 2, 1)  # b s hx, _ = self.gru(x)  # b, s, hx = x[:, -1, :]x = self.fc(x)  # b output_sizereturn x

IV. 实验结果

数据集依然选择前边的负荷预测数据集,前24小时的负荷+其余6个变量,预测未来1小时的负荷。由于TCN耗时较长,这里只使用了前5000条数据。

模型效果比较:

模型TCNTCN-RNNTCN-LSTMTCN-GRU
MAPE / %6.915.607.796.75

可以发现TCN-RNN的效果稍好一点,不过以上结果只针对本实验的数据集,并且没有经过调参,因此不具备太多参考性。

相关文章:

  • 避免重复扣款:分布式支付系统的幂等性原理与实践
  • astadmin安装querylist插件Puppeteer
  • 图像分类任务的可视化脚本,生成类别json字典文件
  • Hotspot源码解析-第十七章-虚拟机万物创建(三)
  • 如何使用PHP开发缓存优化图片加载速度
  • Python pip 常用指令
  • 安达发|APS智能排产软件有哪些条件约束功能
  • 2024年AIGC趋势展望:视频生成的“百模大战”
  • 每日一篇英语文章分享-----主目录-----持续更新
  • 蓝凌EIS智慧协同平台 ShowUserInfo.aspx SQL注入漏洞复现
  • vue中常用的指令修饰符
  • JAVA毕业设计118—基于Java+Springboot的宠物寄养管理系统(源代码+数据库)
  • hadoop自动获取时间
  • 通过 Elastic Stack 充分利用电信领域生成式 AI 的力量
  • 年轻人2023消费图鉴,媒介盒子为你揭秘
  • “寒冬”下的金三银四跳槽季来了,帮你客观分析一下局面
  • 【JavaScript】通过闭包创建具有私有属性的实例对象
  • C++11: atomic 头文件
  • ES学习笔记(12)--Symbol
  • Fastjson的基本使用方法大全
  • windows下使用nginx调试简介
  • WinRAR存在严重的安全漏洞影响5亿用户
  • 初探 Vue 生命周期和钩子函数
  • 可能是历史上最全的CC0版权可以免费商用的图片网站
  • 前端技术周刊 2018-12-10:前端自动化测试
  • 一加3T解锁OEM、刷入TWRP、第三方ROM以及ROOT
  • 这几个编码小技巧将令你 PHP 代码更加简洁
  • 3月7日云栖精选夜读 | RSA 2019安全大会:企业资产管理成行业新风向标,云上安全占绝对优势 ...
  • Java数据解析之JSON
  • ​【原创】基于SSM的酒店预约管理系统(酒店管理系统毕业设计)
  • ​二进制运算符:(与运算)、|(或运算)、~(取反运算)、^(异或运算)、位移运算符​
  • (AngularJS)Angular 控制器之间通信初探
  • (附源码)小程序 交通违法举报系统 毕业设计 242045
  • (一)Linux+Windows下安装ffmpeg
  • (转)es进行聚合操作时提示Fielddata is disabled on text fields by default
  • (转)h264中avc和flv数据的解析
  • (转)Linux下编译安装log4cxx
  • (转)linux自定义开机启动服务和chkconfig使用方法
  • (转)Spring4.2.5+Hibernate4.3.11+Struts1.3.8集成方案一
  • .NET 8 中引入新的 IHostedLifecycleService 接口 实现定时任务
  • .NET 除了用 Task 之外,如何自己写一个可以 await 的对象?
  • .NET 动态调用WebService + WSE + UsernameToken
  • .NET/C# 项目如何优雅地设置条件编译符号?
  • .NET国产化改造探索(三)、银河麒麟安装.NET 8环境
  • .NET实现之(自动更新)
  • .NET应用架构设计:原则、模式与实践 目录预览
  • /etc/sudoers (root权限管理)
  • @EventListener注解使用说明
  • @JsonSerialize注解的使用
  • @ResponseBody
  • [ACM] hdu 1201 18岁生日
  • [BUAA软工]第一次博客作业---阅读《构建之法》
  • [C/C++] C/C++中数字与字符串之间的转换
  • [C++ 从入门到精通] 12.重载运算符、赋值运算符重载、析构函数
  • [EFI]Dell Latitude-7400电脑 Hackintosh 黑苹果efi引导文件