小型微型计算机系统Journal of Chinese Computer Systems 2020年12月第12期Vol.41 No. 12 2020
一种基于集成学习的多元时间序列预测方法
左亚尧、王铭锋\洪嘉伟、马铎2
U广东工业大学计算机学院,广州510006)
2 (西安工业大学电子信息工程学院,西安726200)
E-mail :**************
摘要:多元时间序列包含丰富的变量,且变量间存在着相关性,相互影响,可能会降低某一变量的预测精度.为此,本文提出 了一种基于R N N和C N N的混合模型.模型利用互信息法进行特征选择,通过融合C N N的抽象特征提取以及G R U的时序信息提取来预测未来7个单位时刻的数据.实验表明,模型的预测效果优于LSTM等模型.此外,为了检验所构建的模型的泛用性,在P M2.5数据集和SML2010数据集上进行了对比测试,同样证明了模型的优越性.
关键词:多元时间序列;集成学习;短期预测
中图分类号:TP391 文献标识码:A文章编号:1000-1220(2020)12-2475^05
Prediction Method of Multivariate Time Series Based on Ensemble Learning
ZUO Ya-yao1,WANG Ming-feng1,HONG Jia-wei',MA Duo2
1(Faculty of Computer .Guangdong University of Technology .Guangzhou 510006 .China)
2 (School of Electronic Information Engineering .Xi'an Technological University .Xi'an 726200,China)
Abstract :The multivariate time series contains abundant variables,and there are correlations and mutual influences among the varia­bles.which may lead to low accuracy in predicting a certain variable.Therefore,a hybrid model based on RNN and CNN is proposed. The model uses the mutual information method for feature selection,and predicts the data of the next7 moments by integrating the ab­stract feature extraction of CNN withthe timing information extraction of GRU.Experiments show that the prediction effect of the mod­el is better than that of LSTM.In addition,the test has been conducted on PM2. 5 data set and SML2010 data set to illustrate the gener-ality of the constructed model,and its prediction performance has been improved as well.
Key words :multivariate time series;ensemble learning;short-term forecast
i前言
近年来,在时序数据的预测上,主要利用循环神经网络 (Recurrent Neural Network,RNN)[1]和支持向量机(Support Vector Machine,SVM)[2]等方法.在这方面,Borovykh A等[31提出了一种基于深度卷积架构(WaveNet)的自适应条件时间 序列预测方法,证明了卷积神经网络能够有效地学习序列间 的关系.Chaudhary V等利用长短期记忆(Long Short-Term Memory,LSTM)进行大气污染物浓度的预测[<],预测其未来 几个小时的浓度.
利用上述的模型来预测时间序列时,大多只是简单的应 用深度学习模型,没有结合时间序列数据的特点.为此,有学 者结合时间序列数据特点构建混合模型,以提高时间序列预 测性能.Chen J等[5]利用LSTM构建了集成学习模型进行风 速预测,结果表明,集成学习模型效果优于单一 LSTM.Madan R 等⑷利用 ARIMA(Autoregressive Integrated Moving Aver­age)和 _构建混合模型进行流量预测.Lai G等[7]提出了 一种深度学习框架LSTNet来解决多元时间序列预测问题,利用卷积神经网络提取数据间的关系,再使用LSTM获取长期的特征,结合两者的优点进行时间序列的预测.
目前所用到的循环神经网络,大多数都是利用LSTM[8]来进行时间序列预测.同时,还有许多学者致力于对LSTM 进行改进.Chung等[9]提出了门控循环单元(Gated Recurrent Unit,GRU),减少了记忆单元门的数量,在保证性能的情况下,优化了参数规模.Kumar S等[1°]在电力负荷预测时,将 LSTM与GRU进行性能对比,结果显示G R U的速度快于LSTM,而且GRU预测效果略优于LSTM.
而在现实生活中,时间序列数据通常是多元的,多元时间 序列的序列间总是存在复杂的相关性.这种相关性不仅会限 制预测模型的性能,还会使得模型变得更复杂.同时,复杂的 相关性也会增加计算量,降低预测精度,甚至导致“维度灾 难
本文针对多元时间序列可能导致预测精度较低的问题, 提出一种基于R N N和卷积神经网络(Convolutional Neural Network,CNN)的混合模型 HRCNN(Hybrid Recurrent Convo­lutional Neural Network).HRCNN 利用 CNN 捕 获局部特征,并使用GRU获取数据对时间的依赖,将两者所获得的特征拼 接传递给Decoder部分进行解码得到预测输出.
收稿日期:20丨9-12-28收修改稿日期:202(W)2-20基金项目:广东省自然科学基金项目(2018A030313934)资助;广东省科技计划项目 (19ZK0094)资助.作者简介:左亚尧,男,1974年生,博士,副教授,研究方向为时态信息处理、数据挖掘;王铭锋,男,1995年生,硕士研究生,研究 方向为数据挖掘、深度学习;洪嘉伟,男,1999年生,研究方向为数据挖掘、图像识别;马铎,男,1998年生,研究方向为智能电网、数据挖掘.
2476小型微型计算机系统2020 年
2相关工作
2.1卷积神经网络
CNN是目前非常成熟的一种网络框架,不仅在图像领域 应用广泛,也逐渐被应用在语音语义识别、生物医学信号分类 等方面.时间序列预测与交通流量预测相似,在交通流量 预测中,所输人的数据为多元时间序列数据,CNN可以直接 处理该结构的数据,另外,CNN在处理交通数据过程中,能够 从全局角度关注并提取序列的一些重要特征.受此启发,本文 将其应用于时间序列预测上.
CNN是一类包含卷积计算且具有深度结构的前馈神经 网络,包含输人层、隐层、全连接层及输出层.其中,隐层主要 包含卷积层和池化层,卷积层用于特征提取,池化层进行特征 压缩,提取主要特征,由全连接层接收池化层的输出,处理后 得到最终预测输出.如果卷积神经网络用于分类预测的话,往 往最后用softmax层处理.
2.2 序列到序列模型(Sequence to Sequence,Seq2Seq)
近几年来,基于_的Seq2Seq模型[13]被提出,同时因 其在机器翻译上的成功,而变得流行起来.Seq2Seq模型的核 心思想是把一个语言序列翻译成另外一个语言序列,其处理 过程是通过使用_将一个输人序列映射为另外一个输出 序列.其输人和输出长度是可变的,灵活度较高,便于输出特 征长度的调整.
其中,RNN是一种专为序列建模的深度神经网络,该模 型具有对前面的时序数据信息进行记忆的特点,并将其应用 于当前输出的计算中.但是传统的_存在梯度消失问题,因此不能很好的捕获长时间的
依赖,在处理时序数据上往往 会过于依赖临近点数据而忽略长距离的信息.为此,学者们提 出了 LSTM、GRU等改进的RNN,使其能够捕捉到更长距离 的信息,从而学习到长依赖的特征.LSTM与GRU两者的预 测性能相差不大,但G R U速度快于LSTM,因此本文选用GRU构建模型.
GRU表达式如公式(1)-公式(4):
r,=<r(i,W1>+/I,.1W Ar+i r)(1)
z,=(r(i,W,+A1_,W fe+*J(2) h^tanhU.W^ + ir.Q h^^W^+b,)(3)
h,=z,Q h,_l+(l-z,)O h,(4)其中,Z,,r,分别表示更新门和重置门表示候选的隐藏状态,W表不权重,6表本偏置参数./l,分别表T T:f时刻 和f-1时刻的隐藏状态表示r时刻的输入,G)是元素乘法 符.
GRU通过重置门和更新门确定保留下来的隐藏状态,并 将其作为下一时刻的输人或处理成预测输出.
S0H
图1Seq2Seq结构图
Fig. 1Seq2Seq structure
而在Seq2Seq中,编码器(encoder)把所有的输入序列都编码成一个统一的语义向量(context),然后由解码器(decod­er)解码,如图 1 所示,隐藏层中均由 _ 单元组成. 解码器 解码时,不断地将上一时刻的输出作为后一时刻的输人,循环 解码.
3多元时间序列预测模型
本文结合CNN和Seq2Seq两者的优点,利用CNN获取 时间序列间的关系以及GRU获取对时间的依赖,构建一个多 元时间序列预测模型HRCNN.本节将从数据预处理、模型构 建、目标函数和优化器的选择等方面进行介绍.
3.1数据预处理
数据集中有些可能不是影响目标变量的因素,例如:预测 农产品价格时所用到的天气数据中的气压,紫外线指数等.如 果特征数过多,分析特征、训练模型所需的时间就越长,模型 也会越复杂.另外,还可能出现特征稀疏、过拟合等问题,使得 模型效果下降.因而,需要先对其进行特征选择,选取出真正 影响目标变量的数据,减少特征数量并降维,使模型泛化能力 更强.
特征选择的方法有Filter,Wrapper和Embedded.其中Fil­ter是通过计算自 变量与 目标变量之间 的关联 ,来判断是否选 择该自变量.为了方便后续时间窗的数据输人,本文选用Fil­ter中的互信息法[14],互信
息是一个随机变量包含另一个随 机变量信息量的度量,也是在给定另一个随机变量的知识的 条件下,原随机变量不确定度的缩减量,这个不确定度的度量 是用熵来表示.假设有两个随机变量X和F,互信息的表示如 公式(5)所示:
I(X;Y) ^J,xl y p(x,y)lo g pP(x X}^y)(5)
其中p U,;y)是X和y的联合概率密度函数,p U)和p()〇分 别是x和y的边际概率密度函数.
互信息越大,说明x和y两个变量的关联度越大,故可 利用互信息法将与农产品价格关联度大的影响因素出来.
3.2模型构建
HRCNN模型采用RNN和CNN构建,其中RNN和CNN 共同组成Encoder,进行特征提取,RNN作为Decoder,进行解 码所提取的信息,得到最终预测输出,整体流程如图2所示.
图2整体的预测流程
Fig. 2 Overall prediction process
3.2.1 Seq2Seq 部分
由于数据集中每组数据均存在时序性,与GRU模型处理思 路相契合,HRCNN采用GRU
捕获各个时间序列的时序依赖性.
左亚尧等:一种基于集成学习的多元时间序列预测方法2477 12期
以滑动窗口取得数据作为输人,第n个窗口内的数据定义为&,并利用式(6)来更新GRU在第n个窗口的隐层状态.
K=f A h n-l,X…)(6)
是编码器的GRU更新函数.
在Decoder部分,本文将卷积神经网络环节提取到的特 征^和Encoder所获取到的隐层状态/!…拼接,作为解码器的 初始状态[U…],传递给解码器.解码器上一时刻的预测输 出作为解码器的输入,当(=1时则取滑动窗口最后一时 刻的值作为输人.
最终Decoder的预测输出如式(7):
yk n=f d{yk n-')(7)
其中,/,是解码器中GRU单元的更新函数.
Decoder将G R U的状态和CNN所提取到的特征拼接后,作为Decoder的初始状态.用上一时刻的实际目标变量数 据作为起始输人乂,预测未来&天的结果.
3.2.2 潜在特征的提取
在时间窗里面,GRU能够学习到的主要是时间序列对时 间的依赖,而对于不同时间维度的特征关系,却无法提取到. 还需要引人卷积模块,来提取这些潜在的特征.
卷积神经网络部分的特征提取主要是基于CNN的卷积 层和池化层进行展开,在卷积层中,通过卷积操作,可以获得 一系列的特征,使用卷积核w对时间窗内的矩阵数据进行卷 积操作,对大小为A * ^的窗口进行卷积,具体操作如式(8) 所示:
c'… =/(wc •xi:ll.,,+b c)(8)其中,c!是代表第n个时间窗内得到的第f个特征,/为激活 函数,w为滤波器的权重矩阵,* A是选取的滤波器的大小,\为偏置项.表的是滤波器所获取的第;个窗口内的 时序数据.经过一次卷积后,可以得到第《个时间窗内的所提 取出来的特征向量.
= [C U,…,c:] (9) 9是一个时间窗内所提取的特征总数,它由滤波器的大小以 及平移的步长所决定.
利用SeLU激活函数所构建的网络具有自归一化的功能,同时能够有效地防止梯度爆炸以及梯度消失的现象,可作 为卷积层的激活函数,该函数定义如式(1〇):
{x.x>0,、
;,、n (10)
(x(exp(x)- 1)
HRCNN通过池化层对卷积层提取的特征向量进行采样,得到局部最优特征,公式如式(11)所示:
c\ =max(c^…)(11)其中c(是池化层视野中的所有特征,选取其中最大的特征作 为该区域的代表代表的是在第^个时间窗内的第7'次 池化.
然后将池化层所获得的所有特征通过连接层,得到一个 特征向量匕.选用连接层拼接的原因是为了将其投影到一定 维度,使其能够与z…拼接,传给Decoder.
3.3目标函数
为量化实验结果便于比较,HRCNN选用均方根(RMSE)、平均绝对误差(MAE)、R平方决定系数、平均绝对 百分比误差(MAPE)作为评价函数,其具体公式如式(12)-式(15)所示:
RMSE=^i r=,(y…-〇J2(12)
MAE= ^-i™,iyn-〇J(13)
M A P E=^^H1&〇〇"_1(14)
(15)
-〇J2
其中〇…是第/t个观测值,义是同一时刻的预测值,0表示观 察值的平均值.
3.4优化器的选择
为了加快训练的过程,H RC N N选用COntinuousCOin Betting(C O C O B)[~作为优化器,与以往的优化器不同,它不 需要设置任何学习率,这意味着不需要进行学习率的调整,也 不用目标函数的假定曲率,只是将其参数优化的过程简化为 投硬币的游戏,可以更快的达到拟合.
3.5预测算法描述
综上,完整的多元时间序列预测算法描述如下.
Input:滑动窗口观测值X
Output:未来天观测值:^
Begin:
Initialize w,c
iter+—number of iterations
for i<—0 to iter do
for j to N do
Xj input to CNN
h—Fc( max ())//更新 encoder 的特征状态
for r<—0 to L do
Xjt input to GRU
end for
update he j//更新encoder的隐层状态
hdj^~[hej^ej]//更新 decoder 的隐层状态
return Yf
end for
error—(0〃 - P)2//计算误差
COCOB optimizer to update vv,c//优化器更新 w,c
end for
End
4实验与结果分析
4.1实验环境与数据集
数据集:本文的价格数据来源于中国蔬菜网,天气数据由 darksky网站上获取.同时,利用空气质量数
据集和室内温度 数据集进行对比测试.空气质量数据集采用北京PM2. 5数据 信息[16],是典型的多变量时间序列,包括气象数据和PM2. 5数据,发布于U C I上;室内温度数据集是U C I开源数据集SML2010[n],包含室内温度和二氧化碳、相对湿度等其他相 关数据.
4.2数据归一化
在训练模型之前,归一化是非常重要的,归一化可以加快
2478
decoder小型微型计算机系统
2020 年
图4给出了不同模型下大白菜价格预测的结果,相比其 他模型,HRCNN 模型预测未来一天的预测值与实际值基本 一致,表明本文所构建的模型性能的优越性.
400 800GRU
----Actual price 丨
1200
400
800
1200
0 400 800 1200 0 400 800 1200
图4预测结果对比
Fig. 4 Comparison of prediction results
本文,为了检验H R C N N 多天预测的性能,也构建了
G R U 和LSTM 并进行实验对比,测试集损失值如表2所示.
表2
大白菜RM SE 对比
Table 2 RMSE comparison of Napa cabbage
i
2
3
4
5
6
7
HRCNN 0.1013 0.4701 0.5070 0.5263 0 5745 0.5822 0.6017LSTM 0.2883 0.4701 0.5829 0.6857 0.6899 0.6893 0.7149LSTM2 0.1771 0.4529 0.5825 0.6987 0.7033 0.7021 0.7290GRU 0.1771 0.4393 0.5658 0.6777 0.6808 0.6822 0.7117GRU2
0.1874 0.4467 0.5781 0.6871 0.6876 0.6855 0.7178
GRU 2和LSTM 2分别代表的是两层G R U 和两层 LSTM .从表2可以看出,LSTM ,GRU 和HRCNN 的预测性能
均会随着预测天数的增加而降低.但相对于其他模型,本文所 构建的HRCNN 模型,RMSE 较小,而且随着预测天数的增
加,预测性能下降慢于其他模型,也说明了本文所构建模型在 测试集上的效果优于其他模型.
在预测未来尤天的数据时,随着预测天数&的增加,训 练所需的时间逐渐增加,而预测未来8天的价格,相对于预测 未来7天所花费的时间大幅增加,而预测性能却有所下降,因 此将欠的最佳值设定为7,即预测未来7天.
表3
两个数据集的性能对比
Table  3 Performance  comparison  of  the  two  datasets
PM2.;SML2010MAE
RMSE MAE RMSE SVR    2.6779  2.86230.05580.0652GBRT 0.99091•05760.02530.0327RNN 0.86460.96210.02610.0367GRU 0.67330.74330.02310.0288LSTM
0.61680.70260.01780.0234Attention-LSTM 0.23240.36190.01900.0225EA-LSTM 0.1902
0.2755
0.0103
0.0154
HRCNN
0.1261
0.2253
0.0084
0.0135
此外,为了检验HRCNN 模型的泛用性,本文将HRCNN
梯度下降求最优解的速度.HRCNN 采用的z -score 归一化,z - score 可以将不同量级的数据统一转化为同一个量级,统一用
计算出的z -score 值衡量,保证数据之间的可比性.其归一化 公式如式(16)所示:
(T
其中,z 表示归一化后的数据代表原始数据,分别代表
原始数据的均值和标准差.4.3参数设定
在本实验中,将输人窗口时间长度为30,卷积核大小为 3x 3.此外还有几个超参数需要设定,G RU 的隐藏层的特征 维度,Encoder 的GRU 的个数,Decoder 的GRU 的个数.
在超参数选择的方法中,包括网格搜索、随机搜索、贝叶 斯调参等,其中贝叶斯调优[~的原理是建立在高斯过程回归 上,而高斯过程回归则是在求解目标函数的后验分布,每次取 一组参数来得到相应的输出,用来矫正对后验概率分布的评 估,最终得到参数与对应输出的关系.这个过程相对其他调参 方法,在每次迭代中都会考虑之前的参数信息,而且迭代次数 少,速度快,故HRCNN 选用贝叶斯调参.
经过贝叶斯调参后确定GRU 的隐层维度为30,Encoder 的GRU 的个数为2, Decoder 的GRU 的个数为1.4.4结果与分析
本文将数据集分为训练集与测试集,按照前面确定好的 参数,利用训练集进行训练.通过Tensorboard 得到训练集的 损失函数图,其变化如图3所示.
Loss
tag: log/Loss
图3
训练过程中M SE 的变化图
Fig . 3 Changes  of  MSE  during  training
结果表明,随着迭代次数的增加,训练集的损失不断减
少,当迭代次数达到3_的时候,损失值趋于平稳,模型的训 练已经达到了预期效果.
表1不同预测模型的预测结果
Table 1
Prediction results of different prediction models
预测方法
RMSE
MAE
R2
MAPE( % )
HRCNN 0 1013
0.0628
0.9621
3.1147
LSTM 0.28830.19770.69359.5014GRU 0.17710.12050.8843  5.7560GBRT
0.1086
0.0678
0.9566
28.6383
为了检验HRCNN 模型的性能,本文将其与LSTM,GRU 和梯度提升回归树模型(GBRT )进行对比.
从表1可以看出,HRCNN 性能较好,RMSE 值为0. 1013,
MAE  值为 0. 0628,R  值为 0. 9621,MAPE  值为 3. 1147% ,而对 比的模型中,性能较好的是GBRT ,其RMSE 值为0. 1086,MAE
值为 0.0678,R  值为 0.9566,MAPE  值为 28. 63W % .
33B 5-3
B d B u j l o u u 'c d
93E
5-5
B d §
J O
u u u o.
93
B q JD -B 3
C Q
d B U  k
o u u u C L
,
左亚尧等:一种基于集成学习的多元时间序列预测方法2479 12期
在PM2.5数据集和SML2010数据集进行测试,并且与EA-LSTM[19]做性能对比,结果如表3所示.
实验参照文献[19],采用M AE和RMSE两种评价函数 进行性能对比.从表3可以看出,HRCNN模型在PM2. 5数据 集上训练测试,所得到的M AE为0• 1261,RMSE为0. 2253,在PM2.5数据集上预测性能表现上,MAE值优于EA-LSTM 34%,RMSE 值优于EA-LSTM18. 2%.HRCNN 模型在SML2010数据集上训练测试,所得到的M A E为0. 084, RM SE为0.0135,同样优于EA-LSTM,分别提升MAE 18.4%,RMSE 12.3%.HRCNN模型在这两个公开数据集上 均表现出一定的性能提升,表明了 HRCNN在多元时间序列 预测具有较为优越的性能.
5结论
本文通过结合CNN与RNN两种模型,CNN提取全局特 征,RNN提取与时间相关的特征,并对输入形式进行了处理,构建出新的HRCNN模型,且利用贝叶斯对该模型进行优化 调参.实验表明,该模型在预测农产品价格上,体现了较好的 预测性能,另外利用该模型在PM2. 5和SML2010数据集上 进行预测训练,也进一步表明其性能优于EA-LSTM.
References :
[1] Liu Y,Gong C,Yang L,e t al. DSTP-RNN:a dual-stage two-phase
attention-based recurrent neural network for long-term and multiva­
riate time series prediction [ J ]. Expert Systems with Applications,
2020,143(1): ArticlelDl 13082.
[2] Jaramillo J, Velasquez J D,Franco C J. Research in financial time
series forecasting with SVM : contributions from literature [ J ]. IEEE
Latin America Transactions,2017,15( 1) : 145-153.
[3] Borovykh A, Bohte S, Oosterlee C W. Conditional time series fore­
casting with convolutional neural networks [ J ]. arXiv preprint arX-
iv:1703.04691,2017.
[4 ] Chaudhary V, Deshbhratar A, Kumar V, et al. Time series based
LSTM model to predict air pollutant's concentration for prominent cities in india [ EB/OL ]. http://w w w. philippe-foumier-viger.
com/utility_mining_workshop_2018/PAPERl. pdf ,2019.
[5] Chen J,Zeng G Q, Zhou W,et al. Wind speed forecasting using
nonlinear-learning ensemble of deep learning time series prediction and extremal optimization [ J ]. Energy Conversion and Manage-
m ent,2018,165(l) :681-695.
[6] Madan R, SarathiMangipudi P. Predicting computer network traffic :
atime series forecasting approach using DWT, ARIMA and RNN
[C]//2018Eleventh International Conference on Contemporary
Computing(IC3) ,IEEE,2018:l-5.
[7] Lai G, Chang W C, Yang Y,e t al. Modeling long-and short-term
temporal patterns with deep neural networks [ C ]//T h e 41 st Interna­
tional ACM SIGIR Conference on Research & Development in In­
formation Retrieval, ACM,2018 :95-104.
[8] Hua Y, Zhao Z, Li R, et al. Deep learning with long short-term
memory for time series prediction [ J ]. IEEE Communications Mag­
azine,2019,57(6) :114-119.
[9 ] Chung J,Gulcehre C,Cho K,et al. Empirical evaluation of gated re­
current neural networks on sequence modeling [ C ]//N IP S2014 Workshop on Deep Learning,December,2014.
[10] Kumar S, Hussain L,Banarjee S,et al. Energy l oad forecasting using
deep learning approach-LSTM and GRU in spark cluster [ C ] //
2018 Fifth International Conference on Emerging Applications of Information Technology (EAIT), IEEE, 2018 : 1 -4.
[11 ] Korn F,Pagel B U,Faloutsos C. On the " dimensionality curse" and
the " self-similarity blessing" [J].IEEE Transactions on Knowl­
edge and Data Engineering ,2001 ,13(1) :96-l 11.
[12] Wang K,L i K,Zhou L,e t al. Multiple convolutional neural net­
works for multivariate time series prediction[ J]. Neurocomputing,
2019,360(1) :107-119.
[13] Sutskever I,VinyaIs O, Le Q V. Sequence to sequence learning
with neural networks [ C ] //A dvances in Neural Information Pro­
cessing Systems,2014 :3104-3112.
[14] Zha X,Ouyang T,Qin L,et al. Selection of time window for wind
power ramp prediction based on risk model [ J ]. Energy Conversion
and Management,2016,126( 1) :748-758.
[15] Orabona F,Tommasi T. Training deep networks without learning
rates through coin betting [ C ]//Advances in Neural Information
Processing Systems,2017:2160-2170.
[16] Liang X,Zou T,G uo B,et al. Assessing Beijing's PM2. 5 pollu­
tion :severity, weather impact, APEC and winter heating [ J ]. Pro­
ceedings of the Royal Society A : Mathematical, Physical and Engi-
neering Sciences,2015,471 (2182) :ArticleID20150257.
[17] Zamora-Martinez F,Romeu P,Botella-Rocamora P,e t al. On-line
learning of indoor temperature forecasting models towards energy
efficiency[ J]. Energy and Buildings,2014,83(1) : 162-172.
[18] Frazier P I. A tutorial on bayesian optimization [ J ]. arXiv preprint
arXiv:1807.02811,2018.
[19] Li Y,Z hu Z, Kong D,e t al. EA-LSTM: evolutionary attention-
based LSTM for time series prediction [ J ]. arXiv preprint arXiv :1811.03760,2018.

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。