🔥码云GVP开源项目 12k star Uniapp+ElementUI 功能强大 支持多语言、二开方便! 广告
# 如何开发多层感知器模型进行时间序列预测 > 原文: [https://machinelearningmastery.com/how-to-develop-multilayer-perceptron-models-for-time-series-forecasting/](https://machinelearningmastery.com/how-to-develop-multilayer-perceptron-models-for-time-series-forecasting/) 多层感知器(简称 MLP)可应用于时间序列预测。 使用 MLP 进行时间序列预测的一个挑战是准备数据。具体而言,必须将滞后观察平坦化为特征向量。 在本教程中,您将了解如何针对一系列标准时间序列预测问题开发一套 MLP 模型。 本教程的目的是为每种类型的时间序列问题提供每个模型的独立示例,作为模板,您可以根据特定的时间序列预测问题进行复制和调整。 在本教程中,您将了解如何针对一系列标准时间序列预测问题开发一套多层感知器模型。 完成本教程后,您将了解: * 如何开发单变量时间序列预测的 MLP 模型。 * 如何开发多元时间序列预测的 MLP 模型。 * 如何开发 MLP 模型进行多步时间序列预测。 让我们开始吧。 ![How to Develop Multilayer Perceptron Models for Time Series Forecasting](https://img.kancloud.cn/c5/49/c549319a38fb62bda43b0d61f6a0b6e2_640x461.jpg) 如何开发用于时间序列预测的多层感知器模型 照片由[土地管理局](https://www.flickr.com/photos/mypubliclands/16358796247/),保留一些权利。 ## 教程概述 本教程分为四个部分;他们是: 1. 单变量 MLP 模型 2. 多变量 MLP 模型 3. 多步 MLP 模型 4. 多变量多步 MLP 模型 ## 单变量 MLP 模型 多层感知器(简称 MLP)可用于模拟单变量时间序列预测问题。 单变量时间序列是由具有时间顺序的单个观察序列组成的数据集,并且需要模型来从过去的一系列观察中学习以预测序列中的下一个值。 本节分为两部分;他们是: 1. 数据准备 2. MLP 模型 ### 数据准备 在对单变量系列进行建模之前,必须准备好它。 MLP 模型将学习将过去观察序列作为输入映射到输出观察的函数。因此,必须将观察序列转换为模型可以从中学习的多个示例。 考虑给定的单变量序列: ```py [10, 20, 30, 40, 50, 60, 70, 80, 90] ``` 我们可以将序列划分为多个称为样本的输入/输出模式,其中三个时间步长用作输入,一个时间步长用作正在学习的一步预测的输出。 ```py X, y 10, 20, 30 40 20, 30, 40 50 30, 40, 50 60 ... ``` 下面的 _split_sequence()_ 函数实现了这种行为,并将给定的单变量序列分成多个样本,其中每个样本具有指定的时间步长,输出是单个时间步长。 ```py # split a univariate sequence into samples def split_sequence(sequence, n_steps): X, y = list(), list() for i in range(len(sequence)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the sequence if end_ix > len(sequence)-1: break # gather input and output parts of the pattern seq_x, seq_y = sequence[i:end_ix], sequence[end_ix] X.append(seq_x) y.append(seq_y) return array(X), array(y) ``` 我们可以在上面的小型人为数据集上演示这个功能。 下面列出了完整的示例。 ```py # univariate data preparation from numpy import array # split a univariate sequence into samples def split_sequence(sequence, n_steps): X, y = list(), list() for i in range(len(sequence)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the sequence if end_ix > len(sequence)-1: break # gather input and output parts of the pattern seq_x, seq_y = sequence[i:end_ix], sequence[end_ix] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence raw_seq = [10, 20, 30, 40, 50, 60, 70, 80, 90] # choose a number of time steps n_steps = 3 # split into samples X, y = split_sequence(raw_seq, n_steps) # summarize the data for i in range(len(X)): print(X[i], y[i]) ``` 运行该示例将单变量系列分成六个样本,其中每个样本具有三个输入时间步长和一个输出时间步长。 ```py [10 20 30] 40 [20 30 40] 50 [30 40 50] 60 [40 50 60] 70 [50 60 70] 80 [60 70 80] 90 ``` 现在我们已经知道如何准备用于建模的单变量系列,让我们看看开发一个可以学习输入到输出的映射的 MLP 模型。 ### MLP 模型 简单的 MLP 模型具有单个隐藏的节点层,以及用于进行预测的输出层。 我们可以如下定义用于单变量时间序列预测的 MLP。 ```py # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_steps)) model.add(Dense(1)) model.compile(optimizer='adam', loss='mse') ``` 定义中重要的是输入的形状;这就是模型所期望的每个样本在时间步数方面的输入。 输入的时间步数是我们在准备数据集时选择的数字,作为 _split_sequence()_ 函数的参数。 每个样本的输入维度在第一个隐藏层定义的 _input_dim_ 参数中指定。从技术上讲,模型将每个时间步骤视为单独的特征而不是单独的时间步骤。 我们几乎总是有多个样本,因此,模型将期望训练数据的输入组件具有尺寸或形状: ```py [samples, features] ``` 我们在上一节中的 _split_sequence()_ 函数输出 _X_ ,形状 _[样本,特征]_ 准备用于建模。 使用随机梯度下降的有效 [Adam 版本拟合该模型,并使用均方误差或' _mse_ ',损失函数进行优化。](https://machinelearningmastery.com/adam-optimization-algorithm-for-deep-learning/) 定义模型后,我们可以将其放在训练数据集上。 ```py # fit model model.fit(X, y, epochs=2000, verbose=0) ``` 在模型拟合后,我们可以使用它来进行预测。 我们可以通过提供输入来预测序列中的下一个值: ```py [70, 80, 90] ``` 并期望模型预测如下: ```py [100] ``` 模型期望输入形状为 _[样本,特征]_ 为二维,因此,我们必须在进行预测之前重新整形单个输入样本,例如,对于 1 个样本,形状为[1,3]和 3 个时间步骤用作输入功能。 ```py # demonstrate prediction x_input = array([70, 80, 90]) x_input = x_input.reshape((1, n_steps)) yhat = model.predict(x_input, verbose=0) ``` 我们可以将所有这些结合在一起并演示如何为单变量时间序列预测开发 MLP 并进行单一预测。 ```py # univariate mlp example from numpy import array from keras.models import Sequential from keras.layers import Dense # split a univariate sequence into samples def split_sequence(sequence, n_steps): X, y = list(), list() for i in range(len(sequence)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the sequence if end_ix > len(sequence)-1: break # gather input and output parts of the pattern seq_x, seq_y = sequence[i:end_ix], sequence[end_ix] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence raw_seq = [10, 20, 30, 40, 50, 60, 70, 80, 90] # choose a number of time steps n_steps = 3 # split into samples X, y = split_sequence(raw_seq, n_steps) # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_steps)) model.add(Dense(1)) model.compile(optimizer='adam', loss='mse') # fit model model.fit(X, y, epochs=2000, verbose=0) # demonstrate prediction x_input = array([70, 80, 90]) x_input = x_input.reshape((1, n_steps)) yhat = model.predict(x_input, verbose=0) print(yhat) ``` 运行该示例准备数据,拟合模型并进行预测。 鉴于算法的随机性,您的结果可能会有所不同;尝试运行几次这个例子。 我们可以看到模型预测序列中的下一个值。 ```py [[100.0109]] ``` ## 多变量 MLP 模型 多变量时间序列数据是指每个时间步长有多个观察值的数据。 对于多变量时间序列数据,我们可能需要两种主要模型;他们是: 1. 多输入系列。 2. 多个并联系列。 让我们依次看看每一个。 ### 多输入系列 问题可能有两个或更多并行输入时间序列和输出时间序列,这取决于输入时间序列。 输入时间序列是平行的,因为每个系列在同一时间步骤都有观察。 我们可以通过两个并行输入时间序列的简单示例来演示这一点,其中输出序列是输入序列的简单添加。 ```py # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) ``` 我们可以将这三个数据数组重新整形为单个数据集,其中每一行都是一个时间步,每列是一个单独的时间序列。这是将并行时间序列存储在 CSV 文件中的标准方法。 ```py # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) ``` 下面列出了完整的示例。 ```py # multivariate data preparation from numpy import array from numpy import hstack # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) print(dataset) ``` 运行该示例将打印数据集,每个时间步长为一行,两个输入和一个输出并行时间序列分别为一列。 ```py [[ 10 15 25] [ 20 25 45] [ 30 35 65] [ 40 45 85] [ 50 55 105] [ 60 65 125] [ 70 75 145] [ 80 85 165] [ 90 95 185]] ``` 与单变量时间序列一样,我们必须将这些数据组织成具有输入和输出样本的样本。 我们需要将数据分成样本,保持两个输入序列的观察顺序。 如果我们选择三个输入时间步长,那么第一个样本将如下所示: 输入: ```py 10, 15 20, 25 30, 35 ``` 输出: ```py 65 ``` 也就是说,每个并行系列的前三个时间步长被提供作为模型的输入,并且模型将其与第三时间步骤的输出系列中的值相关联,在这种情况下为 65。 我们可以看到,在将时间序列转换为输入/输出样本以训练模型时,我们将不得不从输出时间序列中丢弃一些值,其中我们在先前时间步骤中没有输入时间序列中的值。反过来,选择输入时间步数的大小将对使用多少训练数据产生重要影响。 我们可以定义一个名为 _split_sequences()_ 的函数,该函数将采用数据集,因为我们已经为时间步长和行定义了并行序列和返回输入/输出样本的列。 ```py # split a multivariate sequence into samples def split_sequences(sequences, n_steps): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the dataset if end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :-1], sequences[end_ix-1, -1] X.append(seq_x) y.append(seq_y) return array(X), array(y) ``` 我们可以使用每个输入时间序列的三个时间步长作为输入在我们的数据集上测试此函数。 下面列出了完整的示例。 ```py # multivariate data preparation from numpy import array from numpy import hstack # split a multivariate sequence into samples def split_sequences(sequences, n_steps): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the dataset if end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :-1], sequences[end_ix-1, -1] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps = 3 # convert into input/output X, y = split_sequences(dataset, n_steps) print(X.shape, y.shape) # summarize the data for i in range(len(X)): print(X[i], y[i]) ``` 首先运行该示例将打印 X 和 y 组件的形状。 我们可以看到 X 组件具有三维结构。 第一个维度是样本数,在本例中为 7.第二个维度是每个样本的时间步数,在这种情况下为 3,即为函数指定的值。最后,最后一个维度指定并行时间序列的数量或变量的数量,在这种情况下,两个并行序列为 2。 然后我们可以看到每个样本的输入和输出都被打印出来,显示了两个输入序列中每个样本的三个时间步长以及每个样本的相关输出。 ```py (7, 3, 2) (7,) [[10 15] [20 25] [30 35]] 65 [[20 25] [30 35] [40 45]] 85 [[30 35] [40 45] [50 55]] 105 [[40 45] [50 55] [60 65]] 125 [[50 55] [60 65] [70 75]] 145 [[60 65] [70 75] [80 85]] 165 [[70 75] [80 85] [90 95]] 185 ``` 在我们可以在这些数据上拟合 MLP 之前,我们必须平整输入样本的形状。 MLP 要求每个样本的输入部分的形状是向量。使用多变量输入,我们将有多个向量,每个时间步长一个。 我们可以展平每个输入样本的时间结构,以便: ```py [[10 15] [20 25] [30 35]] ``` 变为: ```py [10, 15, 20, 25, 30, 35] ``` 首先,我们可以计算每个输入向量的长度,作为时间步数乘以要素数或时间序列数。然后我们可以使用此向量大小来重塑输入。 ```py # flatten input n_input = X.shape[1] * X.shape[2] X = X.reshape((X.shape[0], n_input)) ``` 我们现在可以为多变量输入定义 MLP 模型,其中向量长度用于输入维度参数。 ```py # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_input)) model.add(Dense(1)) model.compile(optimizer='adam', loss='mse') ``` 在进行预测时,模型需要两个输入时间序列的三个时间步长。 我们可以预测输出系列中的下一个值,证明输入值: ```py 80, 85 90, 95 100, 105 ``` 具有 3 个时间步长和 2 个变量的 1 个样本的形状将是[1,3,2]。我们必须再次将其重塑为 1 个样本,其中包含 6 个元素的向量或[1,6] 我们希望序列中的下一个值为 100 + 105 或 205。 ```py # demonstrate prediction x_input = array([[80, 85], [90, 95], [100, 105]]) x_input = x_input.reshape((1, n_input)) yhat = model.predict(x_input, verbose=0) ``` 下面列出了完整的示例。 ```py # multivariate mlp example from numpy import array from numpy import hstack from keras.models import Sequential from keras.layers import Dense # split a multivariate sequence into samples def split_sequences(sequences, n_steps): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the dataset if end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :-1], sequences[end_ix-1, -1] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps = 3 # convert into input/output X, y = split_sequences(dataset, n_steps) # flatten input n_input = X.shape[1] * X.shape[2] X = X.reshape((X.shape[0], n_input)) # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_input)) model.add(Dense(1)) model.compile(optimizer='adam', loss='mse') # fit model model.fit(X, y, epochs=2000, verbose=0) # demonstrate prediction x_input = array([[80, 85], [90, 95], [100, 105]]) x_input = x_input.reshape((1, n_input)) yhat = model.predict(x_input, verbose=0) print(yhat) ``` 运行该示例准备数据,拟合模型并进行预测。 ```py [[205.04436]] ``` 还有另一种更精细的方法来模拟问题。 每个输入序列可以由单独的 MLP 处理,并且可以在对输出序列进行预测之前组合这些子模型中的每一个的输出。 我们可以将其称为多头输入 MLP 模型。根据正在建模的问题的具体情况,它可以提供更大的灵活性或更好的表现。 可以使用 [Keras 功能 API](https://machinelearningmastery.com/keras-functional-api-deep-learning/) 在 Keras 中定义此类型的模型。 首先,我们可以将第一个输入模型定义为 MLP,其输入层需要具有 _n_steps_ 特征的向量。 ```py # first input model visible1 = Input(shape=(n_steps,)) dense1 = Dense(100, activation='relu')(visible1) ``` 我们可以以相同的方式定义第二个输入子模型。 ```py # second input model visible2 = Input(shape=(n_steps,)) dense2 = Dense(100, activation='relu')(visible2) ``` 既然已经定义了两个输入子模型,我们可以将每个模型的输出合并为一个长向量,可以在对输出序列进行预测之前对其进行解释。 ```py # merge input models merge = concatenate([dense1, dense2]) output = Dense(1)(merge) ``` 然后我们可以将输入和输出联系在一起。 ```py model = Model(inputs=[visible1, visible2], outputs=output) ``` 下图提供了该模型外观的示意图,包括每层输入和输出的形状。 ![Plot of Multi-Headed MLP for Multivariate Time Series Forecasting](https://img.kancloud.cn/ed/d9/edd99983f2315be23bf7c83d80914203_715x405.jpg) 多元时间序列预测的多头 MLP 图 此模型要求输入作为两个元素的列表提供,其中列表中的每个元素包含一个子模型的数据。 为了实现这一点,我们可以将 3D 输入数据分成两个独立的输入数据阵列:即从一个形状为[7,3,2]的阵列到两个形状为[7,3]的 2D 阵列 ```py # separate input data X1 = X[:, :, 0] X2 = X[:, :, 1] ``` 然后可以提供这些数据以适合模型。 ```py # fit model model.fit([X1, X2], y, epochs=2000, verbose=0) ``` 类似地,我们必须在进行单个一步预测时将单个样本的数据准备为两个单独的二维数组。 ```py x_input = array([[80, 85], [90, 95], [100, 105]]) x1 = x_input[:, 0].reshape((1, n_steps)) x2 = x_input[:, 1].reshape((1, n_steps)) ``` 我们可以将所有这些结合在一起;下面列出了完整的示例。 ```py # multivariate mlp example from numpy import array from numpy import hstack from keras.models import Model from keras.layers import Input from keras.layers import Dense from keras.layers.merge import concatenate # split a multivariate sequence into samples def split_sequences(sequences, n_steps): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the dataset if end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :-1], sequences[end_ix-1, -1] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps = 3 # convert into input/output X, y = split_sequences(dataset, n_steps) # separate input data X1 = X[:, :, 0] X2 = X[:, :, 1] # first input model visible1 = Input(shape=(n_steps,)) dense1 = Dense(100, activation='relu')(visible1) # second input model visible2 = Input(shape=(n_steps,)) dense2 = Dense(100, activation='relu')(visible2) # merge input models merge = concatenate([dense1, dense2]) output = Dense(1)(merge) model = Model(inputs=[visible1, visible2], outputs=output) model.compile(optimizer='adam', loss='mse') # fit model model.fit([X1, X2], y, epochs=2000, verbose=0) # demonstrate prediction x_input = array([[80, 85], [90, 95], [100, 105]]) x1 = x_input[:, 0].reshape((1, n_steps)) x2 = x_input[:, 1].reshape((1, n_steps)) yhat = model.predict([x1, x2], verbose=0) print(yhat) ``` 运行该示例准备数据,拟合模型并进行预测。 ```py [[206.05022]] ``` ### 多个并联系列 另一个时间序列问题是存在多个并行时间序列并且必须为每个时间序列预测值的情况。 例如,给定上一节的数据: ```py [[ 10 15 25] [ 20 25 45] [ 30 35 65] [ 40 45 85] [ 50 55 105] [ 60 65 125] [ 70 75 145] [ 80 85 165] [ 90 95 185]] ``` 我们可能想要预测下一个时间步的三个时间序列中的每一个的值。 这可以称为多变量预测。 同样,必须将数据分成输入/输出样本以训练模型。 该数据集的第一个示例是: 输入: ```py 10, 15, 25 20, 25, 45 30, 35, 65 ``` 输出: ```py 40, 45, 85 ``` 下面的 _split_sequences()_ 函数将分割多个并行时间序列,其中时间步长为行,每列一个系列为所需的输入/输出形状。 ```py # split a multivariate sequence into samples def split_sequences(sequences, n_steps): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the dataset if end_ix > len(sequences)-1: break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :], sequences[end_ix, :] X.append(seq_x) y.append(seq_y) return array(X), array(y) ``` 我们可以在人为的问题上证明这一点;下面列出了完整的示例。 ```py # multivariate output data prep from numpy import array from numpy import hstack # split a multivariate sequence into samples def split_sequences(sequences, n_steps): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the dataset if end_ix > len(sequences)-1: break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :], sequences[end_ix, :] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps = 3 # convert into input/output X, y = split_sequences(dataset, n_steps) print(X.shape, y.shape) # summarize the data for i in range(len(X)): print(X[i], y[i]) ``` 首先运行该实例打印制备的 _X_ 和 _y_ 组分的形状。 _X_ 的形状是三维的,包括样品的数量(6),每个样品选择的时间步数(3),以及平行时间序列或特征的数量(3)。 _y_ 的形状是二维的,正如我们对样本数(6)和每个样本预测的时间变量数(3)所预期的那样。 然后,打印每个样本,显示每个样本的输入和输出分量。 ```py (6, 3, 3) (6, 3) [[10 15 25] [20 25 45] [30 35 65]] [40 45 85] [[20 25 45] [30 35 65] [40 45 85]] [ 50 55 105] [[ 30 35 65] [ 40 45 85] [ 50 55 105]] [ 60 65 125] [[ 40 45 85] [ 50 55 105] [ 60 65 125]] [ 70 75 145] [[ 50 55 105] [ 60 65 125] [ 70 75 145]] [ 80 85 165] [[ 60 65 125] [ 70 75 145] [ 80 85 165]] [ 90 95 185] ``` 我们现在准备在这些数据上安装 MLP 模型。 与之前的多变量输入情况一样,我们必须将输入数据样本的三维结构展平为[_ 样本,特征 _]的二维结构,其中滞后观察被模型视为特征。 ```py # flatten input n_input = X.shape[1] * X.shape[2] X = X.reshape((X.shape[0], n_input)) ``` 模型输出将是一个向量,三个不同时间序列中的每一个都有一个元素。 ```py n_output = y.shape[1] ``` 我们现在可以定义我们的模型,使用输入层的展平向量长度和进行预测时的向量长度作为向量长度。 ```py # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_input)) model.add(Dense(n_output)) model.compile(optimizer='adam', loss='mse') ``` 我们可以通过为每个系列提供三个时间步长的输入来预测三个并行系列中的每一个的下一个值。 ```py 70, 75, 145 80, 85, 165 90, 95, 185 ``` 用于进行单个预测的输入的形状必须是 1 个样本,3 个时间步长和 3 个特征,或者[1,3,3]。同样,我们可以将其展平为[1,6]以满足模型的期望。 我们希望向量输出为: ```py [100, 105, 205] ``` ```py # demonstrate prediction x_input = array([[70,75,145], [80,85,165], [90,95,185]]) x_input = x_input.reshape((1, n_input)) yhat = model.predict(x_input, verbose=0) ``` 我们可以将所有这些结合在一起并演示下面的多变量输出时间序列预测的 MLP。 ```py # multivariate output mlp example from numpy import array from numpy import hstack from keras.models import Sequential from keras.layers import Dense # split a multivariate sequence into samples def split_sequences(sequences, n_steps): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the dataset if end_ix > len(sequences)-1: break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :], sequences[end_ix, :] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps = 3 # convert into input/output X, y = split_sequences(dataset, n_steps) # flatten input n_input = X.shape[1] * X.shape[2] X = X.reshape((X.shape[0], n_input)) n_output = y.shape[1] # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_input)) model.add(Dense(n_output)) model.compile(optimizer='adam', loss='mse') # fit model model.fit(X, y, epochs=2000, verbose=0) # demonstrate prediction x_input = array([[70,75,145], [80,85,165], [90,95,185]]) x_input = x_input.reshape((1, n_input)) yhat = model.predict(x_input, verbose=0) print(yhat) ``` 运行该示例准备数据,拟合模型并进行预测。 ```py [[100.95039 107.541306 206.81033 ]] ``` 与多输入系列一样,还有另一种更精细的方法来模拟问题。 每个输出系列都可以由单独的输出 MLP 模型处理。 我们可以将其称为多输出 MLP 模型。根据正在建模的问题的具体情况,它可以提供更大的灵活性或更好的表现。 可以使用 [Keras 功能 API](https://machinelearningmastery.com/keras-functional-api-deep-learning/) 在 Keras 中定义此类型的模型。 首先,我们可以将输入模型定义为 MLP,其输入层需要平坦的特征向量。 ```py # define model visible = Input(shape=(n_input,)) dense = Dense(100, activation='relu')(visible) ``` 然后,我们可以为我们希望预测的三个系列中的每一个定义一个输出层,其中每个输出子模型将预测单个时间步长。 ```py # define output 1 output1 = Dense(1)(dense) # define output 2 output2 = Dense(1)(dense) # define output 2 output3 = Dense(1)(dense) ``` 然后,我们可以将输入和输出层组合到一个模型中。 ```py # tie together model = Model(inputs=visible, outputs=[output1, output2, output3]) model.compile(optimizer='adam', loss='mse') ``` 为了使模型架构清晰,下面的示意图清楚地显示了模型的三个独立输出层以及每个层的输入和输出形状。 ![Plot of Multi-Output MLP for Multivariate Time Series Forecasting](https://img.kancloud.cn/4b/cf/4bcf945552e40ed9bdc6f8a0673fa7f8_1039x295.jpg) 多元时间序列预测的多输出 MLP 图 在训练模型时,每个样本需要三个独立的输出阵列。 我们可以通过将具有形状[7,3]的输出训练数据转换为具有形状[7,1]的三个阵列来实现这一点。 ```py # separate output y1 = y[:, 0].reshape((y.shape[0], 1)) y2 = y[:, 1].reshape((y.shape[0], 1)) y3 = y[:, 2].reshape((y.shape[0], 1)) ``` 可以在训练期间将这些阵列提供给模型。 ```py # fit model model.fit(X, [y1,y2,y3], epochs=2000, verbose=0) ``` 将所有这些结合在一起,下面列出了完整的示例。 ```py # multivariate output mlp example from numpy import array from numpy import hstack from keras.models import Model from keras.layers import Input from keras.layers import Dense # split a multivariate sequence into samples def split_sequences(sequences, n_steps): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps # check if we are beyond the dataset if end_ix > len(sequences)-1: break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :], sequences[end_ix, :] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps = 3 # convert into input/output X, y = split_sequences(dataset, n_steps) # flatten input n_input = X.shape[1] * X.shape[2] X = X.reshape((X.shape[0], n_input)) # separate output y1 = y[:, 0].reshape((y.shape[0], 1)) y2 = y[:, 1].reshape((y.shape[0], 1)) y3 = y[:, 2].reshape((y.shape[0], 1)) # define model visible = Input(shape=(n_input,)) dense = Dense(100, activation='relu')(visible) # define output 1 output1 = Dense(1)(dense) # define output 2 output2 = Dense(1)(dense) # define output 2 output3 = Dense(1)(dense) # tie together model = Model(inputs=visible, outputs=[output1, output2, output3]) model.compile(optimizer='adam', loss='mse') # fit model model.fit(X, [y1,y2,y3], epochs=2000, verbose=0) # demonstrate prediction x_input = array([[70,75,145], [80,85,165], [90,95,185]]) x_input = x_input.reshape((1, n_input)) yhat = model.predict(x_input, verbose=0) print(yhat) ``` 运行该示例准备数据,拟合模型并进行预测。 ```py [array([[100.86121]], dtype=float32), array([[105.14738]], dtype=float32), array([[205.97507]], dtype=float32)] ``` ## 多步 MLP 模型 实际上,MLP 模型在预测表示不同输出变量的向量输出(如前例中所示)或表示一个变量的多个时间步长的向量输出方面几乎没有差别。 然而,训练数据的编制方式存在细微而重要的差异。在本节中,我们将演示使用向量模型开发多步预测模型的情况。 在我们查看模型的细节之前,让我们首先看一下多步预测的数据准备。 ### 数据准备 与一步预测一样,用于多步时间序列预测的时间序列必须分为带有输入和输出组件的样本。 输入和输出组件都将包含多个时间步长,并且可以具有或不具有相同数量的步骤。 例如,给定单变量时间序列: ```py [10, 20, 30, 40, 50, 60, 70, 80, 90] ``` 我们可以使用最后三个时间步作为输入并预测接下来的两个时间步。 第一个样本如下: 输入: ```py [10, 20, 30] ``` 输出: ```py [40, 50] ``` 下面的 _split_sequence()_ 函数实现了这种行为,并将给定的单变量时间序列分割为具有指定数量的输入和输出时间步长的样本。 ```py # split a univariate sequence into samples def split_sequence(sequence, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequence)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out # check if we are beyond the sequence if out_end_ix > len(sequence): break # gather input and output parts of the pattern seq_x, seq_y = sequence[i:end_ix], sequence[end_ix:out_end_ix] X.append(seq_x) y.append(seq_y) return array(X), array(y) ``` 我们可以在小型设计数据集上演示此功能。 下面列出了完整的示例。 ```py # multi-step data preparation from numpy import array # split a univariate sequence into samples def split_sequence(sequence, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequence)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out # check if we are beyond the sequence if out_end_ix > len(sequence): break # gather input and output parts of the pattern seq_x, seq_y = sequence[i:end_ix], sequence[end_ix:out_end_ix] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence raw_seq = [10, 20, 30, 40, 50, 60, 70, 80, 90] # choose a number of time steps n_steps_in, n_steps_out = 3, 2 # split into samples X, y = split_sequence(raw_seq, n_steps_in, n_steps_out) # summarize the data for i in range(len(X)): print(X[i], y[i]) ``` 运行该示例将单变量系列拆分为输入和输出时间步骤,并打印每个系列的输入和输出组件。 ```py [10 20 30] [40 50] [20 30 40] [50 60] [30 40 50] [60 70] [40 50 60] [70 80] [50 60 70] [80 90] ``` 既然我们知道如何为多步预测准备数据,那么让我们看一下可以学习这种映射的 MLP 模型。 ### 向量输出模型 MLP 可以直接输出向量,可以解释为多步预测。 在前一节中看到这种方法是每个输出时间序列的一个时间步骤被预测为向量。 通过 _n_steps_in_ 和 _n_steps_out_ 变量中指定的输入和输出步数,我们可以定义一个多步骤时间序列预测模型。 ```py # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_steps_in)) model.add(Dense(n_steps_out)) model.compile(optimizer='adam', loss='mse') ``` 该模型可以对单个样本进行预测。我们可以通过提供输入来预测数据集末尾之后的下两个步骤: ```py [70, 80, 90] ``` 我们希望预测的输出为: ```py [100, 110] ``` 正如模型所预期的那样,进行预测时输入数据的单个样本的形状对于输入和单个特征的 1 个样本和 3 个时间步长(特征)必须是[1,3]。 ```py # demonstrate prediction x_input = array([70, 80, 90]) x_input = x_input.reshape((1, n_steps_in)) yhat = model.predict(x_input, verbose=0) ``` 将所有这些结合在一起,下面列出了具有单变量时间序列的多步骤预测的 MLP。 ```py # univariate multi-step vector-output mlp example from numpy import array from keras.models import Sequential from keras.layers import Dense # split a univariate sequence into samples def split_sequence(sequence, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequence)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out # check if we are beyond the sequence if out_end_ix > len(sequence): break # gather input and output parts of the pattern seq_x, seq_y = sequence[i:end_ix], sequence[end_ix:out_end_ix] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence raw_seq = [10, 20, 30, 40, 50, 60, 70, 80, 90] # choose a number of time steps n_steps_in, n_steps_out = 3, 2 # split into samples X, y = split_sequence(raw_seq, n_steps_in, n_steps_out) # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_steps_in)) model.add(Dense(n_steps_out)) model.compile(optimizer='adam', loss='mse') # fit model model.fit(X, y, epochs=2000, verbose=0) # demonstrate prediction x_input = array([70, 80, 90]) x_input = x_input.reshape((1, n_steps_in)) yhat = model.predict(x_input, verbose=0) print(yhat) ``` 运行示例预测并打印序列中的后两个时间步骤。 ```py [[102.572365 113.88405 ]] ``` ## 多变量多步 MLP 模型 在前面的部分中,我们研究了单变量,多变量和多步骤时间序列预测。 可以混合和匹配到目前为止针对不同问题呈现的不同类型的 MLP 模型。这也适用于涉及多变量和多步预测的时间序列预测问题,但它可能更具挑战性,特别是在准备数据和定义模型的输入和输出的形状时。 在本节中,我们将以多变量多步骤时间序列预测的数据准备和建模的简短示例作为模板来缓解这一挑战,具体来说: 1. 多输入多步输出。 2. 多个并行输入和多步输出。 也许最大的绊脚石是准备数据,所以这是我们关注的重点。 ### 多输入多步输出 存在多变量时间序列预测问题,其中输出序列是分开的但取决于输入时间序列,并且输出序列需要多个时间步长。 例如,考虑前一部分的多变量时间序列: ```py [[ 10 15 25] [ 20 25 45] [ 30 35 65] [ 40 45 85] [ 50 55 105] [ 60 65 125] [ 70 75 145] [ 80 85 165] [ 90 95 185]] ``` 我们可以使用两个输入时间序列中的每一个的三个先前时间步骤来预测输出时间序列的两个时间步长。 输入: ```py 10, 15 20, 25 30, 35 ``` 输出: ```py 65 85 ``` 下面的 _split_sequences()_ 函数实现了这种行为。 ```py # split a multivariate sequence into samples def split_sequences(sequences, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out-1 # check if we are beyond the dataset if out_end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :-1], sequences[end_ix-1:out_end_ix, -1] X.append(seq_x) y.append(seq_y) return array(X), array(y) ``` 我们可以在我们设计的数据集上证明这一点。下面列出了完整的示例。 ```py # multivariate multi-step data preparation from numpy import array from numpy import hstack # split a multivariate sequence into samples def split_sequences(sequences, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out-1 # check if we are beyond the dataset if out_end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :-1], sequences[end_ix-1:out_end_ix, -1] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps_in, n_steps_out = 3, 2 # convert into input/output X, y = split_sequences(dataset, n_steps_in, n_steps_out) print(X.shape, y.shape) # summarize the data for i in range(len(X)): print(X[i], y[i]) ``` 首先运行该示例打印准备好的训练数据的形状。 我们可以看到样本的输入部分的形状是三维的,由六个样本组成,具有三个时间步长和两个输入时间序列的两个变量。 样本的输出部分对于六个样本是二维的,并且每个样本的两个时间步长是预测的。 然后打印制备的样品以确认数据是按照我们指定的方式制备的。 ```py (6, 3, 2) (6, 2) [[10 15] [20 25] [30 35]] [65 85] [[20 25] [30 35] [40 45]] [ 85 105] [[30 35] [40 45] [50 55]] [105 125] [[40 45] [50 55] [60 65]] [125 145] [[50 55] [60 65] [70 75]] [145 165] [[60 65] [70 75] [80 85]] [165 185] ``` 我们现在可以使用向量输出开发用于多步预测的 MLP 模型。 下面列出了完整的示例。 ```py # multivariate multi-step mlp example from numpy import array from numpy import hstack from keras.models import Sequential from keras.layers import Dense # split a multivariate sequence into samples def split_sequences(sequences, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out-1 # check if we are beyond the dataset if out_end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :-1], sequences[end_ix-1:out_end_ix, -1] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps_in, n_steps_out = 3, 2 # convert into input/output X, y = split_sequences(dataset, n_steps_in, n_steps_out) # flatten input n_input = X.shape[1] * X.shape[2] X = X.reshape((X.shape[0], n_input)) # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_input)) model.add(Dense(n_steps_out)) model.compile(optimizer='adam', loss='mse') # fit model model.fit(X, y, epochs=2000, verbose=0) # demonstrate prediction x_input = array([[70, 75], [80, 85], [90, 95]]) x_input = x_input.reshape((1, n_input)) yhat = model.predict(x_input, verbose=0) print(yhat) ``` 运行该示例适合模型并预测输出序列的下两个时间步骤超出数据集。 我们希望接下来的两个步骤是[185,205]。 这是一个具有挑战性的问题框架,数据非常少,模型的任意配置版本也很接近。 ```py [[186.53822 208.41725]] ``` ### 多个并行输入和多步输出 并行时间序列的问题可能需要预测每个时间序列的多个时间步长。 例如,考虑前一部分的多变量时间序列: ```py [[ 10 15 25] [ 20 25 45] [ 30 35 65] [ 40 45 85] [ 50 55 105] [ 60 65 125] [ 70 75 145] [ 80 85 165] [ 90 95 185]] ``` 我们可以使用三个时间序列中的每一个的最后三个步骤作为模型的输入,并预测三个时间序列中的每一个的下一个时间步长作为输出。 训练数据集中的第一个样本如下。 输入: ```py 10, 15, 25 20, 25, 45 30, 35, 65 ``` 输出: ```py 40, 45, 85 50, 55, 105 ``` 下面的 _split_sequences()_ 函数实现了这种行为。 ```py # split a multivariate sequence into samples def split_sequences(sequences, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out # check if we are beyond the dataset if out_end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :], sequences[end_ix:out_end_ix, :] X.append(seq_x) y.append(seq_y) return array(X), array(y) ``` 我们可以在小型设计数据集上演示此功能。 下面列出了完整的示例。 ```py # multivariate multi-step data preparation from numpy import array from numpy import hstack # split a multivariate sequence into samples def split_sequences(sequences, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out # check if we are beyond the dataset if out_end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :], sequences[end_ix:out_end_ix, :] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps_in, n_steps_out = 3, 2 # convert into input/output X, y = split_sequences(dataset, n_steps_in, n_steps_out) print(X.shape, y.shape) # summarize the data for i in range(len(X)): print(X[i], y[i]) ``` 首先运行该示例打印准备好的训练数据集的形状。 我们可以看到数据集的输入( _X_ )和输出( _Y_ )元素分别对于样本数,时间步长和变量或并行时间序列是三维的。 。 然后将每个系列的输入和输出元素并排打印,以便我们可以确认数据是按照我们的预期准备的。 ```py (5, 3, 3) (5, 2, 3) [[10 15 25] [20 25 45] [30 35 65]] [[ 40 45 85] [ 50 55 105]] [[20 25 45] [30 35 65] [40 45 85]] [[ 50 55 105] [ 60 65 125]] [[ 30 35 65] [ 40 45 85] [ 50 55 105]] [[ 60 65 125] [ 70 75 145]] [[ 40 45 85] [ 50 55 105] [ 60 65 125]] [[ 70 75 145] [ 80 85 165]] [[ 50 55 105] [ 60 65 125] [ 70 75 145]] [[ 80 85 165] [ 90 95 185]] ``` 我们现在可以开发 MLP 模型来进行多变量多步预测。 除了展平输入数据的形状之外,正如我们在先前的例子中所做的那样,我们还必须平整输出数据的三维结构。这是因为 MLP 模型只能采用向量输入和输出。 ```py # flatten input n_input = X.shape[1] * X.shape[2] X = X.reshape((X.shape[0], n_input)) # flatten output n_output = y.shape[1] * y.shape[2] y = y.reshape((y.shape[0], n_output)) ``` 下面列出了完整的示例。 ```py # multivariate multi-step mlp example from numpy import array from numpy import hstack from keras.models import Sequential from keras.layers import Dense # split a multivariate sequence into samples def split_sequences(sequences, n_steps_in, n_steps_out): X, y = list(), list() for i in range(len(sequences)): # find the end of this pattern end_ix = i + n_steps_in out_end_ix = end_ix + n_steps_out # check if we are beyond the dataset if out_end_ix > len(sequences): break # gather input and output parts of the pattern seq_x, seq_y = sequences[i:end_ix, :], sequences[end_ix:out_end_ix, :] X.append(seq_x) y.append(seq_y) return array(X), array(y) # define input sequence in_seq1 = array([10, 20, 30, 40, 50, 60, 70, 80, 90]) in_seq2 = array([15, 25, 35, 45, 55, 65, 75, 85, 95]) out_seq = array([in_seq1[i]+in_seq2[i] for i in range(len(in_seq1))]) # convert to [rows, columns] structure in_seq1 = in_seq1.reshape((len(in_seq1), 1)) in_seq2 = in_seq2.reshape((len(in_seq2), 1)) out_seq = out_seq.reshape((len(out_seq), 1)) # horizontally stack columns dataset = hstack((in_seq1, in_seq2, out_seq)) # choose a number of time steps n_steps_in, n_steps_out = 3, 2 # convert into input/output X, y = split_sequences(dataset, n_steps_in, n_steps_out) # flatten input n_input = X.shape[1] * X.shape[2] X = X.reshape((X.shape[0], n_input)) # flatten output n_output = y.shape[1] * y.shape[2] y = y.reshape((y.shape[0], n_output)) # define model model = Sequential() model.add(Dense(100, activation='relu', input_dim=n_input)) model.add(Dense(n_output)) model.compile(optimizer='adam', loss='mse') # fit model model.fit(X, y, epochs=2000, verbose=0) # demonstrate prediction x_input = array([[60, 65, 125], [70, 75, 145], [80, 85, 165]]) x_input = x_input.reshape((1, n_input)) yhat = model.predict(x_input, verbose=0) print(yhat) ``` 运行该示例适合模型并预测超出数据集末尾的下两个时间步的三个时间步中的每一个的值。 我们希望这些系列和时间步骤的值如下: ```py 90, 95, 185 100, 105, 205 ``` 我们可以看到模型预测合理地接近预期值。 ```py [[ 91.28376 96.567 188.37575 100.54482 107.9219 208.108 ] ``` ## 摘要 在本教程中,您了解了如何针对一系列标准时间序列预测问题开发一套多层感知器或 MLP 模型。 具体来说,你学到了: * 如何开发单变量时间序列预测的 MLP 模型。 * 如何开发多元时间序列预测的 MLP 模型。 * 如何开发 MLP 模型进行多步时间序列预测。 你有任何问题吗? 在下面的评论中提出您的问题,我会尽力回答。