• 深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)
  • PyTorch搭建LSTM实现时间序列预测(负荷预测)
  • PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)
  • PyTorch搭建双向LSTM实现时间序列预测(负荷预测)
  • PyTorch搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  • PyTorch搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  • PyTorch搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  • PyTorch搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  • PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  • PyTorch中实现LSTM多步长时间序列预测的几种方法总结(负荷预测)
  • PyTorch-LSTM时间序列预测中如何预测真正的未来值
  • PyTorch搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  • PyTorch搭建ANN实现时间序列预测(风速预测)
  • PyTorch搭建CNN实现时间序列预测(风速预测)
  • PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  • PyTorch搭建Transformer实现多变量多步长时间序列预测(负荷预测)
  • PyTorch时间序列预测系列文章总结(代码使用方法)
  • TensorFlow搭建LSTM实现时间序列预测(负荷预测)
  • TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)
  • TensorFlow搭建双向LSTM实现时间序列预测(负荷预测)
  • TensorFlow搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  • TensorFlow搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  • II. 多模型滚动预测

    所谓多模型滚动预测:还是前10个预测后3个为例:首先需要按照多模型单步预测的方式训练3个模型,然后模型1利用[1…10]预测[11’],然后模型2利用[2…10 11’]预测[12’],最后由模型3利用[3…10 11’ 12’]预测[13’]。

    III. 代码实现

    3.1 数据处理

    我们根据前24个时刻的负荷以及该时刻的环境变量来预测接下来12个时刻的负荷(步长pred_step_size可调)。

    数据处理代码和前面的多模型单步预测一致。简单来说,如果需要利用前24个值预测接下来12个值,那么我们需要生成12个数据集。

    3.2 模型搭建

    模型和之前的文章一致:

    class LSTM(keras.Model):
        def __init__(self, args):
            super(LSTM, self).__init__()
            self.lstm = Sequential()
            for i in range(args.num_layers):
                self.lstm.add(layers.LSTM(units=args.hidden_size, input_shape=(args.seq_len, args.input_size),
                                          activation='tanh', return_sequences=True))
            self.fc1 = layers.Dense(64, activation='relu')
            self.fc2 = layers.Dense(args.output_size)
        def call(self, data, training=None, mask=None):
            x = self.lstm(data)
            x = self.fc1(x)
            x = self.fc2(x)
            return x[:, -1:, :]
    

    3.3 模型训练/测试

    模型训练与多模型单步预测一致。

    模型测试与单步滚动预测有些类似,但每一步都由不同的模型来进行预测:

    def mms_rolling_test(args, Dte, PATHS, M):
        pred = []
        y = []
        print('loading models...')
        models = []
        for path in PATHS:
            if args.bidirectional:
                model = BiLSTM(args)
            else:
                model = LSTM(args)
            model.load_weights(path)
            models.append(model)
        Dte = [x for x in iter(Dte)]
        Dte = list_of_groups(Dte, args.pred_step_size)
        for sub_item in tqdm(Dte):
            sub_pred = []
            for seq_idx, (seq, label) in enumerate(sub_item, 0):
                model = models[seq_idx]
                label = label.numpy().flatten().tolist()
                y.extend(label)
                if seq_idx != 0:
                    seq = seq.cpu().numpy().tolist()[0]
                    if len(sub_pred) >= len(seq):
                        for t in range(len(seq)):
                            seq[t][0] = sub_pred[len(sub_pred) - len(seq) + t]
                    else:
                        for t in range(len(sub_pred)):
                            seq[len(seq) - len(sub_pred) + t][0] = sub_pred[t]
                else:
                    seq = seq.cpu().numpy().tolist()[0]
                # print(new_seq)
                seq = [seq]
                seq = tf.data.Dataset.from_tensor_slices(seq)
                seq = seq.batch(1, drop_remainder=False).shuffle(1).prefetch(1)
                seq = [x for x in iter(seq)][0]
                y_pred = model(seq)
                y_pred = y_pred.numpy().flatten().tolist()
                sub_pred.extend(y_pred)
            pred.extend(sub_pred)
        y, pred = np.array(y), np.array(pred)
        m, n = M[0], M[1]
        y = (m - n) * y + n
        pred = (m - n) * pred + n
        print('mape:', get_mape(y, pred))
        # plot
        plot(y, pred)
    

    3.4 实验结果

    前24个预测未来12个,每个模型训练30轮,效果很差,MAPE为12.69%,还需要进一步完善。

    IV. 源码及数据

    后面将陆续公开~

  • 私信