减少 LSTM keras 上的输出维度

下面是我的模型架构。数据是一个时间序列,我只需要预测最后一个值,因此return_sequences=False.


但这正是造成问题的原因。我已经能够使用 运行 nnet sequences=True,但这不是我需要做的。


我需要输入大小 (32,50,88)=(batch_size,timesteps,features) 并获得(32,88) 的输出大小=(batch_size,labels)。


特征和标签具有相同的大小,但不相关。


这段代码的错误是:


ValueError:检查目标时出错:预期dense_1有2维,但得到形状为(32, 50, 88)的数组


这发生在训练阶段(意味着架构开始生效)。


数据来自生成器的 (32,50,88) 块,标签也具有相同的大小。由于我使用keras,我需要通过生成器创建批次。我试图添加一个 (50,88) 但它根本不起作用。


我怎么能有这种架构,得到 (32,50,88) 的输入但只得到 (32,88) 作为输出?


简而言之,我需要 timestep+50 预测...我认为...


def note_model():

    visible = Input(shape=(50,88), batch_shape=(32,50,88))

    hidden1 = Bidirectional(LSTM(200, stateful=False, return_sequences=False,  kernel_regularizer=l1(10**(-4)), dropout=0.5))(visible)

    #flat = Flatten()(hidden1)

    output = Dense(88, activation='sigmoid')(hidden1)


    model = Model(inputs=visible, outputs=output)

    print(model.summary())

    return model



    def train_note_model(model):

    checkpoint_path_notes = "1Layer-200units-loss=BCE-Model-{epoch:02d}-{val_acc:.2f}.hdf5"

    model.compile(optimizer='SGD', loss='binary_crossentropy', metrics=['accuracy']) #mean_squared_error

    monitor = EarlyStopping(monitor='val_loss', min_delta=1e-3, patience=10, verbose=0, mode='min')

    reduce_lr = ReduceLROnPlateau(monitor='val_loss', factor=0.3, patience=10, min_lr=0.001)

    checkpoint = ModelCheckpoint(checkpoint_path_notes,monitor='val_loss', verbose=1, save_best_only=True, save_weights_only=False, mode='auto', period=1)

    model.fit_generator(training_generator(), steps_per_epoch=2, 

                        callbacks=[monitor, reduce_lr, checkpoint],

                        validation_data= validation_generator(), validation_steps= 2,

                        verbose=1, epochs=10, shuffle=True)


model_try = note_model()

train_note_model(model_try)


慕雪6442864
浏览 453回答 1
1回答

12345678_0001

您的模型是正确的,问题在于检查目标时,这意味着您training_generator返回了错误的目标形状。看看print(next(training_generator()))并确保它返回一个带有形状的元组(32, 50, 88), (32, 88)。
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python