我正在尝试使以下代码行工作:
low_encoder_out = TimeDistributed( AutoregressiveDecoder(...) )([X_tf, embeddings])
AutoregressiveDecoder需要两个输入的自定义层在哪里。经过一番谷歌搜索,问题似乎是TimeDistributed包装器不接受多个输入。有一些解决方案建议在将两个输入馈送到图层之前合并两个输入,但由于它们的形状是
X_tf.shape: (?, 16, 16, 128, 5)
embeddings.shape: (?, 16, 1024)
我真的不知道如何合并它们。有没有办法让TimeDistributed图层处理多个输入?或者,有没有办法以一种很好的方式合并两个输入?
饮歌长啸
相关分类