在 Keras 中嵌入预训练模型的问题

我有一个预先训练过的快速文本模型,我想把它嵌入到Keras中。

model = Sequential()
model.add(Embedding(MAX_NB_WORDS, 
                    EMBEDDING_DIM, 
                    input_length=X.shape[1],
                    input_length=4,
                    weights=[embedding_matrix],
                    trainable=False))

但它没有奏效。

我发现很多人在将预先训练的模型嵌入Keras时都有同样的问题,而且他们都没有解决方案。

它似乎已被弃用。weightsembeddings_initializer

有没有其他方法可以解决这个问题?提前致谢


qq_花开花谢_0
浏览 70回答 1
1回答

SMILET

权重参数在 Keras 的嵌入层中已弃用。新版本的嵌入层将如下所示 -embedding_layer = Embedding(num_words,                             EMBEDDING_DIM,                             embeddings_initializer=Constant(embedding_matrix),                             input_length=MAX_SEQUENCE_LENGTH,                             trainable=False)您可以在此处找到最新版本的嵌入层详细信息 - Keras 嵌入层您可以在此处找到预训练词嵌入的示例 - 预训练词嵌入
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python