我目前正在研究这个colab。任务是将句子分类到某个类别中。所以我们有一个多类别问题,而不是二元问题,比如根据某些评论句子预测评论的情绪(正面/负面)。在多个类别的情况下,我认为最后一层中的单元/神经元数量必须与我想要预测的类别数量相匹配。所以当我有一个二元问题时,我使用一个神经元,表示 0 或 1。当我有 5 个类时,我需要 5 个单元。我也这么想。
但是,在 colab 的代码中有以下内容:
model = tf.keras.Sequential([
tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=max_length),
tf.keras.layers.GlobalAveragePooling1D(),
tf.keras.layers.Dense(24, activation='relu'),
tf.keras.layers.Dense(6, activation='softmax')
])
model.compile(loss='sparse_categorical_crossentropy',optimizer='adam',metrics=['accuracy'])
model.summary()
当我在此 colab 中运行 model.fit 代码部分时,它确实有效。但我不明白。当我检查
print(label_tokenizer.word_index)
print(label_tokenizer.word_docs)
print(label_tokenizer.word_counts)
这给
{'sport': 1, 'business': 2, 'politics': 3, 'tech': 4, 'entertainment': 5}
defaultdict(<class 'int'>, {'tech': 401, 'business': 510, 'sport': 511, 'entertainment': 386, 'politics': 417})
OrderedDict([('tech', 401), ('business', 510), ('sport', 511), ('entertainment', 386), ('politics', 417)])
很明显是5个班级。但是,当我将模型调整为tf.keras.layers.Dense(5, activation='softmax')并运行 model.fit 命令时,它不起作用。准确度始终为 0。
为什么这里正确的是 6 而不是 5?
BIG阳
相关分类