随机森林在训练和测试中获得 98% 的准确率,但在其他情况下总是预测同一类

我花了 30 个小时来调试这个问题,但它完全没有意义,希望你们中的一个人可以向我展示不同的观点。


问题是,我在随机森林中使用训练数据帧并获得了 98%-99% 的良好准确率,但是当我尝试加载新样本进行预测时。该模型总是猜测同一类。


#  Shuffle the data-frames records. The labels are still attached

df = df.sample(frac=1).reset_index(drop=True)


#  Extract the labels and then remove them from the data

y = list(df['label'])

X = df.drop(['label'], axis='columns')


#  Split the data into training and testing sets

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=TEST_SIZE)


#  Construct the model

model = RandomForestClassifier(n_estimators=N_ESTIMATORS, max_depth=MAX_DEPTH, random_state=RANDOM_STATE,oob_score=True)


#  Calculate the training accuracy

in_sample_accuracy = model.fit(X_train, y_train).score(X_train, y_train)

#  Calculate the testing accuracy

test_accuracy = model.score(X_test, y_test)


print()

print('In Sample Accuracy: {:.2f}%'.format(model.oob_score_ * 100))

print('Test Accuracy: {:.2f}%'.format(test_accuracy * 100))

我处理数据的方式是相同的,但是当我对 X_test 或 X_train 进行预测时,我得到了正常的 98%,当我对新数据进行预测时,它总是猜测相同的类。


    #  The json file is not in the correct format, this function normalizes it

    normalized_json = json_normalizer(json_file, "", training=False)

    #  Turn the json into a list of dictionaries which contain the features

    features_dict = create_dict(normalized_json, label=None)


    #  Convert the dictionaries into pandas dataframes

    df = pd.DataFrame.from_records(features_dict)

    print('Total amount of email samples: ', len(df))

    print()


    df = df.fillna(-1)

    #  One hot encodes string values

    df = one_hot_encode(df, noOverride=True)

    if 'label' in df.columns:

        df = df.drop(['label'], axis='columns')

    print(list(model.predict(df))[:100])

    print(list(model.predict(X_train))[:100])

上面是我的测试场景,你可以在最后两行看到我对X_train用于训练模型的数据和df样本外数据的预测,它总是猜测类别 0。

一些有用的信息:

  • 数据集不平衡;0 类大约有 150,000 个样本,而 1 类大约有 600,000 个样本

  • 有141个功能

  • 更改 n_estimators 和 max_depth 并不能解决问题

任何想法都会有帮助,如果您需要更多信息,请让我知道我的大脑现在很混乱,这就是我能想到的。


繁星coding
浏览 1666回答 1
1回答

慕沐林林

已修复,问题是数据集不平衡,我也意识到改变深度会给我不同的结果。例如,10 棵深度为 3 的树 -> 似乎工作正常 10 棵深度为 6 的树 -> 回到猜测同一类
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python