批量大小如何影响折叠分割的数据数量?

我正在研究音频分类问题。我正在使用包含8732音频的urbansound8k数据集。 我知道 kfold 是将数据平均分成 k 组。每个组将用于测试,其余的将用于训练。



所以如果 k=4,每组将包含2,183 个数据。然而,这个结果与我自己的结果相去甚远


batch_size = 1

num_folds =4

no_epochs = 10


kfold = KFold(n_splits=num_folds, shuffle=False)


for train, test in kfold.split(features, labels):


  

  model = Sequential()

  model.add(Dense(1000, activation='relu'))

  model.add(Dense(no_classes, activation='softmax'))

  




  model.compile(loss=loss_function,

                 optimizer=opt,

                 metrics=['accuracy'])


  history = model.fit(features[train], labels[train],

              batch_size=batch_size,

              epochs=no_epochs,

              verbose=verbosity,

              validation_split=validation_split,shuffle=False)



此代码具有 k=4 的这些结果:

-使用批量大小 = 1 - 1048每折时每折5239,批量大小 = 5 - 524每折,批量大小 = 10 我不明白这两个参数之间的关系是什么:批次折叠中数据的大小和数量。





如果需要,我准备好分享我的整个代码。


慕慕森
浏览 121回答 1
1回答

四季花海

好吧,如果你对关系感兴趣,他们是,忽略整数舍入,成反比,即batch_size * number_of_data_in_fold = some_constant
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python