我最近发现,尽管我使用 set_session 和allow_growth=True,使用 model.fit 仍然意味着所有内存都被分配,并且我不能再将它用于程序的其余部分,即使函数退出并且由于模型是局部变量,因此模型不应再分配任何内存。下面是一些示例代码来演示这一点:
from numpy import array
from keras import Input, Model
from keras.layers import Conv2D, Dense, Flatten
from keras.optimizers import SGD
# stops keras/tensorflow from allocating all the GPU's memory immediately
from tensorflow.compat.v1.keras.backend import set_session
from tensorflow.compat.v1 import Session, ConfigProto, GPUOptions
tf_config = ConfigProto(gpu_options=GPUOptions(allow_growth=True))
session = Session(config=tf_config)
set_session(session)
# makes the neural network
def make_net():
input = Input((2, 3, 3))
conv = Conv2D(256, (1, 1))(input)
flattened_input = Flatten()(conv)
output = Dense(1)(flattened_input)
model = Model(inputs=input, outputs=output)
sgd = SGD(0.2, 0.9)
model.compile(sgd, 'mean_squared_error')
model.summary()
return model
def make_data(input_data, target_output):
input_data.append([[[0 for i in range(3)] for j in range(3)] for k in range(2)])
target_output.append(0)
def main():
data_amount = 4096
input_data = []
target_output = []
model = make_model()
for i in range(data_amount):
make_data(input_data, target_output)
model.fit(array(input_data), array(target_output), batch_size=len(input_data))
return
while True:
main()
当我使用 Pycharm 调试器运行此代码时,我发现使用的 GPU RAM 一直保持在 0.1GB 左右,直到我第一次运行 model.fit,此时内存使用量在我的 4GB GPU RAM 中飙升至 3.2GB 。我还注意到,第一次运行 model.fit 后,内存使用量不会增加,并且如果我从网络中删除卷积层,内存使用量根本不会增加。有人可以解释一下我的问题吗?
更新:将 GPUOptions 中的 per_process_gpu_memory_fraction 设置为 0.1 有助于限制所包含代码中的效果,但不会限制我的实际程序中的效果。更好的解决方案仍然会有帮助。
FFIVE
繁华开满天机
相关分类