在我的应用程序中,我使用 apply_gradient() 和 AdamOptimizer 优化了一个神经网络。我注意到每次运行我的应用程序时我都无法准确地重现结果,并且需要它来比较结果。在搜索类似问题时,我注意到在 GPU 中运行 Tensorflow 时可能会遇到不确定性问题,但即使在 CPU 中也会出现我的问题。
我简化了我的代码,我认为问题在于 apply_gradients,但我不确定,因为我对 tensorflow 没有经验。下面的代码用随机数据训练一个神经网络(当然还有一个正确播种的 numpy),并将网络的参数写入日志文件。如果您两次运行该程序,您会注意到程序不同运行之间网络参数的显着差异,即使训练数据相同。
我使用 Tensorflow 1.11.0
为什么会发生这种情况?可能是由于算术精度错误还是我做错了什么?
import tensorflow as tf
import numpy as np
import logging
import sys
import math
import datetime
if __name__ == '__main__':
# Just configure logging
logging.basicConfig(filename='example.log', filemode='w', level=logging.DEBUG)
logging.debug('Python version: %s', sys.version)
logging.debug('Tensorflow version: %s', tf.__version__)
logging.debug('Date time: %s', datetime.datetime.now())
# Seed everything
randomseed = 999
np.random.seed(randomseed)
tf.set_random_seed(randomseed)
# Create a Neural Network
inputs = tf.placeholder(tf.float64, [None, 10])
hidden_dims = [100, 200]
net = inputs
for dim in hidden_dims:
weight_initializer = tf.initializers.random_uniform(minval= - 1 / math.sqrt(10), maxval = 1 / math.sqrt(10))
net = tf.layers.dense(inputs=net, units=dim, kernel_initializer=weight_initializer, bias_initializer=weight_initializer)
net = tf.layers.batch_normalization(inputs=net)
net = tf.nn.relu(net)
weight_initializer = tf.initializers.random_uniform(minval=-3e-3, maxval=3e-3)
net = tf.layers.dense(inputs=net, units=20, kernel_initializer= weight_initializer, bias_initializer= weight_initializer)
out = tf.nn.tanh(net)
net_params = tf.trainable_variables()
# Define some gradient ops
grad = tf.gradients(out, net_params)
gradients = list(map(lambda x: tf.div(x, 10), grad))
optimizer = tf.train.AdamOptimizer(learning_rate=1e-4).apply_gradients(zip(gradients, net_params))
相关分类