我正在从Geron的“机器学习动手”中自我学习,对此功能(如何在下一页的框[114]中创建)如何创建一个深度神经网络感到有些困惑。
https://github.com/ageron/handson-ml/blob/master/11_deep_learning.ipynb
he_init = tf.variance_scaling_initializer()
def dnn(inputs, n_hidden_layers=5, n_neurons=100, name=None,
activation=tf.nn.elu, initializer=he_init):
with tf.variable_scope(name, "dnn"):
for layer in range(n_hidden_layers):
inputs = tf.layers.dense(inputs, n_neurons, activation=activation,
kernel_initializer=initializer,
name="hidden%d" % (layer + 1))
return inputs
看起来每次都使用不同的名称重置相同的输入。有人可以解释这是如何创建深度神经网络的吗?
幕布斯6054654
相关分类