qq_Wuli臭_0
找到在哪儿错了
model.py conv2d那个文件改一下下面这行
把
return tf.nn.conv2d([1, 1, 1, 1], padding='SAME') 改成
return tf.nn.conv2d(x, W, [1, 1, 1, 1], padding='SAME')
没有传入参数当然出错喽
慕的地2700877
少了个括号
慕的地2700877
看起来代码应该是没问题的,你可以查验一下有没有中英文字符写错。
贴一下我写的代码:
path = saver.save( sess, os.path.join(os.path.dirname(__file__), 'data', 'convolutional.ckpt'), write_meta_graph=False, write_state=False )
慕尼黑5219940
这里是将手写数据集中的数据放入到Batch数组中了,batch[0]里面的数据是image的变形数据,batch[1]里面的数据是label标签
weixin_慕工程3272708
同样的问题 已经解决!感谢
慕田峪3525277
def conv2d(x, W): return
这里应该是
tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
精慕门3471333
train_accuracy = accuracy.eval(feed_dict={x: batch[0], y_: batch[1], keep_prob: 1.0})
我来学py
预测的时候不需要drop out 的操作。
tf.nn.dropout里面的参数keep_prob的意思是:留下的神经元的概率,如果keep_prob为0的话, 就是让所有的神经元都失活。
类似的函数是tf.layers.dropout,里面的参数是rate,是失活的概率。
可以看https://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-dropout。
qq_Q先生_0
if i% 100 == 0:
train_accuracy = accuracy.eval(feed_dict={x:batch[0] , y:batch[1] , keep_prob : 1.0});这个里面应该是y_
跟上我的节奏
我也出现了这个错误,请问怎么解决的?
Noah_________
import os
import model
import tensorflow as tf
import input_data
data = input_data.read_data_sets('MNIST_data', one_hot=True)
# model
with tf.variable_scope("convolutional"):
x = tf.placeholder(tf.float32, [None, 784], name='x')
keep_prob = tf.placeholder(tf.float32)
y, variables = model.convolutional(x, keep_prob)
# train
y_ = tf.placeholder(tf.float32, [None, 10], name='y')
cross_entropy = -tf.reduce_sum(y_ * tf.log(y))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
saver = tf.train.Saver(variables)
with tf.Session() as sess:
merged_summary_op = tf.summary.merge_all()
summary_writer = tf.summary.FileWriter('/tmp/mnist_log/1', sess.graph)
summary_writer.add_graph(sess.graph)
sess.run(tf.global_variables_initializer())
for i in range(20000):
batch = data.train.next_batch(50)
if i % 100 == 0:
train_accuracy = accuracy.eval(feed_dict={x: batch[0], y_: batch[1]})
print("Step %d, training accuracy %g" % (i, train_accuracy))
sess.run(train_step, feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})
print(sess.run(accuracy, feed_dict={x: data.test.images, y_: data.test.labels, keep_prob: 1.0}))
path = saver.save(
sess, os.path.join(os.path.dirname(__file__), 'data_convolutional', 'convolutional.ckpt'),
write_meta_graph=False, write_state=False)
print("Saved: ", path)
慕码人6266623
刚才有查看了一遍,发现问题是方法写错了,在第15行左右,
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
我把AdamOptimizer写成了AdadeltaOptimizer导致成功率很低,不知道你是否也是这样的问题
咋啥都不会啊
这个问题是你在调用conv2d()函数可能没有将所需要的值传递进去导致的,具体可以先看下model.py文件编写是否正确,其次可以看一下在主文件中调用model的卷积函数是否有正确的传值。