斯蒂芬大帝
正如您所注意到的,tf.random.categorical需要两个参数:logits, 具有形状的 2D 浮动张量 [batch_size, num_classes]num_samples,整数标量。输出是一个形状为 的二维整数张量[batch_size, num_samples]。logits张量 ( logits[0, :], logits[1, :], ...) 的每一“行”代表不同分类分布的事件概率。不过,该函数并不期望实际概率值,而是期望未归一化的对数概率;所以实际的概率是softmax(logits[0, :]),softmax(logits[1, :])等等。这样做的好处是你基本上可以给出任何实际值作为输入(例如神经网络的输出),它们将是有效的。此外,使用对数使用特定的概率值或比例也很简单。例如,两者[log(0.1), log(0.3), log(0.6)]和[log(1), log(3), log(6)]代表相同的概率,其中第二类的可能性是第一类的三倍,但只有第三类的一半。对于(非标准化对数)概率的每一行,您都可以num_samples从分布中获得样本。每个样本是0和之间的整数num_classes - 1,根据给定的概率绘制。因此,结果是具有[batch_size, num_samples]每个分布的采样整数形状的 2D 张量。编辑:函数的一个小例子。import tensorflow as tfwith tf.Graph().as_default(), tf.Session() as sess: tf.random.set_random_seed(123) logits = tf.log([[1., 1., 1., 1.], [0., 1., 2., 3.]]) num_samples = 30 cat = tf.random.categorical(logits, num_samples) print(sess.run(cat)) # [[3 3 1 1 0 3 3 0 2 3 1 3 3 3 1 1 0 2 2 0 3 1 3 0 1 1 0 1 3 3] # [2 2 3 3 2 3 3 3 2 2 3 3 2 2 2 1 3 3 3 2 3 2 2 1 3 3 3 3 3 2]]在这种情况下,结果是一个有两行 30 列的数组。第一行中的值是从分类分布中采样的,其中每个类 ( [0, 1, 2, 3]) 具有相同的概率。在第二行中,该类3是最有可能的类,并且该类0没有被抽样的概率。