我要实现的能量函数,称为刚性能源,如本文的公式7这里。
能量函数将两个 3D 对象网格作为输入,并返回它们之间的能量。第一个网格是源网格,第二个网格是源网格的变形版本。在粗略的伪代码中,计算过程如下:
迭代源网格中的所有顶点。
对于每个顶点,计算其与其相邻顶点的协方差矩阵。
对计算出的协方差矩阵执行 SVD 并找到顶点的旋转矩阵。
使用计算出的旋转矩阵、原始网格中的点坐标和变形网格中的相应坐标来计算顶点的能量偏差。
因此,这个能量函数要求我迭代网格中的每个点,并且网格可能有超过 2k 个这样的点。在 Tensorflow 中,有两种方法可以做到这一点。我可以有 2 个形状 (N,3) 的张量,一个代表源点,另一个代表变形网格。
纯粹使用 Tensorflow 张量来做。也就是说,tf.gather
使用现有的 TF 操作迭代上述张量的元素并在每个点上执行计算。这种方法,会非常慢。我之前曾尝试定义迭代超过 1000 个点的损失函数,而图构建本身需要太多时间而无法实用。
按照此处的 TF 文档中的说明添加新的 TF OP 。这涉及在 CPP(和 Cuda,用于 GPU 支持)中编写函数,并使用 TF 注册新 OP。
第一种方法很容易编写,但速度很慢。第二种方法写起来很痛苦。
我已经使用 TF 3 年了,之前从未使用过 PyTorch,但此时我正在考虑切换到它,如果它为这种情况提供了更好的替代方案。
PyTorch 是否有一种方法可以轻松实现此类损失函数,并且执行速度与在 GPU 上一样快。即,编写我自己的在 GPU 上运行的损失函数的 pythonic 方式,我没有任何 C 或 Cuda 代码?
红糖糍粑
相关分类