我是一名 IT 学生,想了解(了解)更多关于ARCore 中的增强面孔 API的信息。
我刚刚看到了ARCore V1.7 版本和新的Augmented Faces API。我得到了这个 API 的巨大潜力。但我没有看到任何关于这个主题的问题或文章。所以我在质疑自己,这里有一些关于这个版本的假设/问题。
ARCore 团队正在使用(如 Instagram 和 Snapchat)机器学习,在整个面部生成地标。可能是HOG人脸检测..
ARCore 如何在智能手机上的用户脸上生成 468 个点?即使在源代码中也无法找到任何回应。
他们如何能够从一个简单的智能手机相机中获得深度?
如何拒绝人脸检测/跟踪,对自定义对象或身体的其他部位(如手)?
因此,如果您对此主题有任何建议或意见,让我们分享!
慕标琳琳
相关分类