NVIDIA Get3D会搞砸很多初创公司.
2011年8月20日,a16z的Marc Andreessen在《华尔街日报》上发表了具有里程碑意义的文章:《为什么软件正在吃掉世界》。今天,2022年9月26日,我将发布一篇新的文章《为什么AI正在吞噬Web3创作经济》。
你瞧,这一切都始于机器学习和深度学习的突破,随着DALL-E、MidJourney、Stable Diffusion等的出现,最近又因为NVIDIA发布了Get3D的公告而变得更加火热。
NVIDIA的这款新GET3D AI工具将对许多家近期开发物体扫描工具和应用程序、用于填充虚拟元宇宙世界的初创公司造成影响。
“仅用2D图像训练,NVIDIA GET3D可以生成高保真纹理和复杂几何细节的3D形状。这些3D对象采用与流行图形软件应用程序相同的格式生成,用户可以立即把形状导入3D渲染器和游戏引擎做进一步编辑。”
NVIDIA说,他们只用了两天时间就使用A100 Tensor Core GPU向GET3D喂了大约100万张图片——这说明这种速度和技术规模将如何颠覆其他手动扫描日常物品的工具。
它能够瞬间生成纹理化的3D形状,这可能对开发者来说是一个游戏规则的改变,帮助他们在虚拟世界中迅速填充各式各样的有趣物件。
借助另一款 NVIDIA 的 AI 工具 StyleGAN-NADA,可以将建筑描绘得破旧不堪,或让一辆四驱车浑身是泥,这些都很容易做到。
更值得注意的是,这些图像预计将以USD(通用场景描述)文件格式被保存,这是NVIDIA和其他公司推动成为互操作标准之一的格式。
这意味着,允诺人们可以通过上传自己的图像到类似Sketch的平台进行售卖来赚取收入的民主化的创作者经济将变成过去的事情。
比如说,如果你以 Quixel 为例,他们的 megascan 资源库可以被整合,马上变得多余。
从MidJourney、DALL-E到现在的Stable Diffusion,很快我们就能输入文本提示,让AI根据文本提示生成一个元宇宙。
完全实现的3D和沉浸式环境其实并不远,我猜不到两年内,我们就可以为Unity或Unreal Engine添加一个插件,可以通过一两个词或短语生成可以行走和互动的虚拟世界。
已经有工具可以简化设计流程,但在这个过程中的最后一步,只需告诉AI你想要的结果是什么,而不需要做太多额外的事情。
然后就看用户如何调整以使其更完美,或者保持原样了。我们已经开始见到“提示工程师”的身影,这些人懂得如何操作所需短语来获得最佳初始结果,至少短期内,这些人能拿到不错的报酬。涌现出来,并且能够因为他们的技能拿到不错的报酬。
但他们并不是真正的创造者,人工智能将会把这些人远远甩在后面,因为它主导了这个行业。
使用这些工具并结合社区驱动的故事创作,Fabian Stelzer 制作了一套科幻短片,看到 AI 如此能够使创作民主化确实令人兴奋不已,但同时,它也在大幅减少传统创作者的参与机会,这些创作者通常会参与到这样的项目中。
“在我探索这个世界的过程中随时‘触发预告片’的体验极其令人兴奋,仿佛一窥未来。”
随着这些工具接触到更多现实世界的数据进行训练,它们变得更可能更快地出现这种情况。
但是已经出现了反对的声音。
在一项具有争议的举措中,Getty——这家视觉媒体巨擘和库存图像及新闻摄影的供应商——本周宣布禁止使用人工智能生成的艺术品,理由是版权方面的考虑。
“这些模型的输出确实存在一些实际的版权担忧,以及关于图像、图像中所涉及的个人,以及图像元数据中的个人权利问题尚未得到解决。
因此,我们正在采取积极措施,以更好地服务我们的客户。”
Getty 是一个超大的图像库,被全球各地的媒体公司所使用。里面不仅有各种图片,还有原始照片,订阅者可以付费使用这些图片和照片来配图,并支付相应的许可费用。
Getty宣布将加强对平台上AI生成图像的管理,任何通过如Stable Diffusion、DALL-E和Midjourney等生成的图像都将被禁止。
现在出现了一道鸿沟——创作者与用AI创作的用户之间的争斗。而这将波及整个行业,带来一些损失。
软件可能正在吞噬整个世界,但人工智能正快速吞噬创造者经济,甚至在它还未起步之前。