如果说我们手头上的2G、4G或者6G这类的入门甚至主流的显卡都可以玩3D建模材质贴图并渲染一些简单的场景的话,那么碰到如今多数AI深度学习程序,可能我们得认栽,一般这玩意儿都会成为自己机器的噩梦。更何况,有的AI模型居然还是专门搞3D模型的,这要是来搞我们普通劳动人(显)民(卡)群众,岂不是噩梦中的噩梦?
没错,近日由芝加哥大学和特拉维夫大学联合打造的这个AI模型,就是专门用来搞3D模型的,从某种意义上讲,大概率也是专门用来搞你的PC电脑的——如果你要用这个AI的话。虽然机智客这篇文章的标题是说AI给3D模型上材质,其实更准确一点应该是,文本转网格Text2Mesh,其实。借助基本的3D模型白模,用文本描述的输入方式,来完成对3D基本模型的后期处理和材质纹理完善。
这个模型,完全不用我们像以前那样还要UV展开,就能给我们模型贴图上材质。这其实是构造了一个神经风格的网络,为网格里的所有顶点,生成样式属性,以便方便后续对网格表面定义相应的风格。比如把一匹马设定成一个航天员的风格,模型其实就是映射RGB颜色,沿着法线方向挤压移动,生成风格化mesh,之后经过多视图mesh渲染后,结合CLIP的2D增强技术和其他计算,得以让输出结果更逼真。
换言之,这个有点类似于以前我们介绍过的deep-daze那样的用简单的文本描述来生成一个新的作品。在以前的文章里,机智客介绍过这个。同样,和deep-daze一样,这个Text2Mesh的模型也考验GPU显卡。据资料介绍,这个依然是Python脚本运行,3.7版,理所当然还需要CUDA,环境版本是10.2。这些倒也罢了,看GPU显卡。它需要最低8G的GPU。换言之,假如我们显卡够不上,大概率是没法测试这个应用的。即便最低8G的显卡,目测用正常一点有观感的模型,估计也得爆了。
即便它不用预训练,对于我们普通的PC机器也是一个比较高的门槛。在单个GPU上的时间需要25分钟,看起来并不多多的样子,关键看你GPU咯。所以说啊,说来说去,还是一个字,穷——啊。如果说我们用6G的显卡还能玩以前那个AI的话,那么碰到这个搞3D模型的AI,估计我们肯定得认栽,对于我们每个朴实无华的劳动大众独立显卡而言,这玩意儿简直就是噩梦中的噩梦中的噩梦。
领取专属 10元无门槛券
私享最新 技术干货