速途網(wǎng)5月9日訊(報道:喬志斌)近日,OpenAI發(fā)布新的研究論文,介紹了一種基于條件生成模型的3D資產(chǎn)生成方法,名為Shap·E,該模型可以渲染出神經(jīng)輻射場NeRF和紋理網(wǎng)格。研究表明,在相同的數(shù)據(jù)集、模型架構(gòu)和訓練計算的情況下,Shap·E可達到或超過類似的顯式生成模型的表現(xiàn)。在進行大規(guī)模3D和文本數(shù)據(jù)的訓練時,Shap·E能夠快速生成多樣和復雜的3D資產(chǎn),而不需要依賴于圖像作為中間表示,這證明了生成隱式表示的潛力,尤其是在3D領(lǐng)域中。同時,該研究還展示了純文本條件模型的生成效果,在不依賴于圖像的情況下,可以生成出有趣的對象。
相比其他3D生成技術(shù),Shap·E的推理成本更低,即推理速度更快。論文中使用了CLIPR-Precision度量標準,對比了Shap·E與其他3D生成技術(shù)進行比較,強調(diào)基于優(yōu)化的方法的優(yōu)越樣本質(zhì)量以顯著的推理成本為代價的。由于ShapE不需要額外的上采樣擴散模型,因此Shap-E的推理速度比PointE更快。