品玩12月18日訊,據 9to5Mac 暴動,Apple近日發布名為SHARP的新模型,可在標準GPU上通過單次神經網絡前向傳播,在不到一秒內從單張2D圖像重建出具有真實尺度的光度逼真3D場景。
該技術基于3D高斯表示,支持實時渲染鄰近視角,并在多個數據集上刷新SOTA,LPIPS和DISTS指標分別降低25–34%與21–43%。
SHARP通過合成與真實數據聯合訓練,實現零樣本跨場景泛化,但僅限于原視角附近的合理視點合成。Apple已將SHARP開源至GitHub,供研究社區驗證與拓展。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.