![]()
蘋果公司于2025年12月17日發布了一款名為SHARP的新型開源人工智能模型,該模型能夠在不到一秒鐘的時間內,將單張二維照片轉換為具有真實感的三維視圖。相關研究成果以論文《Sharp Monocular View Synthesis in Less Than a Second》形式公開,并已上線GitHub平臺供開發者使用。
SHARP模型的核心技術基于3D高斯濺射(3D Gaussian Splatting),通過一次神經網絡前向傳遞即可預測出圖像場景的完整三維結構。與以往需要多角度圖像輸入的傳統方法不同,SHARP僅憑一張照片就能重建出具備精確距離和現實尺度的3D環境,整個過程在標準GPU上耗時不足一秒。
該模型之所以高效,是因為其采用了一種稱為“度量化表示”(metric representation)的技術,使生成的3D場景支持真實的攝像機位移操作。實驗數據顯示,SHARP在多個基準測試中表現優異,相比此前最優模型,LPIPS指標降低25%-34%,DISTS指標下降21%-43%,同時合成速度提升了三個數量級。
盡管SHARP無法生成原視角之外完全不可見的區域,因此僅適用于鄰近視角渲染,但這一設計有效保障了結果的真實性與計算效率。目前已有開發者在社交媒體上分享測試成果,包括利用M3芯片運行模型、結合Three.js實現Web端渲染等創新應用。
隨著SHARP的開源發布,蘋果進一步展示了其在計算機視覺與生成式AI領域的技術實力,也為虛擬現實、增強現實及內容創作等應用場景提供了新的可能性。
參考鏈接:
https://9to5mac.com/2025/12/17/apple-sharp-ai-model-turns-2d-photos-into-3d-views/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.