<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      《現(xiàn)代電影技術(shù)》|顧險(xiǎn)峰:人工智能背景下三維掃描與曲面重建技術(shù)進(jìn)展及其應(yīng)用研究

      0
      分享至


      本文刊發(fā)于《現(xiàn)代電影技術(shù)》2025年第6期

      專家點(diǎn)評(píng)

      三維掃描與曲面重建技術(shù)是影視制作、數(shù)字孿生、數(shù)字資產(chǎn)創(chuàng)建、數(shù)字文化遺產(chǎn)保護(hù)等領(lǐng)域的核心支撐技術(shù)。人工智能(AI)特別是深度學(xué)習(xí)技術(shù)的發(fā)展進(jìn)步為三維掃描與曲面重建提供了新引擎和新動(dòng)能,通過應(yīng)用AI前沿算法和開展定制研發(fā)應(yīng)用,有力驅(qū)動(dòng)三維掃描與曲面重建技術(shù)創(chuàng)新發(fā)展、快速迭代和提質(zhì)升級(jí),使三維掃描與曲面重建的精度、效率和真實(shí)感得到顯著提升。《人工智能背景下三維掃描與曲面重建技術(shù)進(jìn)展及其應(yīng)用研究》一文從數(shù)據(jù)采集方法、曲面重建算法、技術(shù)性能與實(shí)現(xiàn)效率等視角,深入總結(jié)了三維掃描與曲面重建技術(shù)的最新進(jìn)展和行業(yè)應(yīng)用,重點(diǎn)闡述了基于深度學(xué)習(xí)的相位展開、單視圖和多視圖重建、點(diǎn)云到網(wǎng)格重建等AI方法在推動(dòng)三維掃描技術(shù)升級(jí)與曲面重建技術(shù)重構(gòu)方面相對(duì)于傳統(tǒng)方法的顯著優(yōu)勢(shì),同時(shí)指出了AI方法面臨的發(fā)展挑戰(zhàn)、技術(shù)瓶頸和未來突破方向,對(duì)于推動(dòng)智能時(shí)代三維掃描與曲面重建技術(shù)在影視文化領(lǐng)域發(fā)展應(yīng)用具有重要指導(dǎo)意義和應(yīng)用價(jià)值。人類社會(huì)向智能化演進(jìn)升級(jí)是大勢(shì)所趨,電影科技工作者應(yīng)當(dāng)積極踐行國家科技自立自強(qiáng)發(fā)展戰(zhàn)略,緊密結(jié)合領(lǐng)域業(yè)務(wù)特征與發(fā)展需求,深入研究與應(yīng)用實(shí)踐人工智能生成內(nèi)容(AIGC)、語言大模型、視覺大模型和多模態(tài)大模型等相關(guān)技術(shù),研究制定2D/3D AIGC在電影制作生產(chǎn)和數(shù)字資產(chǎn)創(chuàng)建中的應(yīng)用方案。與此同時(shí),現(xiàn)代智能科技也在不斷發(fā)展進(jìn)步和創(chuàng)新升級(jí),我們必須堅(jiān)持與時(shí)俱進(jìn)和知難而進(jìn),積極推進(jìn)人工智能新型范式(AI for Science & AI for Engineering)在電影科研和工程領(lǐng)域的發(fā)展與應(yīng)用,有力支撐和服務(wù)電影全產(chǎn)業(yè)鏈的智能化升級(jí)。

      ——?jiǎng)⑦_(dá)

      正高級(jí)工程師

      中國電影科學(xué)技術(shù)研究所(中央宣傳部電影技術(shù)質(zhì)量檢測(cè)所)總工程師

      《現(xiàn)代電影技術(shù)》主編


      為深入研究影視制作等行業(yè)數(shù)字資產(chǎn)采集和模型搭建相關(guān)技術(shù),本文總結(jié)了三維掃描與曲面重建技術(shù)的最新進(jìn)展,涵蓋激光雷達(dá)、結(jié)構(gòu)光掃描、攝影測(cè)量及飛行時(shí)間傳感器等傳統(tǒng)數(shù)據(jù)采集方法,以及泊松表面重建、德洛內(nèi)(Delaunay)三角剖分等經(jīng)典曲面重建算法。隨著人工智能(AI)技術(shù)的崛起,深度學(xué)習(xí)(DL)等AI方法顯著提升了三維重建的精度與效率,尤其在處理噪聲數(shù)據(jù)、復(fù)雜形狀及不完整數(shù)據(jù)方面表現(xiàn)出色。AI推動(dòng)了單視圖與多視圖重建技術(shù)的革新,實(shí)現(xiàn)了從二維圖像到三維模型的精準(zhǔn)轉(zhuǎn)換,優(yōu)化了點(diǎn)云到網(wǎng)格的轉(zhuǎn)換流程,增強(qiáng)了重建模型的細(xì)節(jié)層次與渲染真實(shí)感。研究表明,結(jié)合AI的三維技術(shù)在數(shù)字孿生、影視制作、數(shù)字遺產(chǎn)保護(hù)等領(lǐng)域展現(xiàn)出巨大潛力,為相關(guān)領(lǐng)域的創(chuàng)新發(fā)展提供了有力支持。

      關(guān)鍵詞

      三維掃描;曲面重建;深度學(xué)習(xí);影視制作

      1引言

      在數(shù)字化浪潮推動(dòng)下,三維掃描與曲面重建技術(shù)作為連接物理世界與數(shù)字世界的橋梁,正引領(lǐng)數(shù)字孿生(Digital Twin)、影視制作、數(shù)字遺產(chǎn)保護(hù)等多領(lǐng)域的技術(shù)應(yīng)用革新。三維掃描技術(shù)通過捕捉現(xiàn)實(shí)世界物體的三維數(shù)據(jù),為數(shù)字模型的構(gòu)建提供了基礎(chǔ),廣泛應(yīng)用于工業(yè)設(shè)計(jì)、城市建模、地形測(cè)繪等領(lǐng)域;曲面重建技術(shù)則將這些離散的數(shù)據(jù)點(diǎn)轉(zhuǎn)化為連續(xù)的網(wǎng)格或曲面模型,使數(shù)字模型更加逼真、可用。

      隨著科技的進(jìn)步,三維掃描與曲面重建技術(shù)不斷迭代升級(jí),從激光掃描到結(jié)構(gòu)光掃描、攝影測(cè)量等,技術(shù)精度與效率不斷提升。人工智能(AI)技術(shù)的興起為相關(guān)領(lǐng)域帶來了新的發(fā)展機(jī)遇。通過深度學(xué)習(xí)(DL)等AI方法,使用者可更有效地處理三維數(shù)據(jù)中的噪聲、缺失和復(fù)雜結(jié)構(gòu),實(shí)現(xiàn)更高精度的重建。在數(shù)字孿生領(lǐng)域,三維掃描與重建技術(shù)用于對(duì)工業(yè)設(shè)備(如機(jī)器、管道、建筑物)進(jìn)行高精度建模,生成數(shù)字孿生體,可用于實(shí)時(shí)監(jiān)控設(shè)備運(yùn)行狀態(tài)、預(yù)測(cè)性維護(hù)以及虛擬仿真,從而實(shí)現(xiàn)對(duì)物理對(duì)象的全面管理和優(yōu)化。

      在影視制作領(lǐng)域, 三維掃描技術(shù)捕捉演員的面部表情、服裝細(xì)節(jié)和道具外形,生成逼真的數(shù)字資產(chǎn);曲面重建技術(shù)可用于創(chuàng)建復(fù)雜的計(jì)算機(jī)生成動(dòng)畫(Computer?Generated Imagery, CGI)角色和場(chǎng)景,助力創(chuàng)作者構(gòu)建出逼真的虛擬世界和角色,為觀眾帶來前所未有的視覺體驗(yàn)。例如,對(duì)演員面部高分辨率三維掃描,可獲取高精度數(shù)據(jù)并生成真實(shí)感人物面部模型,有助于角色呈現(xiàn)。在動(dòng)畫制作過程中,重建的網(wǎng)格模型可作為綁定(Rigging)和蒙皮(Skinning)的基礎(chǔ),用于生成角色動(dòng)畫;點(diǎn)云數(shù)據(jù)提供的精準(zhǔn)運(yùn)動(dòng)捕捉信息,可用于捕捉真人動(dòng)作細(xì)節(jié)并映射至虛擬角色上,以生成逼真的動(dòng)畫效果。如在特技場(chǎng)景中,通過捕捉演員的動(dòng)作數(shù)據(jù)驅(qū)動(dòng)數(shù)字替身,實(shí)現(xiàn)流暢自然的動(dòng)態(tài)表現(xiàn)。此外,三維掃描與重建技術(shù)為文物的數(shù)字化保存與展示提供了有力技術(shù)支持,使珍貴的歷史文化遺產(chǎn)得以永久傳承。

      本文旨在系統(tǒng)介紹三維掃描與曲面重建技術(shù)的傳統(tǒng)方法、理論基礎(chǔ)及算法進(jìn)展,并探討AI技術(shù)如何為這一領(lǐng)域帶來新的突破與發(fā)展,以期為相關(guān)領(lǐng)域的研究與未來應(yīng)用提供參考與借鑒。

      2三維掃描和空間重建的主要技術(shù)和應(yīng)用場(chǎng)景

      2.1 三維掃描的主要技術(shù)

      三維掃描通過采集空間數(shù)據(jù)點(diǎn)以捕捉真實(shí)世界物體和環(huán)境的形狀與幾何結(jié)構(gòu),是構(gòu)建數(shù)字模型和虛擬場(chǎng)景的重要手段。常用的三維掃描技術(shù)包括以下四種:(1)激光雷達(dá)(LiDAR),利用激光脈沖測(cè)量物體與傳感器間距離,并生成精確的3D點(diǎn)云,已廣泛應(yīng)用于自動(dòng)駕駛、城市建模和地形測(cè)繪;(2)結(jié)構(gòu)光(Structured Light)掃描,向物體表面投射光柵圖案,通過分析光柵形變實(shí)現(xiàn)物體的三維形狀重建,常用于工業(yè)檢測(cè)、逆向工程及影視和動(dòng)畫內(nèi)容制作,具有高精度和快速響應(yīng)的優(yōu)勢(shì);(3)攝影測(cè)量(Photogrammetry),從不同角度拍攝多張照片,通過匹配特征點(diǎn)生成3D模型,適用于電影和游戲中的真實(shí)紋理生成,具有成本低廉、實(shí)現(xiàn)便捷的特點(diǎn);(4)飛行時(shí)間(ToF)傳感器,通過測(cè)量光線發(fā)射與返回時(shí)間差生成深度數(shù)據(jù),廣泛用于VR/AR設(shè)備和機(jī)器人導(dǎo)航系統(tǒng),能實(shí)時(shí)捕捉動(dòng)態(tài)場(chǎng)景。

      2.2 空間重建的主要技術(shù)

      在空間重建技術(shù)中,掃描獲取的離散點(diǎn)云(Point Cloud)數(shù)據(jù)需轉(zhuǎn)化為連續(xù)的網(wǎng)格或曲面。常用的重建算法包括:(1)泊松表面重建(Poisson Surface Reconstruction)[1]算法,通過求解泊松方程生成光滑且閉合的表面,適用于重建有機(jī)形狀和掃描對(duì)象,尤其在存在噪聲數(shù)據(jù)時(shí)具有較好的魯棒性;(2)德洛內(nèi)(Delaunay)三角剖分與Alpha Shapes[2]算法,采用三角剖分方法連接點(diǎn)集,可調(diào)控網(wǎng)格密度,適用于CAD模型和幾何形狀的重建,能精準(zhǔn)定義邊界;(3)滾球算法(Ball?Pivoting Algorithm, BPA)[3],通過滾動(dòng)虛擬球體連接相鄰點(diǎn),生成三角面片,能有效保留銳利邊緣,是機(jī)械零件建模的理想選擇;(4)移動(dòng)最小二乘(Moving Least?Squares, MLS)[4]法,通過擬合局部平面或曲面對(duì)噪聲數(shù)據(jù)進(jìn)行平滑處理,生成連續(xù)的曲面結(jié)構(gòu),廣泛應(yīng)用于動(dòng)畫和視覺效果制作;(5)體素級(jí)重建方法——移動(dòng)立方體(Marching Cubes, MC)算法,從體素?cái)?shù)據(jù)中提取等值面網(wǎng)格用于生成三維模型,可用于醫(yī)學(xué)影像數(shù)據(jù)建模和復(fù)雜體數(shù)據(jù)可視化。

      2.3 相關(guān)技術(shù)的智能化趨勢(shì)

      近年來,AI技術(shù)特別是深度學(xué)習(xí)方法,在掃描數(shù)據(jù)處理與點(diǎn)云重建中展現(xiàn)出顯著優(yōu)勢(shì)。傳統(tǒng)算法在面對(duì)噪聲、高復(fù)雜度形狀或不完整數(shù)據(jù)時(shí)常面臨重建精度與效率之間的權(quán)衡,而AI模型通過大量數(shù)據(jù)訓(xùn)練,能夠?qū)W習(xí)從局部幾何到全局結(jié)構(gòu)的映射關(guān)系,從而實(shí)現(xiàn)更準(zhǔn)確的表面重建與拓?fù)浔3帧T跀?shù)字孿生中,AI可輔助進(jìn)行自動(dòng)特征識(shí)別與語義分割,提升模型的智能化分析能力;在影視與動(dòng)畫制作中,AI可實(shí)現(xiàn)端到端的人臉重建與動(dòng)畫驅(qū)動(dòng),大幅簡(jiǎn)化傳統(tǒng)建模流程。例如,使用神經(jīng)輻射場(chǎng)(NeRF)等技術(shù),可從稀疏圖像或點(diǎn)云中重建高質(zhì)量網(wǎng)格模型,顯著提升計(jì)算機(jī)圖形學(xué)(CG)角色的細(xì)節(jié)層次與渲染真實(shí)感。

      總體而言,AI技術(shù)的引入不僅提高了建模自動(dòng)化程度和處理復(fù)雜場(chǎng)景的能力,也拓展了三維掃描技術(shù)在實(shí)時(shí)渲染、增強(qiáng)現(xiàn)實(shí)(AR)與人機(jī)交互等新興領(lǐng)域的應(yīng)用邊界。

      3三維結(jié)構(gòu)光掃描技術(shù)

      三維結(jié)構(gòu)光技術(shù)可實(shí)時(shí)獲取高精度點(diǎn)云數(shù)據(jù),進(jìn)而建立高質(zhì)量動(dòng)態(tài)三維曲面,被廣泛應(yīng)用于數(shù)字孿生、電影和動(dòng)畫制作、工業(yè)檢測(cè)和生物醫(yī)療等領(lǐng)域。因此本文將重點(diǎn)介紹結(jié)構(gòu)光掃描技術(shù)的具體原理和算法。

      三維結(jié)構(gòu)光系統(tǒng)由數(shù)字投影儀(數(shù)字光源)與數(shù)字?jǐn)z影機(jī)組成,數(shù)字光源實(shí)時(shí)向目標(biāo)曲面投射余弦條紋,通過反射條紋的扭曲信息以計(jì)算幾何深度信息,從而得到動(dòng)態(tài)幾何信息。

      在計(jì)算機(jī)視覺(CV)領(lǐng)域,相移法是一種廣泛應(yīng)用于結(jié)構(gòu)光立體視覺的技術(shù),可精確地計(jì)算物體表面的三維坐標(biāo)。本文以三步相移法為例實(shí)現(xiàn)相位計(jì)算,該方法的優(yōu)點(diǎn)是速度快、幀率高,可實(shí)時(shí)捕捉動(dòng)態(tài)人臉表情變化。

      3.1 三步相移法

      三步相移法中,每個(gè)圖案均以灰度圖像形式生成,這些圖案可用數(shù)學(xué)公式表示為:




      圖 1 結(jié)構(gòu)光照射下采集的三幅條紋圖像







      圖2顯示了直接求解得到的紋理圖像、環(huán)境光圖像和相對(duì)相位圖像。


      圖 2 直接求解得到的紋理圖像、環(huán)境光圖像和相對(duì)相位圖像

      3.2 相位展開算法



      路徑跟蹤算法通過對(duì)包裹相位圖像進(jìn)行線積分來展開相位。例如,經(jīng)典的Goldstein算法[5]從包裹相位圖像中識(shí)別殘差點(diǎn)(Residues),并通過分支切割(Branch Cuts)進(jìn)行平衡,之后沿分支切割進(jìn)行相位展開。質(zhì)量引導(dǎo)算法(Quality?Guided Algorithm)不識(shí)別殘差點(diǎn),而是使用從包裹相位圖像中獲取的質(zhì)量圖,從最高質(zhì)量像素開始引導(dǎo)展開路徑。Mask Cut算法不僅識(shí)別殘差點(diǎn),還利用質(zhì)量圖來引導(dǎo)分支切割的放置[6—8]。盡管這些方法快速且有效,但若包裹相位數(shù)據(jù)中噪聲較大,可能導(dǎo)致方法失效。快速展開方法通過二階差分計(jì)算可靠性函數(shù)[9],以提高質(zhì)量評(píng)估。

      最小

      L
      P
      P
      =2時(shí)通過求解泊松方程來展開相位。這些算法通常對(duì)噪聲具有較強(qiáng)的魯棒性,但收斂速度較慢。為優(yōu)化能量,圖割(Graph Cut)算法被應(yīng)用于相位展開 [10—12] 。

      最小不連續(xù)性相位展開算法(Minimum?Discontinuity Phase Unwrapping Algorithm)[13]通過檢測(cè)不連續(xù)性將包裹相位圖像劃分為若干區(qū)域,并為每個(gè)區(qū)域分配2π的整數(shù)倍,以最小化不連續(xù)點(diǎn)的數(shù)量。此算法在路徑跟蹤類算法失效時(shí)通常表現(xiàn)良好。

      在計(jì)算機(jī)視覺中,許多問題可建模為基于能量最小化的標(biāo)簽分配問題,并歸結(jié)為馬爾科夫隨機(jī)場(chǎng)優(yōu)化問題,而圖割算法是解決此類問題的強(qiáng)有力工具,并可采用層級(jí)方法進(jìn)行加速。Greig等[14]首次使用最小割/最大流算法解決計(jì)算機(jī)視覺中的能量最小化問題。Roy等[15]首次將圖割算法應(yīng)用于多攝影機(jī)立體匹配計(jì)算。Boykov等[16]開創(chuàng)性地將圖割算法應(yīng)用于分割問題。自此,越來越多的研究將基于圖的能量最小化方法應(yīng)用于各種低級(jí)視覺問題,例如分割[17]、立體匹配、紋理合成、多視圖重建等。圖3顯示了由這種方法得到的相位計(jì)數(shù)和絕對(duì)相位圖像。


      圖 3 馬爾可夫隨機(jī)場(chǎng)優(yōu)化求解得到的相位計(jì)數(shù)和絕對(duì)相位



      圖 4 帶黑白紋理的三維點(diǎn)云


      圖 5 實(shí)時(shí)掃描得到的動(dòng)態(tài)人臉曲面

      若為三維掃描系統(tǒng)添加一臺(tái)彩色相機(jī),可得到彩色圖像,通過相機(jī)標(biāo)定技術(shù),可求出彩色圖像與三維點(diǎn)云間的對(duì)應(yīng)關(guān)系,從而得到三維點(diǎn)云的彩色紋理圖像。該方法需采用精確的相機(jī)標(biāo)定算法。圖6為基于上述方法獲取的帶有彩色紋理的動(dòng)態(tài)三維人臉曲面點(diǎn)云數(shù)據(jù),可從不同角度查看。


      圖 6 實(shí)時(shí)掃描得到的帶有彩色紋理的動(dòng)態(tài)三維人臉曲面

      4曲面重建

      4.1 點(diǎn)云融合

      點(diǎn)云融合算法旨在將多個(gè)點(diǎn)云整合為統(tǒng)一且連貫的三維表示。常用的方法包括迭代最近點(diǎn)算法(ICP)、法向量分布變換(NDT)和基于特征的配準(zhǔn)算法。迭代最近點(diǎn)算法通過最小化對(duì)應(yīng)點(diǎn)間的歐氏距離來對(duì)齊點(diǎn)云,適用于初始對(duì)齊較好的數(shù)據(jù)。法向量分布變換將點(diǎn)云建模為一組高斯分布,能在稀疏或噪聲較大的環(huán)境中實(shí)現(xiàn)魯棒對(duì)齊。基于特征的配準(zhǔn)算法則通過提取和匹配關(guān)鍵點(diǎn)(如SIFT或FPFH)來計(jì)算變換矩陣,從而在初始對(duì)齊誤差較大的情況下實(shí)現(xiàn)更精確的對(duì)齊。完成對(duì)齊后,可采用體素網(wǎng)格濾波或截?cái)喾?hào)距離函數(shù)(Truncated Signed Distance Function, TSDF)融合方法整合對(duì)齊后的點(diǎn)云,生成優(yōu)化且一致的三維模型。上述方法廣泛應(yīng)用于三維重建、同步定位與建圖(Simultaneous Localization and Mapping, SLAM)及多視圖立體視覺等領(lǐng)域。

      迭代最近點(diǎn)算法是一種用于對(duì)齊源點(diǎn)云和目標(biāo)點(diǎn)云的方法,通過迭代最小化對(duì)應(yīng)點(diǎn)間的距離。源點(diǎn)云是預(yù)期對(duì)齊的點(diǎn)云,而目標(biāo)點(diǎn)云是固定參考點(diǎn)集。初始化變換為恒同變換,將在每次迭代中更新,以逐步將源點(diǎn)云對(duì)齊至目標(biāo)點(diǎn)云。源點(diǎn)云中的每一點(diǎn)需在目標(biāo)點(diǎn)云中找到最接近的點(diǎn)。這一步驟建立了一組對(duì)應(yīng)點(diǎn)對(duì),其中每一源點(diǎn)對(duì)應(yīng)一個(gè)最近目標(biāo)點(diǎn),并可計(jì)算源點(diǎn)云和目標(biāo)點(diǎn)云的質(zhì)心,根據(jù)每個(gè)點(diǎn)相對(duì)于質(zhì)心的偏移量計(jì)算協(xié)方差矩陣,以捕捉點(diǎn)云中點(diǎn)的分布情況,并通過旋轉(zhuǎn)和移動(dòng)這些點(diǎn)來實(shí)現(xiàn)最佳對(duì)齊。對(duì)協(xié)方差矩陣進(jìn)行奇異值分解(SVD),將矩陣分解為三個(gè)矩陣,進(jìn)而計(jì)算最佳旋轉(zhuǎn)矩陣,隨后計(jì)算平移向量,以對(duì)齊到目標(biāo)點(diǎn)云的質(zhì)心。將這一變換用于更新源點(diǎn)云的位置并不斷迭代,以逐步減少與目標(biāo)點(diǎn)云之間的距離。若對(duì)齊誤差〔例如均方誤差(MSE)〕低于設(shè)定閾值,則迭代結(jié)束。當(dāng)算法收斂后,輸出最終的變換矩陣,該矩陣包括旋轉(zhuǎn)和平移信息,用于將源點(diǎn)云轉(zhuǎn)換至目標(biāo)點(diǎn)云的坐標(biāo)系中。最終對(duì)齊后的點(diǎn)云可通過應(yīng)用該矩陣生成,從而得到統(tǒng)一的三維模型。圖7顯示了迭代最近點(diǎn)算法融合的兩個(gè)點(diǎn)云。


      圖 7 迭代最近點(diǎn)算法得到的點(diǎn)云融合

      4.2 法向量估計(jì)

      點(diǎn)云的法向量估計(jì)是三維數(shù)據(jù)處理中非常重要的一步,例如在表面重建、分割、特征提取等任務(wù)中均會(huì)用到這一方法。法向量是指垂直于表面上的一個(gè)向量,用于描述表面的方向。在點(diǎn)云數(shù)據(jù)中,由于點(diǎn)本身并不攜帶法向量信息,因此需要通過其鄰域中的點(diǎn)來計(jì)算每個(gè)點(diǎn)的法向量。


      圖 8 點(diǎn)云的法向量估計(jì)

      法向量估計(jì)的常用方法包括:(1)基于主成分分析(PCA)的方法,即直接計(jì)算協(xié)方差矩陣并進(jìn)行特征值分解,適用于平滑且密集的點(diǎn)云數(shù)據(jù);(2)基于移動(dòng)最小二乘(MLS)法的方法,即通過擬合局部平面或曲面計(jì)算法向量,對(duì)噪聲數(shù)據(jù)有較好的魯棒性;(3)基于積分圖像的方法,適用于結(jié)構(gòu)化點(diǎn)云(例如深度圖像),計(jì)算速度快,內(nèi)存開銷小。

      主成分分析方法較常用。首先需確定每個(gè)點(diǎn)的鄰域,例如基于k近鄰(k?NN)方法要求找到距離每個(gè)點(diǎn)最近的

      k
      個(gè)點(diǎn),計(jì)算每個(gè)鄰域點(diǎn)集的質(zhì)心,構(gòu)造協(xié)方差矩陣。協(xié)方差矩陣用于描述鄰域點(diǎn)的分布方向和密度。在對(duì)協(xié)方差矩陣進(jìn)行特征值分解(Eigen Decomposition)時(shí),通常將最小特征值對(duì)應(yīng)的特征向量視為法向量,這是因?yàn)樽钚√卣髦捣较驅(qū)?yīng)于點(diǎn)云表面的法線方向。在估計(jì)出法向量后,其方向可能仍是不確定的。為確保法向量方向一致,我們通常會(huì)進(jìn)行方向校正。具體而言,選定一個(gè)參考方向(例如攝影機(jī)方向、Z軸方向等),計(jì)算法向量與參考方向的點(diǎn)積,若點(diǎn)積為負(fù),則將法向量反向。圖9顯示了主成分分析方法得到的法向量場(chǎng)。


      圖 9 主成分分析方法得到的法向量場(chǎng)

      4.3 點(diǎn)云重建

      從點(diǎn)云重建網(wǎng)格是將離散點(diǎn)數(shù)據(jù)轉(zhuǎn)化為連續(xù)曲面表示的關(guān)鍵步驟,廣泛應(yīng)用于3D掃描、CAD建模、計(jì)算機(jī)視覺等領(lǐng)域。主要的網(wǎng)格重建算法包括泊松表面重建、德洛內(nèi)三角剖分和Alpha Shapes、滾球算法、基于Voronoi圖的重建算法、移動(dòng)最小二乘法等。

      德洛內(nèi)三角剖分和Alpha Shapes算法通過連接點(diǎn)集中的最近鄰點(diǎn)生成三維四面體網(wǎng)格;Alpha Shapes算法可通過調(diào)整參數(shù)

      值篩選三角形,當(dāng)三角形外接圓半徑大于
      時(shí),將其去除,然后提取Alpha Shapes的外殼,生成網(wǎng)格。這一算法實(shí)現(xiàn)簡(jiǎn)單,網(wǎng)格細(xì)節(jié)可控,但缺點(diǎn)在于對(duì)噪聲較敏感。

      滾球算法模擬一個(gè)固定半徑的虛擬球,在點(diǎn)云上滾動(dòng),通過連接相鄰點(diǎn)形成三角形。算法在點(diǎn)云中找到相距球半徑的三個(gè)點(diǎn),構(gòu)成第一個(gè)三角形;之后在當(dāng)前三角形邊上滾動(dòng)球,尋找第三個(gè)點(diǎn)并生成新三角形;重復(fù)上述過程,直到所有點(diǎn)都被連接。這種算法易于實(shí)現(xiàn),且對(duì)均勻采樣點(diǎn)云效果較好。其缺點(diǎn)在于對(duì)噪聲和稀疏數(shù)據(jù)敏感,球半徑參數(shù)需手動(dòng)調(diào)節(jié)。

      基于Voronoi的重建算法首先計(jì)算點(diǎn)云的Voronoi圖,再通過其對(duì)偶德洛內(nèi)三角剖分, 提取表面篩選并連接三角形,生成最終網(wǎng)格。該算法優(yōu)點(diǎn)是理論上具有拓?fù)湔_性,對(duì)密集采樣數(shù)據(jù)效果好,但計(jì)算復(fù)雜度較高,噪聲點(diǎn)會(huì)影響結(jié)果。

      移動(dòng)最小二乘法通過局部擬合平面或曲面,平滑處理點(diǎn)云中的噪聲并生成連續(xù)表面。該算法為每一點(diǎn)找到其

      k
      個(gè)鄰域點(diǎn),使用最小二乘法擬合局部平面或二次曲面,將點(diǎn)投影到擬合曲面上,完成平滑處理,并使用移動(dòng)立方體(Marching Cubes)算法生成網(wǎng)格。該算法優(yōu)點(diǎn)在于能有效平滑噪聲數(shù)據(jù),生成連續(xù)光滑的表面;缺點(diǎn)在于高頻細(xì)節(jié)特征有損失,計(jì)算開銷較大。

      Power Crust算法是一種典型的基于Voronoi圖的重建算法。其通過計(jì)算中軸(Medial Axis)并在其內(nèi)外兩側(cè)生成殼體,實(shí)現(xiàn)閉合曲面重建。該算法計(jì)算Voronoi圖并提取中軸線,在中軸線兩側(cè)構(gòu)建內(nèi)外殼體,將內(nèi)外殼體合并,生成最終封閉網(wǎng)格。其優(yōu)點(diǎn)是生成閉合且光滑的網(wǎng)格,能有效處理噪聲點(diǎn);其缺點(diǎn)是實(shí)現(xiàn)復(fù)雜,計(jì)算量大,對(duì)稀疏數(shù)據(jù)效果較差。

      泊松表面重建算法將網(wǎng)格重建視為泊松方程求解問題,假設(shè)了點(diǎn)云數(shù)據(jù)來自光滑表面,并且已知每個(gè)點(diǎn)的法向量。該算法通過求解泊松方程構(gòu)建隱式函數(shù),并提取零水平集作為重建的網(wǎng)格:首先計(jì)算每個(gè)點(diǎn)的法向量并統(tǒng)一法向量方向,然后構(gòu)建八叉樹(Octree),將點(diǎn)云劃分為不同分辨率級(jí)別。根據(jù)法向量場(chǎng)

      n
      構(gòu)建泊松方程如式(7)所示。


      隨后,使用有限元方法(FEM)求解泊松方程,生成隱式函數(shù)

      ,使用移動(dòng)立方體算法提取
      的零水平集,生成最終網(wǎng)格。

      泊松表面重建算法的優(yōu)點(diǎn)是能有效處理噪聲和異常點(diǎn),從而生成光滑且閉合的曲面;缺點(diǎn)是對(duì)法向量估計(jì)誤差較敏感,數(shù)據(jù)量大時(shí)計(jì)算復(fù)雜度較高。圖10顯示了基于泊松表面重建算法得到的三角網(wǎng)格。


      圖 10 泊松表面重建算法得到的三角網(wǎng)格

      掃描所得的數(shù)字模型可用于三維打印。圖11(a)、圖11(b)分別為不同角度的原始雕塑與三維打印模型對(duì)比。原始雕塑與曲面重建后打印模型誤差低于0.1毫米。


      圖 11 不同角度的原始雕塑與曲面重建后三維打印模型比較

      5AI技術(shù)帶來的進(jìn)展

      5.1 融合AI的三維掃描技術(shù)升級(jí)

      近年來,AI尤其是深度學(xué)習(xí)技術(shù)在光學(xué)中的相位展開方法上取得顯著進(jìn)展。AI與相位展開的結(jié)合推動(dòng)了多個(gè)光學(xué)計(jì)量領(lǐng)域的技術(shù)進(jìn)步:在數(shù)字全息顯微技術(shù)中,更準(zhǔn)確的相位重建使微觀結(jié)構(gòu)的三維成像更加清晰;在光學(xué)相干斷層掃描(OCT)領(lǐng)域中,提升了組織結(jié)構(gòu)的可視化效果,助力醫(yī)學(xué)診斷;在條紋投影輪廓測(cè)量中,AI驅(qū)動(dòng)的相位展開實(shí)現(xiàn)了高精度的三維表面測(cè)量,廣泛應(yīng)用于工業(yè)檢測(cè)和質(zhì)量控制。

      深度學(xué)習(xí)在相位展開中的應(yīng)用主要包括以下5類:

      (1)直接回歸模型卷積神經(jīng)網(wǎng)絡(luò)(CNN)。其被訓(xùn)練用于將纏繞相位圖直接映射為展開相位圖。例如,Unwrap?Net[18]利用殘差結(jié)構(gòu)實(shí)現(xiàn)高精度的相位展開,無需額外的預(yù)處理步驟,表現(xiàn)出對(duì)噪聲和欠采樣的強(qiáng)魯棒性。

      (2)條紋級(jí)數(shù)分類。一些模型通過預(yù)測(cè)條紋級(jí)數(shù)(或纏繞次數(shù))來重建真實(shí)的相位圖。其中,Hformer模型[19]結(jié)合了CNN和Transformer架構(gòu),以提高條紋級(jí)數(shù)預(yù)測(cè)精度,超越了傳統(tǒng)基于CNN的方法。

      (3)混合深度學(xué)習(xí)與物理建模。將AI與傳統(tǒng)物理建模方法結(jié)合,可提高模型泛化能力和可解釋性。例如,Luo等[20]采用混合方法將深度學(xué)習(xí)與路徑跟蹤算法結(jié)合,在條紋投影輪廓測(cè)量中提升了空間相位展開的準(zhǔn)確性。

      (4)自監(jiān)督學(xué)習(xí)。為應(yīng)對(duì)標(biāo)注數(shù)據(jù)稀缺的問題,研究者提出了自監(jiān)督學(xué)習(xí)方法。Gao等[21]使用未標(biāo)注的數(shù)據(jù)訓(xùn)練模型,即使在缺乏真實(shí)相位的場(chǎng)景下也能實(shí)現(xiàn)有效的相位展開。

      (5)時(shí)序與多模態(tài)相位展開。先進(jìn)的模型能夠處理時(shí)間序列數(shù)據(jù)和多種干涉條紋模式。近期Zhao等[22]提出了一種多模態(tài)自適應(yīng)的時(shí)序相位展開方法,能在不同頻率和條紋類型下保持高精度。

      對(duì)比研究表明,基于深度學(xué)習(xí)的相位展開方法在多種復(fù)雜條件下通常優(yōu)于傳統(tǒng)算法,主要體現(xiàn)在:(1)抗噪性能強(qiáng)。深度學(xué)習(xí)模型在高噪聲環(huán)境中表現(xiàn)更穩(wěn)定,能維持較高的準(zhǔn)確率,而傳統(tǒng)方法往往在此條件下失效。(2)處理相位突變與混疊能力強(qiáng)。AI方法能夠更有效地處理相位跳躍和混疊問題,輸出更加平滑的展開相位圖。(3)計(jì)算效率高。訓(xùn)練完成后的深度學(xué)習(xí)模型推理速度快,適合實(shí)時(shí)應(yīng)用場(chǎng)景。然而,這些模型在泛化能力、未見數(shù)據(jù)的適應(yīng)性以及推理過程的可解釋性方面仍存在挑戰(zhàn)。

      為進(jìn)一步推進(jìn)AI在相位展開中的應(yīng)用,未來研究可能聚焦于以下方向:(1)增強(qiáng)模型泛化能力,開發(fā)能適應(yīng)多種數(shù)據(jù)集和實(shí)際場(chǎng)景的通用模型。(2)提升可解釋性,構(gòu)建具有透明推理流程的AI系統(tǒng),使用戶能夠理解和信任模型的決策。(3)擴(kuò)展自監(jiān)督技術(shù),利用未標(biāo)注數(shù)據(jù)訓(xùn)練魯棒模型,減少對(duì)大量標(biāo)注樣本的依賴。這些方向的研究目標(biāo)是構(gòu)建更強(qiáng)大、更可信的光學(xué)相位展開AI工具。

      5.2 AI技術(shù)重構(gòu)曲面重建

      三維視覺和計(jì)算機(jī)圖形學(xué)中的曲面重建技術(shù)同樣在AI技術(shù)應(yīng)用趨勢(shì)下實(shí)現(xiàn)重構(gòu),主要包括單視圖重建和多視圖重建。

      單視圖重建旨在從單張二維圖像中恢復(fù)三維形狀。由于該任務(wù)的本質(zhì)是不適定的,因此研究者提出了多種基于學(xué)習(xí)的方法來解決。早期基于體素的表達(dá)曲面,如3D?R2N2[23]利用卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)體素占據(jù)網(wǎng)格。這種方法具有局限性,內(nèi)存開銷較大,圖像分辨率提升導(dǎo)致計(jì)算量急劇增加。后繼方法基于點(diǎn)云或網(wǎng)格的預(yù)測(cè),直接回歸點(diǎn)云或網(wǎng)格頂點(diǎn)坐標(biāo),適用于更細(xì)致的重建。AtlasNet[24]將形狀表示為多個(gè)可學(xué)習(xí)的參數(shù)化表面;Pixel2Mesh[25]從圖像特征出發(fā),逐步對(duì)初始網(wǎng)格進(jìn)行形變。近年來興起的方法使用深度神經(jīng)網(wǎng)絡(luò)(DNN)學(xué)習(xí)隱式表面表示,Occupancy Networks[26]學(xué)習(xí)一個(gè)連續(xù)函數(shù),用以判斷點(diǎn)是否在物體內(nèi)部;DeepSDF[27]使用神經(jīng)網(wǎng)絡(luò)建模點(diǎn)到表面的有符號(hào)距離。

      多視圖重建方法利用從多個(gè)角度拍攝的圖像來更準(zhǔn)確地重建三維模型。傳統(tǒng)的多視圖立體視覺(MVS)方法依賴圖像匹配與三角測(cè)量,基于深度學(xué)習(xí)的MVS方法利用構(gòu)造的代價(jià)函數(shù)推理深度圖MVSNet[28]從參考圖像構(gòu)造三維代價(jià)體并推理深度圖。CasMVSNet[29]使用金字塔式代價(jià)體,從粗到細(xì)逐步提升精度。

      神經(jīng)輻射場(chǎng)(NeRF)及其拓展方法通過合成新視角實(shí)現(xiàn)間接的三維重建:NeRF通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)空間點(diǎn)的顏色與密度,Mip?NeRF[30]、NeRF++[31]、GeoNeRF[32]提升了可擴(kuò)展性、視角一致性與場(chǎng)景理解能力。由英偉達(dá)(NVIDIA)提出的即時(shí)神經(jīng)圖形原語(Instant Neural Graphics Primitives, Instant?NGP)[33]方法,實(shí)現(xiàn)了NeRF的實(shí)時(shí)訓(xùn)練和渲染,極大提升了三維重建的效率。該方法通過多分辨率哈希編碼,優(yōu)化了內(nèi)存使用和計(jì)算速度。

      5.3 AI 技術(shù)實(shí)現(xiàn)網(wǎng)格生成

      點(diǎn)云到網(wǎng)格的重建是計(jì)算機(jī)視覺和圖形學(xué)的核心任務(wù),廣泛應(yīng)用于機(jī)器人、增強(qiáng)現(xiàn)實(shí)(AR)、醫(yī)學(xué)成像等領(lǐng)域。傳統(tǒng)方法在處理規(guī)則結(jié)構(gòu)的點(diǎn)云時(shí)表現(xiàn)良好,但在處理噪聲、稀疏或不完整數(shù)據(jù)時(shí)效果可能不佳。近年來,隨著傳統(tǒng)方法和深度學(xué)習(xí)方法的發(fā)展,相關(guān)研究取得了顯著進(jìn)展。

      PointNet[34]及其變體直接處理原始點(diǎn)云數(shù)據(jù),實(shí)現(xiàn)了對(duì)點(diǎn)云的分類和分割,為后續(xù)的網(wǎng)格重建提供了基礎(chǔ)。自編碼器(AE)架構(gòu)通過編碼器-解碼器結(jié)構(gòu),將點(diǎn)云映射到潛在空間,再重建出網(wǎng)格模型。例如,AtlasNet[35]利用多個(gè)參數(shù)化平面貼圖重建復(fù)雜表面。變形方法從初始網(wǎng)格出發(fā),通過學(xué)習(xí)點(diǎn)云與網(wǎng)格間的對(duì)應(yīng)關(guān)系,逐步變形以匹配目標(biāo)形狀。Point2Mesh[36]提出了自先驗(yàn)方法,利用輸入點(diǎn)云自身的信息指導(dǎo)網(wǎng)格變形。Points2Surf[37]和Neural?Pull等方法使用隱式函數(shù)對(duì)點(diǎn)云片段建模,從而重建連續(xù)表面,特別適用于處理局部重疊和稀疏區(qū)域。拓?fù)涓兄椒?如Neural Template[38]利用拓?fù)浼s束和表面結(jié)構(gòu)一致性進(jìn)行三維建模,提升了拓?fù)浔3趾图?xì)節(jié)恢復(fù)能力。近期研究還推動(dòng)了實(shí)時(shí)點(diǎn)云處理與多模態(tài)輸入融合的研究,如Instant?NGP[33]使用多分辨率哈希編碼(MHE)技術(shù)實(shí)現(xiàn)了快速的神經(jīng)表面擬合。

      保持銳利特征的重建方法,為了在重建中保留物體的銳利邊緣和特征,提出了結(jié)合基元檢測(cè)和深度學(xué)習(xí)的框架。例如,Erler等[37]提出了一種基于基元檢測(cè)的重建框架,能夠準(zhǔn)確分割基元片段,并在每個(gè)片段中擬合網(wǎng)格,確保重建結(jié)果具有清晰的銳利邊緣,同時(shí)保持模型的輕量化。

      6三維掃描和曲面重建技術(shù)的行業(yè)應(yīng)用

      6.1 電影行業(yè)應(yīng)用

      三維掃描與曲面重建技術(shù)在電影視覺特效領(lǐng)域具有廣泛應(yīng)用。

      (1)數(shù)字角色與虛擬演員建模

      應(yīng)用三維掃描獲取演員面部與身體的高精度幾何數(shù)據(jù),驅(qū)動(dòng)數(shù)字替身(Digital Doubles)、面部捕捉(Facial Capture)、動(dòng)作捕捉(Motion Capture)等技術(shù),結(jié)合幾何建模與AI驅(qū)動(dòng)的表情合成,實(shí)現(xiàn)高度真實(shí)的數(shù)字角色動(dòng)畫。類似技術(shù)在電影《阿凡達(dá)》(

      Avatar
      )、《阿凡達(dá):水之道》(
      Avatar: The Way of Water
      )、《復(fù)仇者聯(lián)盟4:終局之戰(zhàn)》(
      Avengers: Endgame
      )、《流浪地球2》中得到充分應(yīng)用。

      表情動(dòng)作捕捉技術(shù)運(yùn)用多攝像頭陣列同步采集動(dòng)態(tài)點(diǎn)云序列,結(jié)合形狀重建方法(如非剛性配準(zhǔn)、形變網(wǎng)格)用于還原動(dòng)態(tài)表情和動(dòng)作。電影《猩球崛起》(

      Rise of the Planet of the Apes
      )系列中,演員通過頭戴式三維捕捉系統(tǒng)采集肌肉形變,實(shí)現(xiàn)面部動(dòng)畫與真實(shí)表演的無縫結(jié)合。

      (2)場(chǎng)景與布景數(shù)字化

      通過激光雷達(dá)、結(jié)構(gòu)光或攝影測(cè)量掃描實(shí)景拍攝地,可重建精細(xì)的三維場(chǎng)景模型,并以此作為虛擬布景、虛擬攝制(Virtual Production)與綠幕合成的基礎(chǔ)。同樣,也可對(duì)實(shí)物道具與服飾進(jìn)行快速掃描和三維建模,減少人工建模工作量,提升制作效率。

      《黑客帝國:矩陣重啟》(

      The Matrix Resurrections
      )應(yīng)用全景三維掃描技術(shù)采集城市街景,用于數(shù)字場(chǎng)景還原與實(shí)時(shí)替換背景。虛擬環(huán)境搭建技術(shù)采用攝影測(cè)量+激光掃描對(duì)真實(shí)建筑、自然場(chǎng)景進(jìn)行多視角采集,利用點(diǎn)云重建構(gòu)建網(wǎng)格化虛擬布景,用于大規(guī)模特效合成或景深模擬。《曼達(dá)洛人》(
      The Mandalorian
      )制作中使用點(diǎn)云重建與LED全景虛擬舞臺(tái)相結(jié)合,實(shí)現(xiàn)動(dòng)態(tài)景深與虛擬攝制。

      (3)特效與合成

      精確的幾何模型可用于特效模擬(如碰撞、布料、流體模擬等),實(shí)現(xiàn)更真實(shí)的物理交互效果。如《飛馳人生2》利用三維掃描技術(shù)掃描賽車、山體和賽道模型,從而模擬出更為精準(zhǔn)的摩擦、碰撞等效果,營造出真實(shí)感賽車環(huán)境。

      6.2 文化、文物保護(hù)和數(shù)字遺產(chǎn)領(lǐng)域

      三維掃描、點(diǎn)云重建與形狀重建技術(shù)在數(shù)字遺產(chǎn)保護(hù)領(lǐng)域也已廣泛應(yīng)用。文物數(shù)字化技術(shù)利用高精度激光掃描對(duì)文物表面進(jìn)行非接觸采樣,結(jié)合泊松表面重建、MLS平滑、基于深度的隱式重建技術(shù)生成高質(zhì)量三維網(wǎng)格模型。數(shù)字米開朗基羅(Digital Michelangelo)[39]項(xiàng)目將意大利佛羅倫薩的大衛(wèi)雕像掃描成30億點(diǎn)云數(shù)據(jù),為后續(xù)修復(fù)、研究與傳播提供數(shù)字基礎(chǔ)。歷史遺址復(fù)原方法對(duì)歷史建筑、遺址區(qū)域進(jìn)行大范圍三維掃描,配合Points2Surf、Neural Template等完成破損區(qū)域的AI形狀重建,實(shí)現(xiàn)虛擬復(fù)原。巴黎圣母院火災(zāi)后,研究人員使用火災(zāi)前保存的激光點(diǎn)云數(shù)據(jù),結(jié)合AI技術(shù)輔助幾何建模進(jìn)行三維重建與仿真。上述技術(shù)也可應(yīng)用于虛擬教育與展示,例如利用VR/AR平臺(tái)將數(shù)字文物導(dǎo)入虛擬展廳,實(shí)現(xiàn)可漫游、可交互的虛擬博物館與在線教學(xué)。我國“數(shù)字敦煌”項(xiàng)目[40]實(shí)現(xiàn)了對(duì)莫高窟壁畫與建筑的多模態(tài)重建與全球共享展示,為遠(yuǎn)程教育與學(xué)術(shù)研究提供了新模式。

      6.3 存在的技術(shù)瓶頸

      (1)高精度與高效率的矛盾。在影視制作中,對(duì)模型精度要求極高,尤其在近景或高分辨率渲染中。當(dāng)前高精度掃描耗時(shí)長、成本高,且數(shù)據(jù)量龐大,給存儲(chǔ)與處理帶來壓力。

      (2)復(fù)雜表面與材質(zhì)的建模難題。透明、反射、毛發(fā)、軟組織等復(fù)雜表面仍難以準(zhǔn)確掃描與建模,往往需依賴手工修復(fù)與后處理。

      (3)大規(guī)模數(shù)據(jù)對(duì)齊與拼接問題。多視角、多批次掃描數(shù)據(jù)需要高效的配準(zhǔn)(Registration)與融合算法,當(dāng)前仍面臨配準(zhǔn)誤差累積與數(shù)據(jù)冗余問題。

      (4)缺失數(shù)據(jù)補(bǔ)全與重建挑戰(zhàn)。在遮擋、陰影等情況下,掃描數(shù)據(jù)常存在缺失,如何智能補(bǔ)全并保持幾何與視覺一致性仍是挑戰(zhàn)。基于AI的方法正在改善但尚未完全成熟。

      (5)實(shí)時(shí)性不足。對(duì)于虛擬攝制與實(shí)時(shí)渲染場(chǎng)景,當(dāng)前幾何建模與掃描仍難以滿足實(shí)時(shí)性要求,影響交互式應(yīng)用體驗(yàn)。

      (6)成本問題。高端掃描硬件、專業(yè)人員與后期處理仍需大量投入,中小型影視制作公司面臨較高技術(shù)門檻。

      目前學(xué)術(shù)界正在發(fā)展新的技術(shù)和方法以解決這些瓶頸。例如:深度學(xué)習(xí)技術(shù)正在逐漸提升缺陷修復(fù)、重建精度與自動(dòng)標(biāo)注能力,實(shí)現(xiàn)AI輔助建模與自動(dòng)化修復(fù);NeRF與神經(jīng)幾何建模可提供高效、可學(xué)習(xí)的場(chǎng)景重建新范式,尤其適合影視場(chǎng)景快速構(gòu)建;未來可能實(shí)現(xiàn)從拍攝到可用模型的自動(dòng)管線,極大降低技術(shù)門檻,實(shí)現(xiàn)端到端的全流程自動(dòng)化;結(jié)合光場(chǎng)、深度相機(jī)與AI算法,實(shí)時(shí)動(dòng)態(tài)捕捉與建模,支撐虛擬攝制與數(shù)字人技術(shù)。

      7總結(jié)與展望

      隨著科技發(fā)展,三維掃描技術(shù)從傳統(tǒng)方法發(fā)展到結(jié)合AI顯著提升數(shù)據(jù)處理精度與效率,深度學(xué)習(xí)在相位展開、單視圖與多視圖重建、點(diǎn)云到網(wǎng)格轉(zhuǎn)換等方面展現(xiàn)出顯著優(yōu)勢(shì),有效解決了傳統(tǒng)算法在處理噪聲、復(fù)雜形狀及不完整數(shù)據(jù)時(shí)的局限性,推動(dòng)了數(shù)字孿生、影視制作、數(shù)字遺產(chǎn)保護(hù)等領(lǐng)域的技術(shù)應(yīng)用。

      展望未來,隨著AI技術(shù)的不斷進(jìn)步,三維掃描與曲面重建技術(shù)有望在多個(gè)方面取得更大突破:首先,在算法層面,將致力于提升算法的泛化能力,開發(fā)能夠適應(yīng)多種數(shù)據(jù)集和實(shí)際場(chǎng)景的通用AI模型,以應(yīng)對(duì)不同領(lǐng)域和應(yīng)用場(chǎng)景的需求;其次,增強(qiáng)模型的可解釋性,通過構(gòu)建具有透明推理流程的AI系統(tǒng),使用戶能夠理解和信任模型的決策過程;此外,擴(kuò)展的自監(jiān)督學(xué)習(xí)技術(shù)將有效利用未標(biāo)注數(shù)據(jù)訓(xùn)練魯棒模型,減少對(duì)大量標(biāo)注樣本的依賴,降低數(shù)據(jù)獲取成本;同時(shí),優(yōu)化實(shí)時(shí)處理能力,結(jié)合硬件加速技術(shù)和優(yōu)化算法,將滿足動(dòng)態(tài)場(chǎng)景捕捉和實(shí)時(shí)渲染的需求;最后,該領(lǐng)域有望深化跨領(lǐng)域融合,推動(dòng)三維掃描與重建技術(shù)與其他新興技術(shù)(如物聯(lián)網(wǎng)、區(qū)塊鏈等)的深度融合,為沉浸式交互娛樂、智能制造、智慧城市、醫(yī)療健康等多個(gè)行業(yè)帶來創(chuàng)新變革,在更廣泛的領(lǐng)域發(fā)揮重要作用。

      參考文獻(xiàn)

      (向下滑動(dòng)閱讀)

      [1] KAZHDAN M, BOLITHO M, HOPPE H. Poisson surface reconstruction[C]// In Proceedings of the fourth Eurographics symposium on Geometry processing, 2006.DOI:10.1145/1364901.1364904.

      [2] MARTON Z, RUSU R B, BEETZ M. Fast surface reconstruction from noisy point clouds without normal estimation[C]//In 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2009.

      [3] BERNARDINI F, MITTLEMAN J. The ball?pivoting algorithm for surface reconstruction[J].IEEE Transactions on Visualization and Computer Graphics,1999, 5(4):349?359.DOI:10.1109/2945.817351.

      [4] LEVIN D. The approximation power of moving least?squares[J]. Math Comp, 1998(67):1517?1531.

      [5] GOLDSTEIN R, ZEBKER H, WERNER C. Satellite radar interferometry: Two?dimensional phase unwrapping[J]. Radio Science, 1988,23(4):713?720.

      [6] PRATI C, GIANI M, ENGINEER E E. SAR Interferometry: A 2?D Phase Unwrapping Technique Based On Phase And Absolute Values Informations[C]//Geoscience and Remote Sensing Symposium, 1990. IGARSS '90.IEEE, 1990.DOI:10.1109/IGARSS.1990.688929.

      [7] DERAUW D. Phase unwrapping using coherence measurements[C]//Proceedings of SPIE?The International Society for Optical Engineering, 1995:319?324.DOI:10.1117/12.227141.

      [8] FLYNN T J. Consistent 2?D phase unwrapping guided by a quality map [C]//In Proceedings of IEEE International Geoscience and Remote Sensing Symposium, IEEE, 1996.

      [9] HERRáEZ M A, BURTON D R, LALOR M J, et al. Fast two?dimensional phase?unwrapping algorithm based on sorting by reliability following a noncontinuous path[J].Applied Optics, 2002,41(35):7437?7444.DOI:10.1364/AO.41.007437.

      [10] BIOUCAS?DIAS J M, VALADAO G. Phase Unwrapping via Graph Cuts[J].IEEE Transactions on Image Processing. 2007,16(3):698?709.DOI: 10.1109/TIP.2006.888351

      [11] DONG J, CHEN F, ZHOU D, et al. Phase unwrapping with graph cuts optimization and dual decomposition acceleration for 3D high‐resolution MRI data[J].Magnetic Resonance in Medicine, 2017,77(3):1353.DOI:10.1002/mrm.26174.

      [12] DONG J, LIU T, CHEN F, et al. Simultaneous phase unwrapping and removal of chemical shift (SPURS) using graph cuts: application in quantitative susceptibility mapping [J].IEEE Transactions on Medical Imaging, 2015, 34(2):531?540.DOI:10.1109/TMI.2014.2361764.

      [13] FLYNN T J. Two?dimensional phase unwrapping with minimum weighted discontinuity[J]. Journal of the Optical Society of America A, 1997,14(10):2692?2701.DOI:10.1364/JOSAA.14.002692.

      [14] GREIG D M, PORTEOUS B T, SEHEULT A H. Exact Maximum A Posteriori Estimation for Binary Images[J]. Journal of the Royal Statistical Society. Series B: Methodological, 1989, 51(2):271?279.DOI:10.1111/j.2517?6161.1989.tb01764.x.

      [15] ROY S, COX I J. A Maximum?Flow Formulation of the N?Camera Stereo Correspondence Problem[C]//International Conference on Computer Vision. IEEE,1998.DOI:10.1109/ICCV.1998.710763.

      [16] BOYKOV Y, JOLLY M. Interactive graph cuts for optimal boundary and region segmentation of objects in n?d images[C]//Proceedings of the International Conference on Computer Vision (ICCV), 2001.

      [17] BOYKOV Y, FUNKA?LEA G. Graph Cuts and Efficient N?D Image Segmentation[J]. International Journal of Computer Vision, 2006, 70(2):109?131.DOI:10.1007/s11263-006-7934-5.

      [18] YANG W, HE Y, ZHANG L, et al. Unwrap?Net: A deep neural network?based InSAR phase unwrapping method assisted by airborne LiDAR data[J].ISPRS Journal of Photogrammetry and Remote Sensing, 2024:12(218):510?529.

      [19] ZHU X, HAN Z, YUAN M, et al. Hformer: hybrid convolutional neural network transformer network for fringe order prediction in phase unwrapping of fringe projection [J]. Optical Engineering,2022, 61(9).

      [20] LUO X, SONG W, BAI S, et al. Deep Learning?enabled Spatial Phase Unwrapping for 3D Measurement[EB/OL]. [2025?05?29].https://arxiv.org/abs/2208. 03524.

      [21] GAO X, SONG W, TAN C, et al. Self?supervised phase unwrapping in fringe projection profilometry[EB/OL]. (2023?02?13)[2025?05?29].https://arxiv.org/abs/2302.06381.

      [22] ZHAO L, ZHU Y, WANG J, et al. Multimodal adaptive temporal phase unwrapping[J]. Applied Physics Letters, 2023,122(6):064104.

      [23] CHOY C B, XU D, GWAK J Y, et al. 3D?R2N2: A Unified Approach for Single and Multi?view 3D Object Reconstruction[EB/OL]. (2016?04?02)[2025?05?29].https://arxiv.org/abs/1604.00449.

      [24] GROUEIX T, FISHER M, KIM V G, et al. AtlasNet: A papier?maché approach to learning 3d surface generation[EB/OL].(2018?02?15)[2025?05?29].https://arxiv.org/abs/1802.05384.

      [25] WANG N, ZHANG Y, LI Z, et al. Pixel2Mesh: Generating 3d mesh models from single RGB images[EB/OL].(2018?02?24)[2025?05?29].https://arxiv.org/abs/1804.01654.

      [26] MESCHEDER L, OECHSLE M, NIEMEYER M, et al. Occupancy Networks: Learning 3d reconstruction in function space[C]//In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.

      [27] PARK J J, FLORENCE P, STRAUB J,et al. DeepSDF: Learning continuous signed distance functions for shape representation[C]//In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.

      [28] YAO Y, LUO Z, LI S, et al. MVSNet: Depth inference for unstructured multi?view stereo[C]//In European Conference on Computer Vision (ECCV), 2018.

      [29] GU X,F(xiàn)AN Z, DAI Z, et al. Cascade Cost Volume for High?Resolution Multi?View Stereo and Stereo Matching [C]// In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2020.

      [30] BARRON J T, MILDENHALL B, TANCIK M, et al. Mip?NeRF: A multiscale representation for anti?aliasing neural radiance fields[C]//In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2021.

      [31] ZHANG K, LIU G R, KOLTUN V, et al. NeRF++: Analyzing and improving neural radiance fields [EB/OL].(2020?10?15)[2025?05?27]. https://arxiv.org/abs/2010.07492.

      [32] JOHARI M M, LEPOITTEVIN Y, FLEURET F. GeoNeRF: Generalizing NeRF with Geometry Priors [EB/OL]. (2021?11?26) [2025?05?28]. https://arxiv.org/abs/2111.13539v2.

      [33] MüLLER T, EVANS A, SCHIED C, et al. Instant Neural Graphics Primitives with a Multiresolution Hash Encoding[EB/OL]. (2022?01?16)[2025?05?28].http://arxiv.org/abs/2201.05989.

      [34] QI C R, SU H, MO K, et al. PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation[C]//In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.

      [35] GROUEIX T, FISHER M, KIM V G, et al. AtlasNet: A papier?maché approach to learning 3d surface generation[C]//In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.

      [36] HANOCKA R, METZER G, GIRYES R, et al. Point2Mesh: A self?prior for deformable meshes[EB/OL]. (2020?05?22)[2025?05?28]. http://arxiv.org/abs/2005.11084v1.

      [37] ERLER P, GUERRERO P, OHRHALLINGER S, et al. Points2Surf: Learning Implicit Surfaces from Point Cloud Patches.[EB/OL].(2024?02?13)[2025?05?28].http://arxiv.org/abs/2007.10453.

      [38] HUANG Z, LIU L, THEOBALT C. Neural Template: Topology?aware Reconstruction and Disentangled Generation of 3D Meshes[C]//In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022.

      [39] LEVOY M, PULLI K, CURLESS B, et al. The digital Michelangelo project: 3D scanning of large statues[C]//In SIGGRAPH, 2001.

      [40] 敦煌研究院. 數(shù)字敦煌資源庫[EB/OL].[2025?05?27].http://www.e-dunhuang.com.


      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      電影技術(shù)微刊 incentive-icons
      電影技術(shù)微刊
      電影技術(shù)微刊
      628文章數(shù) 209關(guān)注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節(jié) 山水饋贈(zèng)里的“詩與遠(yuǎn)方

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 欧洲熟妇性色黄| 国产又黄又硬又粗| 强奸福利视频在线观看| 性交大片| 亚洲AV第二区国产精品| yy111111少妇影院免费观看| jizz日本人妻| 国产av大全| 成人妇女免费播放久久久| 亚洲区精品区日韩区综合区| 亚洲熟妇丰满多毛xxxx| 99re66| 女人的天堂av| 黄梅县| 亚洲v?a| 日韩久久中文| 麻豆aⅴ精品无码一区二区| 羞羞成人一区| 狠狠婷婷综合久久久久久| av性色av久久无码ai换脸| 国产成人精品亚洲| 日韩激情一区二区| 久艹视频免费看| 欧美顶级metart祼体全部自慰| 国产精品乱子乱xxxx| 婷婷五月激情综合| 老太脱裤让老头玩ⅹxxxx| 亚洲av二区| 国产成人8x视频网站入口| 欧美猛少妇色xxxxx猛叫| 久久精品中文字幕一区| 国精品91人妻无码一区二区三区 | 亚洲无aV在线中文字幕| 亚洲另类综合网| 丝袜美腿亚洲综合在线观看视频 | 18禁止看的免费污网站| 亚洲精中文字幕二区三区| 超碰av在线| 亚洲人成亚洲人成在线观看| 国产美女久久久亚洲综合 | ..真实国产乱子伦毛片|