![]()
原文發表于 《科技導報》2025年第18期科技新聞-卓越亮點
可解釋人工智能刷新傳統氣候災害模型
![]()
圖片來源:攝圖網
地球進入更熱、更急、更復雜的時代,傳統基于物理與統計的災害模型正被AI加速刷新,但“黑箱”增加了決策不確定性。悉尼科技大學Pradhan在
Geosci
ence Frontiers發文稱,可解釋人 工智能( XAI , eXplainableAI )是 破題關鍵,可揭示模型如何利用 輸入變量、在何處識別風險,使洪 水、干旱、滑坡等空間建模更透 明、可審計,更易納入政府與行業 的風險治理流程。
相關研究從地學角度串起“數據—模型—解釋”全鏈條:在“4V”數據(體量大、更新快、來源雜、真偽不一)與氣候模式下行的信噪比挑戰下,XAI把“做準”變為“為什么做準”。方法上區分2類路徑:一是本征可解釋模型(如注意力網絡、NBDT、GAM、GNN),二是后驗解釋工具(SHAP、LIME)。案例顯示,基于SHAP的變量重要度與耦合分析,已用于不丹/美國滑坡易發性、美國肯塔基洪水易感性、澳東干旱預測與新西蘭降雨重建,提高精度并回答“為何在這里、為何在這時”。
XAI的核心并非復雜算法,而是“可驗證的理由”。
在城市內澇評估中,它能量化“不透水面比例”“距排水通道距離”等要素如何疊加放大積澇深度;
在農業干旱監測中,它能解釋“前期土壤水分—當季降水—植被熒光(SIF)”的鏈式影響;
在山地災害治理中,它能區分“短歷時強降雨觸發的淺層滑坡”與“長期地下水抬升引發的深層滑坡”的不同敏感因子。
Pradhan也提醒,XAI需要更高質量與更均衡覆蓋的觀測(尤其在發展中地區),需要與物理機理對表以避免“相關當因果”,需要建立跨地區可遷移與可復現的評測基準,還要在極端事件定義不一的前提下,保持解釋的穩健性與邊界感。
(來源于中國科技期刊卓越行動計劃入選期刊:
Geoscience Frontiers,2025,15(4))
《科技導報》創刊于1980年,中國科協學術會刊,主要刊登科學前沿和技術熱點領域突破性的研究成果、權威性的科學評論、引領性的高端綜述,發表促進經濟社會發展、完善科技管理、優化科研環境、培育科學文化、促進科技創新和科技成果轉化的決策咨詢建議。常設欄目有院士卷首語、科技新聞、科技評論、專稿專題、綜述、論文、政策建議、科技人文等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.