21世紀經濟報道記者 冉黎黎
今年政府工作報告首次提出“打造智能經濟新形態”,并強調“完善人工智能治理”。
人工智能科技倫理治理是人工智能治理的重要組成部分。近日,工業和信息化部等十部門聯合印發《人工智能科技倫理審查與服務辦法(試行)》(以下簡稱《辦法》),為我國人工智能科技倫理審查與服務工作提供了明確指引。
《辦法》對人工智能科技倫理審查的適用范圍、服務促進、實施主體、工作程序、監督管理等作出規定,并結合人工智能科技活動特點,明確了申請與受理、一般程序、簡易程序、專家復核程序、應急程序等不同程序要求,有效規范人工智能科技活動倫理治理。
受訪專家指出,《辦法》實質上為人工智能產業確立了“倫理先行”的治理邏輯,將倫理審查從軟性約束轉變為剛性制度。它既守住安全底線,防范隱私泄露、算法歧視、深度偽造等風險,又通過分級審查避免“一刀切”,為創新留足空間,有利于提升我國AI產業的合規性、可信度與全球競爭力,推動智能經濟高質量、可持續發展。
![]()
《辦法》明確,本辦法所適用的人工智能科技活動是在中華人民共和國境內開展的,可能在人的尊嚴、公共秩序、生命健康、生態環境、可持續發展等方面帶來科技倫理風險挑戰的人工智能科學研究、技術開發等活動,以及依據法律、行政法規和國家有關規定需進行人工智能科技倫理審查的其他科技活動。
對于實施主體,《辦法》中指出,從事人工智能科技活動的高等學校、科研機構、醫療衛生機構、企業等是本單位人工智能科技倫理審查管理的責任主體,應按照《科技倫理審查辦法(試行)》(以下簡稱《倫理辦法》)第四條有關要求,設立人工智能科技倫理委員會(以下簡稱“委員會”)。委員會組成應包括人工智能技術、應用、倫理、法律等相應專業背景的專家。
《辦法》中指出,地方、相關主管部門可結合實際情況依托相關單位建立專業性人工智能科技倫理審查與服務中心(以下簡稱“服務中心”)。服務中心接受其他單位委托,提供人工智能科技活動倫理審查、復核、培訓、咨詢等服務。
從工作程序上來看,《辦法》指出,人工智能科技活動負責人應向本單位委員會申請,單位未設立委員會或委員會無法勝任科技倫理審查工作要求,向本單位委托的服務中心申請開展科技倫理審查,無單位人員應委托符合要求的服務中心開展科技倫理審查。人工智能科技活動負責人應依照規定向委員會或服務中心提交申請材料。申請材料主要包括人工智能科技活動方案、人工智能科技活動科技倫理風險評估情況、防控及應急處理預案等。
賽迪顧問人工智能與大數據研究中心高級分析師白潤軒對21世紀經濟報道記者表示,《辦法》確立了高等學校、企業等作為倫理審查第一責任人的主體地位,強制要求設立倫理委員會,改變了過去單純依賴外部監管的被動局面。
此外,《辦法》專門設立第二章“服務與促進”,圍繞標準建設、促進服務、鼓勵創新、宣傳教育、人才培養五個方面制定舉措,破解當前人工智能企業倫理治理中存在的技術手段不足、標準規范不完善、治理工具匱乏等問題。
一是鼓勵高等學校、科研機構、醫療衛生機構、企業和科技類社會團體等參與人工智能科技倫理標準制定,凝聚行業共識,完善標準體系。
二是推進人工智能科技倫理服務體系建設,強化風險監測預警、檢測評估、認證、咨詢等服務供給,加大對中小微企業人工智能科技倫理審查的支持和服務力度,降低企業合規成本。
三是支持人工智能科技倫理審查技術創新,鼓勵企業運用技術手段防范倫理風險。
四是加強人工智能科技倫理宣傳教育,提升公眾倫理意識和素養。
五是推動職業體系和課程體系建設,采取多種方式培養人工智能科技倫理人才。
科技部國家科技專家庫專家周迪對21世紀經濟報道記者表示,《辦法》的出臺標志著我國人工智能倫理治理從原則倡導進入制度化、可落地的新階段。它既守住安全底線,防范隱私泄露、算法歧視、深度偽造等風險,又通過分級審查避免“一刀切”,為創新留足空間,有利于提升我國AI產業的合規性、可信度與全球競爭力,推動智能經濟高質量、可持續發展。
具體來看,《辦法》結合人工智能科技活動特點,明確了申請與受理、一般程序、簡易程序、專家復核程序、應急程序等不同程序要求。
在“一般程序與簡易程序”這一節中,《辦法》明確,委員會或服務中心開展人工智能科技倫理審查,重點關注人類福祉、公平公正、可控可信、透明可解釋、責任可追溯、隱私保護等方面。
其中,在人類福祉方面,重點關注人工智能科技活動是否具有科學價值、社會價值;研究目標對增進人類福祉、實現社會可持續發展等是否具有積極作用;人工智能科技活動的風險是否受益合理。
在公平公正方面,重點關注訓練數據的選擇標準,算法、模型、系統的設計是否合理;是否采取措施防止偏見歧視、算法壓榨,保障資源分配、機會獲取、決策過程的客觀性與包容性。
另外,需要開展專家復核的人工智能科技活動主要包括以下三類:一是對人類主觀行為、心理情緒和生命健康等具有較強影響的人機融合系統的研發;二是具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發;三是面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發。開展專家復核的人工智能科技活動,需先通過本單位人工智能科技倫理委員會或委托的服務中心完成初步審查,再由本單位申請專家復核。
白潤軒表示,《辦法》構建了全鏈條的責任閉環。除確立了責任主體地位外,文件設計了分級分類的審查機制,對高風險活動實行專家復核,對常規項目適用簡易程序,兼顧了監管的嚴肅性與創新效率。同時,通過建立登記備案、年度報告及違規處罰制度,確保了倫理治理不再是“紙面文章”,而是具有法律效力的實質性管控。
白潤軒進一步指出,《辦法》實質上為人工智能產業確立了“倫理先行”的治理邏輯,將倫理審查從軟性約束轉變為剛性制度。這對智能經濟發展的意義在于,它通過構建標準化的風險防控體系,解決了技術狂奔帶來的信任赤字與監管滯后問題。文件不僅劃定了技術應用的合規底線,規避了因算法歧視、隱私濫用等倫理風險引發的產業震蕩,更通過明確的規則預期,引導資本與技術向符合人類福祉、公平公正的方向配置,推動產業從單純追求速度的“野蠻生長”轉向安全可控的高質量發展軌道。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.