日前,工業和信息化部、國家發展改革委、教育部、科技部、農業農村部、國家衛生健康委、中國人民銀行、國家網信辦、中國科學院、中國科協聯合印發《人工智能科技倫理審查與服務辦法(試行)》,規范人工智能科技活動倫理治理,促進公平、公正、和諧、安全和負責任創新,推動人工智能產業健康發展。本辦法自印發之日起施行。
本辦法明確所適用的人工智能科技活動是在中華人民共和國境內開展的,可能在人的尊嚴、公共秩序、生命健康、生態環境、可持續發展等方面帶來科技倫理風險挑戰的人工智能科學研究、技術開發等活動,以及依據法律、行政法規和國家有關規定需進行人工智能科技倫理審查的其他科技活動。開展人工智能科技活動應將科技倫理要求貫穿全過程,遵循增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明、保護隱私安全、確保可控可信的人工智能科技倫理原則,遵守我國憲法、法律法規和有關規定。
辦法明確——
要建立和完善人工智能科技倫理標準體系。鼓勵高等學校、科研機構、醫療衛生機構、企業和科技類社會團體等參與人工智能科技倫理標準的制定、驗證與推廣。
鼓勵高等學校、科研機構、醫療衛生機構、企業和科技類社會團體等開展人工智能科技倫理審查研究,支持人工智能科技倫理審查技術創新,強化以技術手段防范人工智能科技倫理風險;促進人工智能科技倫理審查高質量數據集有序開源開放,加強通用性風險管理、評估審計工具研發,探索基于應用場景的科技倫理風險評估評測;推廣符合科技倫理的人工智能產品和服務,保護科技倫理審查技術知識產權。
支持高等學校、科研機構、醫療衛生機構、企業和科技類社會團體等開展人工智能科技倫理相關教育與培訓,推動職業體系和課程體系建設,采取多種方式培養人工智能科技倫理人才,促進人才交流。
從事人工智能科技活動的高等學校、科研機構、醫療衛生機構、企業等是本單位人工智能科技倫理審查管理的責任主體,應按照有關要求,設立人工智能科技倫理委員會(以下簡稱委員會)。委員會應配備必要的工作人員、辦公場所和經費等條件,采取有效措施保障委員會獨立開展工作。
開展納入復核清單的人工智能科技活動,通過委員會或服務中心的初步審查后,由本單位申請開展專家復核。多個單位參與的,由牽頭單位負責申請。中央企業,中央和國家機關直屬高等學校、科研機構、醫療衛生機構等直接報請相關主管部門組織開展專家復核。
需要開展科技倫理專家復核的人工智能科技活動清單:
一、對人類主觀行為、心理情緒和生命健康等具有較強影響的人機融合系統的研發。
二、具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發。
三、面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發。
信息來源:中國衛生雜志
聲明:本文著作權屬原創者所有,不代表本微信公眾號立場。如涉著作權事宜請聯系刪除。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.