網絡化、數字化、智能化的融合發展深刻地改變了人類的生活狀態和生存方式,全世界都在面臨著前所未有的、具有顛覆意義的數字化轉型,這也使得中國式現代化的建設任務變得日益艱巨和復雜。在既有法治國家建設不斷加速的同時,數字法治又被納入了國家治理體系和治理能力現代化的進程,為“中國式”數字法治建設奠定了堅實基礎。
然而,由于各種因素的作用和影響,數字社會也出現了對價值觀的數字塑造、對主體自由的威脅、算法決策的“強制”效應等法治風險。事實上,無論是現代法治還是數字法治,核心都在于限制權力、保護權利、遵守規則和程序。因此,如何防范和抑制數字治理的法治風險,確立符合時代要求的數字法治理念,構建有效的數字治理法治化機制,就變得重要而緊迫。
確立“人本主義”的法治價值
當今網絡化、數字化、智能化技術的飛速發展,為人類創造了空前便捷、舒適、智慧的高品質生活,于是,技術主義、數據主義和技術中立獲得了更多認同,甚至出現了“經濟奇點”“技術奇點”“法律奇點”等樂觀預期,鼓勵創新、審慎包容也成為政府監管的主基調。然而,這些新興技術的負面影響也日漸浮現出來。一方面是新興技術開發應用中的偏差,如大數據殺熟、數據鴻溝、信息繭房、算法黑箱、算法歧視等,導致了嚴重的數字不公和數字人權問題;另一方面是技術理性對人文精神的侵蝕,即如果將人類的所有活動都納入大數據分析框架,那無疑就會變成一種冷冰冰的、功利主義的計算。而“一旦權力從人類手中交給算法,人文主義的議題就可能慘遭淘汰”,而期待“奇點”到來以替代人類的“非人類中心主義”設想,則更是與人類的本性相沖突,將會引發技術異化和人類異化的重大風險。
對于信息革命而言,控制論大師維納早就意識到它是善惡兼具、機遇與風險同在的,因此,在當代技術的加速變遷面前,人類必須做出的終極價值選擇是:“在創造使得世界不再是過往的世界、我們不復是從前的我們時,如何使人性依然可以框定技術前行的方向,而不是臣服于技術變遷的邏輯。”因此,我們需要防止數據、代碼和算法形成的價值觀念和決策機制對人類的主體價值和人文精神產生巨大的沖擊。這就需要在數據、代碼和算法中嵌入人文價值和道德判斷,加強人機價值對齊的法治機制,以保持其正當性與合理性,實現“人本主義”法治價值的規約指引,這無疑是一項緊迫的時代任務。
那么,“如何在算法時代保持人性?”為克服上述風險和問題,框定技術發展的價值方向,塑造數智人文價值,就成為數字時代必須解決的重大問題。2021年9月25日,國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》即開宗明義:“本規范旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題”,同時,還要求正確行權用權,提倡善意使用,避免誤用濫用,禁止違規惡用。同年11月24日,聯合國教科文組織(UNESCO)則通過了關于人工智能倫理的首份全球協議《人工智能倫理問題建議書》,在價值觀、倫理原則和政策指導上提供了規范指南,并主張發展與治理并行、全流程協同共治。這些無疑都是塑造“人本主義”法治價值的重要努力和舉措。我們更需要創新法學理論,進行價值重塑和確立必要的價值框架,進而找回人類的“意義世界”和“價值空間”,實現人與技術的“和解”。
回應《全球數字契約》倡議
當今信息社會呈現的既是數字經濟,也是分享經濟。“勞動者—平臺—顧客”的共享模式逐漸成為主流。與此同時,“贏者通吃”和“無用”大眾的發展態勢也隨之而來,數字鴻溝、信息繭房、算法歧視、算法控制、張力結構等傾向也日益凸顯,這些共享經濟中的“非共享”狀況便成為必須予以正視的問題。為此,2024年9月22日,聯合國未來峰會通過了《全球數字契約》,它旨在建立一個包容性的全球框架,這對于多方利益攸關方采取必要行動克服數字、數據和創新鴻溝至關重要。
在我國,黨的十九大就確定了“共建共治共享”的發展戰略,黨的二十大進一步提出“中國式現代化”的宏偉藍圖,黨的二十屆三中全會又通過了《中共中央關于進一步全面深化改革、推進中國式現代化的決定》,要求“推動人的全面發展、全體人民共同富裕取得更為明顯的實質性進展”“做到改革為了人民、改革依靠人民、改革成果由人民共享”。這就需要把共享發展理念融入信息社會的法律理念中來,加快發展新質生產力,并通過合理的制度設計將共享經濟和新質生產力的發展成果轉化為社會成員的共享機會和公平權利。
基于此,我們就應立足《中國關于全球數字治理有關問題的立場(就制定“全球數字契約”向聯合國提交的意見)》,積極回應《全球數字契約》的各項倡議。具言之,一方面,貫徹“以人為本”“共建共治共享”治理原則,抑制數字鴻溝、信息繭房、算法歧視、數字控制等不良傾向,通過建立監督控制和包容共治的數字民主機制,抑制對價值觀的數字塑造、對主體自由的雙重威脅、算法決策的“強制”效應等數字治理風險,確保科技向善、數字正義和保護數字人權。另一方面,針對公私混合、主體多元化、規則多元化、自由與控制同步增長的治理演進方向,積極探索“眾創立法”、軟硬共治、多元混合的治理機制;努力創新司法、行政和平臺治理的多元糾紛解決機制,化解各類數字治理風險,保障數字權利和數字人權,從而構建“共建共治共享”的數字治理秩序,推進數字法治建設。
構建人工智能的倫理約束機制
數字時代的顯著特征是數據說話、算法主導,它帶來的是一個便捷舒適的智能社會。然而,算法并不會自生道德觀,也不會進行理性的自我約束。它是為達到特定目的而人為編寫的代碼,因此,必然會帶有某種局限和風險,而價值偏好則是“算法所固有的”。為此,就需要將其納入法治軌道。然而,法律規制畢竟是一個底線的保障,而且,快速迭代的技術發展和應用,必然會帶有明顯的遲滯性,因此,只能采取包容審慎、保留適度“彈性”的立法策略。這樣,適時打造人工智能應用的倫理框架,則能填補規制空間,發揮全方位、及時性的規制效果,從而抑制算法歧視、算法控制、算法誤用和算法濫用,促進科技向善和友好人工智能,這也是當下的一種時代要求和全球趨勢。2021年11月聯合國教科文組織在第41屆大會上通過了全球首份《人工智能倫理問題建議書》。與此同時,各國相關立法也不斷加速。我國也先后頒布了《新一代人工智能倫理規范》(2021)、《關于加強科技倫理治理的意見》(2022)、《個人信息保護法》(2021)、《互聯網信息服務算法推薦管理規定》(2021)、《生成式人工智能服務管理暫行辦法》(2023)等政策文件、法律和規章,從此開啟了規范發展、價值指引的人工智能治理新時期。此時,亟須構建與人工智能法律規制相配套的系統倫理框架,它不再僅僅體現工商社會的分配性正義,而是更多表達新時代的共享性正義,從而為人工智能治理確立倫理約束機制和數字正義尺度。
作者:馬長山(華東政法大學數字法治研究院院長、教授)
來源:北京日報
![]()
《數字法治》專題由上海市法學會數字法學研究會特約供稿,專題統籌:秦前松。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.