![]()
我們正站在一個歷史性的交匯點上。從曾經的生成式AI,到后來的鑒定式AI,再到如今的智能體AI,前后我們聽說過社會機器人、工業(yè)機器人和人形機器人,再多一點我們還知道了基礎大模型、垂直模型和邊緣模型等概念,但似乎除了AI帶來的壞消息(如AI幻覺、AI欺詐)外,別的似乎我們都不精深,至多也就是一名聽說者(路過)而已......這不由讓人想到:一邊是算法以驚人的速度重塑社會規(guī)則與法律服務,另一邊是法律人傳承數(shù)百年的理性堡壘。這場相遇或許并非靜水流深,而是伴隨著深刻的張力與前所未有的機遇。從香港律師會的倫理堅守,到歐盟的剛性監(jiān)管,到中國社會科學院法學研究所課題組發(fā)布的《人工智能示范法4.0》,再到收藏夾里一眾法律學人有關AI的思想激蕩,法律界或許都在集體審視一個命題:當算法日益具備“理解”與“生成”能力時,法治的公平、正義與人的主體性將如何存續(xù)?下述將匯聚各部門法律學人的觀點精義,以期為穿透技術迷思,探尋算法時代法律人的價值位階的你作一二梳理工作。
來源 | 法學悅讀匯館
作者 | 艾學灋
過去的三年,注定被寫入法律史。
不僅有中國社會科學院法學研究所課題組老師們組團發(fā)布的《人工智能示范法4.0》,在十大核心修改方向和十大進階議題中,直面“面向科學研究的人工智能責任邊界”“基礎模型極端安全風險”“多模型交互與智能體規(guī)制”等前沿命題。二年前的同時段,香港律師會發(fā)布立場文件,將人工智能風險與核戰(zhàn)爭相提并論,警告“算法滅絕人類的風險,應成為全球性的優(yōu)先事項”。然后是歐盟以及我國的臺灣地區(qū)都分別發(fā)布了相關的立場性文件。
如今回瞰,這一切也都不再是危言聳聽,而是正在悄然發(fā)生的現(xiàn)實。
從2017年“AlphaGo”戰(zhàn)勝柯潔的驚鴻一瞥,到2022年底ChatGPT橫空出世引發(fā)的全民狂歡,再到2025年DeepSeek開源模型席卷全球,直至今日Seedance、OpenClaw等新一代智能體悄然迭代——人工智能的浪潮以月為單位奔涌向前。而法律人,這個自羅馬時代以來就以“言語和文字”為武器的職業(yè)群體,發(fā)現(xiàn)自己正被卷入一場前所未有的漩渦。
我們曾以為自己站在岸邊(相對理性),如今卻發(fā)現(xiàn)已身處激流中央(如臨深淵)。
當香港律師會疾呼法律界必須擁抱人工智能優(yōu)點、同時警惕潛在風險時,當中南大學法學院院長許中緣告誡象牙塔的新同學“法科學生要警惕AI反智陷阱”時 ,當中國人民大學法學院院長楊東畢業(yè)致辭鼓勵畢業(yè)生搭建自己的專屬智能體作為“風火輪、乾坤圈、混天綾”時 ——法律人的集體焦慮與希望,在同一個時空里激烈撕扯。
我們“困”在哪里?又該如何“解”困?
下述試圖以個人私藏的百位法律人的文章為經緯,以AI技術二十年演進為背景,梳理這場關乎法治文明根基的深層博弈。本篇算不得嚴格意義的學術綜述,僅為自我審視的一份資料貼。故此,有未盡周延處,萬望方家多多包涵為謝。
01
激蕩二十年:從區(qū)塊鏈到智能體,法律人的得與失
回顧過去二十年,人工智能技術的演進并非線性勻速,而是以一波又一波“驚濤駭浪”的姿態(tài)撲面而來。每一次浪潮來臨和褪去,法律人都在問同一個問題:這次,會被取代嗎?
1.1 區(qū)塊鏈與元宇宙:當“代碼即法律”遭遇法律人
2010年代初期,比特幣和區(qū)塊鏈技術進入公眾視野。彼時的法律人,大多將其視為“極客的玩具”或“灰犀牛式的金融風險”。很少有人意識到,區(qū)塊鏈背后的核心理念——“代碼即法律”,正在從技術烏托邦的口號變成現(xiàn)實(監(jiān)管政策此處不論)。
中國人民大學法學院副教授、未來法治研究院執(zhí)行院長張吉豫對此有深刻的法理剖析。她在《論算法治理》一文中指出,勞倫斯·萊斯格提出的“代碼即法律”并非意味著代碼等同于法律,而是揭示了一個根本事實:在網絡空間中,代碼作為“架構”,與法律、市場、社會規(guī)范并列,共同規(guī)制著社會主體的行為。她認為,代碼對社會主體行為的規(guī)制能力,比傳統(tǒng)物理空間中的任何技術架構都要強大得多。
康奈爾大學法學院Anthony W.and Lulu C.Wang中國法講席教授於興中則從法哲學角度發(fā)出警示。在《算法社會與人的秉性》的學術對話中,他指出“法律人的尊嚴不僅在于我們擁有邏輯,更在于我們擁有對何為正確、何為善良的終極判斷能力”,而這種能力是算法永遠無法復制的。
然而,真正讓法律界集體失眠的,是2021年“元宇宙”概念的爆火。虛擬財產、數(shù)字身份、DAO組織的法律責任……一系列全新的法律問題如潮水般涌來。廈門大學法學院副教授、網絡空間國際法研究中心副主任楊帆敏銳地指出,元宇宙帶來的不僅是技術場景的拓展,更是法律適用地理疆域的徹底重構——當侵權行為發(fā)生在虛擬空間,侵權人可能在另一個國家,受害人可能在第三個國家,傳統(tǒng)的國際私法規(guī)則將面臨根本性挑戰(zhàn)。
1.2 ChatGPT與DeepSeek:從“工具恐慌”到“存在焦慮”
如果說區(qū)塊鏈和元宇宙還只是“圈地運動”,那么2022年底ChatGPT的出現(xiàn),則是真正意義上的人工智能“諾曼底登陸”。
中國政法大學法學院教授雷磊(個人更愿意稱其為“雷神”)在《ChatGPT對法律人主體性的挑戰(zhàn)》一文中,給出了一個冷靜而深刻的判斷。他認為,AI的底層運作原理決定了它只是一款運算程序和機器學習模型,并不具有人類的自我意識和自由意志 。反思能力與道德能力對于法律職業(yè)活動而言必不可少,因此ChatGPT將取代法律人的挑戰(zhàn)是一種“虛假挑戰(zhàn)”。
然而,雷磊教授緊接著指出真正的挑戰(zhàn)所在:ChatGPT可能會導致使用者思維的庸化和道德的鈍化,逐漸封閉自我意識,放棄自由意志,造成法律人主體性的自我消解。這才是真正的“存在焦慮”——不是被取代,而是自我消解。
2025年春節(jié)期間,DeepSeek的異軍崛起讓這場討論更加復雜。不同于ChatGPT的“閉源”路徑,DeepSeek選擇全面開源。中國政法大學數(shù)據(jù)法治研究院教授張凌寒曾敏銳地指出,開源模型的“公共屬性”使其在法律定位上區(qū)別于一般閉源模型。她在《開源人工智能負責任創(chuàng)新的法律保障》中提出,開源模型的治理應秉承“發(fā)展和安全并重”理念,構建“形式合規(guī)激勵—實質倫理約束”的雙層責任減免機制。
對外經濟貿易大學法學院副教授張欣在《人工智能時代的算法治理》中,系統(tǒng)剖析了開源生態(tài)的治理邏輯。她認為,算法之于法律未必只意味著問題,還可以提供方法論意義上的思維工具。基于算法,可以更了解每個個體,基于算法,方法論意義上的思維工具將得到迭代,法律服務的全價值鏈將有機會實現(xiàn)更高效的重構。
1.3 Seedance與OpenClaw:當智能體開始“自主行動”
2025年下半年至2026年初,Seedance、OpenClaw等新一代智能體技術的涌現(xiàn),將法律人的焦慮推向新高。與前兩代語言模型不同,智能體不僅能“對話”,更能“行動”——它們可以調用工具、執(zhí)行任務、與其他智能體協(xié)作,甚至自主決策。
中國政法大學法學院教授鄭玉雙在《算法與法律之關系的法理建構》中,提出“算法不是法律,也無法擔負法律在現(xiàn)代社會的使命”。但他同時警告,算法權力的擴張是真實的,當算法日益具備“理解”與“生成”能力時,法治的公平、正義與人的主體性將如何存續(xù),成為核心命題。
對外經濟貿易大學法學院副教授許可在《算法治理的歷史展開與當代體系》中,系統(tǒng)梳理了從20世紀60年代至今的算法治理史。他指出,真正的挑戰(zhàn)不在于技術本身,而在于“政府、社群、市場三者如何在法律、規(guī)范、代碼的耦合中形成互補嵌入、相得益彰的治理格局”。
02
百位法律人的算法圖景:我們看到了什么,擔憂著什么
如果說上述提及的是智能技術的演進,那么下面這部分我想聚焦的則是法律人關于算法及算法治理相關的思想碰撞場。百位法律人,百種視角,但共同的關切是:當算法介入法律,法治還剩下什么?
2.1 法理學者:追問“算法正義”
中國政法大學法學院教授鄭玉雙構建了“計算正義”的理論框架。他認為,算法沖擊了傳統(tǒng)的價值世界,政治決策、商業(yè)決策和個人生活因算法的參與而更新了價值實踐方式 。他主張,算法實踐需要放置在算法正義框架之中進行價值評價,通過法律實踐來闡發(fā)計算正義的具體內涵。
鄭玉雙教授在另一篇《論計算正義》的文章中進一步指出,算法正義包含著兩個維度:
一是價值意義上的;
二是制度意義上的。
前者要求我們在算法對傳統(tǒng)價值產生沖擊時進行公允的價值定位;后者要求將正義理念落實到具體的制度實踐之中。
中國政法大學法學院教授雷磊則在《法學方法論里沒有算法的空間》中,旗幟鮮明地捍衛(wèi)法學方法論的獨立性。他通過分析司法人工智能的基本原理及其缺陷,指出機器算法無法替代創(chuàng)造性的法律解釋及其諸多方法,也無法進行真正的漏洞填補和法律修正。他最后的判斷是:“未來的算法與方法,應當是相互增強的關系。”
中國人民大學法學院教授張吉豫則在《數(shù)字法理的基礎概念與命題》中,提煉出“數(shù)字本原”“數(shù)字正義”“數(shù)字人權”等十大基礎概念,構建了數(shù)字法理的理論框架。她認為,代碼即法律,算法即規(guī)則,這是數(shù)字法理中最具本原性的命題。
2.2 憲法與行政法學者:警惕“數(shù)字利維坦”
北京大學法學院教授王錫鋅在《數(shù)字行政帶來權責失衡和問責失靈的風險》中,提出了“數(shù)字行政”對傳統(tǒng)行政組織法的結構性沖擊。他指出,數(shù)字技術使行政權運行呈現(xiàn)出跨部門、跨層級、跨地域的特征,催生出“數(shù)據(jù)控制效應”——即通過數(shù)字基礎設施的公私合作出現(xiàn)“權力溢出效應”,導致公共決策權向私營主體轉移,引發(fā)問責盲區(qū)。
北京大學法學院教授趙宏從公法視角切入,探討了公共決策適用算法技術的實體邊界。她在《公共決策適用算法技術的規(guī)范分析與實體邊界》中提出,傳統(tǒng)法律保留原則應成為思考這一問題的基本框架,確定了公共決策適用算法時“原則禁止,例外允許”的關系模式。與此同時,趙宏教授將目光投向公共決策中的算法應用。她認為,比照公權力對算法進行規(guī)制的路徑,在算法投入公共決策的應用之前,有必要建構合理的應用清單,以明確哪些政府治理領域可以完全交由算法決策,哪些領域可以采取人機交互的方式,哪些領域則應完全禁止算法決策。
華東理工大學法學院講師肖夢黎在《算法行政責任的分布式重建》中,直面算法行政的責任困境。她提出“分布式責任”的概念,認為在無法明確主觀故意的算法致害中,應對鏈條上的主體均應承擔相應責任,包括監(jiān)管者責任、研發(fā)者責任、生產責任與保險人責任。
西安交通大學法學院教授劉東亮從程序法視角提出了“技術性正當程序”的概念。他在《人工智能時代程序法和算法的雙重變奏》中主張,對算法權力的規(guī)制和監(jiān)督,需要從算法設計的源頭構建“技術性正當程序”,即通過程序的代碼化實現(xiàn)算法公開、透明并具有程序一致性。
2.3 民法學者:信息自決的黃昏
清華大學法學院教授程嘯在《生成式人工智能侵權責任中的因果關系判斷》中,直面生成式人工智能侵權的核心難題。他指出,生成式人工智能侵權責任不應當采取因果關系推定規(guī)則,仍然應當區(qū)分責任成立的與責任范圍的因果關系,運用條件說與相當性理論加以判斷。
同濟大學法學院副教授劉穎在《邁向數(shù)字時代的消費者法》中,提出了從傳統(tǒng)消費者賦權到算法消費者賦權的理論框架。她認為,傳統(tǒng)消費者法以信息披露為核心的賦權模式面臨失靈風險,數(shù)字時代的算法消費者賦權需從信息披露的信息范式向透明度的信息范式轉變。
東南大學法學院副教授王苑在《解決大數(shù)據(jù)殺熟,哪部法律最可靠?》中,系統(tǒng)分析了“大數(shù)據(jù)殺熟”的規(guī)范路徑選擇。她認為,消費者權益保護法和個人信息保護法的協(xié)同規(guī)范應成為規(guī)范個性化定價的直接路徑。
北京交通大學法學院副教授付新華則在《生成式人工智能對個人信息保護法的結構性沖擊》中,提出了一個深刻洞見:生成式人工智能對個人信息保護法的信息自決理論基礎產生了結構性沖擊。她主張從制度層面構建“群體信息—個體信息”的雙層保護體系,強化信息保護的群體維度。
2.4 刑法學者:當算法成為“共犯”
最高人民檢察院檢察理論研究所助理研究員高磊在《網絡犯罪的算法歸責》中,系統(tǒng)構建了網絡犯罪的客觀歸責理論體系。他提出,算法機制說明網絡犯罪之構成,算法屬性影響網絡犯罪之歸責。他主張根據(jù)算法因果的不可知性和非直觀性,分別構建網絡犯罪的歸責基準。
中國政法大學刑事司法學院教授劉艷紅在《生成式人工智能的三大安全風險及法律規(guī)制》中,將生成式人工智能的風險歸納為數(shù)據(jù)安全風險、算法偏見風險與知識產權風險。她主張基于風險預防主義,對生成式人工智能可能造成的泛化安全風險進行提前預防。
2.5 知識產權法學者:創(chuàng)造者的黃昏?
清華大學法學院副教授蔣舸在《作為算法的知識產權法》中,以算法的透鏡重新審視知識產權法。她認為,知識產權法的多模塊結構是一種演化出來的有效算法,能夠幫助決策者以更小的認知負擔做出正確結論,提高認知經濟性。
華東政法大學法律學院教授王遷的實證研究引發(fā)了廣泛震動。他通過實驗證明,人工智能生成的法學論文已能輕松通過外審專家的盲審。這引發(fā)了關于學術規(guī)范與著作權法的深層悖論:如果學生用AI生成的論文通過評審,該論文應視為學生獨立完成的作品嗎?該生能否取得著作權?學位論文的“獨立完成”標準與著作權法的“獨創(chuàng)性”標準,究竟是什么關系?
2.6 訴訟法學與證據(jù)法學者:當證據(jù)來自算法
南京大學法學院博士生張迪在《刑事訴訟中算法證據(jù)的概念、機理與運用》中,首次系統(tǒng)提出“算法證據(jù)”的概念。他認為,算法證據(jù)既指案件發(fā)生時所產生的與案件相關的算法,又可指通過算法對案內外大數(shù)據(jù)進行分析后所產生的結果。前者屬于電子證據(jù),后者具有獨特性,其借助算法生成具有相關關系的機器意見以證明待證事實。
中國政法大學刑事司法學院副教授李小愷在《從“數(shù)據(jù)大”到“大數(shù)據(jù)”:電子數(shù)據(jù)取證及審查的范式嬗變》中,揭示了電子數(shù)據(jù)取證正在經歷從“靜態(tài)復原”到“動態(tài)認知”、從“確定性事實”到“概率性預測”的認識論轉型。他提出對電子數(shù)據(jù)證據(jù)“三性”的實質化改造路徑,構建“三維智能取證證據(jù)審查模型”。
2.7 商法與經濟法學者:反壟斷、平臺責任與算法公平
南開大學法學院教授陳兵在《反壟斷視域下人工智能算法市場競爭風險規(guī)制理路》中,系統(tǒng)分析了算法共謀、開源或閉源算法競爭、基于算法的濫用市場支配地位等行為。他認為,規(guī)制算法市場競爭風險,需要加快優(yōu)化法律與技術互動,強化反壟斷事前規(guī)制與事后規(guī)制相結。
中國人民大學法學院副教授黃尹旭在《人工智能生成合成內容標識辦法的規(guī)范功能與法律適用》中,聚焦“平臺判定用戶內容AI生成首案”揭示的制度張力。他主張通過人工智能生成合成內容標識機制,構建客觀判斷標準,明確責任承擔,提升規(guī)則公開性與可預期性。
中國人民大學法學院助理教授陳靖遠在《以法律規(guī)制促進平臺用工算法向善》中,直面“算法從屬性”問題。她認為,平臺用工中的算法規(guī)則向善,需要推動算法規(guī)則向善、促進算法過程向善、以算法善治共同引導平臺用工算法向善。
2.8 勞動法學者:被算法困住的勞動者
中國人民大學法學院博士研究生羅寰昕在《算法控制視域下平臺用工勞動關系認定的困境與出路》中,以“專送騎手”為分析樣本,揭示了“共同雇主的勞動關系認定困境”。她主張規(guī)制重心應從“勞動關系”轉向“勞動權利”,將共同雇主管理下用人單位如何歸屬的難題轉化為共同雇主內部的用工責任如何分擔的問題。
天津大學法學院副教授楊雅婷等人在《算法從屬性是破解平臺勞動關系認定困局之鑰》中,提出了“算法從屬性”的核心概念。她們認為,平臺勞動的這種“非自主性”不只來自于平臺對從業(yè)者人身的控制,更多的是來自于算法對平臺從業(yè)者的管理和掌控。算法從屬性的提出有利于保護平臺從業(yè)者勞動權利,有利于阻止平臺算法的肆意妄為,有利于破解平臺勞動關系認定之難題。
2.9 法官、檢察官與律師:實務一線的聲音
南京中級人民法院法官劉懿在《新業(yè)態(tài)用工法律關系認定的場景化規(guī)則構建》中,直面司法實踐中的裁判難題。她提出構建以“管理強度—自由度動態(tài)對比”“場景化認定”為核心的法律關系認定方法,探索支配性勞動管理在外賣配送、網約車運輸、快遞、網絡直播等典型場景下的成立標準。
廣州互聯(lián)網法院二級法官林北征則在《算法治理的司法實踐》中,分享了互聯(lián)網法院在涉算法糾紛審理中的經驗。他認為,算法糾紛的特殊性在于,它不僅涉及法律判斷,還涉及對算法技術邏輯的理解,這對法官的數(shù)字素養(yǎng)提出了更高要求。
律師群體的聲音則更為多元。有人歡呼AI帶來效率革命,也有人擔憂“法律服務產品化”趨勢會消解律師的專業(yè)權威。正如江必新教授所觀察到的,法律服務正在經歷從個性化定制向平臺化、標準化和自動化的轉型。這種轉型帶來的不僅是效率的提升,更是職業(yè)身份的重新定義。
03
困與解:法律人的思危、思退、思變
梳理完百位法律人的觀點(篇幅局限,未能完全展述),我們發(fā)現(xiàn),“困在算法里”其實有三思而行的含義:
一是“思危”——對AI取代法律人的恐懼;
二是“思退”——在技術洪流中如何守住法律的核心價值;
三是“思變”——如何主動擁抱變革,完成職業(yè)重塑。
3.1 思危:我們真的會被取代嗎?
對于“AI取代法律人”的恐懼,學術界的共識正在形成:取代是偽命題,自我消解才是真風險。
雷磊教授的判斷最具代表性:反思能力與道德能力對于法律職業(yè)活動而言必不可少,AI并不具有人類的自我意識和自由意志,因此ChatGPT將取代法律人的挑戰(zhàn)是一種“虛假挑戰(zhàn)” 。真正的挑戰(zhàn)在于使用者思維的庸化和道德的鈍化。
許中緣教授的警告同樣振聾發(fā)聵:“AI越智能,越能將我們工具化、客體化。” 他在開學典禮上對新生們的告誡,實則是對整個法律職業(yè)的警醒。
桑本謙教授則以“認知蜜罐”的比喻,揭示了AI時代最隱蔽的認知風險——AI給你一個流暢、連貫、結構完整的答案,你的認知系統(tǒng)會產生獎勵信號,獲得“原來如此”的感覺,但你可能只是在既有概念框架內部重新排列組合。
楊東教授則給出了更具實踐性的答案:法律人必須做弄潮兒,盡快搭建自己的專屬智能體(Agent)。
3.2 思退:法律的不變與守正
如果說“思危”是認清風險,那么“思退”就是明確底線——什么是法律人必須堅守的,什么是算法永遠無法替代的。
江必新教授在《技術浪潮下法律職業(yè)的未來展望》中,系統(tǒng)闡述了法律職業(yè)之“不變”的四大維度:法律職業(yè)的終極目的與核心價值、法律人特有的思維模式與專業(yè)知識、法律工作的情感交流與心靈溝通、法律共同體的人文關懷與社會責任。
許中緣教授則從法學的本質出發(fā),給出了三個不可替代的理由:法是善良與公正的藝術,AI不懂藝術;法學的理論性具有很強探討性,AI只能輸出淺層知識;法學的社會性需要多學科融通,AI無法觸及。
王遷教授的實驗雖然證明了AI論文能通過外審,但他最終的判斷是清醒的:著作權法與學術規(guī)范的悖論恰恰說明,法律人必須回歸常識,回歸人類心智的主導性。
3.3 思變:人機協(xié)同的新范式
“思危”是認清風險,“思退”是守住底線,“思變”則是主動出擊,在變革中尋找新的可能。
江必新教授旗幟鮮明地提出“構建以人機協(xié)同為核心的法律職業(yè)新范式”。這個新范式的核心在于:人類與計算機彼此執(zhí)行最擅長的智能活動。人類更善于想象有趣的假設,計算機則快速解析大型文本語料庫,尋找與人類假設相關的證據(jù)。
四川大學法學院教授左衛(wèi)民在《中國計算法學的未來》中,提出了“計算法學”的概念。他認為,計算法學其實是傳統(tǒng)實證研究的新階段,它與法律實證研究在研究對象、研究方法和研究領域上相通,其本質上是實證研究在新材料、新方法興起后的應用與拓展。
浙江大學光華法學院特聘副研究員周翔在《算法可解釋性概念的規(guī)范展開》中,提出“算法可解釋性”是破解“算法黑箱”的關鍵。他認為,算法可解釋性有助于我們精準識別算法風險、厘清規(guī)制工具關系、合理設置規(guī)制目標。
西北政法大學副教授邱昭繼在《人工智能、法律解析與未來法律實踐》中,描繪了人機協(xié)作時代法律實踐的新圖景。他指出,法律解析實現(xiàn)了自動表示法律概念和關系、信息提取和挖掘與論證相關信息的目標,將法律實踐帶入人機協(xié)作時代。
04
結語:AI圍城,我們如何守護法律的靈魂
這里,不妨回到開篇的問題:我們困在哪里?又該如何解困?
中國人民大學法學院教授張吉豫在《數(shù)字法理的基礎概念與命題》中,給出了一個富有哲學意味的答案:“數(shù)字正義是社會正義原則和正義實現(xiàn)機制在數(shù)字領域的體現(xiàn)。數(shù)字人權引領第四代人權。數(shù)字主權是‘數(shù)字國家’新主權,是國家主權新形態(tài)。”
對外經濟貿易大學法學院副教授張欣則提供了更為溫暖的視角:發(fā)現(xiàn)算法之美,構建治理層面的算法信任。
武漢大學法學院教授張紅在《生成式人工智能應用風險治理的理論誤區(qū)與路徑轉向》中提醒我們,不能混同ChatGPT的風險類型與風險程度,未來人工智能立法需謹慎論證。
中南大學法學院院長許中緣送給新生的那句話,或許也是送給所有法律人的箴言:“你們在圖書館啃的每一頁書,都可能成為未來某一個拐點的意外之喜;你們與老師的每一場探討,都可能是改變你們命運的契機。”
算法可以生成法律文書,但無法生成法律背后的溫度和品格;算法可以預測判決結果,但無法預測正義實現(xiàn)時當事人臉上的淚水或笑容;算法可以模擬法律推理,但無法模擬法律人面對不公時內心的憤怒與不甘。
教科書一直告訴我們:法律不是冷冰冰的規(guī)則體系。法是善良與公正的藝術。
中國政法大學法學院教授雷磊的追問仍在耳邊回響:如果人工智能能夠替代人類的幾乎所有工作,甚至包括法律裁判,那么“人”還剩什么?
答案或許在于:法律職業(yè)的重塑是一個長期而復雜的過程,需要法律職業(yè)者、技術開發(fā)者、教育機構、立法者和社會各界的共同努力。在這場深刻的變革中,我們要在變與不變之間,保持初心和使命,堅守公平正義的價值追求,遵循倫理準則和基本操守,發(fā)揮法律思維和專業(yè)知識的優(yōu)勢。
當“硅基法官”敲響法槌,我們依然要用“碳基法律人”的雙手,守護法律的靈魂。
這或許就是算法時代法律人的天命——在代碼與正義之間,在效率與公平之間,在創(chuàng)新與傳承之間,找到那條屬于這個時代的法治之路。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 王睿
審核人員 | 張文碩
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規(guī)/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.