<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      人工智能分類分級監管研究——從風險基準到重要性導向的邏輯轉變

      0
      分享至



      人工智能分類分級監管研究——從風險基準到重要性導向的邏輯轉變

      許建峰

      (中國政法大學數據法治研究院教授、博士生導師)

      呂昭詩

      (中國政法大學數據法治研究院博士研究生)

      [摘 要]

      歐盟提出的以風險為基準的人工智能分類分級監管模式已成為多國學習和模仿的對象,我國亦基于此理念開展了人工智能分類分級治理實踐。但隨著人工智能技術的發展,我國面臨著以要素為劃分的分類分級方式滯后、現有的分類和分級監管模式交叉混亂、人工智能業態分層和分類分級存在重疊等困境,以風險為基準的分類分級方式本身亦存在預先負面判斷、難以量化評估、分級機制僵化等弊端。在此背景下,應以重要性為導向構建人工智能分類分級監管新路徑,該路徑以價值理論為底層邏輯,通過價值的主客觀結合衡量重要性的高低,具有客觀性強、靈活性高、成本低等優點。在重要性導向下,我國可采取劃分關鍵人工智能和一般人工智能的分級監管思路,對關鍵人工智能開發者、提供者施以更多監管要求;沿用以場景為劃分的分類監管方式,明確“先分類,后分級”的流程次序;在人工智能分層業態下對基礎模型層、專業模型層、服務應用層人工智能實施差異性監管。

      [關鍵詞]

      人工智能;分類分級;風險監管;關鍵人工智能

      自1956年達茅斯會議提出人工智能概念以來,人工智能技術便在半個多世紀里不斷迭代發展。2022年底,Open AI 公司推出人工智能聊天機器人模型Chat GPT,隨即引發了新一輪的人工智能技術發展高潮。Chat GPT以其海量的數據訓練和超強的邏輯推理能力實現了人工智能科技的跨越式發展,引領世界進入了生成式人工智能時代。2024年上半年,Open AI公司陸續發布具有劃時代意義的人工智能文生視頻大模型Sora和視聽大模型GPT-4o,這兩個系統分別實現了對視圖分析和視聽反應能力的巨大突破,預示著人工智能正在加速邁向高度智能化。

      人工智能技術的日新月異給現代社會生活方式帶來了翻天覆地的變化,其深入各行各業并為之賦能,給人類生產、生活帶來極大便利,已然成為新質生產力的代表。但在人工智能迅猛發展的背后,其所帶來的負面影響也不容忽視,諸如倫理錯亂、貧富分化、技術濫用以及黑箱社會等一系列危害正在日益顯現。當前,各式各樣的人工智能紛紛涌現,逐步呈現“基礎模型—專業模型—服務應用”的分層業態,不同人工智能所產生的影響也千差萬別。在此背景下,對人工智能采取怎樣的監管方式便成為現實的問題。如果統一對所有人工智能施以嚴監管,將不免阻礙人工智能產業的創新性發展;若對人工智能采取弱監管,其背后的風險危害又將難以遏制。

      全球范圍內,歐盟率先對該難題給出了創新性的解決思路。2021年4月,歐盟提出對人工智能進行分類分級監管的《人工智能法(草案)》。2024年8月1日,最終版的《人工智能法》正式生效實施,該法案以人工智能可能帶來的風險為基準,將人工智能分為不同的類別,并對各類人工智能實施差異化的監管措施。這種對人工智能進行分類分級的方法有效避免了過于僵化的“一刀切”式監管,體現了對人工智能發展特性的深刻理解和順應。2023年5月,我國國家網信辦頒布《生成式人工智能服務管理暫行辦法》(以下簡稱“《辦法》”),該《辦法》第3 條提出,我國要對生成式人工智能服務實行分類分級監管。盡管分類分級被視為當前對人工智能進行有效監管的重要模式,但以風險為基準的分類分級方法并非必然適用于我國。我國目前處于人工智能發展的初期階段,對人工智能過早地進行嚴格分級可能會抑制產業的創新與發展。此外,若機械地遵循以風險為基準的監管模式,不僅無法在人工智能治理中體現中國特色,還可能使我國陷入“布魯塞爾效應”的風險之中。

      由此,面對我國人工智能發展的新階段新業態,亟需有效的人工智能分類分級監管新模式。未來我國對人工智能分類分級監管應遵循怎樣的基本邏輯?不同分類分級的人工智能有哪些差異性的監管要求?對人工智能的基礎模型、專業模型、服務應用各業態應實行怎樣的針對性監管措施?本文將就以上問題予以一一探討。

      一、人工智能分類分級監管的實踐檢視

      自歐盟提出以風險為基準分類分級監管人工智能的理念以來,多國在人工智能領域紛紛學習和效仿,風險監管逐漸成為目前世界范圍內治理人工智能最普遍采用的模式。近年來,我國對數據、算法、平臺等領域亦開展了風險監管的實踐探索,但隨著人工智能技術的進一步發展,現有的分類分級監管模式遇到了諸多挑戰。

      (一)以風險為基準的人工智能分類分級監管實踐

      歐盟在《人工智能法》中使用“基于風險的路徑”(Risk-based approach)監管人工智能,一脈相承其在《通用數據保護條例》(GDPR)中對數據所確立的風險監管思路,其將人工智能劃分為四個風險等級:不可接受風險、高風險、有限風險和最低風險。針對不同風險等級的人工智能,歐盟設定了不同的規制措施。具體來說,不可接受風險的人工智能是指嚴重侵犯基本人權或違反歐盟價值觀的人工智能,該人工智能被歐盟完全禁止;高風險的人工智能一般指可能對人類安全和生活造成嚴重影響的人工智能,該人工智能需遵守從事前到事后的一系列嚴格監管要求;有限風險人工智能是指缺乏透明度而帶來一定風險的人工智能,該人工智能需符合透明度要求以確保用戶意識到自身與人工智能的交互;不屬于以上風險類型的都是最低風險人工智能,這些系統沒有對公民權利或安全構成威脅或威脅很小,歐盟對這類人工智能沒有特殊的限制,而是鼓勵相關主體自發地遵守行業內規范。

      除歐盟外,美國、日本、韓國等也在人工智能領域積極探索構建相應的風險監管法律體系。2023年1月,美國國家標準與技術研究院(NIST)發布了軟性規則《人工智能風險監管框架》(以下簡稱“《框架》”),該《框架》給出了評估人工智能風險的方法論,認為風險評估有七點關鍵要素,即有效與可靠、安全、彈性、問責性與透明、可解釋性、隱私保護和公平不偏見,旨在為人工智能的風險監管提供指導原則。日本采取基于風險的軟法引導,其在2019年3月發布的《以人為本的人工智能社會原則》中提出,要通過人工智能實現“尊重人類尊嚴、多元包容、可持續發展”的“AI-Ready 社會”,并在醫療、交通、教育等領域根據不同使用場景對人工智能分別進行了相應監管。韓國國民議會在近幾年提出了《促進人工智能產業發展和確保信任的法案》《人工智能問責法案》,這兩部法案均對高風險的人工智能提出了更多責任要求,包括強制性要求事先通知用戶、確保系統可靠性和安全性等,體現了韓國內部對人工智能根據風險分類分級監管的態度。

      回看國內,2023年11月,我國在全球首屆AI安全峰會上簽署了全球第一份針對人工智能的國際性聲明《布萊切利宣言》(以下簡稱“《宣言》”),該《宣言》亦遵循風險監管的思路展開人工智能治理。深圳和上海兩市同樣走在人工智能分類分級監管的前沿,2022年9月,兩市分別公布《深圳經濟特區人工智能產業促進條例》和《上海市促進人工智能產業發展條例》,在全國范圍內率先開展了人工智能領域分類分級監管的探索,兩市均將人工智能依據風險進行劃分,采取了對高風險人工智能進行事前審查評估、對中低風險人工智能進行事前披露和事后跟蹤的監管模式。

      通過仔細觀察以風險為基準的分類分級監管框架,不難發現,其將風險作為分類和分級的底層邏輯,設計的初衷沿著人工智能的復雜特性展開,意圖通過量化人工智能可能造成的風險損害,從而對不同風險的人工智能采取差異化監管措施。該框架的底層邏輯如下:其一,從風險評估角度看,《人工智能法》第3條將風險損害程度和風險發生概率相結合以期提升評估精準度。由此可以看出,以風險為基準的評估采用了一種綜合分析的方法,不單單著眼于潛在損害的嚴重性,也包含了風險發生的可能性。通過這種較為全面的考量,風險評估將更為科學。其二,從防控成本角度看,風險監管意圖實現資源投入和風險防控的最優平衡。《人工智能法》序言第65 條提出,風險管理系統應根據人工智能的最新技術確定最合適的成本管理措施。歐盟意圖在有限的監管資源和廣泛的人工智能應用情況下,通過有效的風險分類分級系統來優化資源分配,實施相應的差異化監管,從而實現成本效益最大化。其三,從市場準入角度看,風險監管在認可人工智能可用性的同時致力于實現可控性。歐盟以風險為基準的分類分級監管模式承認大部分人工智能的可用性,但對風險較高的人工智能設置了市場準入門檻。《人工智能法》序言第46條明確:只有在符合某些強制性要求的情況下,高風險人工智能系統才能投放歐盟市場。這種方法充分體現了風險監管中的“預防原則”,從而加強監管以保障人工智能技術的發展在可控范圍內。

      盡管以風險為基準的分類分級監管框架底層邏輯意圖實現有效的人工智能治理,但其在實踐中可能遇到各種各樣現實的問題。風險監管框架本身亦可能包含固有缺陷,該底層的設計邏輯是否能夠實現仍需要進一步討論。

      (二)我國人工智能分類分級監管的現實困境

      2021年9月,國家網信辦等9部門聯合頒布《關于加強互聯網信息服務算法綜合治理的指導意見》(以下簡稱“《意見》”),該《意見》在我國首次提出“分類分級”概念。自此之后,我國陸續在數據、算法、主體等方面構建起了分類分級監管規則。但近年來以Chat GPT 為代表的生成式人工智能技術的跨越式發展,顛覆了以往的監管格局,原有的分類分級模式愈發不適應人工智能產業發展的實際需求,面臨著諸多困境。

      第一,以要素為劃分的分類分級方式滯后。近年來,我國針對數據、算法和主體等要素提出了分類分級策略,以便在各自領域展開針對性監管。在數據領域,依據數據獲取和使用場景的不同,《網絡安全標準實踐指南—網絡數據分類分級指引》將數據劃分為公民個人、公共管理、信息傳播等五個類別,并根據其潛在危害程度,將數據分為一般數據、重要數據和核心數據三個級別。在算法領域,根據其應用場景,《互聯網信息服務算法推薦管理規定》將算法劃分為生成合成、個性化推送、排序精選等五種類型,并依據算法能力展開分類分級監管,重點關注具有輿論屬性或社會動員能力的算法。在主體方面,依據平臺的服務場景,《互聯網平臺分類分級指南(征求意見稿)》將其劃分為網絡銷售、生活服務、社交娛樂等六類平臺,并根據影響力將不同平臺劃分為了超級平臺、大型平臺和中小平臺三級。這些基于數據、算法或平臺的單一要素式分類分級監管在各自領域均發揮了不可替代的作用,極大提升了監管實效。然而,隨著人工智能的不斷迭代,大模型參數紛紛突破萬億級別,其技術構成也愈發復雜,這些人工智能通常涉及多種要素的交互作用,數據采集、算法設計、模型訓練和應用部署等要素相互影響,共同決定著人工智能的行為和性能。由此,原有基于單一要素的分類分級監管模式難以反映人工智能的整體特性,亟需構建一個適配人工智能整體性的分類分級監管體系。

      第二,現有的分類和分級監管交叉混亂。分類分級監管包括分類和分級兩個維度,前者體現橫向治理思路,后者彰顯縱向治理邏輯。現有的分類分級監管體系通常依據應用場景進行分類,并按照風險因素進行分級。然而,在實際的人工智能分類與分級過程中,分類和分級并無嚴格次序,導致兩者經常交叉劃分,形成了普遍存在的混亂現象。同時,對人工智能分類的基本邏輯是不同的應用場景需要不同的人工智能技術支持。然而,現實情況是,某一特定的人工智能往往不局限于單一應用場景,該系統在某一場景中的人工智能可能是高風險,但在其他應用場景中風險性便可能顯著降低。例如,一個人工智能圖像繪制系統,既可以應用于醫療影像合成,也可以用于美術作品創作,前者的風險級別顯著高于后者。在這種情況下,不僅以場景為依據的分類難以劃分,基于風險因素的分級也無法有效實施,目前這種交叉混亂的分類分級現狀已然成為人工智能治理的一大阻礙。

      第三,人工智能業態分層和分類分級存在重疊。不同于傳統的技術支持者、服務提供者、內容生產者三種主體,當前人工智能整個產業呈現明顯的縱向分層業態,形成了“基礎模型層-專業模型層-服務應用層”的三級結構。其中,基礎模型作為人工智能的核心,提供通用的學習能力和數據資源;專業模型則在基礎模型之上進行定制化訓練,以直接滿足特定領域的需求;服務應用層將人工智能模型嵌入實際業務流程中,直接面向最終用戶。這種分層業態是人工智能產業的自然形成,三個層級既相互聯系,又各具特點。一方面,底層的基礎模型可直接對服務應用層人工智能產生影響,服務應用層人工智能亦能直接對基礎模型進行反饋。在這種情況下,對單一層級的人工智能進行分類分級監管必然也對其他上下游的人工智能產生影響,由此在一定程度上造成了人工智能分類分級的聯動錯亂;另一方面,“基礎模型-專業模型-服務應用”三層模型業態各不相同,每一層人工智能都具備其獨有的特點,不能等同視之,這也就意味著不同層級的人工智能需要有針對性的監管策略,以確保有效應對每一層級的獨特需求和潛在風險。

      二、由風險基準向重要性導向的邏輯轉變

      面對人工智能發展的新趨勢和新業態,原有的分類分級監管模式已經遇到了越來越多的挑戰。從風險監管理論的視角來看,人工智能與大數據、深度學習等能夠訓練、學習和預測的技術一樣,其產生的風險同樣難以預測和管理。以風險為基準分類分級監管模式本身的不足始終無法解決,其并非是適合我國人工智能治理的最佳方案。由此,本文提出應以重要性為導向構建人工智能的分類分級監管新路徑,以期實現我國人工智能領域的有效治理。

      (一)以風險為基準分類分級監管模式的不足

      當代對“風險”概念的理解可追溯至12世紀的意大利,當時的商人為了控制商品交易中的未來收益和損失,開始將交易風險與商品本身區分開來。從12世紀到18世紀,人們逐漸認識到,風險并非不可改變,而是可以被人類識別、計算,并在一定程度上加以控制。自18世紀起,風險逐漸成為一個成熟的概念,人們開始理性地開展風險監管;工業革命后,風險監管的理念逐漸擴展到金融市場、公共衛生、環境保護等領域。20世紀80年代,德國社會學家烏爾里希·貝克(Ulrich Beck)提出了風險社會理論,該理論認為,現代社會存在復雜且相互關聯的風險,需采用新的治理方式應對。在風險社會理論的影響下,風險監管的概念逐步系統化,至今成為較為成熟的監管理論。對于風險監管體系而言,需遵循以下的基本模式:第一,將危害構建為風險;第二,將風險監管視為一整套法律工具;第三,針對不同風險對象采取差異化的監管措施。其核心在于:基于風險評估對不同風險進行系統的資源配置。雖然風險監管理論已在多個領域適用,但從風險監管理論的基本內涵來看,該理論應用于人工智能領域的分類分級監管,卻有諸多不足之處。

      第一,風險劃分對部分人工智能帶有先天性負面判斷。對人工智能進行預先的風險等級劃分往往基于未經實踐驗證的假設和推測,這種風險判斷帶有高度的主觀性,容易導致對特定人工智能技術的先天性歧視。首先,風險的認定和分配本身就是一種社會價值負面衡量,通過將人工智能的潛在危害視為風險進行監管,無論監管者是有意抑或是無意,都是對人工智能進行先天負面判斷,而這種判斷與當下的社會文化、政治環境和個人偏見息息相關,反映了特定社會群體的思想和訴求。其次,技術本身具有中立性,只有在具體的應用實踐中,根據技術實現的效果,才能分辨該技術是“好的”或者是“壞的”。預設技術的潛在負面效應,可能會引發不公正的風險等級劃分,甚至可能會導致社會對特定人工智能技術的排斥或過度監管。某項技術在一個領域可能帶來風險,但在另一個領域卻可能產生正面效應,即便是引發社會普遍擔憂的人臉識別技術,其應用于公共安全保障、身份核驗安全等領域亦發揮了顯著的積極作用。因此,預設技術具有風險是不公平的,對人工智能風險的評估需要基于科學的數據、技術、實效分析,而不能僅僅基于技術的潛在負面影響來進行盲目地劃分。

      第二,對人工智能風險難以進行量化評估。根據風險監管理論,風險監管更適用于解決可量化的問題,對無法量化的風險則適用效果不佳。實際上,人工智能引發的風險多種多樣,并非都可以直接量化,經常存在難以界定的爭議。一方面,對人工智能進行量化評估缺乏有效的數據。豐富的數據集是人工智能風險預測的基礎,但由于世界范圍內人工智能產業正處于發展的早期階段,相關應用剛剛起步,缺乏豐富的應用反饋數據,對人工智能難以進行評估量化;另一方面,全球尚未形成標準的量化評估模式。盡管歐盟《人工智能法》提出了基于損害程度和發生概率的雙重評估框架,能幫助監管機構更準確地識別和劃分人工智能的風險等級,但目前并沒有形成成熟的評估體系,盲目地對人工智能風險進行劃分不僅難以得出合理客觀的評估結果,還可能浪費大量監管資源,與風險監管最初的降本增效理念背道而馳。

      第三,僵化的風險分級模式難以適應人工智能的動態發展。風險分級是風險監管的關鍵,但由于人工智能技術和應用的多變性與復雜性,固定不變的風險分級模式將難以適應人工智能的發展。一方面,人工智能系統不斷迭代,其未來發展難以預測,社會影響也無法預見,固定的分級模式將難以涵蓋人工智能技術演進帶來的新型風險;另一方面,即使某一人工智能的風險等級已確定,其未來亦可能隨技術發展而產生新風險,但固定的風險等級可能難以快速調整、改變監管框架需要經過長時間的程序流程,這就限制了監管機構對市場變化的快速響應。因此,盡管歐盟試圖通過分類分級的監管框架平衡人工智能的發展與安全,但這種嚴格的事前審查和合規要求增加了企業的運營成本,可能對部分中小型人工智能企業的發展造成阻礙。

      由此,在風險監管理論的視角下,回觀前文提到的以風險為基準進行分類分級監管的底層邏輯,不難發現,該邏輯在現實中難以實現。首先,對于風險評估來說,盡管評估模式會對風險損害程度和風險發生概率進行綜合考慮,但這均是在兩者可以量化的前提下,由于現實中數據和有效評估方法的缺失,對損害程度和發生概率均難以衡量,更難以進行精準的風險評估。其次,對于成本控制來說,人工智能預先的風險分級本身就需要耗費大量的成本,特別在人工智能難以量化評估的情況下,其意圖實現的成本效益最大化便更無從談起,反而會造成更多不必要的成本支出。最后,對于人工智能的可控性來說,設置市場準入門檻并進行嚴格監管,這的確會在一定程度上加強對人工智能的管控,但這種強監管也不免限制技術的自由探索,從長遠來看,可能會抑制人工智能技術的創新,不利于人工智能產業的進一步發展。

      (二)基于價值理論的重要性導向分類分級監管模式構建

      雖然以風險為基準的人工智能監管模式已經成為世界的主流,我國也開展了類似的實踐,但并不意味著該模式是唯一適用于我國的人工智能分類分級監管思路。面對風險監管的種種弊端,世界范圍內,人們亦在探索不同于風險監管的其他路徑。2022年7月,英國發布了人工智能監管新文件——《建立一種支持創新的人工智能監管方法》,該文件提出了一種“以結果為導向的監管方法”,其認為,人工智能產生的風險主要取決于實際應用的場景。文件明確提出,英國將根據人工智能在特定應用中可能產生的結果進行監管,并非預先將風險級別與技術進行綁定。此外,美國國會參議院兩黨議員也于2023 年11月聯合提出了《2023人工智能研究、創新和問責法案》,該文件提出了以“影響力”為劃分的分類分級監管模式,重點關注關鍵影響和高影響力的人工智能,其要求關鍵影響人工智能責任人在部署前需要每兩年進行一次風險評估,高影響力人工智能責任人需要對實施情況進行年度報告。

      我國目前處于人工智能產業發展的關鍵趕超階段,未來的人工智能發展路徑尚不明朗,現階段不宜采取風險分級的方式對處于萌芽狀態的人工智能產業過度預防,而應堅持審慎的原則為人工智能產業發展劃定紅線,營造鼓勵創新的監管氛圍,采用更加柔性的方式來應對治理過程中的不確定性,促使我國人工智能產業趕超世界領先水平。

      在此背景下,我國應基于國內人工智能產業發展實際,采取“以重要性為導向”的分類分級監管模式。具體而言,該模式即是在人工智能的監管中,一切以重要性作為邏輯起點與劃分依據對人工智能進行分類分級監管,對重要的人工智能投入更多的監管資源,而對其他人工智能則放寬限制。從理論基礎來看,價值衡量是重要性導向的底層邏輯。任何事物的存在均有其特定的價值,價值是事物對人類主體的對象性關系,是客觀性與主觀性的辯證統一,其可通過肯定事物自身價值、人之自覺價值存在等方式體現。由此,通過對事物價值性高低的衡量來判斷其重要性的大小,便成為“以重要性為導向”監管模式實施的基礎。

      在該模式下,人工智能價值高低的判斷是關鍵問題。黨的二十大報告曾提出“世界各國弘揚和平、發展、公平、正義、民主、自由的全人類共同價值”這一倡議,為我們提供了一個以人為本的多維價值性衡量體系,結合社會主義核心價值觀,可以從客觀與主觀兩方面結合以判斷人工智能的價值高低。

      首先,在客觀方面,事物在現實世界經濟結構中的意義是其客觀價值的生動體現,衡量人工智能在社會經濟活動中展現出的自身價值是判斷其價值高低的重要因素。目前人工智能給各行各業帶來了巨大變革。例如,人工智能賦能制造業生產,使其在提高效率的同時也降低了成本;人工智能助力醫療診斷,顯著提升了疑難病癥治療效果。由此,人工智能已在經濟活動中發揮了重要作用,可以通過效率提升、成本降低、病患治愈率等具體指數反映人工智能在其中發揮的價值。

      其次,在主觀方面,人對事物不可量化的感知也是價值性體現的關鍵,基于經驗和既有發展基礎對人工智能價值進行衡量是主觀判斷的重要方式。人工智能不僅是一個技術工具,其未來發展的潛在影響性和不可知性使得在評估價值時,必須考慮人的主觀體驗和社會預期。在這一背景下,評估人工智能的價值應關注其與人類發展的契合度。在推動生產力發展的同時,遵循以人為本、實現共同富裕的目標導向是其價值的重要體現。

      客觀數據提供了價值判斷的現實基礎,主觀感知則引導人們關注技術進步帶來的倫理和社會問題。將客觀數據與主觀感知相結合,可以形成一個多維的價值衡量體系,以此綜合判定人工智能重要性的大小,進而進行分類分級監管,確保人工智能在促進社會經濟發展的同時,能夠真正服務于全人類的共同利益。

      與此同時,一個重要的問題便是“重要性”與“風險”兩詞似有相同之意,尤其在人工智能領域,類似“越重要的人工智能意味著更高的風險”這樣的理解容易產生。然而,這樣的理解存在偏頗。雖然兩者之間存在聯系,但其基本內涵截然不同。從詞語的基本語義來看,“風險”一詞通常指的是消極結果的可能性和嚴重性。在人工智能領域,風險通常與負面事件相關,對國家安全、網絡安全、數據安全等重要領域的潛在威脅均屬于典型的風險表現。而“重要性”一詞則關注事物的整體價值,不僅包括可能的消極效應,也包含可能帶來的積極效益。在這種情況下,對人工智能進行“風險”判斷,將會對人工智能造成或大或小的負面評價,不免抑制人工智能產業的創新發展,而對人工智能進行“重要性”判斷則不會有此擔憂。由此,相比于“風險”的單一維度,“重要性”從正面和負面兩重維度進行衡量,有助于更好地平衡監管策略。

      (三)以重要性為導向分類分級監管模式的優勢

      以重要性為導向的分類分級監管模式不采取禁止或限制性措施來抑制人工智能技術的發展,而是通過明確的監管紅線,來確保這些重要人工智能的安全運行和技術創新。這種以重要性為導向的監管策略,相比于風險監管具有不可替代的優勢,其反映了對未來技術發展趨勢的前瞻性思考和高度的責任感,為全球人工智能的監管提供了新的思路和框架。

      第一,該模式對人工智能沒有預先的歧視性判斷。在傳統的風險分級監管模式中,對不同的人工智能進行分類分級往往涉及對其潛在風險的主觀判斷,相比之下,以重要性為導向的動態監管模式則采取了一種更為客觀的視角。根據人工智能在具體應用中的重要性來劃分,這種模式更多地考慮了人工智能的實際功能和作用,而非所謂的“預期目的”,即開發該系統的最初目的,因為最初開發目的可能并非實際使用效果。這種動態監管模式通過針對具體應用場景對人工智能進行價值衡量,使得監管措施能夠更加精準地對接技術的實際用途,也能有效預防和控制潛在的風險。

      第二,該模式側重事中的動態監管提升了監管的靈活性。風險分類分級監管受制于固有的風險劃分模式,使得監管機制日益僵化。以風險為基準的分類分級模式要求相關主體在部署人工智能之前,需滿足必要的安全和道德標準,而以重要性為導向的監管體系強調在產品進入市場后實施動態追蹤和管控,通過這種方式,監管不再是一個靜態的、一次性的門檻,而是一個持續的、動態的過程。而且重要性的劃分也將隨著技術的更新和社會的進步而變化,為應對未來難以預測的變革留出了必要的調整空間。這種監管模式的動態性和響應性不僅提升了監管的實效,也通過降低合規成本減少了市場進入障礙。

      第三,該模式避免了風險分級和控制的高成本。復雜的風險分級通常基于對潛在風險的預測,定量評價智能產品與服務的風險時,需要從人工智能的性能、效率、公平性、透明度及可解釋性等多個角度進行綜合分析,這要求監管機構投入大量時間和資金來收集數據、進行復雜風險評估和制定分類分級策略,而且這種方法經常依賴于未經驗證的信息和假設,容易造成監管資源的不合理投入,從而耗費大量監管成本。而以重要性為導向的分類分級監管則恰恰相反,其側重于實際應用的影響,直接將監管重點放在人工智能的實施效果上,使監管機構專注于真正重要的人工智能,避免了分級的繁瑣流程和支出成本,能夠更有效地投入監管資源。

      三、人工智能分類分級監管的制度革新

      未來人工智能的發展將顛覆各行各業,而目前的分類分級現狀已難以滿足我國對人工智能的治理需求,亟需以重要性為導向的監管模式革新人工智能的分類分級治理路徑。具體來說,在人工智能的分級中,可借鑒《人工智能法(學者建議稿)》的思路,將人工智能劃分為關鍵人工智能和一般人工智能,對關鍵人工智能施以更多的監管義務;在人工智能的分類中,沿用以場景為劃分的分類思想,一般情況下遵循“先分類,后分級”的監管思路,關注醫療、教育、金融等重點領域的分類治理措施;面對人工智能的分層業態,制定針對性的治理策略,基礎模型層需提升數據質量水平,專業模型層應注重確保模型的可信可控,服務應用層則側重保護用戶合法權益。

      (一)創設以重要性為導向的分級方法:劃分關鍵、一般人工智能

      在原有監管模式愈發無法滿足我國人工智能治理需求的背景下,2024年4月,由中國政法大學等單位聯合起草的《人工智能法(學者建議稿)》突破了以風險為基準的分類分級監管框架,提出對關鍵人工智能實施重點監管。在以重要性為導向的分級監管中,可借鑒該建議稿的思路,將重要性較高的人工智能定義為關鍵人工智能,其他為一般人工智能。在這一框架下,如何認定關鍵人工智能便成為一個至關重要的問題。根據人工智能的發展特性,可以從社會影響、人身安全、技術指標三個維度進行分析,以期為人工智能的政策制定和技術開發提供方向性指引。

      在社會影響方面,關鍵人工智能所涉及的領域通常具有廣泛的社會效應和潛在風險。凡是在軍事國防、財產安全、社會穩定等方面產生重大影響,或涉及關鍵基礎設施的技術,均可歸類為關鍵人工智能。具體而言,應用于軍隊、情報機構、國防工業等國家安全領域的人工智能,直接關系國家的戰略利益與防御能力,是國家安全的關鍵支撐;在金融、保險等領域廣泛應用的人工智能技術可能對財產安全造成重大影響,一旦出現漏洞,將引發大規模的經濟損失,對經濟穩定造成嚴重沖擊;應用于社會治理、公共管理等領域的人工智能技術在維護社會秩序和防范風險方面具有顯著作用,甚至逐漸形成算法權力與行政權力二元共治的新秩序,其包括用于預測犯罪、輿情監測、社會風險評估等的人工智能系統,而這些人工智能技術運用不當會給社會帶來巨大的威脅;電力、通信、交通、能源等領域的基礎設施是社會運轉的基石,其智能化水平的提高將有效促進創新資源和生產要素的優化配置,這些基礎設施所依賴的人工智能一旦出現中斷或失效將導致嚴重的社會后果。由此可見,在社會影響方面具有廣泛社會效應和潛在風險的人工智能,無疑是關鍵人工智能,需要高度重視并加強管理和監督。

      在人身安全方面,關鍵人工智能所帶來的影響直接關乎人的基本權利。凡是可能對人的健康、自由、尊嚴和隱私等人身基本權利產生重大影響的人工智能,均應視為關鍵人工智能。例如,涉及生物識別技術的人工智能可能關系到性別、宗教、種族和身體殘疾等敏感信息,一旦被濫用,可能會導致嚴重的人身危害,應被視為關鍵人工智能進行監管。同時,某些人工智能可能具備操控個人意識和行為的能力,這類技術一旦被不當使用,將造成不可逆轉的危害后果,亦應被重點關注。此外,深度嵌入教育、就業、醫療、司法等影響人身基本權利領域的人工智能也應納入關鍵人工智能的范疇,因為這些領域的決策與執行一旦使用歧視性的算法,可能會導致對特定群體的不公正待遇。

      在技術指標方面,關鍵人工智能可基于其算力、參數等技術特征進行界定。通常情況下,凡是在算力、模型參數等方面達到較大規模的人工智能,均可歸為關鍵人工智能。從實際情況來看,我國目前可以將關鍵人工智能浮點算力閾值設置為1025(FLOPs),將參數閾值設置為萬億,凡是超過這些閾值的人工智能,便被認定為關鍵人工智能。通過這一標準為技術監管提供量化依據,同時推動各行業共同構建一個更為安全、透明的人工智能生態系統。

      滿足上述三個維度之一,便可認為該人工智能足夠重要,應納入關鍵人工智能的范圍。此外,對于關鍵人工智能的認定標準并非一成不變,三個衡量維度指標將會隨著社會的發展而與時俱進、動態更新,這種動態框架將會使規則制定擺脫傳統約束和慣性思維,以滿足分類分級的即時需求。以技術指標為例,隨著未來硬件的優化和算法的更新,1025(FLOPs)的浮點算力和萬億級的參數閾值將明顯低于實際需求,其判定閾值必將逐步提高。由此,可成立相關的評估委員會,負責動態調整人工智能重要性判斷標準以滿足現實發展需要。

      在具體監管措施上,監管部門負責對關鍵人工智能進行認定,并承擔對關鍵人工智能開發者、提供者的告知義務,接到監管部門通知的關鍵人工智能開發者、提供者才需履行對該人工智能的額外主體義務。更重要的是,以重要性為導向的監管模式不對人工智能設置市場準入門檻,對一般人工智能而言,其僅需滿足基本的備案義務,能夠讓監管機構了解算法模型的基本情況并把握其潛在的風險因素即可,不必對其施加過多的監管措施,避免對一般人工智能的過度干預。但需對關鍵人工智能開發者、提供者提出更高的監管要求,構建多維的人工智能監管體系。

      在關鍵人工智能部署前,要求開發者和提供者履行備案義務是提高透明度、保障安全的重要手段。人工智能備案機制旨在確保開發者和提供者對人工智能的開發和應用進行必要的信息披露,這些信息包括開發目的、技術部署背景、使用的數據類型和來源、算法模型的選擇與設計、預防風險的機制等,在一定程度上確保人工智能的可解釋,一旦系統出現問題,備案信息可以作為事后追責的基礎,確保責任歸屬明確。同時,關鍵人工智能的開發者和提供者還應建立完善的應急處置機制,一旦發生安全事件,相關的應急機制需能迅速啟動,采取相應的補救措施。

      在關鍵人工智能應用過程中,可以對該人工智能施以檢測和追蹤措施,通過技術檢測手段追蹤系統的運行狀態和數據變化,確保其符合預期標準,以保障系統的安全性和穩定性。為進一步提升監管效果,關鍵人工智能開發者和提供者還應每年至少進行一次人工智能安全評估,定期報告人工智能的應用情況和風險監管措施,以便監管部門能夠了解和掌握人工智能的運行狀態,及時作出相應的政策調整。

      一旦關鍵人工智能發生事故,便需對相關責任人進行嚴肅追責,確保相關系統開發者、提供者對其人工智能的安全性負有明確的責任義務,形成完善的監管體系和市場秩序,從而有效倒逼人工智能開發者和提供者在系統開發與運行中更加謹慎。同時,還應對關鍵人工智能的實施效果展開評測,收集來自系統用戶、監管機構、技術專家等多方的反饋,及時發現關鍵人工智能系統中的問題,以改進和優化關鍵人工智能的部署應用。

      (二)優化基于場景的分類措施:著力關注重要領域

      以場景為劃分的分類措施在數據、算法、平臺治理中均發揮了積極的作用。人工智能的分類雖不再遵循單一要素的分類模式,但在現階段,人工智能治理的主要任務之一,便是實現人工智能技術的設計、開發和部署的價值協調,對人工智能按照應用場景進行分類監管仍然是一種合理且有效的選擇。通過將人工智能按場景進行分類,監管部門能夠更好地識別哪些技術會帶來更大的影響,哪些領域需要更嚴格的監管措施,尤其是在復雜應用中可以有效解決監管難題、提升人工智能治理的效率,但也應對該模式進一步優化以適應人工智能的迭代發展。

      面對人工智能分類和分級過程中可能存在的相互交叉和混亂問題,在以重要性為導向的監管模式下,可遵循以下的分類分級解決思路:一般情況下按照“先分類,后分級”的流程對人工智能進行監管。也就是說,首先應當根據人工智能所涉及的具體應用場景對其進行分類,然后在分類的基礎上進一步對其進行分級。對于同一人工智能涉及多個場景難以分類的情況,分類的優先級可以依照其最重要的應用場景進行判斷,在此基礎上,監管部門再根據人工智能的重要性對其進行進一步的分級處理。此種分類分級模式為監管部門提供了清晰的框架,使其能夠更準確地評估和把握人工智能的潛在影響,有利于將監管資源合理分配到最需要的領域。值得注意的是,人工智能不僅僅是特定領域的技術工具,其已然成為一種“通用技術”,在各個領域中發揮著越來越重要的作用。未來,隨著人工智能技術的進一步發展,它將廣泛應用于社會的各個方面,包括醫療、教育、金融等重要領域。在以重要性為導向的監管模式下,不同場景的分類監管需要特別關注這些重點領域的特殊要求,以確保人工智能技術的合理應用和規范發展。

      在醫療領域,人工智能通過深度學習和數據分析,能夠協助醫生進行病情診斷、患者監護、藥物研發等工作。當前,人工智能技術已在輔助醫療診斷、個人健康監測、慢性病治療和傳染病防控等方面展現了顯著的優勢。相關人工智能必須遵守嚴格的醫療標準和倫理準則,以確保系統的可靠性和安全性。同時,由于醫療領域涉及患者隱私、健康安全等敏感問題,監管機構應要求醫療人工智能系統設置嚴格的保密機制,以防止算法偏差和信息泄露對患者造成負面傷害。

      在教育領域,人工智能技術正迅速滲透到個性化學習系統、智能題庫、在線教育平臺等場景中。教育領域的人工智能應用必須特別注意公平性問題,技術的應用應確保每位學生都能平等地獲得學習機會,警惕算法自動化決策而帶入人的主觀取向和價值判斷。此外,教育領域的人工智能還應強調正確價值觀的傳遞,系統設計應符合教育部門的相關規定和指導方針,實現人工智能對正義、誠實、責任、關懷及堅毅等美德的潛移默化引導。

      在金融領域,人工智能技術應用涵蓋了證券交易、風險評估、合規管理等多個重要業務領域。借助人工智能,金融機構能夠處理和分析大量的金融數據,并結合客戶的資產情況和投資目標,制定更加精準的投資策略。由于金融市場高度復雜且敏感,人工智能系統可能因數據泄露、算法不透明或系統漏洞而引發市場混亂或投資者損失。為此,金融監管機構應加強對金融人工智能系統的透明性要求,確保系統的算法和決策過程具有足夠的可解釋性。

      (三)實施人工智能多元化監管策略:適配各分層業態重要特點

      在對人工智能開展以重要性為導向的分類分級整體監管后,雖然人工智能不同業態之間的相互影響仍然存在,但重要性導向的監管思路將不同業態的人工智能分類分級問題進一步簡化。對于各層級人工智能相互影響導致分類分級困難這一問題來說,在重要性導向下,某一人工智能無論處于哪一層級,均應從其自身出發,將不同層級之間的聯系也作為重要性判斷的因素之一,利用重要性衡量的三個維度判斷該系統的重要性,從而實施分類分級監管。同時,人工智能產業呈現的“基礎模型——專業模型——服務應用”分層業態各層均有其獨特之處,為更好地回應分層業態的治理需求,我國應遵循重要性導向,以各層的重要特點為抓手,實施多元化的監管策略。

      第一,在基礎模型層注重提高數據質量。基礎大模型為多種專業模型和服務應用提供底層支持,實現了從“一個應用一個算法”到“一個模型多用途”的轉變,而數據是基礎模型的根基,基礎模型的好壞很大程度上取決于數據質量的高低,結果的準確性是由其輸入數據的準確性直接決定的,當人工智能模型吸收了低質量的數據,該模型將會接受有偏差的訓練,從而導致錯誤推理結果的輸出。由此,在人工智能基礎模型層,監管重點應轉向大模型的訓練數據集來源、設計和訓練過程。面對具有廣泛應用潛力的基礎模型,應提高其透明度義務,要求基礎模型服務提供者在進行備案時提供模型設計、數據來源的基本信息,確保訓練數據遵守數據保護法律和倫理標準。

      第二,在專業模型層注重模型的可信、可控。有效治理人工智能,保障人工智能的可信、可控是世界共同面臨的課題,專業模型往往基于基礎模型的調整和優化而來,其一般針對特定的場景和行業。在這些具體的領域,某些特定的場景和行業可能會對人工智能提出特殊的監管要求,以便于人工智能在特定場合下的負責任使用。專業模型層的細分服務領域也對人工智能大模型輸出的精準度提出了更高的要求,特別是在模型應用于醫療、金融、交通、教育等重要領域時,其系統本身的可信、可控顯得尤為重要。由此,在該模型層,一方面應重點關注由基礎模型轉為專業模型過程中調整和優化的安全性和適應性,保證專業模型設計的可信性;另一方面,專業模型在處理和輸出各項運算任務時,應進行一定的監督,以確保專業模型的可控性。

      第三,在服務應用層關注用戶的合法權益。經歷了基礎模型的數據質量優化和專業模型的可信可控調整,服務應用層人工智能將被用戶直接使用,其直接關系著用戶的切身利益。由此,服務應用層的監管重點應放在用戶的合法權益保護上,可以從數據傳輸、數據存儲和數據處理全流程出發,通過全流程監督人工智能保護用戶隱私、確保數據安全,確保服務應用層的人工智能能夠充分保護用戶權益。同時,為了方便辨識和追溯,應對該層人工智能生成內容添加標識,進一步提高生成內容的準確性和可靠性。監管機構亦可采取定期審查與用戶反饋的方式,掌握服務應用層人工智能的運行效果,督促其持續改進并提高服務質量。

      四、結語

      2025年4月26日,習近平總書記在主持中共中央政治局第二十次集體學習時指出:“要加緊制定完善相關法律法規、政策制度、應用規范、倫理準則,構建技術監測、風險預警、應急響應體系,確保人工智能安全、可靠、可控。”人工智能的分類分級監管將是完善人工智能治理規則的重要一環,但如何科學合理地對人工智能進行分類分級監管,是推動人工智能技術健康發展的關鍵。以風險為基準對人工智能進行分類分級監管存在諸多弊端,并非適用于我國。我國應立足于目前國內人工智能產業發展實際,設計一種既促發展又保安全的人工智能治理路徑,而以重要性為導向的分類分級監管模式恰好符合這一特性,其從人工智能的價值導向出發,提供了一種避免預先負面判斷、更加靈活和更低成本的動態監管模式。以重要性為底層邏輯區分場景應用的同時劃定關鍵人工智能實施差異性治理,不僅適應我國人工智能產業的發展現狀,也為未來的技術迭代預留了足夠的靈活空間,其不失為我國未來對人工智能分類分級監管的有效方式。

      —— EDN ——

      文章來源:《濟南大學學報(社會科學版)》2025年第5期。

      免責聲明:本文章僅限學習交流使用,版權歸原作者所有。

      Serving national strategies, focusing on university research and the transformation of scientific and technological achievements

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      春晚化妝師回應龍洋眼睛往上看,不是偷看提詞器,給她兩點建議!

      春晚化妝師回應龍洋眼睛往上看,不是偷看提詞器,給她兩點建議!

      古希臘掌管月桂的神
      2026-02-22 14:06:57
      國民黨內訌,前高層沖闖黨部斥責鄭麗文:你不配當主席,是個卒子

      國民黨內訌,前高層沖闖黨部斥責鄭麗文:你不配當主席,是個卒子

      井普椿的獨白
      2026-01-01 14:19:04
      1999年,遲浩田設局抓捕一位少將,對方被捕后挑釁:我爸知道嗎?

      1999年,遲浩田設局抓捕一位少將,對方被捕后挑釁:我爸知道嗎?

      嘆為觀止易
      2026-02-20 13:32:06
      于東來宣布正式退休,60歲手握上億現金,未來規劃曝光引關注

      于東來宣布正式退休,60歲手握上億現金,未來規劃曝光引關注

      削桐作琴
      2026-02-12 19:24:05
      落差太大!離開央視鏡頭原來她們長這樣,李梓萌海霞就像變了個人

      落差太大!離開央視鏡頭原來她們長這樣,李梓萌海霞就像變了個人

      陳意小可愛
      2026-02-21 19:36:16
      老鄉雞招股書揭開餐飲企業痛點:近半收入依靠外賣,平臺服務費率超17%

      老鄉雞招股書揭開餐飲企業痛點:近半收入依靠外賣,平臺服務費率超17%

      澎湃新聞
      2026-01-20 08:24:31
      車庫吻照實錘?baby地下戀藏多年,黃曉明4億奪撫養權:別想碰我兒子

      車庫吻照實錘?baby地下戀藏多年,黃曉明4億奪撫養權:別想碰我兒子

      扒星人
      2026-02-21 15:37:31
      寒潮、暴雪、大風、沙塵暴預警齊發,局地降溫可達14℃以上

      寒潮、暴雪、大風、沙塵暴預警齊發,局地降溫可達14℃以上

      界面新聞
      2026-02-22 07:22:39
      為培養兒子踢進國足,他賤賣上海8套房,如今兄弟倆都給他長臉

      為培養兒子踢進國足,他賤賣上海8套房,如今兄弟倆都給他長臉

      哄動一時啊
      2026-01-25 14:13:06
      三峽大壩收支出爐:運行20余年,總投資近2500億,如今回本了嗎?

      三峽大壩收支出爐:運行20余年,總投資近2500億,如今回本了嗎?

      青梅侃史啊
      2026-02-21 09:46:58
      聽說閆學晶炫富導致中央戲劇學院的管理層都被團滅了!

      聽說閆學晶炫富導致中央戲劇學院的管理層都被團滅了!

      達文西看世界
      2026-02-15 20:25:40
      吳亦凡二審維持原判13年,只能繼續當班長,網友神評論笑死人

      吳亦凡二審維持原判13年,只能繼續當班長,網友神評論笑死人

      呱呱請你吃瓜
      2026-02-02 19:51:43
      黃海告急?美軍機群秘密入侵,殲-16降維打擊,解放軍寸步不讓

      黃海告急?美軍機群秘密入侵,殲-16降維打擊,解放軍寸步不讓

      霽寒飄雪
      2026-02-22 09:24:23
      烏克蘭的打擊,終結俄羅斯預警機制造企業

      烏克蘭的打擊,終結俄羅斯預警機制造企業

      走進烏克蘭2022
      2026-02-21 14:23:25
      50歲的阿姨把黑色網紗衣服穿出了既時髦又有女人味的感覺

      50歲的阿姨把黑色網紗衣服穿出了既時髦又有女人味的感覺

      牛彈琴123456
      2026-02-21 20:13:57
      阿爾茨海默病者逐漸增多,醫生提醒:55歲后,盡量改掉6個壞習慣

      阿爾茨海默病者逐漸增多,醫生提醒:55歲后,盡量改掉6個壞習慣

      39健康網
      2026-02-17 18:31:37
      沒人發拜年微信了,這是一個危險的信號

      沒人發拜年微信了,這是一個危險的信號

      茉莉聊聊天
      2026-02-18 10:48:40
      放棄爭奪260億遺產,帶著女兒遠赴美國,如今才知她是人間清醒

      放棄爭奪260億遺產,帶著女兒遠赴美國,如今才知她是人間清醒

      林輕吟
      2026-01-31 11:44:55
      7名中國游客在貝加爾湖遇難,目擊者稱事發冰面表面光滑但下方有裂縫,總領事館:已與遇難人員家屬建立聯系

      7名中國游客在貝加爾湖遇難,目擊者稱事發冰面表面光滑但下方有裂縫,總領事館:已與遇難人員家屬建立聯系

      極目新聞
      2026-02-21 14:31:40
      許世友被關押,看守送燒雞和酒,多年后,看守當了南京軍區副司令

      許世友被關押,看守送燒雞和酒,多年后,看守當了南京軍區副司令

      歷史龍元閣
      2026-02-22 10:45:09
      2026-02-22 14:59:00
      科轉在線 incentive-icons
      科轉在線
      引領·傳播·連接·賦能
      5665文章數 850關注度
      往期回顧 全部

      科技要聞

      馬斯克:星艦每年將發射超過10000顆衛星

      頭條要聞

      媒體:美對華貿易戰主力工具是301條款 此次裁決未觸及

      頭條要聞

      媒體:美對華貿易戰主力工具是301條款 此次裁決未觸及

      體育要聞

      徐夢桃:這是我第一塊銅牌 給我換個吉祥物

      娛樂要聞

      裴世矩養侄為刃 看懂兩次放行裴行儼!

      財經要聞

      特朗普新加征關稅稅率從10%提升至15%

      汽車要聞

      續航1810km!smart精靈#6 EHD超級電混2026年上市

      態度原創

      親子
      健康
      手機
      教育
      軍事航空

      親子要聞

      過年3歲女兒給媽媽發錢,讓媽媽給她磕個頭,真讓人哭笑不得

      轉頭就暈的耳石癥,能開車上班嗎?

      手機要聞

      年后大戰一觸即發,vivo、OPPO、小米全在路上

      教育要聞

      “這種女兒,生出來當排毒了!”女孩對父親滿口臟話,他卻不吭聲

      軍事要聞

      約旦基地美軍戰機驟增 包括F-35隱形戰斗機

      無障礙瀏覽 進入關懷版