![]()
2025年6月,美國國會研究服務處(CRS)發布報告《人工智能監管:美國與國際路徑及國會立法考量》(Regulating Artificial Intelligence: U.S. and International Approaches and Considerations for Congress),主要介紹了全球及美國人工智能的治理與監管實踐,以及美國國會政策考量與立法選擇等。關于人工智能監管,美國國會通過的相關法案多為針對性條款,而非具有廣泛監管權或禁止特定應用的聯邦法律。
一、國際人工智能治理與監管的主要路徑
(一)英國
英國的行業法律監管框架是通過現有技術中立的監管框架平衡創新與安全。采用特定行業人工智能監管方式,設有專門人工智能成文法規,依托現有行業法律框架監管人工智能。政府制定人工智能戰略與政策,并隨著執政黨派的更迭調整監管取向。2025年工黨發布《人工智能機遇行動計劃》(AI Opportunities Action Plan),上議院提出人工智能監管法案。
(二)歐盟
通過歐盟《人工智能法案》(The Artificial Intelligence Act)實施廣泛監管。該法案采用風險分類監管,將人工智能系統分為不可接受風險(禁用)、高風險(上市前評估與上市后監測)、透明度風險(信息披露)、低/無風險(無特殊要求)及通用人工智能(技術文檔維護與版權合規)五類;設立歐盟人工智能辦公室,要求成員國設監管機構并制定違規處罰措施;設置專門章節支持創新。
對該法案存在基本權利保護不足、抑制創新等批評,部分美國科技公司因監管的不確定性暫停在歐盟推出部分人工智能產品。近期歐盟正日益強調競爭力,克服監管壁壘。也有觀點認為,該法案可能為開發者帶來優勢,例如需遵循的法規統一而不零散;符合法案要求的產品可宣稱“可信”以獲得競爭力。
(三)中國
2017年發布《新一代人工智能發展規劃》,提出2030年人工智能世界領先目標,此后出臺針對性人工智能監管規則,如《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》。2024年發布《中華人民共和國人工智能法(草案)》,2025年四部門聯合發布《人工智能生成合成內容標識辦法》。
中國的人工智能監管路徑呈現垂直化、技術導向型框架,政府在人工智能研發中作用顯著。目前,外國投資正逐步增加,性能上也逐漸縮小與美國差距,政府正采取多元化人工智能發展路徑,重點關注基礎研究、核心軟硬件技術及人工智能應用。
(四)人工智能治理合作
美國參與經合組織、七國集團、聯合國等多邊合作。2019年經合組織成員國達成《人工智能原則》,2024年為應對通用人工智能、生成式人工智能等新技術發展對其進行了更新。2023年七國集團領導人就人工智能指導原則與行業自愿行為準則達成協議。此外,美國參與聯合國推進人工智能全球治理的對話,發起全球人工智能伙伴關系(2020年)等等。
美國與歐盟、印度、英國等開展雙邊合作。通過美歐貿易與技術委員會(2021年)、美印人工智能倡議(2021年)推動人工智能合作。2023年美國參與英國人工智能安全峰會,兩國成立本國人工智能安全研究所,2024年美英兩國研究所達成合作,計劃聯合開發最先進人工智能模型測試方法,2025年兩國研究所均調整關注重點。
二、美國人工智能的治理與監管實踐
美國聯邦法律與政策文件均體現出支持人工智能創新與風險管控的雙重導向。
(一)聯邦層面人工智能立法
自第115屆國會起,國會議員提出數百項含“人工智能”表述的法案,但截至2025年5月,僅不到30項法案生效,其中近半數為撥款法案或國防授權法案中的人工智能專項條款。
《2020年國家人工智能倡議法案》(The National Artificial Intelligence Initiative Act of 2020)最為全面,核心內容包括:將“美國人工智能倡議”納入法律;設立國家人工智能倡議辦公室;在科學技術政策辦公室設立跨部門委員會;設立“國家人工智能咨詢委員會”。該法案還指令聯邦科學機構開展人工智能活動,如國家科學基金會(NSF)需支持國家人工智能研究院網絡建設。
《芯片與科學法案》(The CHIPS and Science Act)含多項人工智能條款,指令特定聯邦科學機構支持人工智能研發及制定安全可信的人工智能系統技術標準,法案生效后,依托其設立的聯邦項目已為人工智能研發提供資助。
另有法律指令總務管理局(GSA)、白宮管理與預算辦公室(OMB)等機構支持聯邦政府的人工智能應用。《2020年政府人工智能法案》(The AI in Government Act of 2020)在總務管理局設人工智能卓越中心,推動聯邦人工智能應用并公開相關信息,要求白宮管理與預算辦公室向聯邦機構發布人工智能政策制定、應用障礙消除及風險緩解相關的備忘錄。《推進美國人工智能法案》(The Advancing American AI Act)要求白宮管理與預算辦公室:在制定聯邦政府人工智能使用指南中納入多元考量;制定人工智能采購合同安全規范;要求除國防部外的聯邦機構編制提供人工智能用例清單。
其他人工智能相關法律則聚焦人工智能培訓、特定行業應用等領域,未確立廣泛的人工智能監管權或禁用規則。
(二)國會人工智能行動
近年國會通過成立人工智能核心小組、工作組,舉辦聽證會推進人工智能政策制定。第119屆國會參眾兩院均設人工智能核心小組,為議員提供交流平臺。第118屆國會期間,參議院兩黨人工智能工作組舉辦9場人工智能洞察論壇,2024年5月發布政策路線圖,明確了人工智能政策制定的共識領域,如人工智能創新、勞動力等;眾議院成立24人兩黨人工智能工作組,2024年12月發布報告,確立了指導國會未來工作的政策考量原則,如識別人工智能議題的新穎性、防范風險與損害、推動政府應用等。
(三)行政部門人工智能行動
特朗普與拜登政府均采取人工智能相關行動,政策文件均強調創新與風險管控。拜登政府第14110號行政命令(現已撤銷)要求聯邦機構開展多項人工智能行動,并依據國防生產法案授權,要求企業與實體向政府報告相關信息;特朗普政府第14179號行政命令確立維持美國人工智能全球主導地位目標,要求2025年7月前制定人工智能行動計劃。
此外,關于聯邦政府內部的人工智能監管,依據相關行政命令與法案,聯邦機構需上報人工智能用例,形成人工智能用例清單。截至2025年1月,上報用例超1990個,排名前三的應用類別為:支持機構內部運行、醫療健康、政府服務。該清單旨在提升透明度,但存在完整性與準確性爭議,政府問責局等機構提出了改進建議。
(四)美國人工智能監管路徑
美國人工智能監管路徑主要分為三類。一是直接監管人工智能技術,像設定算力等技術閾值或提出透明度要求等。例如,研發訓練所用算力超過10^26次浮點運算(FLOPs)模型的企業需上報相關情況;使用人工智能的自動語音呼叫需進行披露。該路徑監管精準性強但靈活性不足。二是采取技術中立方式,跨行業監管人工智能應用。例如,要求聯邦貿易委員會強制法案覆蓋的實體開展影響評估,并為其提供指導與技術支持。該路徑能精準覆蓋需關注的技術特征,但僅針對大型企業的監管方式存在漏洞。三是在特定行業內監管人工智能使用,如金融、選舉、醫療等領域的專項人工智能法案提案。
三、美國人工智能監管的核心考量
當前美國關于人工智能監管存在兩大類觀點。一方面,支持強化監管的觀點認為,人工智能監管可降低人工智能系統的潛在風險,提升安全性。監管需實現防范對邊緣化群體的歧視性影響及明確人工智能責任歸屬等目標,科學設計的監管應能為創新提供穩定性與清晰度。另一方面,反對強化監管的觀點認為,現有聯邦法律與機構職權足以應對人工智能風險,人工智能發展迅速,制定或優化監管規則難度較大,額外監管可能抑制創新,降低企業開展“低風險、高安全性”人工智能系統試驗的積極性,還可能削弱美國在全球人工智能競爭中的傳統優勢。
美國國會與政府制定人工智能立法或政策時可采用多元路徑,或聚焦安全與風險規避,或聚焦創新并輔以行業自愿承諾,或多路徑組合使用等等。無論選擇何種路徑,如何使人工智能系統契合人類目標與價值觀始終是技術難題,以可靠、可擴展方式破解該難題,是當前科研與測試的核心方向。政策制定者需界定人工智能在技術、社會、法律、倫理層面的邊界與范圍,實現支持創新、提升效益及保護公民權益的目標。在人工智能快速發展背景下,相關舉措需動態調整或建立定期審查與靈活適配機制。
四、美國國會人工智能政策考量
與立法建議
(一)依托現有框架
部分聯邦機構主張其現有法律職權可覆蓋人工智能新技術。2023年4月多機構聯合發布人工智能反歧視執法聲明,后聯邦貿易委員會依法對違規使用人臉識別技術的企業采取了執法行動。
為評估機構職權是否足以支持其人工智能監管工作,2020年特朗普政府曾要求白宮管理與預算辦公室(OMB)為聯邦機構提供人工智能監管指引,但僅少數機構按要求公開了完整合規計劃。國會亦可要求相關機構提供信息或指令調查機構開展評估等。
維持現有監管環境可以避免對人工智能研發與部署施加額外監管限制,但需解決聯邦層面缺乏統一法規導致的州級人工智能法律零散化的問題。國會可以通過將現有機構職能活動納入法律、要求監管機構發布人工智能專項指引、推動跨機構協同制定人工智能安全監管政策等途徑支持人工智能發展且不增加額外限制。
(二)制定新的人工智能法規
在聯邦層面,新提案包括開展人工智能模型影響評估、第三方審計、人工智能生成內容標記等,重點集中于透明度與問責措施方面。如《2025年防范算法合謀法案》(The Preventing Algorithmic Collusion Act of 2025)禁止使用可能促進合謀的定價算法,并設立反壟斷執法審計工具以提高透明度。
部分觀點主張政府應強制要求專業審計機構對人工智能進行監督,美國商會等團體則呼吁合理的人工智能監管。一些科技企業建議設置行業許可與安全標準的建議可能存在維護自身利益的傾向,需警惕對初創企業與開源開發者的準入門檻限制。
(三)賦予聯邦機構新的職權或指導方向
賦予機構新職權,建立監管沙盒。由監管機構設立框架,允許企業在豁免部分法規法律風險的前提下,在監管監督下測試新產品,再推向市場。消費者金融保護局已在金融領域應用監管沙盒。
依托現有機構推進公私合作,提供指導方向。如推動美國國家標準與技術研究院(NIST)與私企的合作,調整其《人工智能風險管理框架》(Artificial Intelligence Risk Management Framework);要求其與能源部合作建立測試平臺,制定人工智能系統評估與演示測量標準戰略。
將“國家人工智能研究資源”(NAIRR)納入法律并明確其定位。普及人工智能研發關鍵資源,推動負責任的人工智能創新。
(四)參與國際人工智能監管合作
2023年5月,七國峰會將人工智能治理合作列為優先事項。國會可推動與理念相近國家的人工智能監管合作,通過政策目標對齊、指導聯邦機構參與等方式推進,呼應往屆政府的行政命令方向。同時,需平衡國際合作與國際競爭,提高人工智能監管質量與實施效果,應對為追求快速發展而降低人工智能安全性的逐底競爭風險。此前已有多項與國際人工智能合作相關的法案提案。
免責聲明:本文轉自啟元洞見。文章內容系原作者個人觀點,本公眾號編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!
轉自丨啟元洞見
研究所簡介
國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務。“全球技術地圖”為國際技術經濟研究所官方微信賬號,致力于向公眾傳遞前沿技術資訊和科技創新洞見。
地址:北京市海淀區小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.