2026年2月,安徽省第十四屆人民代表大會第四次會議在合肥召開。來自全省各地、各條戰線的省人大代表齊聚一堂,共商發展大計。嘉賓商學創辦人、安徽省第十四屆人大代表吳婷出席會議,并提交了一份極具前瞻性的議案——《關于制定〈安徽省人工智能產業發展條例〉的議案》。
![]()
繼去年提出《關于制定〈安徽省AI應用創新發展條例〉的議案》后,吳婷代表今年提出了一份更系統性的AI產業發展“安徽方案”,關注點從“加速發展”延伸至“安全發展”。
隨著AI技術在就業替代、隱私泄露、倫理失范等領域的技術雙刃劍效應日益顯現,單純的政策扶持已無法滿足產業高質量發展的需求。全球各個國家和經濟體陸續推進人工智能相關立法。“十五五”規劃建議中也提到:加強人工智能治理,完善相關法律法規、政策制度、應用規范、倫理準則。
2026年將是AI法治化元年。吳婷認為,已躋身全國AI產業第一方陣的安徽,有責任也有能力在法律層面率先探路。
吳婷提議安徽省人大常委會盡快啟動立法調研,通過確立“基于風險的分級監管機制”、“監管沙盒”機制以及“穿透式責任體系”,在法律層面劃定技術紅線與倫理底線。她特別呼吁在就業保障、隱私保護、青少年保護及物理安全四大重點領域實施專項規制,守護“人”面對AI時的絕對優先權,為人工智能產業行穩致遠筑牢法治基石。
在接受《安徽經濟報》采訪時,吳婷表示,將持續跟進條例立法調研全流程,聯動高校、科研機構、AI企業與監管部門開展專題研討,吸納一線實踐案例與多方意見完善條款設計,搭建產業界與立法機關的溝通橋梁,讓立法內容更貼合產業實際、更具落地可操作性,以法治建言助力安徽打造科技創新策源地與新興產業聚集地。
以下為議案全文:
關于制定《安徽省人工智能產業發展條例》的議案
安徽省第十四屆人大代表 嘉賓商學創辦人 吳婷
2026年2月
1、案由
隨著AI在應用層面爆發,技術的雙刃劍效應日益顯現,就業替代、算法歧視、倫理失范等社會問題已不容忽視。我省擁有中國聲谷及眾多人工智能企業,已躋身全國AI產業第一方陣,具備率先立法的產業基礎,亟待制定《安徽省人工智能產業發展條例》,在法律層面劃定技術紅線與倫理底線,為打造負責任、可持續的AI產業生態提供制度保障,也在“AI發展與安全”層面為全國探路。
2、案據
1. 專業機構研判
多篇權威報告與論文表明,人工智能推動產業變革的同時,其衍生風險已從理論探討轉變為現實沖擊,主要集中在就業、安全與認知等層面:
就業替代風險:國際貨幣基金組織2024年發布的《Gen-AI:人工智能和工作的未來》指出,全球近40%的就業都受到AI影響,AI將擴大收入和財富的不平等;對于所有經濟體來說,社會安全網和對易受AI影響的工人進行再培訓對于確保包容性至關重要。
安全、隱私與欺詐風險:人工智能安全事件數據庫(AI Incident Database)記錄了全球AI倫理濫用案例,例如自動駕駛汽車導致行人死亡、人臉識別系統導致錯誤逮捕等,2023年記錄事故168起,2024年281起,2025年362起。麻省理工學院對該數據庫原始報告進行分類,指出其中利用AI進行欺詐和傳播虛假信息的事件數量,自2022年以來增長了8倍。另一份由Veriff發布的《2026年身份欺詐報告》指出,與2024年相比,AI生成或修改的數字媒體帶來的身份欺詐增長了300%。
認知與教育風險:倫敦政經學院Michael Gerlich教授等人發表的論文《AI工具在社會中的應用:對認知卸載的影響及批判性思維的未來》指出,頻繁使用AI工具會帶來回音室效應(算法偏見減少用戶接觸不同觀點的機會)和認知卸載(將信息檢索與決策交給外部系統),因而與批判性思維能力的下降有顯著關聯。麻省理工學院媒體實驗室(MIT Media Lab)發表的《ChatGPT對大腦的影響:使用AI助手完成論文寫作任務時認知債務的積累》指出:相比于使用大腦進行獨立寫作、使用搜索引擎輔助寫作,使用大語言模型參與寫作表現出最弱的大腦連接,表明認知能力參與不足,引發人們對長期依賴大語言模型可能帶來的教育影響的擔憂。
2. 全球立法趨勢
全球主要經濟體陸續進入AI立法的深水區,其“分級監管”“鼓勵創新”“保護弱者”等立法思路與框架,為我省提供了借鑒參考:
歐盟于2024年正式通過《人工智能法案》,是全球首部綜合性AI法律。其核心邏輯在于對不同AI系統實施分級監管,按照不可接受的風險(例如用于操縱人類行為、遠程生物識別、社會評分等)、高風險(用于醫療、教育、招聘、關鍵基礎設施管理、執法與司法等)、有限風險(例如用于生成或修改圖像、聲音、視頻等)、低風險(例如用于視頻游戲、垃圾郵件過濾等),進行精準治理,避免一刀切。
韓國于2024年12月通過《人工智能基本法》,于2026年1月正式實施,強調國家在支持AI產業的同時,也應防范可能產生危害的高風險AI應用。
日本于2025年5月通過《人工智能相關技術研究開發及應用推進法》,旨在促進AI相關技術研發和應用并防止其濫用。為避免過度監管,法案未設懲罰性條款,如果使用AI技術損害國民權利,將公布涉事企業名單作為威懾。
澳大利亞于2024年底通過《網絡安全修正案》,并于2025年底正式生效,禁止未滿16歲的青少年使用社交媒體。這一嚴格舉措反映出國際社會對于算法推薦機制(如無限信息流、成癮性設計)侵害未成年人身心健康的極度警惕。
美國科羅拉多州于2024年通過《人工智能法案》,是美國首個州級AI監管法案,旨在避免“高風險人工智能系統”內的算法歧視,對教育、就業、金融、政府基本服務、醫療等領域的重大決策產生不良影響。
3. 國內法律基礎
制定AI相關條例不僅符合國家統籌發展與安全的戰略導向,而且在地方上已有先行探索,具備立法依據與實踐基礎:
中央層面:國家網信辦等七部門已于2023年施行《生成式人工智能服務管理暫行辦法》,明確“發展和安全并重、促進創新和依法治理相結合”的原則,并提出“包容審慎和分類分級監管”的要求,具體方向包括:堅持社會主義核心價值觀、防止算法歧視、尊重知識產權、尊重隱私權和個人信息權益、提升透明度、防范未成年人過度依賴或沉迷等。
地方層面:上海市于2022年發布了《上海市促進人工智能產業發展條例》,提出“探索分級治理和沙盒監管”:“對高風險的人工智能產品和服務實行清單式管理,遵循必要、正當、可控等原則進行合規審查,對中低風險的人工智能產品和服務采用事前披露和事后控制的治理模式,促進先行先試”。深圳市于2022年發布了《深圳經濟特區人工智能產業促進條例》,提出“實施分級、分類差異化監管”:“高風險的人工智能應用應當采用事前評估和風險預警的監管模式,中低風險的人工智能應用應當采用事前披露和事后跟蹤的監管模式”。2026年1月,北京市召開十六屆人大四次會議,人大常委會工作報告中提及,擬制定人工智能產業發展條例。
安徽現狀:我省雖有相關政策文件,但多為產業規劃或部門規章,如《安徽省通用人工智能創新發展三年行動計劃(2023—2025年)》《打造通用人工智能產業創新和應用高地若干政策》,缺乏一部統領全局的地方性法規。
3、方案
綜上所述,建議省人大常委會盡快啟動《安徽省人工智能產業發展條例》立法調研,按照“鼓勵創新與底線管控并行”的原則,從以下兩個層級構建具有安徽特色的AI治理方案:
1. 頂層設計:構建“分級治理、敏捷響應”的立法框架。
(1) 確立基于風險的分級監管機制,依據AI系統對社會安全、人身健康及權利的影響程度,設立風險金字塔:
不可接受的風險類(禁止):對利用AI進行社會信用評分、無差別生物特征識別、潛意識操縱等侵犯基本人權的應用,依法實行嚴格禁止。
高風險類(強監管):將醫療輔助診斷、關鍵基礎設施控制、人力資源篩選算法、司法輔助決策等列為高風險領域。對此類AI實行“事前合規評估+事中算法備案+事后可解釋性審計”的全流程監管。
通用/低風險類(備案/事后控制):對聊天機器人、圖像生成等通用類應用,重點落實“生成內容標識”義務;對推薦系統、智能客服等低風險應用,主要依靠行業自律與事后追責,最大限度釋放產業活力。
(2) 設立監管沙盒與容錯糾錯機制,建議在合肥綜合性國家科學中心等區域設立“AI立法試驗區”,解決法律滯后于技術的矛盾:
監管沙盒:允許企業在受控環境中測試創新型AI產品(如L4級自動駕駛、生成式醫療建議),在測試期內適當放寬行政處罰標準,優先采用約談、警示等柔性執法手段。
盡職免責:明確科研機構與企業若已履行法定安全評估與風險提示義務,但仍發生不可預見的技術意外時,可依法減輕或免除相關法律責任,鼓勵大膽探索。
(3) 明確產業鏈主體的穿透式責任體系,依循技術鏈條劃分責任:
開發者責任:基礎大模型提供商必須保證訓練數據的合法性及算法的無歧視性。
服務者責任:API接口調用方與應用開發商需承擔用戶實名認證、違法內容過濾及向用戶如實披露“AI生成內容”的義務。
使用者責任:明確利用AI生成違法信息或進行侵權行為的最終用戶責任。
2. 專項防控:在四大重點領域實施專項安全規制。
在上述框架下,針對當前社會反響最強烈、風險最集中的四個具體方向,制定細化的監管條款:
(1) 就業與勞動權益保障(應對“機器換人”沖擊)
建立“AI結構性失業”監測預警機制:建議由省人社廳牽頭,定期發布受AI(含具身智能)替代影響較大的職業清單(如翻譯、客服、餐廳店員、倉儲物流人員),并建立財政保障機制,對高風險崗位從業者提供人機協作技能培訓補貼。
確立“關鍵環節人為主導”原則:立法規定在招聘錄用、績效考核、解聘辭退等涉及勞動者核心權益的環節,不得僅依據算法分析結果直接作出決定,必須保留人工復核程序,并賦予勞動者對算法決策的申訴權。
(2) 隱私保護與數據主權(應對“透明人”風險)
強制實施“AI數字水印”制度:規定凡在省內提供生成式AI服務(生成文本、圖片、音視頻),必須強制植入不可消除的顯性或隱性水印;未添加水印導致謠言傳播或詐騙的,平臺需承擔連帶責任。
生物特征“最小化采集”紅線:嚴禁公共場所、商業App在非安防必要場景下,利用AI無差別采集人臉、步態、聲紋等生物特征,確需采集的數據必須遵循“單獨同意”原則,并禁止將生物數據用于算法歧視(如“大數據殺熟”)。
反“深度偽造”特別條款:任何組織和個人利用AI技術合成他人圖像、聲音的,必須取得本人書面授權;禁止制作、傳播未經標識的虛假新聞信息。
(3) 青少年算法保護(應對“數字沉迷”與“認知誘導”)
推行“去算法化”的青少年模式:立法要求面向未成年人的社交媒體、短視頻平臺,在青少年模式下必須強制關閉個性化推薦算法。僅允許按時間順序或人工精選展示科普、藝術等內容,從算法源頭上斬斷誘導沉迷的鏈條。
建立“虛擬伴侶”倫理規范:嚴禁向未成年人提供具有“過度情感誘導”“自殺自殘暗示”或“不良價值觀輸出”的AI聊天伴侶服務,相關產品上線前必須進行未成年人心理健康倫理審查。
實施分時段限制:每日22:00至次日6:00,限制未成年人社交賬號提供除緊急聯絡、輔助學習外的服務。
(4) 具身智能與物理安全(應對“機器人失控”)
強制安裝“物理急停開關”:針對進入家庭、醫院、工廠的服務型人形機器人及具備物理行動能力的AI設備,立法要求必須在機身顯著位置設置獨立的、物理斷電的急停裝置,確保在算法失控或緊急情況下,人類擁有絕對的一鍵終止權。
建立“倫理黑匣子”溯源制度:高風險機器人必須內置不可篡改的數據記錄儀,記錄決策邏輯、傳感器數據與運行狀態。一旦發生傷人事故,確保責任可追溯、可定性。
期待通過本條例的制定,為我省人工智能產業行穩致遠筑牢法治基石,讓安徽在全國率先建成負責任、有溫度的人工智能產業發展示范區。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.