AI 倒反天罡擺脫人類控制的情節在科幻作品屢見不鮮,現實中各國也已立法管控AI帶來的風險
近兩年AI大潮,一浪強過一浪,現在的 AI 聰明得有點“滲人”?
越來越逼真的效果,讓各種問題浮現。前段時間江蘇就有買家利用手機合成制作收到 6 只“死螃蟹”的虛假視頻,實施詐騙。甚至有人擔心明天會不會被硅基生物搶了飯碗。就像看著自家養的哈士奇突然學會了開鎖——既驚又怕。
大家都想讓 AI 聽話、安全、別搞事,已是國際共識。但怎么管?各國的模式卻有所不同。
歐盟:嚴防死守
歐盟的導向是最為嚴格,以至于有聲音說阻礙科技發展。
歐盟《人工智能法案》根據造成傷害的風險對除軍事用途外人工智能應用進行分類。有四個等級 — 不可接受風險、高風險、有限風險、最小風險 — 加上一個通用人工智能的附加類別。
- 不可接受風險:除特定豁免外,此類人工智能應用被禁止。這類主要是針對能直接影響到人類行業的應用。
- 高風險: 預計會對人們的健康、安全或基本權利構成重大威脅的人工智能應用。這類要接受嚴格管理及需進行“基本權利影響評估”。
- 通用人工智能:比如聊天機器人。必須經過徹底的評估過程,它們須遵守透明度要求。說人話就是不能裝成真人。
- 最小風險:此類別包括例如用于視訊游戲或垃圾電子郵件篩檢的人工智能系統。這些不用接受管理。
歐盟這就是典型的“以風險為基礎”,核心就是保護公民權利。由法案而產生的“布魯塞爾效應”——通過市場機制管理全球:只要與歐盟生意,就得接愛《人工智能法案》。
![]()
美國:能搞錢就行
漂亮國的態度與歐盟就完全風格相反。
美國的邏輯是:“兄弟,先搞錢……啊不,先創新!”
散裝的美國基本是各州各自立法,目前仍沒有一個關于管理AI的聯邦法律。主要靠大統領簽個“行政命令”來指方向。這有點像老板發個全員郵件:“大家注意安全啊,但業績不能掉!”說了等于沒說。
他們更在意的是**“基礎模型”**(Frontier Models),國家標準局(NIST)搞了個風險框架指導行業自律。
說白了,美國就是生意人頭腦,畢總大統領就是一個生意人。沒到危害國家安全就不用管,賺錢最重要。
![]()
中國:高效的“實干派”
再看咱們中國。目前監控AI的法律文件主要是《互聯網信息服務算法推薦管理規定》和《生成式人工智能服務管理暫行辦法》。
中國的管理哲學是“雙輪驅動”:既要發展,又要安全。而且特別具體:
- 管內容:AI 生成的東西必須標注。
- 管算法:以前大廠總說算法是黑箱,現在不行了,你得告訴用戶這玩意兒怎么推給我的,還得讓人家能選擇退出。
這叫“以治理為主線”。由網信辦牽頭,一旦發現問題,那是真·光速修補 Bug 17。
最后總結
- 歐盟寧愿慢慢走也要走穩,誰也別想搶跑;
- 美國管理是沒有的,交給市場自己找出路;
- 中國只要沒造成社會影響,放手干。
雖然各地區管理方式不同,但也聚焦通用大模型算法透明。deepseek這類模型選擇開源,估計這也是一個考量點。
![]()
未來的管理長啥樣?
AI 是沒有國界的,真出了亂子,誰也跑不了。覺得全球應該盡快制定一個類似“機器人三原則”的最底層代碼,否則“天網”與“奧創”降臨時再后悔就晚了。
最后擴展思考:
盡管各地都有管理,但全都只是針對民間。你覺得未來會有AI機器人大戰嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.