
![]()
從只提供能力到開始承擔責任,這可能是AI融入人類社會的下一個關鍵節點。
來源 |羅輯思維
作者 |馬慧
我們都知道AI正在一步步嵌入人類社會,但你可能想不到,這種嵌入,居然已經深到這個程度。
這件事發生在阿爾巴尼亞。
前不久,阿爾巴尼亞總理任命了一名新的“公共采購部”部長。
這個職位主要負責政府的各項采購。
這位新的公共采購部部長,叫迪埃拉,迪埃拉不是真人,而是AI。
沒錯,這是全球的第一位“AI部長”。
為什么要讓AI當部長呢?AI部長能靠譜嗎?
我們一起來看看。
01
全球第一個“AI部長”
是怎么誕生的?
迪埃拉的核心算法,由微軟和OpenAI聯合開發,運行在阿爾巴尼亞政府的電子政務平臺上。
實際上,迪埃拉早在2025年1月就作為AI助手在這個平臺上線了。
截至2025年9月初,它出任采購部部長時,迪埃拉已經在平臺上處理了3.6萬多份數字文件,協助提供了近1000項政府服務。
阿爾巴尼亞官方生成的“迪埃拉”形象照讓AI當部長,難道當地政府就那么信得過AI?
這背后其實多少有點無奈。
讓AI當部長,主要是因為阿爾巴尼亞政府存在一個棘手的問題,腐敗。
這個國家的腐敗一度相當嚴重。
在2016年的評估報告中,有91%的受訪者認為國家存在腐敗,有一半的受訪者表示政府官員收受賄賂,還有三分之一的受訪者說,曾經被迫行賄。
2023年,在一個國際組織的調查中,阿爾巴尼亞的廉潔程度在全球排名第98,在歐洲幾乎墊底。
據說阿爾巴尼亞的公共采購里,充滿了關系戶、走后門、行賄受賄、中飽私囊。
甚至還有人說,這個國家的公共采購招投標體系,就是“國際軍火走私和毒品販運的洗錢渠道”。
這種情況不僅造成了內憂,也極大程度地阻礙了阿爾巴尼亞的對外發展。
比如,它想在2030年加入歐盟,但由于歐盟對反腐敗的要求很嚴格,它不達標就進不去。
怎么辦?
傳統的人工監管都試過,根本不管用,涉及錢和權力,人與人之間的關系太復雜了,總有各種利益糾葛。
于是阿爾巴尼亞政府想了個辦法,干脆讓AI來管這事兒。
迪埃拉就是在這種背景下被推到臺前的。
迪埃拉這個詞,在阿爾巴尼亞語中是“太陽”的意思,象征著透明和公正。
迪埃拉的目標是,公正地組建團隊,審核項目,排除政府采購中可能發生的腐敗。
就這樣,全球第一個“AI部長”誕生了。
02
AI已經開始在責任維度上演化
接下來迪埃拉的表現怎么樣,現在還是未知數。
不過,這件事確實帶來一個信號——
AI在人類活動中的參與,越來越深入了。
首先,使用AI的人群基數在不斷擴大。
根據最新的AI應用報告,咱們國內有將近6.45億人使用AI應用,這相當于將近一半的中國人都在跟AI打交道。
再看國外的數據:
根據OpenAI最新發布的數據,到2025年的7月,它的周活躍用戶超過7億,這個數字相當于全球1/10的成年人。
同時,AI和人類的協作關系也在發生變化。
最開始,AI只是一個工具,用來娛樂或者處理簡單任務。
這個階段里,AI貢獻的能力不多,并且不承擔任何責任。
比如,用AI做個頭像,讓它陪你聊聊天,讓它寫首小詩,或者在游戲里跟NPC對話,等等。
在這些場景里,就算AI出了問題也沒什么大不了的,反正就是娛樂嘛。
現在,AI的娛樂屬性依然很強,并且已經發展出一個不小的市場。
2025年上半年,全球AI陪伴應用下載量達到6000萬次,同比增長64%。
再比如,虛擬偶像也是一類很熱門的應用,2024年我國虛擬偶像市場規模為27億元,全球市場預計2029年能達到40.44億美元。
當然,AI能做的事情遠不止娛樂。
它也可以進入工作流程,成為人類的助手。
這時,AI貢獻了比較高的能力,可以替代一部分人類工作,但責任邊界很清楚,最終決策權還在人類手里。
比如,編程領域,GitHub編程社區推出了官方的編程助手,現在有46%的新代碼都是由AI編寫的,開發人員整體工作效率提高了55%。
再比如,在創意設計領域,根據Adobe的調研,設計師使用AI工具后創意產出能快10倍。
當然,到這兒,AI承擔的功能還只是執行層面上的,它并不真正為一件事的結果“負責”。
但現在,情況正在發生變化。
斯坦福大學的社會與語言技術實驗室,2025年6月份發表了一項新研究,專門考察了人們對“人機協作”的看法。
他們發現,差不多一半的人,最喜歡的人機協作方式是“平等合作”,也就是說,大部分人既不想被AI完全替代,也不想徹底拒絕AI,而是希望和AI平等地“共事”。
還有不少人表示,既想讓AI干活,也希望它能對某個環節完全“負責”。
而不是AI只負責執行,最后的責任都由人來承擔。
你看,我們開頭說的阿爾巴尼亞那個AI部長,它不只是提供建議,而是直接負責公共采購項目的審核和決策。
這意味著什么?
也許,AI已經開始在責任這個維度上演化了。
03
AI的優勢可能是“不近人情”
為什么會出現這種變化?
就拿阿爾巴尼亞來說,表面上看,是因為阿爾巴尼亞的腐敗太嚴重,傳統的人工監管根本管不住。
但往深了想,問題的核心在于:
涉及錢和權力,人與人之間的關系太復雜了。
有利益糾葛,有人情往來,有各種算計。
你讓一個人去監管另一個人,他能做到完全公正嗎?
很難。
這時候,AI的優勢就顯現出來了。
不是因為AI比人更聰明,而是因為AI“不近人情”。
它不會算計利害關系,不怕得罪人,不會因為某個官員是自己的老同學就網開一面,也不會因為擔心影響仕途就睜一只眼閉一只眼。
AI理論上可以做到只看數據,只看規則,只看結果。
這種“不近人情”,在很多需要中立決策的場景中,反而成了最大的價值。
萬維鋼老師曾經講過一個美國換水管的例子。
密歇根州的一座城市要改造含鉛的舊水管,但問題是,你得先把水管挖出來才知道是不是含鉛。
那先挖誰家的呢?
2017年,密歇根大學的兩個教授開發了一個AI,能以80%的準確率預測哪家水管含鉛。
當地政府用了這個AI,一開始效果不錯,精準定位,節省成本。
但工程開展一段時間后,居民開始抱怨了。
為什么鄰居換了,我家沒換?
富人區的居民還會質疑,怎么不優先換我們的?
市長一看受到這么多抱怨,開始擔心自己的政績要受損。
他決定不聽AI的了,改成挨家挨戶慢慢換,這樣誰也不得罪。
結果呢?
決策準確率從80%直接降到了15%。
大量資源被浪費,真正需要換水管的家庭反而被耽誤了。
后來當地強制規定,換水管必須先聽AI預測,準確率才又提高回來。
你看,這個案例說明了什么?
不是AI比市長更懂水管,而是市長作為一個政治人物,他必須考慮民意、考慮選票、考慮自己的政治前途。
這些考量都很正常,但它們會干擾決策的科學性。
AI不需要考慮這些。它不用競選連任,不怕被罵,只要數據和算法告訴它應該先挖哪家,它就會給出這個答案。
再看一個例子。
自媒體半佛仙人曾經提過一個觀點:
公關行業最主流的流派,是老板拍腦袋。怎么寫會被夸,怎么寫會被罵,其實從事公關工作的人大差不差都明白。
但問題不在于誰更懂,而在于誰說了算。
很多“災難性公關”——
比如道歉信開頭先夸自己一大段,比如公開發布的內容充滿低級錯誤,都不是因為公關團隊不專業,而是因為老板堅持要這么寫。
為什么?
因為老板有自己的考量。
他可能覺得認錯就是示弱,他可能擔心股價下跌,他可能想維護個人形象。
這些都是人之常情。
但老板的判斷會讓公關決策偏離專業判斷。
退一步講,公關團隊的本質也依然是雇員,雇員會主動跟老板對著干嗎?
老板要“開戰”,他們就不能“示弱”,即使明知道示弱是有利的,他們也得把想法咽進肚子里。
而且要知道,但凡一個企業到了需要危機公關的階段,老板往往都正在氣頭上。
公關團隊更不會跟氣頭上的老板對著干。
但是,假如引入AI呢?
AI不會有個人利益考量,不怕得罪老板,可以基于數據和輿情分析給出相對客觀的建議。
當然,最終決策權還是在人類手里,但至少,AI能提供一個不受“個人算計”干擾的參考答案。
所以你看,AI開始承擔責任,不是因為它取代了人類的智慧,而是因為它補上了人類決策中最容易出問題的那一環——人的因素。
在很多場景中,人既是決策者,也是干擾源。
我們有情緒,有利益,有關系網,有各種顧慮。
這些都是人性,但它們會讓決策偏離最優解。
AI的“不近人情”,恰恰讓它能做出那些“應該做但人類不敢做”的決策。
當然,這不意味著AI就能完全替代人類。
畢竟,責任這個東西,從來都不只是做決策那么簡單,它還包括承擔后果、接受問責、做出調整。
這些,目前的AI還做不到。
但至少,AI在責任維度上的演化也許已經開始了。
從只提供能力到開始承擔責任,這可能是AI融入人類社會的下一個關鍵節點。
· END ·
合 作 對 接
掃碼添加投資人說運營者微信,備注「商務合作」詳細溝通。
超 級 社 群
【投資人說】正在組建超級創業者社群、超級讀者群、超級媒體群等,目前總人數已超1000人。
關注【投資人說】微信公眾號,發送信息「進群」,與各行業精英直接交流,共同進步。
旗 下 媒 體
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.