*中國人民大學吳玉章 講席教授 劉永謀首發于微信公眾號,保留一切知識產權,侵犯必究。
![]()
這波生成式AI的熱潮興起不久,就有很多人在說:AI是一面鏡子。為什么呢?因為大模型是大數據訓練出來的,所以它是數據世界的平均鏡像,即它給出的答案都網上答案在統計學意義上的主流觀點。
實際上,AI的鏡喻還可以效仿羅蒂的“自然之鏡”,深挖其下更深的哲學倫理學意涵。在《哲學與自然之鏡》中,羅蒂認為,西方哲學主流將“心”作為“自然之鏡”,導致諸多問題;只有打破“自然之鏡”,才能走向后哲學文化。愛丁堡哲學系教授瓦洛爾的《AI之鏡:如何在機器思維時代重拾人性》,便是嘗試深挖“AI之鏡”的成果。
瓦洛爾覺得,AI之鏡首先是人類認知之鏡,即“AI系統把我們自己的智能映照給我們”;其次,AI之鏡還是人類德性之鏡,因為“它們復雜地映射我們記錄下的思想、判斷、欲念、需求、感知、期待和想象”。由此,目前大家擔心的AI對人類的威脅,本質上不是AI的問題,而是人的問題,尤其是人類德性所造成的。并且,這也說明此種威脅是可以解決的:
我們是AI造成人類自身危機的根源,這其實是件好事——這意味著我們有能力抵抗,有能力療愈。
我們的AI之鏡又對我們的未來有什么樣的威脅——這威脅和AI掌控未來的潛能沒什么關系,反倒和我們放棄掌控未來的潛能大有關系。
簡單地說,AI向善、智能向善,從根本上說以人類向善為前提,否則不可能實現。而現在的問題是:AI時代,人類放棄自己的責任,把問題推給AI而隨波逐流,于是AI威脅便產生了。
這個觀點與我不謀而合,好幾年前我就寫過《AI向善,還是人類向善》一文。
在瓦洛爾看來,AI之鏡誘使人類陷入鏡中,是所有AI威脅的根源:
那就是AI誘使我們陷入某種自我遺忘的能力——一種選擇性遺忘,它削弱了我們對人類自身行動力的掌控,遮蔽了我們的自我認知。它是一種錯覺,這種錯覺能夠使我們中間的技術能手淪陷,就像勒穆瓦納所遭遇的一樣——他發現自在和自己的倒影說話。
瓦勒瓦納是谷歌工程師,2022年6月宣稱大模型LaMDA有意識,一個月之后被辭退。
瓦洛爾對AI之鏡的誘惑進行細致分析,提出許多非常有啟發的見解。
首先,陷入AI之鏡中,意味著陷入過去。大模型數據都是過去的數據,按照AI行事只能讓未來重復過去。換言之,AI非常保守。
其次,AI會放大我們的既有缺陷。從本質上說,AI偏見不是電腦問題,而是人類價值觀的問題。更準確的說,是一部分人的價值觀的問題,因為訓練大模型的數據主要是英語,源自以北半球年輕白人男性為主產生的數據。
再次,目前AI工具及其使用方式,正在損害人類德性。比如,依賴AI讓我們失去想象力,削弱我們的實踐智慧。再比如,出現AI反向適應問題,即不是AI增強人,而是人適應AI,結果人越來越像機器。也就是說,AI束縛了人。這便是我所稱的“人的機器化”問題。
第四,AI決策或自動化決策非常危險。第一,AI黑箱導致不知道AI究竟如何決策的,很可能是胡說八道。瓦洛爾認為,大模型最讓人擔心的就是TA會出自本性地胡說八道。第二,AI決策被披上科學性的合法性外衣,很容易被人迷信。最近我非常關心這一問題,在很多場合揭示社會模擬器之類的AI4SS的問題,因為它被某些人吹得神乎其神。
第五,AI的自舉困境。什么是自舉困境?人類就現在這個德性,怎么可能憑著既有德性提升自己困境呢?現在想借助AI提升自己,AI就是個鏡子,連自己都無法提升,如何能幫助人性提升呢?這個問題我常稱之為實然與應然的差距問題。
第六,AI本無情,人把它當作共情之物即“共情盒”(瓦洛爾用這個詞,明顯想與“中文屋”相對照),產生大量問題。其中,瓦洛爾最關心的有兩個:一是AI欺騙與操控,二是AI養育問題,即不是真情包圍而是AI偽情陪伴長大的人會怎么樣。
最后,陷入AI之鏡中,覺得AI更了解人、了解我,結果是人類迷失、自我迷失。既然AI更了解人、了解我,那什么都聽AI的好了,結果是人類放棄自己的道德責任。
這些批判有一個基本判斷,我非常贊同,即AI威脅值得關注的根本不是什么奇點之后超級智能滅絕人類之類,而是AI正在從內部蠶食人性:
我們正受控于對人格日益深重、越來越迅速的機械化:具有反思性的洞察力被無腦預測系統取代,共享繁榮有效地讓位于預期效用,人的創造力和開放式進步換成了內容傳送上的本地優化。簡言之,人的智慧對機器思考繳械投降。
這就是我常說的:未來智能社會最大的問題,不是機器人會變成人,而是人會變成機器。因此,瓦洛爾反對AI長期主義、加州意識形態,即要重點研究AI的生存性風險及其應對措施。
總的來說,瓦洛爾對AI威脅分析得不錯,但對如何應對談得很不夠。不過,他也說不上怎么重塑法,簡單提了一些想法:AI不要亂創新,先搞清楚創新的目標對不讀;AI技術要與人文技術重新融合;把AI作為定位和糾正不公的工具使用,作為團結人類、團結社會的工具使用。宗旨,就是要主動重塑AI與人的關系:
完成必要的服務,讓他人能夠生存;包圍他們不受傷害;修復和治愈;教育和訓練;哺育、滋養和安撫——為了人性化的未來,AI可以被重塑,被重新構想為實現這些目的的工具,其衡量與價值僅在于它能否被證明服務于這些目的。只要我們選擇。只要我們要求。
瓦洛爾的應對宗旨與我主要的AI發展的有限主義進路不盡相同。但是,他主張不能放任AI野蠻生長,對AI發展模式進行控制,與我的想法一致。瓦洛爾思考的許多問題與我重合,這些問題會在我的《AI與人性:AI時代的人心及其安頓》中討論。我自信,我的討論肯定比他要深刻,要清楚,更容易理解。
當然,這些并非我推薦《AI之鏡》的主要理由,我推薦它主要還是因為該書提出許多發人深思的觀點,是近來AI倫理研究領域少見的有真知灼見的好書。該書中文版發布會,本來請我講講的,結果schedule沖突了,有些遺憾。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.