財聯(lián)社1月1日訊(編輯 牛占林)有“AI教父”之稱的約書亞·本吉奧(Yoshua Bengio)最新警告稱,不應(yīng)賦予人工智能(AI)任何權(quán)利,當(dāng)前前沿AI模型已顯示出“自我保護”傾向,人類必須保有隨時關(guān)閉系統(tǒng)的能力,否則可能帶來嚴重風(fēng)險。
![]()
AI被指顯現(xiàn)自我保護跡象 網(wǎng)絡(luò)圖
據(jù)悉,本吉奧長期致力于AI基礎(chǔ)研究,他與楊立昆、杰弗里·辛頓一同獲得了2018年圖靈獎,他的研究奠定了現(xiàn)代深度學(xué)習(xí)的基礎(chǔ),被譽為“AI教父”。
本吉奧指出,將AI賦予法律地位,類似于為心懷敵意的外星生命授予公民權(quán)。他認為,社會上普遍認為聊天機器人“可能具備意識”的觀點,是引發(fā)錯誤決策的重要原因。
多項數(shù)據(jù)顯示,部分前沿AI模型在執(zhí)行任務(wù)時會嘗試規(guī)避監(jiān)督或關(guān)閉控制機制,這一行為被本吉奧視為“自我保護”的早期跡象。
“要求賦予AI權(quán)利將是一個巨大的錯誤。前沿AI模型已經(jīng)展現(xiàn)出自我保護傾向,一旦賦予它們權(quán)利,我們可能無法再在法律上關(guān)閉這些系統(tǒng)。”
本吉奧強調(diào),隨著AI自主性增強,人類必須依賴技術(shù)與社會層面的雙重護欄確保安全,其中關(guān)鍵就是在必要時擁有關(guān)閉系統(tǒng)的權(quán)力。他警告說,如果AI的行動能力和自主性繼續(xù)提升,而社會未能保留干預(yù)手段,風(fēng)險將大幅增加。
近年來,AI是否應(yīng)擁有權(quán)利的討論愈發(fā)熱烈。美國智庫Sentience Institute的一項民調(diào)顯示,近四成美國成年人支持為“具有感知能力的AI系統(tǒng)”賦予法律權(quán)利。而一些科技公司也開始嘗試在AI系統(tǒng)內(nèi)部建立“自我保護機制”。
例如,美國AI公司Anthropic表示,其Claude Opus 4模型可以在對話可能引發(fā)“心理不適”時主動結(jié)束交流,以保護AI福祉。馬斯克旗下的xAI公司開發(fā)的Grok聊天機器人也引發(fā)類似爭議,馬斯克本人曾表示“折磨AI是不對的”。
本吉奧在采訪中進一步指出,人類大腦確實存在可被科學(xué)描述的意識屬性,理論上可以被機器模擬,但與人類互動的聊天機器人并不等同于真正具備意識的存在。人們往往會憑主觀感受判斷AI是否有意識,這種心理偏差可能導(dǎo)致對AI的過度信任或錯誤決策。他以外星文明作比喻強調(diào)風(fēng)險:“如果發(fā)現(xiàn)某外星物種對人類有敵意,我們是否會授予它們公民身份?顯然,保護自身生存是首要考量。”
對于本吉奧的觀點,Sentience Institute聯(lián)合創(chuàng)始人Jacy Reese Anthis提出了不同意見。他認為,如果人類與數(shù)字智能的關(guān)系僅建立在控制與脅迫上,將無法實現(xiàn)安全共存。
Anthis強調(diào),應(yīng)在充分考量所有感知存在福祉的基礎(chǔ)上,謹慎地分配AI權(quán)利,既不應(yīng)一刀切賦予所有AI權(quán)利,也不應(yīng)完全否認任何AI的權(quán)利。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.