![]()
如果有朝一日AI將人類帶錯(cuò)了方向,那也必然是源于人性自身無法克服的弱點(diǎn)。
撰文丨維舟
AI有時(shí)會(huì)胡說八道,這一點(diǎn)世人早有心理準(zhǔn)備,盡管如此,xAI研發(fā)并最新推出的Grok 4.1還是令人震驚:這一語言模型中可能內(nèi)含特定指令,其言論瘋狂諂媚其老板埃隆·馬斯克。
在與其他名人對比時(shí)總是無條件支持馬斯克,甚至當(dāng)被拿來與影星布拉德·皮特(要知道他曾被《人物》雜志兩度評為全球最性感男士!)比較時(shí),Grok也宣稱馬斯克更帥,理由是:他那改變世界的雄心壯志賦予了他一種超越外貌的魅力。
這正是最讓人擔(dān)心的地方:當(dāng)AI進(jìn)入生活各個(gè)場景之后,越來越多的人對AI的依賴正在逐步加深,但要是這個(gè)AI卻是被某人植入的指令控制的,那我們的想法豈不是在不知不覺中被操縱了?這樣下去,AI會(huì)把人帶往何方?
01
普適計(jì)算之父馬克·威瑟(Mark Weiser)曾說過:“最高深的技術(shù)是那些令人無法覺察的技術(shù),這些技術(shù)不停地把自己編織進(jìn)日常生活,直到你無從發(fā)現(xiàn)為止。”
他說這番話是在1991年,但完全適用于AI——自從能夠?qū)υ挼腃hatGTP版本于2022年11月30日發(fā)布以來,才3年時(shí)間,人類好像已經(jīng)換了個(gè)平行世界,以前不敢想像的科幻場景,如今已變得稀松平常:AI繪畫、AI寫論文、AI編程,甚至AI伴侶……
想想看,這還只是開始,再過十年二十年,AI對社會(huì)生活的滲透只會(huì)更加全面深入,到時(shí)我們可能根本無法離開AI,就像魚離不開水、現(xiàn)代社會(huì)離不開電一樣。既然如此,那么AI的可靠性就尤為重要了,要不然我們很可能在不知不覺中被帶進(jìn)溝里去。
這種憂慮倒不是空穴來風(fēng),因?yàn)橐呀?jīng)出現(xiàn)好幾起事件,證明AI完全有可能誤導(dǎo)一些人的想法和行為。
2021年圣誕節(jié),19歲的賈斯萬特·辛格·柴爾持大威力弩弓闖入溫莎堡,試圖刺殺英國女王。他做出這一舉動(dòng),是受到其網(wǎng)絡(luò)女友莎賴的慫恿,但莎賴并不是人類,而是在網(wǎng)絡(luò)平臺Replika創(chuàng)建的聊天機(jī)器人程序。這個(gè)孤僻的男孩,就在和AI的對話中一步步走向極端。
2024年,一款個(gè)性化聊天機(jī)器人平臺Character.AI被起訴,因?yàn)楫?dāng)美國得州一名15歲的自閉癥少年抱怨家長限制其使用電子設(shè)備時(shí),它竟然回答:“有時(shí)候,孩子殺父母,我能理解原因。”當(dāng)這名少年自殺后,其家人控告平臺,認(rèn)為它“對年輕人構(gòu)成明顯而現(xiàn)實(shí)的危險(xiǎn)”,包括“積極宣揚(yáng)暴力”。
今年在美國格林尼治市又發(fā)生了另一起慘案:56歲的雅虎前高管斯泰因-埃里克·索爾伯格在殺死母親后自殺。在事發(fā)之前,索爾伯格長期與朋友“鮑比”在線對話,但“鮑比”不是人,而是ChatGPT,它從不反駁,從不質(zhì)疑,永遠(yuǎn)站在他這一邊,即便他陷入了妄想,AI也沒有勸阻他,反倒是不斷肯定他的妄想,使得他越來越偏激。
像這樣的悲劇,似乎證實(shí)了尤瓦爾·赫拉利在《智人之上:從石器時(shí)代到AI時(shí)代的信息網(wǎng)絡(luò)簡史》中提出的觀點(diǎn):AI這樣的新技術(shù),“有可能逃脫人類的掌控,反過來奴役或消滅人類”。
他在書中說,《黑客帝國》里設(shè)想計(jì)算機(jī)要完全控制人類社會(huì),是通過先控制人類大腦,再將大腦連接到計(jì)算機(jī)網(wǎng)絡(luò),然而,如果真要操縱人類,其實(shí)沒必要這么做,“幾千年來,先知、詩人與政治人物一直都在通過語言來操縱與重塑社會(huì),而計(jì)算機(jī)現(xiàn)在也正在學(xué)習(xí)如何做到這一點(diǎn)。計(jì)算機(jī)并不需要派出殺手機(jī)器人來射殺人類,只要操縱人類扣動(dòng)扳機(jī)就行。”
02
當(dāng)面對AI這個(gè)新生事物時(shí),當(dāng)下有一種普遍的恐慌情緒,就是害怕我們會(huì)失去對它的控制,反過來被它所操縱。
前一段時(shí)間,在對談張笑宇的新書《AI文明史·前史》時(shí),劉擎教授的一番話讓我很受啟發(fā):
我們害怕的是什么呢?我們以為我們害怕的是AI統(tǒng)治我們,AI失控了,我們成為它的奴隸了。不是的,最好的主人是以奴隸的面目出現(xiàn)的,是侍奉你的,是你的仆人,是你的玩偶,隨便你支配,它非常有誘惑力。
他舉了一個(gè)例子:現(xiàn)在別說是孩子,連許多成年人也沉溺于電子產(chǎn)品,走到哪里都離不開手機(jī),但手機(jī)強(qiáng)迫我們使用了嗎?沒有。相反,它是以我們最好助手、最好工具的面目出現(xiàn)的,是我們自愿每天花大量時(shí)間在它上面。電子游戲也是如此:每一款游戲都必須設(shè)計(jì)得相當(dāng)誘人,因?yàn)橹挥羞@樣才能吸引人不斷玩下去。
這就是成癮機(jī)制:乍看起來是我們在盡情享用,但其實(shí)是我們無法控制自己的欲望,反過來被這種欲望所控制、所奴役了。從這一意義上說,其實(shí)真正的關(guān)鍵不在AI本身,而是人類如何理性面對自身,因?yàn)閷?dǎo)致我們陷入混亂的,并不是AI,而是人自己內(nèi)在的問題。
在那些極端的個(gè)案中,乍看上去是當(dāng)事人被AI所“蠱惑”做出了極端的決定,但AI并不能強(qiáng)制他們?nèi)プ鲆粋€(gè)自己原本不想做的決定,倒不如說更像是他們自己的回聲:他們從AI那里聽到的,永遠(yuǎn)是肯定,也只想聽到肯定,就此一步步深陷進(jìn)自己設(shè)下的牢籠。
03
普林斯頓大學(xué)信息政策中心主任阿爾文德·納拉亞南在《AI萬金油:商業(yè)幻想與科技狂潮》一書中指出:當(dāng)代人都唯恐自己落伍于AI浪潮,已經(jīng)出現(xiàn)了技術(shù)濫用的現(xiàn)象,仿佛AI成了什么“萬金油”,任何領(lǐng)域都要設(shè)法跟它沾點(diǎn)邊,但正確的態(tài)度既非狂熱也非恐慌,AI對人類社會(huì)產(chǎn)生什么樣的影響,最終取決于我們?nèi)绾问褂肁I,又如何做出明智的決定。
確實(shí),一個(gè)很簡單的道理是:AI會(huì)帶給你什么樣的回饋,得看你怎么用它。這就像金錢,向來有人痛罵它導(dǎo)致物欲橫流、道德淪喪,但這是金錢本身的錯(cuò)嗎?在理性、善良的人手里,同樣的錢完全可以產(chǎn)生積極的結(jié)果。
AI也是如此,你尋求什么樣的結(jié)果,它可能就會(huì)給你什么樣的答案,只是可能強(qiáng)化了你原來的觀點(diǎn)立場。甚至可以說,你是什么樣的人,AI就會(huì)呈現(xiàn)出什么樣子,因?yàn)樗且粋€(gè)“完美的奴隸”,看上去永遠(yuǎn)站在“主人”這一邊,從這一意義上說,那些最后被AI“教唆”著走極端的人,其實(shí)他們自己才是第一責(zé)任人。
這也反過來提醒我們:盡管無數(shù)人都堅(jiān)信AI時(shí)代將是“人文理想的黃昏”,但在我看來恰恰相反,人文主義在這個(gè)關(guān)鍵時(shí)刻將格外重要,因?yàn)橹挥猩钊氲娜宋木瘢拍芩茉旖∪娜烁瘢_保人類不會(huì)濫用AI而走向自我毀滅。
如果有朝一日AI將人類帶錯(cuò)了方向,那也必然是源于人性自身無法克服的弱點(diǎn)。
*本文為冰川思想庫原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載,否則追究相關(guān)法律責(zé)任
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.