在剛剛過去的2025年,生成式AI已經滲透主流游戲圈,但它并沒有為游戲增光添彩,反而導致大量游戲陷入泥潭。AI在搜打撤多人射擊游戲《Arc Riders》中讀錯臺詞,在《紀元117:羅馬和平》的加載界面“畫”了一張劣質圖像,在《堡壘之夜》里為滿口臟話的達斯·維達配音。與這些案例相比,另一些游戲運用生成式AI的方式似乎更克制,只是將一些不那么重要的NPC角色接入了AI聊天機器人。但玩家們很快發現,AI生成的大部分角色對話平淡無奇,有時甚至荒謬可笑。
許多玩家對“游戲內Siri”的概念嗤之以鼻。在海外社交平臺上,有玩家在一條高贊評論中寫道:“如果你用一款游戲來與聊天機器人互動,而不是體驗真人精心創作的故事,那簡直愚蠢至極。”但也有人提出完全相反的意見,認為AI聊天機器人能幫助開發者創造“真正可以互動的NPC”。
隨著時間推移,玩家們很可能會在更多游戲里遇到聊天機器人。在這股似乎勢不可擋的浪潮下,游戲敘事將會受到哪些影響?如果經過更精心的引導和約束,生成式AI能否讓游戲世界變得更鮮活,從而為玩家提供更具沉浸感的體驗?這項技術能否帶來新的機遇,未來將會如何發展?那些專注于制作敘事向游戲的工作室又應該如何應對?5位資深游戲從業者與相關領域專家分享了對這些話題的看法。
![]()
“游戲內Siri”讓游戲體驗變好了嗎?
梅格·賈延特(Meg Jayanth)是一位知名編劇兼敘事設計師,曾參與制作《80天》《Sable》和《Thirsty Suitors》等游戲。賈延特認為,目前,聊天機器人生成的對話聽起來“既糟糕又無聊”。她直言,在電子游戲的程序化生成領域,基于大語言模型(LLM)的聊天機器人是“最無趣、最耗費資源,最受企業控制的版本”。
對某些玩家而言,聊天機器人更像具有“新奇價值”的玩具。按照賈延特的說法,雖然聊天機器人能夠回答玩家提出的任何問題,但這其實“弊大于利”,因為游戲不可能賦予玩家無限自主權,而是會“以令人愉悅或契合主題的有趣方式來設計自主性”。
“玩家并不是什么事都可以做,什么話都能說,這些限制恰恰傳達了游戲的世界觀和故事對于玩家的意義。而當聊天機器人說話時,它并沒有任何真實意圖。”在賈延特看來,人與人之間的聯系是藝術作品的內在組成部分之一。“我為你創作了一些東西,盡管我們并不相識。在你游玩、閱讀、聆聽和體驗的過程中,你無需了解我,就能感受到我的性格。”她解釋,“因此,除了極少數特殊情況——即這項技術的優勢和缺陷成為敘事或主題構思的一部分——我認為LLM聊天機器人在虛構作品中沒有立足之地。”
這僅僅是問題的冰山一角。賈延特描述了使用生成式AI和聊天機器人可能帶來的諸多倫理問題:例如,數據中心會對交互造成影響,用戶與“企業控制的聊天機器人分享生活細節”的行為背后潛藏著隱私風險。如果創作者無償使用個人作品訓練大語言模型,那么他們的勞動果實最終可能被奪走。此外,“在信息環境支離破碎、被嚴重污染、政治化且充滿錯覺的當下”,聊天機器人的AI幻覺或許會導致“我們距離真相越來越遠”。
“我認為問題很簡單:我們究竟想生活在一個充滿生機的世界,還是一個死氣沉沉的世界?”賈延特說,“我們都渴望與自然、與彼此,以及與生命本身建立更緊密的聯系。人類社會正變得越來越原子化,我們面臨著過度勞累、失業率居高不下等無數挑戰,不得不面對洪水、地震和熱浪等自然災害的威脅,億萬富翁和所謂的精英人士卻為了牟利繼續消耗資源,讓我們生活在一片廢墟之中。他們解決所有問題的辦法,居然是讓我們在機器的漩渦中尋求友誼、認同和聯系,而不是從彼此身上。”
![]()
AI原生游戲的實現效果或許更好
馬克斯·克雷明斯基(Max Kreminski)是康奈爾大學科技校區設計技術系的一位助理教授,他認為,基于大語言模型的聊天機器人并不適合被用作NPC角色,原因是聊天機器人生成的對話缺乏新意和原創性,并且幾乎不受控制,會導致敘事設計師難以實現預期想法。“因此,它們往往會削弱優秀敘事設計中的作者意圖。即使你將聊天機器人視為開放式的即興創作伙伴,它們也無法為玩家提供太多發揮空間。”
克雷明斯基之前曾在AI模型公司Midjourney擔任敘事實驗室負責人,在他看來,許多開發者“笨拙地將生成式AI硬塞進了并不真正適用的領域”,尤其是試圖用它來制作一些屬于成熟品類的游戲。“此外,如今企業高管們之所以對生成式AI產生濃厚興趣,似乎僅僅是為了削減成本……然而事實證明,這種策略幾乎總是會導致游戲質量下降。”
不過,克雷明斯基相信大語言模型能夠幫助開發者創作新穎有趣的體驗。他舉例,AI原生游戲《1001夜》巧妙地利用了大語言模型,“誘導大語言模型驅動的角色說出特定對話,就是其核心設計理念”。“設計師并沒有簡單地在既有品類游戲中加入基于大語言模型的NPC角色,而是圍繞基于大語言模型的核心玩法循環,精心打造了充滿新意的體驗。”
《無限工藝》(Infinite Craft)也是個例子,這是一款利用大語言模型,讓玩家將看似毫不相關的AI生成元素結合起來的沙盒游戲。克雷明斯基認為,如果開發者在設計游戲時將大語言模型用作“玩家開放式輸入的解讀器”,而非聊天機器人,未來將有可能開辟“一個全新品類”。
克雷明斯基還提到了誕生于2005年的老游戲《Fa?ade》。在這款由邁克爾·馬蒂斯(Michael Mateas)和安德魯·斯特恩(Andrew Stern)創作的互動故事游戲中,玩家可以在公寓里四處走動,隨意輸入任何內容,然后觀看游戲做出回應。當時,大語言模型尚未出現,“所以邁克爾和安德魯不得不手工打造一個極其復雜、基于規則的解析器,來理解玩家輸入的開放式指令”。那個解析器經常出錯,但克雷明斯基仍然覺得,《Fa?ade》將腳本化內容和玩家即興發揮相結合的玩法相當引人入勝。
克雷明斯基補充說,設計師可以將大語言模型用作游戲系統中的眾多組件之一,從而為玩家提供《Fa?ade》風格的玩法。“與增強某個現有游戲品類相比,如果開發者嘗試發明一種全新品類,將有更大機會獲得成功。當然在此之前,他們還需要做更多研究。”
![]()
游戲編劇需要適應“文化轉變”
丹·格里利奧普洛斯(Dan Griliopoulos)是一位編劇兼敘事設計師,曾供職于Inflexion Games、Improbable、Proxy Studios等公司。與許多同行一樣,格里利奧普洛斯對生成式AI可能引發各種倫理問題感到擔憂,例如加大能源消耗,引起版權和所有權爭議,造成結構性的失業風險,以及拉大企業CEO和員工之間的價值觀差異等等。但從純粹的實用角度來看,他相信在未來10年里,聊天機器人將會變得更加普遍和完善。
在格里利奧普洛斯看來,當前游戲里的AI聊天機器人“狀態很差”,所生成的角色對話過于籠統,并且經常因為不符合游戲的世界觀而導致玩家出戲。不過,按照他的設想,敘事設計師可以“精心調教”類似的聊天機器人,并為NPC角色編寫背景故事,設立性格特征,從而塑造他們的言行。這些文本可以由AI生成,但“為了避免落入俗套,我大概不會讓聊天機器人代筆”“我想親手打造游戲世界,創造一些原創的、新穎的東西”。
這位從業者承認,為了更好地利用生成式AI,游戲編劇需要適應從寫作到策劃、篩選和展示(內容)的“文化轉變”。與此同時,程序員也需要更好地將聊天機器人集成到游戲中,確保NPC角色能夠對玩家在游戲世界做出的選擇做出反應。
某種意義上講,通過調教使聊天機器人生成的對話不那么千篇一律,與人們在日常生活中用提示詞引導AI的做法類似。“你可以告訴它,用20世紀30年代黑色偵探小說的風格寫一段對話,但必須保證對話不脫離我們設定的世界觀。”格里利奧普洛斯說,“你也可以讓AI使用不受版權保護的文本或角色對話,比如模仿查爾斯·狄更斯的寫作風格,或者仿寫《荒涼山莊》中角色的臺詞。這樣一來,你或許能夠獲得更加有趣的內容。”
對于游戲行業在生成式AI影響下的未來,格里利奧普洛斯似乎比另外幾位受訪者更加樂觀。“我確實擔心技術變革可能造成結構性的失業,為被AI搶走飯碗的同行們感到憂慮……但我也對未來充滿期待,希望能早日體驗到那些AI足夠聰明、能夠對玩家行為做出恰當反應的游戲。這是我長久以來的夢想。”他認為,游戲行業需要正視AI快速崛起的現實。在其他行業,很多公司已經在用生成式AI替代初級崗位的員工,“我們不能像鴕鳥那樣將頭埋進沙子里,假裝這一切不會發生”。
“與其爭論如何阻擋人工智能時代的到來,倒不如進行一些更有建設性的對話——我們應該怎樣保住工作,留住創造力?我們如何避免生成式AI被濫用,導致本應受保護的版權遭到侵犯?我們能否在規則的約束下使用它,確保各方都滿意,或者至少朝著這個方向努力?在現階段,我們之所以沒有討論這些話題,是因為CEO們和其他人都害怕深入接觸AI。”
格里利奧普洛斯補充,在未來,那些完全依賴于人類編劇的工作室將有更大機會脫穎而出——玩家甚至可能愿意花更多錢購買純人工制作的游戲。“如果一款游戲里的所有內容都由真人制作,那么總有玩家愿意為這類‘奢侈品’支付額外費用。”他說,“我們可以主動研究,挖掘人類敘事中AI無法重現的微妙細節和巧思,從而以更好的方式講述故事。AI無法模仿這個世界上還從未出現過的東西。因此,我建議大家以開放的心態去涉獵不同領域知識,比如尋找新的故事,閱讀一些古怪的舊書,或者觀看其他國家的奇怪電影。”
![]()
AI大模型在游戲對話中的表現需要更多嘗試
尤尼斯·拉比(Younès Rabii)是一名獨立開發者和AI研究員,目前在倫敦瑪麗女王大學攻讀博士學位。他指出,游戲中的AI聊天機器人更像是一個噱頭。“在某種程度上,你甚至可能覺得開發團隊為了逃避為游戲編寫對話這項工作,將它外包給了一套看起來根本不合適的系統。”
大語言模型的優勢在于其通用性和龐大的知識庫,然而,文本缺乏針對性恰恰是它的缺點之一。“人們想要滿足這樣一種愿望:無論我說點什么,都能得到回應。但說實話,這跟擲骰子沒什么兩樣……與人類精心編寫的對話相比,AI生成對話往往缺乏相關性和準確性。”
拉比認為,從理論上講,游戲廠商可以構建與特定游戲世界高度適配的聊天機器人,但他們需要為此投入大量的資源和人力。到那個階段,廠商所做的事情已經超出了開發AI聊天機器人的范疇,而是變成了打造一套程序生成系統。
“假設某款游戲以中國的某個特定時代為背景,或靈感來源于特定的傳說和民間故事。”拉比表示,“我們想要構建一個生成式AI,但希望用來自那個年代的素材訓練它。這些素材包括我們已經找到的歷史文獻,或者經過整理、篩選和重新排版的文本。我們還可以聘請編劇,為游戲創造新的故事和場景。為了獲得精確的素材,我們需要花錢,并投入大量精力。”
“這是研究和寫作的成本,也是創作一部優秀小說或者一個精彩故事背后的所有成本。如果你不愿付出這些成本,又怎么可能享受它們帶來的優勢?”
拉比呼吁游戲行業放慢腳步:我們必須先了解這項技術本身、局限性和成本,才能真正“馴服”它。他指出,生成式AI的大規模使用會造成“災難性的能源消耗”,并且在現階段,創作者無法從大語言模型訓練所用的作品中獲得報酬……“在未來,AI系統或許能夠生成非常有趣、契合游戲世界觀的對話,但人類創作者在幕后付出的努力不應被否定。從某種意義上講,AI生成對話仍然是他們的作品,因為他們將會在那個系統中做出決策。”
![]()
我們為什么要減少人類精心創作的內容?
英國游戲工作室Failbetter Games的敘事總監克里斯·加德納(Chris Gardiner)認為,對游戲廠商來說,將大語言模型驅動的聊天機器人用于為NPC角色生成對話確實頗具吸引力。然而,這種做法的副作用是:當廠商嘗試用盡可能少的編劇寫出最多的文字時,就有可能導致“裁員和專業知識的系統性流失”。
加德納說,他能理解為何許多開發者對聊天機器人感興趣。“某些同行想要打造完全沉浸式的游戲——玩家可以做任何事情,游戲世界也會做出相應的反應。如果一款游戲允許玩家與NPC角色談論任何話題,聽起來像是朝著這個目標邁出了一大步,對吧?”但在他看來,這種想法具有誤導性,因為人類寫作的核心并非文字,而是意義:“生成式AI無法理解意義或視角,也無法擁有洞察力和鑒賞力。它只能通過算法猜測你期望看到的內容,但成功率參差不齊。”
人類編劇可以經過深思熟慮,做出AI聊天機器人無法復制的選擇,比如通過調整NPC角色說話時的語氣,“暗示游戲里的社會現狀,或近期發生的事件”。“我們可以在特定場景加個笑話,讓它與游戲主題聯系起來,用它為未來將會發生的事件埋下伏筆,或者與其他內容形成對比……這些細節都能讓游戲的內涵變得更豐富。”
加德納承認,AI聊天機器人確實賦予了玩家某種程度的自主性,玩家可以自由地與NPC角色對話并獲得回應。這讓玩家可以“脫離既定軌道”。不過他強調,人類編劇也有能力做到這一點。“《博德之門3》允許玩家以最瘋狂的方式脫離既定軌道,并為玩家的行為賦予意義,因為人類編劇已經為玩家的所有選擇精心設計了邪惡或令人愉悅的結果。”他說,“這是大語言模型望塵莫及的,因為它沒有內心世界,沒有動機,無法理解游戲世界更廣闊、更深層次的真相。它理解不了玩家想要或需要什么,更不可能為玩家提供超出預期,讓他們感到驚喜的東西。”
他進一步指出:“就算暫時拋開使用生成式AI可能涉及的倫理問題(實際上不能),或者不談它對環境的影響(實際上需要),甚至不考慮游戲質量(我不想這么做),我仍然會思考‘為什么’這個最基本的問題。在藝術和游戲作品中,我們為什么要減少人類精心創作的內容?我們究竟是否希望看到電子游戲越來越缺少獨創性和匠心?無論如何,我相信玩家們渴望玩到開發者傾注熱情制作的游戲。”
本文編譯自:Rock Paper Shotgun
原文標題:《"Horrible", "boring", and "cheap": Experts pan new chatbot NPCs, but some leave room for optimism》
原作者: Samuel Horti
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.