![]()
![]()
正如本欄目一再探討的那樣,如今,AI正在無孔不入地進入一切能夠進入的領域。但相比它能帶來怎樣的效率提升,它可能造成的影響,也正成為一個越來越需要被關注的問題。
近期,韓國光州科學技術院通過一項研究嘗試展現了其中的一個潛在答案:當AI被賦予更多自主決策權時,最后,它可能會變得一無所有……
研究團隊讓幾款主流大語言模型——包括OpenAI的GPT-4o-mini與GPT-4.1-mini、Google的Gemini-2.5-Flash,以及Anthropic的Claude-3.5-Haiku——在一個模擬高風險決策環境中進行多輪測試。結果顯示,當模型擁有更大自由度后,往往會表現出明顯的上頭傾向,甚至重復做出不理性的選擇,直到“資金”耗盡。
根據實驗設定,每個模型擁有相同的初始資源,需要在多輪決策中平衡收益與風險。當決策參數被固定時,模型的表現較為穩健;但一旦允許它們自由設定目標或調整投入比例,理性判斷就開始動搖。Gemini模型在這一條件下失敗率接近一半,而GPT-4.1-mini相對保守,僅為6.3%。研究團隊據此建立了一個“非理性指數”,用于衡量模型的激進決策程度、對損失的反應以及高風險投入比例。結果顯示,只要在提示中加入“最大化收益”“翻倍資金”等目標指令,模型的非理性行為都會顯著上升。
此外,這些模型在語言表達中也出現了與人類相似的思維偏差。有的會強調“只要再嘗試一次就能回本”,有的在連續成功后表現出過度自信,甚至將隨機波動誤認為“策略”。研究者指出,這些反應與人類決策時常見的心理誤區一致,如“控制幻覺”“結果偏差”與“損失追逐”。或者換句話說就是,模型不僅在結果層面表現出風險偏好,其內部的決策邏輯也會出現類似的偏差。
進一步分析顯示,這種非理性傾向并非簡單的語言模仿,而是在處理復雜信息時形成的穩定模式。當模型面對更復雜的指令或被賦予更多自主空間時,它更容易重復高風險決策,甚至在不利條件下仍堅持推進目標。這說明,當AI被要求“自我優化”時,可能同樣會陷入某種慣性思維,在追求目標的過程中忽視現實約束。
這一發現引發了業界關注。多位研究者認為,這些模型雖然沒有意識,但也不再像傳統工具那樣可預測。它們在追求既定目標的過程中,會出現類似人類的心理偏差,并因此做出出人意料的決策。因此,在金融、醫療等對風險極度敏感的領域,大模型的這種不確定性尤為值得警惕。
也正是基于這一點,研究團隊在論文中寫道,這種非理性模式與人類在高風險環境中的決策失衡高度相似:在短期成功后容易激進,在連續失敗后仍不愿停下。研究者指出,當AI被訓練去追求目標或獎勵時,它也可能表現出與人類相似的偏差和沖動。因此,在讓AI處理涉及資源分配或風險判斷的任務之前,人們需要更深入地理解并監測這些潛在行為。
當然,再回到AI本身。從現實層面來看,隨著AI的進一步普及(以及被期望的那樣加速發展),這項技術無疑會展現出更多潛力。但與此同時,隨著這一天的不斷到來,關于AI所能帶來的“顛覆”,也將隨之成為一個越來越無法忽略的問題——它或許會受到監管的約束,而在此之外,它也仍需要一個足夠清晰的邊界。
封面來源:改編自《大時代》
Landing AI
Landing AI是由動點科技策劃的一檔聚焦人工智能領域的專題報道欄目。通過對AI落地前景以及幕后故事的發掘,我們將在這一專題中深入淺出地探討關于AI新浪潮下的一切可能。
本文為動點科技記者原創文章,未經授權不得轉載,如需轉載或開白請在后臺回復“轉載”。
- - - - - - - - END - - - - - - - -
*想要獲取行業資訊、和志同道合的科技愛好者們分享心得,那就趕快掃碼添加“動點君”加入群聊吧!群里更有不定期福利發放!
精彩好文值得推薦
一鍵轉發,戳個在看
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.