哈嘍,大家好,桿哥這篇評論,主要來分析圖靈獎得主戳破真相!大語言模型并非真智能,我們都被忽悠了?
![]()
ChatGPT 們的流暢回答,真能代表智能降臨?圖靈獎得主、深度學習三巨頭之一的楊立昆,給出了顛覆性結論:我們正在被這些語言高手愚弄。
作為見證了數十年 AI 發展史的資深學者,他的警告并非空穴來風,而是戳中了當前 AI 熱潮下的核心問題。
三次 AI 預言皆落空,歷史為何重演?
自 1950 年代以來,AI 領域就陷入了 “十年實現人類級智能” 的預言循環。
![]()
馬文?明斯基、紐厄爾和西蒙等先驅,都曾信心滿滿地給出十年之約,最終卻紛紛落空。楊立昆坦言,自己一生已見證三代這樣的錯誤預言。
歷史早已給出答案:1950 年代符號主義 AI 因無法應對現實復雜性,在 1970 年代陷入第一次寒冬;
![]()
1980 年代專家系統熱潮,又因維護成本過高黯然退場;1969 年,明斯基等人的研究更是讓神經網絡研究停滯十年。
如今押注大語言模型的熱潮,在楊立昆看來,不過是歷史的又一次重演。
![]()
語言流暢的背后,是精巧的統計把戲
![]()
大語言模型最迷惑人的,就是它堪比人類的語言表達能力。
但這背后并無真正的 “理解”,只是模型在海量文本中學會了預測下一個詞的概率。它知道哪些詞搭配更常見,卻不懂文字背后的真實含義。
![]()
這種局限性在簡單任務中暴露無遺:即使是先進的 GPT 模型,也會在計算單詞字母數量這樣的基礎任務上出錯。Lovable 公司 CEO 安東?奧西卡透露,GPT-5 預覽版都無法準確完成這類計數。
更嚴重的是幻覺問題,OpenAI 自己的研究也承認,即便最新模型,仍會自信地編造事實、虛構引用,在醫療等關鍵場景可能造成嚴重后果。
![]()
工具≠智能,核心能力存在本質缺口
![]()
楊立昆并不否認大語言模型的價值,稱其 “毫無疑問是有用的工具”,就像過去幾十年的計算機一樣。
但工具和智能之間,有著不可逾越的鴻溝。人類智能的核心,是對物理世界的真實理解,是多步邏輯推理能力,是建立因果關系的思維模型。
![]()
而大語言模型恰恰缺乏這些:它不知道文字指向的實體如何運作,無法進行可靠的復雜推理,更無法規劃連貫的行動序列。這些能力缺口,讓它永遠停留在 “工具” 層面,難以觸及真正的智能。
熱潮退去?楊立昆開辟 AI 新賽道
當前 AI 產業正處于關鍵節點,數十億美元涌入大語言模型,但現實應用效果卻跟不上性能提升的步伐。
![]()
OpenAI 前首席科學家伊利亞?蘇茨克維爾也承認,通用人工智能還需更多突破。這種脫節背后,是我們可能在優化錯誤的目標。
楊立昆用行動踐行了自己的信念,離開 Meta 后創辦初創公司 AMI,專注開發能建立現實模型、進行因果推理的系統。
![]()
這個名字在法語中意為 “朋友” 的公司,正試圖走出與當前主流大語言模型截然不同的道路,為真正的智能突破尋找方向。
語言的流暢終究掩蓋不了理解的空白,楊立昆的警告或許是行業急需的清醒劑。未來 AI 能否突破瓶頸,關鍵不在于模型規模的擴大,而在于是否能補上 “理解” 與 “推理” 的核心短板。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.