AI大模型,似乎發(fā)展出了類似人類理解物體概念的能力。
近日,中國科學(xué)院自動化研究所神經(jīng)計(jì)算與腦機(jī)交互(NeuBCI)課題組與中國科學(xué)院腦科學(xué)與智能技術(shù)卓越創(chuàng)新中心的聯(lián)合團(tuán)隊(duì)的研究,首次證實(shí)了多模態(tài)大語言模型(MLLMs)能自發(fā)形成與人類高度相似的物體概念表征系統(tǒng)。
這項(xiàng)重要研究發(fā)表在國際權(quán)威期刊《自然·機(jī)器智能》。
![]()
不同于以往的僅關(guān)注AI識別準(zhǔn)確率(例如區(qū)分貓和狗),這項(xiàng)研究旨在探索AI模型是否形成了類似人類對物體含義的深層理解(概念表征)
研究團(tuán)隊(duì)基于經(jīng)典認(rèn)知心理學(xué)的測試方法(三選一異類識別任務(wù)),讓AI模型和人類參與者,從1854種日常概念任意組成的三個(gè)組合中(例如:狗、狼、貓),選出最不相似的一個(gè)。
![]()
圖源 中國科學(xué)院自動化研究所
團(tuán)隊(duì)通過分析470萬次這樣的行為數(shù)據(jù),構(gòu)建了AI的“概念地圖”。
研究發(fā)現(xiàn),多模態(tài)模型(MLLM)和純文本模型(LLM)能自發(fā)形成物體概念表征結(jié)構(gòu),并且預(yù)測人類選擇的準(zhǔn)確度非常高。
從模型行為數(shù)據(jù)中識別出66個(gè)高度可解釋的重要“心智”維度(如語義類別、感知特征、物理成分)。
其中,多模態(tài)模型(MLLM)的內(nèi)部表征與人腦特定區(qū)域的神經(jīng)活動模式存在明顯的對應(yīng)關(guān)系。
這項(xiàng)研究表明,AI語言模型,它們理解世界上的東西的方式,與我們?nèi)祟惔竽X非常相似。
而且,擁有了圖文理解能力的多模態(tài)AI模型,看圖時(shí)運(yùn)作方式與人腦處理視覺信息的方式更接近。
這些研究將為未來理解AI的“認(rèn)知”機(jī)制和創(chuàng)造更富理解力的AI提供了重要幫助。
關(guān)注我們,第一時(shí)間獲取人類文明新資訊
* 您的「點(diǎn)贊、關(guān)注、評論、轉(zhuǎn)發(fā)」都是我們持續(xù)更新的動力!??
* 本文綜合自網(wǎng)絡(luò),數(shù)據(jù)及表述均以官方發(fā)布為準(zhǔn),如有錯(cuò)誤,歡迎評論區(qū)指正!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.