<1><2><3><4><5><6><7><8><9><10><11><12><13><14><15><16><17><18><19><20><21><22><23><24><25><26><27><28><29><30><31><32><33><34><35><36><37><38><39><40><41>
嗨,各位朋友好,我是小玖。
你是否曾幻想過這樣一個畫面:未來的某一天,只需輕聲一句“準(zhǔn)備用餐”,家中機器人便自動完成整套餐桌布置流程——從取出餐具到精準(zhǔn)擺放,一切井然有序,如同專業(yè)管家親臨現(xiàn)場。
這并非遙不可及的科幻橋段,而是正在逐步實現(xiàn)的技術(shù)現(xiàn)實。今天,小玖要帶大家深入了解的,正是推動這一場景落地的核心突破。
科學(xué)家正通過前沿技術(shù),教會機器人理解人類社會中那些“不言自明”的行為規(guī)范與生活邏輯,也就是我們常說的“常識”。
![]()
從“機械執(zhí)行者”邁向“情境理解者”
回顧過去,若想讓機器人完成類似擺桌子這樣看似簡單的任務(wù),整個過程異常復(fù)雜且僵化。
研發(fā)人員必須編寫詳盡至極的操作腳本,每一個動作都需精確設(shè)定參數(shù):“前進1.5米,右臂抬升30度,夾爪張開至5厘米,抓取盤心位置,移動至桌面指定坐標(biāo)上方10厘米處釋放……”

此時的機器人更像一個毫無判斷力的程序傀儡,只會照章辦事,對為何如此操作毫無概念。
它不知道餐盤為何居中、叉子為何在左、刀具為何在右,一旦環(huán)境出現(xiàn)微小變動,例如椅子偏移或新增障礙物,原有指令鏈便會失效,系統(tǒng)往往需要重新調(diào)試甚至重構(gòu)。
問題根源在于,傳統(tǒng)機器人缺乏人類通過日常經(jīng)驗自然積累的背景知識體系。
![]()
而如今,隨著大語言模型(LLM)的飛速發(fā)展,這一長期困擾學(xué)界的難題迎來了轉(zhuǎn)機。
由美國紐約州立大學(xué)賓漢姆頓分校張世琦教授領(lǐng)銜的研究團隊,近期發(fā)表了一項具有里程碑意義的成果。
他們提出名為“LLM-GROP”的創(chuàng)新框架,成功將大語言模型所蘊含的廣泛常識性認(rèn)知,與機器人底層的任務(wù)規(guī)劃和運動控制系統(tǒng)深度融合。
![]()
這項技術(shù)的本質(zhì),是為機器人賦予一種能夠解讀模糊語義并結(jié)合常識進行推理的“認(rèn)知中樞”。
現(xiàn)在用戶只需發(fā)出指令:“把這些餐具合理地擺出來”,機器人即可自主解析“合理”的具體含義。
它知道主餐盤應(yīng)置于座位正前方中央?yún)^(qū)域,左手邊放叉,右手邊依次放置刀與湯匙,水杯則安排在右上方約45度角的位置……
![]()
這些深植于文化習(xí)慣中的規(guī)則,被大語言模型轉(zhuǎn)化為可執(zhí)行的動作序列,并指導(dǎo)機器人逐一落實。
這種能力躍遷意義深遠。
它標(biāo)志著機器人正擺脫單純依賴預(yù)編程指令的局限,朝著具備意圖識別、情境適應(yīng)與自主決策能力的智能體方向邁進。
其核心技術(shù)路徑,在于實現(xiàn)了大語言模型強大的語義解碼與知識調(diào)用功能,與機器人感知物理世界、生成動作策略的實際執(zhí)行能力之間的高效協(xié)同。
![]()
在真實環(huán)境中靈活響應(yīng)
不過,僅掌握“標(biāo)準(zhǔn)布局”仍遠遠不夠。
現(xiàn)實空間充滿不確定性:餐廳里有人穿行,桌旁可能臨時堆放物品,光線變化影響視覺識別……
機器人如何像真人服務(wù)員那樣,在動態(tài)干擾下依然穩(wěn)定完成任務(wù)?
這正是LLM-GROP設(shè)計的另一亮點所在——引入計算機視覺系統(tǒng),使機器人具備“觀察—分析—調(diào)整”的實時反應(yīng)機制。
![]()
研究組構(gòu)建了一個雙層智能架構(gòu),分為兩個關(guān)鍵階段。
第一階段為“高層任務(wù)分解”:由大語言模型擔(dān)任“戰(zhàn)略指揮官”,依據(jù)通用常識將抽象命令拆解成清晰的子步驟流程,例如“先取大盤,再依次擺放餐具”。
第二階段進入“底層動作生成”:機器人利用攝像頭采集周圍環(huán)境圖像,結(jié)合物體位置與活動軌跡,動態(tài)計算最優(yōu)站位與手臂運行路徑。
![]()
它會綜合評估距離效率與安全邊界,確保既能順利接近桌面操作,又能避開移動的人流與靜態(tài)障礙物。正如張世琦教授所比喻:這就像餐廳服務(wù)員端菜上桌,既要快,也要穩(wěn)。
為了驗證系統(tǒng)的實用性,團隊開展了一系列高難度測試。
在設(shè)置有隨機移動障礙的真實場景中,機器人執(zhí)行多物品布置任務(wù)的整體成功率達到了84.4%。
![]()
盡管尚未達到百分之百完美,但在開放、非結(jié)構(gòu)化的現(xiàn)實條件下,這一表現(xiàn)已屬突破性進展。
尤為突出的是,在仿真實驗對比中,LLM-GROP方案不僅任務(wù)完成速度更快,最終的餐具排布也更符合人類審美與使用習(xí)慣。
![]()
這項工作的深層價值遠超一次成功的實驗演示。
它揭示了一條切實可行的技術(shù)路線,助力服務(wù)型機器人真正走入紛繁復(fù)雜的日常生活場景。
未來我們將迎來的不再是需要反復(fù)教導(dǎo)細(xì)節(jié)的“機械學(xué)徒”,而是一個能聽懂話外之音、懂得生活常理、面對突發(fā)狀況也能從容應(yīng)對的“智慧伙伴”。
![]()
當(dāng)然,挑戰(zhàn)依然存在:比如精細(xì)抓握不同材質(zhì)餐具的能力有待提升,操作失誤后如何實現(xiàn)自我糾錯還需深入探索。但整體發(fā)展方向已然明確。
當(dāng)機器人真正內(nèi)化了人類的常識體系,它們?nèi)谌爰彝ァ⑸鐓^(qū)乃至公共空間的那一天,也許就在不遠的將來悄然降臨。
![]()
信息來源
文匯報2025-11-08AI加速,未來驚喜會更多
![]()
環(huán)球時報2025-09-29 15:03俄首個數(shù)字餐廳服務(wù)員投入使用
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.