哈嘍,大家好,我是小方,今天,我們主要來看看,當所有人都在談論AGI(通用人工智能)即將改變世界時,那些轟轟烈烈落地的“AGI樣板”,到底是一片新大陸的海市蜃樓,還是貨真價實的未來碼頭?
![]()
![]()
就在上個月,東南某省高調宣傳的“全國首個AGI智慧政務大廳”試點,悄然從新聞焦點中淡出,起初,它被描述為一個“革命性”場景:市民只需對著一個AI數字人說出模糊需求,比如“我想開個店”,它就能理解意圖,自主調用不同部門的權限,生成一份完整的開辦指南,甚至模擬流程。
![]()
這聽起來,正是我們想象中AGI該有的樣子——一個能理解、能規(guī)劃、能執(zhí)行復雜任務的智能體。
![]()
從產品經理的視角看,當前許多所謂的AGI探索,至少面臨幾個短期內難以跨越的致命傷,這無關技術是否炫酷,而是產品能否成立的根基。
![]()
首先是“失憶癥”與“零共情”,一個好的產品應該“懂用戶”,但現在的AI,每一次對話都幾乎是“初次見面”,你今天讓它根據喜好推薦了五本書,明天再問“再推薦幾本類似的”,它大概率需要你從頭描述一遍喜好。
![]()
在需要深度信任的領域,比如醫(yī)療咨詢,AI可以羅列嚴謹的藥品說明,卻無法感知屏幕那頭患者對“副作用”的深切擔憂,這種交互是冰冷而斷裂的,用戶需要的不是一個重復提問的機器,而是一個有“記憶”、能“共情”的伙伴雛形,這一點,當下的技術還遠未觸及。
![]()
其次是“實驗室獎勵”與“現實修羅場”的脫節(jié),很多AI模型通過強化學習訓練,其行為取決于開發(fā)者設定的“獎勵函數”,但問題在于,現實世界是復雜多元的。
![]()
最后是無法回避的“責任黑洞”,產品必須權責清晰,但當AGI被賦予一定“自主決策”空間時,責任界定就成了一團亂麻,比如,一家金融機構采用AI信貸審批系統拒絕了一筆貸款,這個決定是基于算法的“偏見”,還是對風險規(guī)則的嚴格執(zhí)行?一旦發(fā)生糾紛或訴訟,用戶、金融機構、算法開發(fā)商三方將陷入無休止的扯皮。在明確的法律框架和行業(yè)標準建立之前,任何涉及關鍵決策的AGI應用,都如履薄冰。
![]()
面對這些“先天缺陷”,與其好高騖遠地追逐“全能AGI”的幻影,不如學學務實的產品思維:先解決一個具體、微小的痛點,并讓它完美運行,這就是“AGI Lite”(輕量級AGI)的思路——我們不追求創(chuàng)造一個“人”,而是先打造一個“超級專家助理”。
![]()
最重要的產品設計原則,是必須堅持“人機協同,以人為主”,在可預見的未來,任何負責任的AGI產品,都不應追求100%的自主決策,更合理的設計是“AI執(zhí)行,人類監(jiān)督”。
![]()
就像最先進的自動駕駛汽車也必須有方向盤,一個用于輔助醫(yī)療診斷的AI,其輸出結果必須由醫(yī)生做最終確認和擔責。這并非技術無能,而是對復雜世界應有的敬畏,AGI不應是取代人類的“顛覆者”,而應是增強人類的“倍增器”。
![]()
![]()
AGI的終極愿景依然激動人心,但通往那里的道路,注定由一塊塊解決實際問題的磚石鋪就,對產品人和創(chuàng)業(yè)者而言,現在最需要的或許不是描繪炫目的藍圖,而是沉下心來,找到那個微小而真實的痛點,然后用當前最前沿的技術,打造一個真正“好用”的解決方案,這條路不如談論“顛覆”性感,但卻能讓我們離真正的智能未來,更近一步。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.