
我們正站在一個前所未有的節點上:絕大多數商業問題,已經不再是“做對或做錯”,而是無數可能性的疊加;而絕大多數企業,還在用上一個時代的思維,賭下一個時代的不確定。
內容怎么做?用戶到底要什么?產品會不會賣?過去靠數據、靠經驗、靠拍腦袋;現在,一個全新的能力正在出現——AI不止能干活,它開始“模擬人”。這聽起來非常有趣,你肯定想知道:
AI模擬用戶,這事兒到底靠譜嗎?
它如何成為解決復雜問題的新工具?
它怎樣讓“用戶洞察”這件事快100倍、便宜100倍、覆蓋廣100倍?
以及,在AI能預測85%的世界里,人類該如何活在那15%的不可預測里?
本文僅為課程的部分內容,完整版內容請到混沌APP觀看完整版。
![]()
![]()
世界的復雜性,導致我們需要“模擬”
現在,絕大多數的智能體都在幫我們干活(做銷售、做客服等)。而我想講一個正在越來越明顯,但是還處在比較早期的智能體形態:幫助我們更好地去了解人的智能體,英文叫 Generative Agent Simulation,就是用來“模擬”的智能體。
我們經常會聽到這樣的問題:做什么內容好?這群人需要做什么內容?這群新興的群體可能感興趣要什么樣的東西?這些話題其實本身不存在對與錯的答案,更多的是各種各樣的可能性。絕大多數我們遇見的問題都是這種可能性問題,這不是簡單的數學題解方程的問題。
在學術里邊,把這種問題稱之為叫 Wicked Problem。學者把問題定義為兩種:第一種叫 Tame Problem(可解問題),即那些可以被求解、被定義的,有確切答案的問題,即使是再復雜的方程,也是有確切答案的。還有一種就是我們在商業里面經常會遇見的,不好被定義,也無法被解決,只能暫時被改善,這種叫 Wicked Problem,也叫復雜問題。
![]()
復雜問題有一些特征。首先,它很難被明確定義,總好像是一個復合的東西。第二,它永遠帶來新的問題,所以沒有結束。第三,只有好壞而沒有真偽。
同時,沒有立即獲得最終的可以測試的標準,你很難測試。每個問題都是獨特的問題,可以被看作其他問題的癥狀,比如解決貧困,很有可能就會產生環境問題和貧富差異問題。問題的存在取決于價值觀的差異,我們到底以什么為優先。決策者沒有辦法試錯,你一旦選了,你就只能一條道走到黑,沒有辦法再回來。
這些都是 Wicked Problem 的特征,我們在很多商業的選擇里面就是這樣,我們只能往前走。
解決這種問題的最通用的一種方式叫模擬。模擬的意思就是:我們建立一個沙盤,我們去做推演,做 Scenario Planning,做不同場景的嘗試,來看看我們下一步應該怎么做。
我們其實一直都在模擬。比如打一場仗之前、操作復雜工具之前(不是學習工具,而是模擬不同場景下的反應)、以及升息降息、漲工資降工資等經濟變化時,我們都會去模擬。
![]()
模擬的核心有一種轉變:要從想把問題解決到變成一個更演化、更適應的系統。我們不再只是期待把問題的答案找到,而是要跟著這個問題去往前走。系統模擬的目的就是不停地跟著問題往前走,從而產生一種更有機、動態的狀態。
![]()
用大模型去模擬人的主觀世界
模擬里邊有一個非常核心的步驟,就是建模。我們的大語言模型就是一種建模,是對主觀世界大環境的一種壓縮。
建模其實就是控制變量法,我們把一些變量暫時擱置,試圖用一種抽象的方式來描述環境和客觀現實。人類科學的發展就是讓更多話題可以用建模的方式來解決,從十五、十六世紀的物理世界,到十八、十九世紀的生物、化學世界,再到20世紀用計算方法來理解社會(如復雜理論、行為經濟學等等)。
我覺得在當下,我們有機會用語言去模擬這個主觀的世界,因為大語言模型可以不停地講話,而語言是我們思維的載體。我們可以模擬內心是怎么想、怎么選擇、怎么判斷、怎么構思的,從而更好地幫我們理解用戶、理解同事。
也就是,有大語言模型以后,我們有機會用建模的方式來理解一個人的主觀世界。所以我們把這稱之為主觀世界的建模方法。
舉一個簡單的例子。如果我用大語言模型去閱讀《哈利·波特》,把這本書作為語料喂給模型,我們就能產生一個哈利·波特人格的AI模擬。我就可以問他作為一個消費者,早上是喜歡喝咖啡還是果汁。通過這樣的方式來獲得所謂用戶洞察的東西。
![]()
這個答案在書里沒有,但通過這本書作為數據源和上下文喂給大語言模型,模型分析后就可以通過書的信息來模擬出哈利·波特的性格選擇。這個過程就叫推理。推理就是基于上下文去做有效的下一步的猜測。因為大語言模型的運行原理其實就是不停地預測下一個詞。
讓大語言模型模擬一個人的消費習慣和選擇,去猜測下一步他可能會做什么,這恰恰就是大語言模型最擅長做的事情。
![]()
AI模擬用戶的商業應用
理論上,當我們可以讓AI去模擬哈利·波特,明天也可以讓AI去模擬每一個人。
我們做的事情,就相當于用這個方法做了一個產品Atypica。
我們通過合成數百萬真實的社交帖子來生成消費者智能體,模擬消費者真實的個性、情感和決策邏輯,讓你不僅理解消費者“想什么”,還能理解他們“如何”和“為何”做決定。擁有 Atypica,就像擁有一個強大的研究團隊。
你可以分鐘級獲得研究報告,只需要提出你的商業問題,我們的研究智能體(Research Agents)會闡明你的需求,規劃調查,掃描社交平臺。將社交聲音合成為消費者智能體,發現深入的行為、價值和偏好洞察。
最后,分析智能體(Analytic Agents)將一切精煉為清晰、可操作的市場洞察和報告。
這個產品就叫 atypica.AI,它做的事情就是用大量的模擬消費者AI,和AI研究人員進行大量的對話,從而產生各種各樣的商業問題的答案。
比如問某個產品在南美會不會賣得很好,它可以自動擬合出南美的消費者來做測試。我們也見到做新能源車的公司,邀請一堆虛擬用戶來探討下一代MPV的產品概念等等。最后產生的階段性結果是一份非常詳實的報告和整個調研的過程。
![]()
AI模擬用戶,真的可信嗎?
這個產品或者說這一套體系主要分為三個部分:第一個部分是用 AI來模擬消費者;第二個部分是用AI來模擬進行各種各樣的人與人的互動訪談;第三就是AI輸出結果。
![]()
大家都會好奇AI模擬消費者到底準不準?我們嘗試做了兩三年,直到今年我覺得這個想法的結果是有效的。之所以今年有這個機會,是因為模型的升級,我給大家舉兩個現在行業的科研成果。
一群斯坦福的學者在2023年做了一個虛擬小鎮,25個居民由AI驅動,自發性的進行“人與人”的互動。后來同一個團隊寫了一篇論文 《Generative Agent Simulations of 1,000 People》(《用智能體來模擬1000個隨機的美國人》)。
他們用智能體采訪這些美國人約100多個問題(2小時),積累大量故事作為語料,輸入給大語言模型作為模擬智能體的基礎。然后用同樣的問題問真人和問智能體,最后得到答案是85%的回答可以互換,就是接近一致。
![]()
這里有一大批的科研,比如說人機交互的、經濟學的、社會學的,似乎都在做一件事情,就是讓大語言模型加上一個上下文、加上數據,能不能夠模擬扮演真人的這種隨機性。
最后我們發現,這是可行的。可以通過上下文、提示詞、大語言模型本身的能力等等一系列的工程方式,能夠讓模擬的效果達到85%。
我們是怎么做的?基本方法就是:用語料加上大語言模型,然后產生這種生成式的人設。Atypica可以將你的訪談記錄轉化為隨時可用的數字化消費者(Digital Consumers)。你的語料進來以后,我們還要進行多個維度消費者的解析,去做采訪或再去找數據,這樣才會讓這個消費者更真實。
為什么說數據不完全可行?舉一個例子。我的合作伙伴經常說:“我想通過分析社交媒體數據,進行新品研發、競品對比、銷售賣點提取,能不能爬取各個平臺的全量數據來分析,小紅書、抖音、微博、B站,越全越好?”
首先,爬數據合規性是問號。第二,爬取的數據可能有延遲。第三,爬來的全量數據,99%可能是垃圾。數據分析能真的剔除99%的垃圾嗎?
那為什么大家不去最好的商店買東西,而去垃圾堆里撿東西呢?所以全量數據是一個偽命題。
我們經常總結:因為過去都是這樣,所以我們應該這么做。世界不是線性的,歸納是謬誤。通過過去預測未來是有謬誤的。這些觀點來自大衛·多伊奇的《無窮的開始》。他認為科學發現不是觀察、歸納和總結,也不是看到數據就總結、歸因、得出結論。而是問題到猜想,猜想到批判,批判到更好的猜想。
愛因斯坦相對論、達爾文進化論等著名猜想,都不是先有數據驗證才想出來的,而是先有猜想,后有人驗證,這并非自然歸納。數據歸納法在商業場景中常用,但可能只是“黑天鵝事件”尚未出現。
在AI時代,我們不應依賴大模型、大數據,而應依賴每個人的“大猜想”。因此,訪談(即使是AI虛擬人)很重要。洞察和猜想的源泉,在于人和人的交流產生的增量,而非收斂的解題式結論。
市場變化太快,商品迭代以月為計,而傳統的社媒全量數據和調研報告時效性、執行度都堪憂,我們不能一邊快速迭代,一邊用戶理解卻按年來算。
我們希望通過Atypica這樣的產品,將用戶理解的速度、成本和覆蓋面都提高100倍。每個研究過程都有一個Nerdy統計按鈕,有四個維度:時間(后臺10到30分鐘實時訪談并產出結果)、步數(交互次數)、Agent(消費者數量)和Token(剝削的算力)。
![]()
40萬個token大約是一杯瑞幸咖啡的價格,我們用咖啡來定價,你可以請AI喝一杯咖啡,它給你結論。
我們的目的不是取代傳統方法,而是解決原來用戶理解太貴、太慢、覆蓋面太窄的問題,我們提供一個24小時在你身邊的用戶洞察agent。當你要做內容、商品、戰略或決定時,隨時有一個可以模擬的對象沙盤來問問反饋,并思考后果。
我們的產品在AI出海業務中發揮了真實的作用。詳情請看完整版課程:
![]()
![]()
啟示:AI擅長推理,人類就要反預測
第一個85分是我們的產品結論客戶滿意度打分是85分(100 分滿分),可能找麥肯錫做的結果也不一定有 85分。當AI可以做85分的時候,我們的工作會發生什么樣的變化?
AI既然能做到85分,我們就讓AI做到85分,那么人做的工作是從 85 分往上做到 100 分。
我們的產品現在100分的產品才有機會拿出來,85分就是底線。我們應該用好這個基礎,讓活去找人,不是人去找活。
第二個85是指模擬用戶的一致性是85%的概率是準的。那么另外無法被預測的15%是什么?
想象你是一個復雜立體的人,AI只看到你發的朋友圈、點贊的視頻、寫的郵件、搜過的問題,把你壓縮成一個概率模型。這就是AI最底層的邏輯:壓縮,越容易壓縮就越容易被取代、被預測,越容易被預測,在AI時代就越容易被取代。
當你越來越正常,越來越像那85%的時候,你就越容易消失,AI agent就可以取代你。
我們曾擔心被誤解,現在要擔心的是被徹底理解,以至于再也沒有驚喜,你的存在AI學不來,總結不出來,你寫的句子它不敢預測,做的決定它沒見過。
在AI時代,最需要做的就是一個難以被預測的人。
掃碼觀看完整版課程
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.