![]()
新智元報道
編輯:元宇
【新智元導讀】在Anthropic,有一位駐場哲學家Amanda Askell專門研究如何與AI模型打交道。她不僅主導設計了Claude的性格、對齊與價值觀機制,還總結出一些行之有效的提示詞技巧。哲學在AI時代不僅沒有落伍,反而那些通過哲學訓練掌握提示詞技巧的人,年薪中位數可以高達15萬美元。
假設你手上有一臺最新款的超級咖啡機。
你按了十幾次按鈕,就是做不出來你想要喝的那種咖啡。
問題不在于咖啡機的性能不夠強大,而在于你不知道正確的指令是什么。
在Anthropic,就有一個專門研究和AI這臺「超級智能咖啡機」溝通的人。
她既不是工程師,也不是程序員,而是一位駐場哲學家Amanda Askell。
![]()
Amanda Askell是一位受過哲學訓練的學者,負責協助管理Claude的性格設定
Askell是正兒八經的哲學科班出身。
她曾在牛津大學和紐約大學學習哲學,2018年獲得了紐約大學哲學博士學位。
![]()
畢業后,Askell曾在OpenAI擔任政策方向的研究科學家。
2021年她加入Anthropic,至今一直在該公司擔任對齊微調方向的研究科學家。
Askell負責為Anthropic的Claude注入某些性格特質,同時避免其他特質。
她因為主導設計了Claude的性格、對齊與價值觀機制,而被列入「2024年最具影響力的100位AI人物」 。
![]()
在Anthropic,Askell有一個「Claude耳語者」(Claude whisperer)的綽號。
這大概是因為她的研究方向,是如何與Claude溝通,并調整優化它的輸出。
用好AI
你需要一把「哲學鑰匙」
哲學,就好比打開AI這臺復雜機器的鑰匙。
近日,Askell分享了她制定有效AI提示詞的方法。
她認為提示詞工程需要清晰表達、不斷嘗試,以及哲學式的思考方式。
在Askell看來,哲學的一大核心能力,是能把思想表達得清楚而準確,而這正是發揮AI最大價值的關鍵:
「很難總結其中的奧妙,一個關鍵是要愿意頻繁地與模型互動,并且認真觀察它每一次的輸出」。
Askell認為好的提示詞作者應該「非常愛嘗試、敢于試驗」,但比不斷試錯更重要的是哲學思維。
「哲學思維確實能幫助寫提示詞,我很大一部分的工作就是盡可能清晰地向模型解釋我正在思考的問題、擔憂或想法是什么」。
哲學思維對于清晰表達的重視,不僅能幫助人們優化自己的提示詞,也有助于更好地理解AI本身。
![]()
https://platform.claude.com/docs/en/build-with-claude/prompt-engineering/overview?utm_source=chatgpt.com
在Anthropic發布的《提示詞工程概覽》中,就提出了包含清晰表達在內的提示詞技巧:
清晰且直接(Be clear and direct);
給出示例(multishot/few-shot prompting),使用多輪示例來說明預期輸出;
如果任務復雜,讓模型分步思考(chain-of-thought),以提高準確性;
給Claude一個角色(system prompt/role prompt),以便設定上下文、風格、任務邊界。
這意味著我們在與Claude聊天時,可以把它設想為一個知識豐富、非常聰明,但又時常健忘、缺乏背景知識的新員工,需要你給出明確的指示。
也就是說,它并不了解你的規范、風格、偏好或工作方式。
你越精確說明需求,Claude的回復就會越好。
![]()
Netscape(網景)聯合創始人Marc Andreessen
Netscape(網景)聯合創始人,硅谷著名技術企業家與風險投資人Marc Andreessen不久前也表示,AI的強大之處在于把它當成「思維伙伴」:
「AI的藝術就在于你問它什么問題」。
在AI時代,提出一個問題往往比解決一個問題更重要。
或者說,正確地提出問題(提示詞工程),就是在高效解決問題。
人類把提問的部分(提示詞)做好了,解決問題的部分主要交給AI就可以了。
這也是為什么掌握提示詞技能的人能夠找到高薪工作的原因。
根據levels.fyi(科技從業者查詢薪資的平臺)的數據,提示詞工程師的年薪中位數高達15萬美元。
AI不是「某個人」
別再問它「你怎么看了?」
![]()
近日,Karpathy在一篇推文中表達了他對提示詞的看法。
他建議人們不要把大模型當成一個「實體」,而要把它看作一個「模擬器」。
比如,在探索某個話題時不要問它你怎么看xyz(某個問題),因為你的提問對象并不是一個真正的個體。
而是應當這樣問:
「如果要討論xyz,找哪些角色/人群會比較合適?他們會怎么說?」
Karpathy認大模型可以切換、模擬很多不同的視角,但它并不會像我們那樣,長時間地思考xyz并逐漸形成自己的觀點。
因此,如果你用「你」來提問,它會根據微調數據里的統計特征,自動套用某種隱含的「人格嵌入向量」,再以那種人格的方式來回答。
Karpathy的這種解釋,在一定程度上破除了大家想象中「在向一個AI發問」時所帶來的那種神秘感。
![]()
針對Karpathy的觀點,網友Dimitris提到,模型是否會自動「扮演」成最有能力回答問題的專家人格。
Karpathy回答這種現象確實存在,在某些任務中確實可能工程化了一個「人格」,比如讓模型模仿專家、通過獎勵模型得到高分、模仿用戶喜歡的風格等。
這樣會出現某種「復合型人格」,但這種人格是刻意工程疊加而形成的,并非自然形成的人類心智。
所以,AI從本質上仍然是token預測機器。模型的所謂「人格」,只是通過訓練、人為約束、系統指令等手段疊加上的「外殼」。
對此,Askell也提到了類似觀點。
盡管Claude的個性中仍有一種「類人的特質」,但它沒有情感、記憶或自我意識。
因此,它所表現出的任何「個性」都只是復雜語言處理的結果,而非內在生命的體現。
你以為AI在「理解世界」
它可能只是「換頻道」
開發AI模型,有時感覺就好像在玩打地鼠游戲。
剛修好了模型在一個問題上的錯誤回答,它又開始在別的問題上出錯。
層出不窮的問題就像那些不斷從洞口探出頭的地鼠一樣。
OpenAI等機構研究人員,將這類現象的一種表現被稱為「裂腦問題」(split-brain problem):
提問方式稍微改變一下,就可能讓模型給出完全不同的答案。
「裂腦問題」背后反映出當今大模型的一個致命缺陷:
它并不會像人類那樣逐步形成對世界運作方式的理解。
一些專家據此認為,它們無法很好地泛化,難以處理訓練數據之外的任務。
這也可能帶來一個質疑:
投資者向OpenAI、Anthropic等實驗室投入數百億美元,希望它們訓練出的模型能在醫學、數學等領域做出新的發現,這樣的投入是否真正有效?
「裂腦問題」通常出現在模型開發的后期階段,也就是后訓練階段。
在這一階段,模型會被輸入經過精心挑選的數據,比如醫學、法律等特定領域的知識,或者是學習如何更好地回應使用者。
比如,一個模型可能被訓練在數學題數據集上,以便更準確地解答數學問題。
它也可能被訓練在另一個數據集上,以提升回答時的語氣、個性和格式。
但這樣做有時會讓模型無意間學到「分場景作答」,它會根據自「以為」遇到的場景來決定回答方式:
是一個明確的數學問題,還是它在另一個訓練數據集中經常見到的那類更泛化的問答場景。
如果用戶用正式的證明風格來提數學問題,模型通常能答對。
但如果用戶用更隨意的口吻提問,它可能誤以為自己是在一個更偏向被獎勵「友好表達、格式漂亮」的場景里。
于是可能為了這些附加屬性而犧牲準確性,比如寫出一個排版很好、甚至帶表情符號的答案。
也就是說A在回答問題的時候也會「看人下菜碟」:
如果覺得用戶問的是「低水平」的問題,它就會給出「低水平」的回答;如果它覺得用戶問的是「高水平」的問題,它也會呈現「高水平」的回答。
這是模型在對提示詞格式「過度敏感」,而導致出現的一些本來不該出現的細微差別。
比如提示詞里是用破折號還是冒號,都可能影響模型回答的質量。
「裂腦問題」凸顯了訓練模型的困難性和微妙之處,尤其是要確保訓練數據的組合恰到好處。
它也解釋了為什么許多AI公司愿意砸下數十億美元,請數學、編程、法律等領域的專家來生成訓練數據,避免他們的模型在專業用戶面前繼續犯一些基礎錯誤。
「裂腦問題」的出現,也降低了人們對于AI即將自動化多個行業(從投行到軟件開發)的預期。
雖然像AI一樣,人類同樣也會誤解問題。
但AI存在的意義正是在于彌補這些人類的不足,而不是通過「裂腦問題」放大這種不足。
因此,必須要有具備哲學思維和某個領域的專業知識的人類專家,通過提示詞工程來形成大模型訓練和使用的「說明書」,人們使用這些「說明書」與大模型溝通,才能應對大模型的「裂腦問題」。
而且,在大模型出現「擬人」特征時,還要避免把大模型當成「人」的錯覺,也有助于我們更好地發揮它的價值,降低機器幻覺。
這其實都非常需要哲學訓練,使自己與AI的對話清晰富有邏輯。
從這個角度來說,對于大部分人來說,能不能用好AI,不是取決于你的AI專業知識,而是取決于你的哲學思維能力。
參考資料:
https://www.theinformation.com/articles/ais-split-brain-problem?rc=epv9gi%20
https://x.com/karpathy/status/1997731268969304070%20
https://www.businessinsider.com/anthropic-philosopher-amanda-askell-tips-ai-prompting-whispering-claude-2025-12
秒追ASI
?點贊、轉發、在看一鍵三連?
點亮星標,鎖定新智元極速推送!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.