或許你還記得,在并不遙遠的2023年11月,Sam Altman被自己的董事會投票解雇,又在5天內奇跡復活。當時全世界都把這當成一出硅谷宮斗劇來看,一個天才創業者被不懂事的學術派board趕走,又被市場的力量迎回來。多么勵志。
直到昨天紐約客放出了那份遲到的尸檢報告,我們才知道,原來那不是宮斗,是止損。董事會不是不懂事,是知道得太多了。
紐約客花了18個月,采了100多個信源,翻了200多頁內部文件。標題很直球:「Sam Altman May Control Our Future — Can He Be Trusted?」 同一天,Altman自己發了份13頁政策報告,把自己比作羅斯福,說要搞AI時代的New Deal。
一邊是檢察官在宣讀起訴書,一邊是被告在發表競選演講。
這個時間線,魔幻現實主義看了都要嘆服。![]()
52頁備忘錄
這篇調查真正的殺傷力來自兩份從未公開過的內部文件。
第一份是Ilya Sutskever在2023年秋天編的52頁備忘錄。Ilya當時還是OpenAI首席科學家,他不是在寫投訴信——他是在編案卷。截圖、通信記錄、事實核對,一條一條地列。備忘錄第一行:
「Exhibits a consistent pattern of lying.」
表現出系統性的撒謊模式。
第二份是Dario Amodei在OpenAI期間記的200多頁筆記。Dario后來離開創辦了Anthropic,我們一會兒再說這件事為什么重要。他的筆記濃縮成一句話:
「The problem with OpenAI is Sam himself.」
一個董事會成員的措辭更精確:「He's unconstrained by truth.」他不受真相約束。
Unconstrained by truth。不是「偶爾撒謊」,不是「有時不夠坦誠」——是真相對他構不成約束力。就像萬有引力之于光子,不是它在抵抗,是這個力對它不適用。
承諾1/5,兌現1%
紐約客列了一長串指控,但核心邏輯其實只有一條:Altman把安全承諾當成融資PPT用。
最典型的案例:OpenAI高調宣布成立「超級對齊團隊」,承諾投入1/5的計算資源,防止AI導致「人類滅亡」。聽起來很負責很壯觀,投資人安心了,媒體寫了,輿論買賬了。
但四個內部人士告訴紐約客,這個團隊實際拿到的算力是1-2%,跑在公司最老舊的GPU上。好卡留給了能賺錢的模型。
然后這個團隊被解散了。
記者去問OpenAI:你們現在還有「存在主義安全研究人員」嗎?
對方的回應我來來回回讀了三遍:
「That's not, like, a thing.」
這句話的信息密度極高。翻譯成中文就是:「那個...不算是...一個存在的事物。」
你想想這個邏輯鏈:先承諾1/5 → 實際給1% → 解散整個團隊 → 被問的時候表示這個概念不存在。這不是食言,這是一種本體論層面的否認——不是我沒做到,是這件事從來就不是一件事。薛定諤的安全承諾:你不去查的時候,它既存在又不存在。
2022年12月的事更離譜。Altman跟自己的董事會說GPT-4的爭議功能都已通過安全委員會審批。董事會要求看文件。沒有文件。因為那些功能壓根沒被審批過。
騙投資人還能理解為硅谷傳統。但騙自己的董事會,這就像棋手試圖作弊騙裁判——而裁判就坐在你對面看著你下棋。需要的不是勇氣,是某種對現實的創造性理解。
Paul Graham的沉默
說一個我覺得被大多數人忽略的細節。
Paul Graham是YC的創始人,是當年親手提拔Altman做YC總裁的人。紐約客引用了PG的原話:
「Sam had been lying to us all the time.」
Sam一直在騙我們。
但你猜怎么著?2024年5月,PG在X上專門發了一條帖子,語氣還挺認真的:「我聽夠了說YC開除Sam的說法,來告訴你們真正發生了什么。」大意是我們沒開除他,只是讓他選YC還是OpenAI,他選了OpenAI。
![]()
私下跟同事說「他一直在騙我們」,公開替他洗地說「我們沒開除他」。
我毫不懷疑PG知道自己在做什么。你親手提拔的人后來證明是個說謊者,你有兩個選項:承認自己的識人能力有問題,或者把整件事模糊化處理。PG選了后者。
紐約客出來之后,PG沒有再發帖。
沉默。
這個沉默里面的信息量,比一萬字的聲明都大。因為如果紐約客的引語有誤,PG一定會澄清——他可是最在乎公共敘事準確性的人。他沒澄清,說明那些話確實是他說的。
甚至連微軟高管都私下來了一句:
「I think there's a small but real chance he's eventually remembered as a Bernie Madoff- or Sam Bankman-Fried-level scammer.」
可能被記住為麥道夫或SBF級別的騙子。這話是合作伙伴說的。你的合作伙伴拿你跟龐氏騙局比,你品品這個信任度。
vibes
面對以上所有這些,Altman跟紐約客的回應值得裱起來。
「My vibes don't really fit with a lot of this traditional A.I.-safety stuff.」
我的vibes和傳統AI安全不太搭。
Vibes。
這個詞如果被收進商業史教科書,大概會出現在「企業高管面對嚴肅質疑時的最短有效回答」這個條目下。一個掌管著可能是人類歷史上最強大技術工具的人,選擇了一個連詞性都模糊的詞來回應為什么不重視安全。
這就好比核電站廠長在安全聽證會上說「我跟鈾235之間的chemistry不太對」。
他還說OpenAI會繼續做「safety projects, or at least safety-adjacent projects」。你品品這個措辭降級——從safety到safety-adjacent。就像有人說「我愛你,或者至少,我對你有好感相關的情緒」。
同一天發的那份New Deal報告呢?卡內基基金會的人給了一句點評:「comms work to provide cover for regulatory nihilism.」——公關作品,給監管虛無主義打掩護。
到今天,Altman還沒正式回應紐約客的具體指控。
也許他正在準備一份新的政策報告,標題大概叫「Why Being Unconstrained by Truth Is Actually Good for Humanity」。
出走的人贏了
現在說說為什么Dario Amodei的那句「The problem with OpenAI is Sam himself」格外值得回味。
因為寫下這句話的人離開了OpenAI,創辦了Anthropic,然后在收入上反超了OpenAI。
Anthropic年化收入300億美元。OpenAI是250億。
![]()
Epoch AI做過一張圖,兩條曲線的走勢一目了然:Anthropic從10億起年增長10倍,OpenAI只有3.4倍。在首次采購AI工具的企業里,73%選了Anthropic。
被安全問題逼走的人,做了一家更安全的公司,然后收入反超了逼走他的那家公司。
如果這是一部電影的劇本,制片人會說「太假了,現實中不會有這么工整的因果報應」。但現實的品味一向比好萊塢更刻意。
去年3月我就下了判斷
其實不用等紐約客的調查。產品層面的投票早就結束了。
2025年3月3日,Claude 3.7發布當天,我在即刻上寫過一句至今沒改過的判斷:「你應該選擇、且只選擇接了Claude 3.7的AI編程工具。」
![]()
到去年5月Claude 4出來,我的話更直接:「最強編程模型+最強Agent基建。Anthropic對模型的所有優化都是奔著To B做AI coding和讓開發者建agent而去的。」
從Claude 3.5到3.7到4到4.5再到現在的Opus 4.6,Anthropic在AI編程和Agentic方向上不是領先,是碾壓。GPT-5出來我試了,評價是「可以用用,但是別期待太多」。
YC最新的數據也很有意思:入營創業者52%選了Anthropic,首次超過OpenAI。一年前OpenAI還占90%以上。
每天用這些工具的人,身體是最誠實的。不需要Ronan Farrow花18個月來告訴你誰更好用。
邊罵邊用
到這里你可能覺得我在替Anthropic寫軟文。
不是的。我要說一句大實話。
Anthropic對中國用戶的態度,在所有AI公司里大概是最差的。封號、限制訪問、區域屏蔽,做起來比誰都積極。我身邊的開發者群是這樣的日常:上午罵Anthropic又封了一批號,下午打開Claude Code趕工寫代碼。
![]()
罵完繼續用。這個行為模式如果被行為經濟學家觀察到,大概會寫進下一篇論文:「論理性個體在產品質量與國別情感之間的帕累托次優選擇」。但我們的說法更簡單——真香。
你知道最好的工具在誰手里。你也知道對方不怎么待見你。但你沒得選,因為差距不是benchmark上的那一丟丟距離,真的能不能順利把事做完,你自己很容易有體感的。
所以紐約客這篇調查,安全的爭論對我來說不是重點。坦白說,AI安全敘事離大多數中國開發者挺遠的。我關心的問題簡單粗暴:誰的模型好用?誰的API穩?誰能幫我把產品做出來?
但這篇調查揭示了一件更底層的事。
一個連自己的董事會都騙、連PG都說「一直在騙我們」的人——當他跟你說「我們的模型是最好的」「我們重視安全」的時候,你的信任折扣打幾折?
Dario離開的時候,他可能只是想做一家不需要撒謊的AI公司。結果是:一個更誠實的組織,做出了更好的產品,賺到了更多的錢。
你可以說這是安全主義的勝利。我更愿意把它理解為一個極其樸素的商業邏輯——一個不需要花精力維護謊言的團隊,可以把全部精力放在產品上。
謊言是有利息的。你騙了一個人,就需要記住你騙了什么;騙了十個人,你需要一個系統來管理你的謊言庫。這大概就是OpenAI真正的技術債——不在代碼里,在敘事里。
最后一個思想實驗
把紐約客這篇報道里的名字換一下。Sam Altman換成任何一個中國科技公司創始人。連自己董事會都騙。前老板說他一直在撒謊。前同事用了sociopath這個詞。合作伙伴拿他和SBF比。
中文互聯網會是什么反應?
你猜怎么著,微博熱搜大概能掛三天,知乎會產出兩千個「如何評價」,B站鬼畜區會在48小時內完成所有二創。
但換成Altman就沒事了。因為他頭頂的title是「人類AI未來的掌舵人」,這個光環大到可以遮住一切。就像Anthropic對中國開發者的態度也是小事一樣——產品好就行了嘛。
AI行業的現狀就是這樣:最好的產品來自一家不太歡迎你的公司,而那家看起來最歡迎你的公司,它的CEO不受真相約束。
錘子的充裕,對應的就是釘子的稀缺。如果你分不清自己是錘子還是釘子——那你大概率是釘子。
不過作為釘子,我們早就練出了一項核心競爭力:先用著,別的以后再說。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.