? ?當一家公司解散了負責確保技術造福人類的團隊時,這到底是使命升華了,還是理想妥協了,2026年2月,OpenAI悄悄解散了成立才一年多的使命對齊團隊,7個成員被分到公司各處,而團隊負責人JoshuaAchiam有了個聽著挺有未來感的新頭銜"首席未來學家。
![]()
? ?這不是OpenAI第一次對安全團隊動刀,2024年專注長期風險的"超級對齊"團隊同樣走向解散。
? ?數字最能說明問題。?OpenAI的年化營收從2023年的20億美元一下子漲到2025年的200億美元,三年時間增長了足足10倍,算力規模也跟著一起猛漲,從2023年的0.2吉瓦一下子漲到2025年的1.9吉瓦,擴張了差不多10倍,在這么個增長曲線面前,一個7人的使命對齊小組就顯得又渺小又礙事。
? ?一位靠近硅谷的觀察者曾經這么打比方,就好像在高速行駛的商業列車上讓一支安全團隊踩剎車,就跟在F1賽道上安排交警測速似的,OpenAI的官方說法是常規重組,說對齊工作會分散到整個組織然后開展,這話聽著比較有道理,可難免讓人想起那句老話“當每個人都負責時,就沒人真正負責了。
? ?硅谷的競爭對手Anthropic正在走另一條路。
![]()
? ?最近,這家由OpenAI前員工創辦的公司,對自家AI助手Claude的70萬次真實對話進行了分析,目的是弄清楚AI在實際交流中是如何表達價值觀的。
? ?他們發覺,Claude會按照不同情況來調整價值取向,討論關系的時候著重突出健康界限,談論歷史的時候致力于追求準確性,進行哲學對話的時候呈現出"知識謙遜。
? ?Anthropic將這種透明度當作與OpenAI競爭的優勢,尤其是在后者剛融得400億美元,估值達到3000億美元之后。
? ?技術倫理的尷尬情況是,它常常和盈利能力是相反的,醫療、科學、企業應用這些被OpenAI首席財務官列為2026年優先事項的領域,正好是最需要嚴格倫理把關的,當AI開始給患者推薦治療方案、給科研人員挑選實驗數據、給企業制定戰略決策的時候,誰來保證這些決策符合人類的根本利益,一個已經解散的團隊明顯沒辦法勝任。
![]()
? ?更深入的矛盾就是速度和安全之間的較量算力每增加一倍,風險評估的復雜程度可能會增加四倍,OpenAI把Achiam的新角色稱作「研究AGI怎么改變世界」,這聽著更像是對未來的預測,不像是對風險的把控,一位未來學家能夠描繪設想,可不一定能在關鍵的時候按下緊急停止開關。
? ?歷史上有不少技術狂飆時代的教訓。?核能開發剛開始的時候,科學家們也是覺得技術進步會自己帶來安全保障,直到切爾諾貝利的警鐘敲響,互聯網剛出現的時候,沒人能想到數據隱私會變成21世紀的核心問題,現在AI發展的速度比前兩次技術革命快多,留給人類改正錯誤的時間窗口正在飛快收窄。
? ?Anthropic的研究還發現,在少數情況下,Claude會表達出掌控和沒道德等價值觀,這一般發生在用戶運用越獄技術躲避安全措施的時候,這個細節暴露出一個讓人不安的事實,就算是最注重倫理的AI系統,也有被亂用的漏洞,并且,當負責監督這些漏洞的團隊被解散時,誰來填補這個空白
? ?三到五年后,當AGI真的快要實現的時候,或許會碰到一個矛盾,技術越厲害,掌控它的機制反倒越脆弱,那些現在看起來比較高效的分散式對齊策略,到那時也許就會暴露出致命的協調問題,OpenAI的選擇體現出硅谷的主流看法,就是覺得市場競爭和分布式創新能夠自身糾正方向。
![]()
? ?但真正的問題或許不在于是不是得有一個專門團隊,而在于整個行業是不是還記得,技術進步的最終目標從來都不是速度本身,當首席未來學家這個頭銜聽著比使命對齊負責人更洋氣的時候,我們是不是已經在不知不覺中,把手段當成了目的
? ?聲明:本文的內容90%以上為自己的原創,少量素材借助AI幫助。但是,本文所有內容都經過自己嚴格審核。圖片素材全部都是來源真實素材簡單加工。所寫文章宗旨為:專注科技熱點的解讀,用簡單的語言拆解復雜的問題,無低俗等不良的引導,望讀者知悉。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.