這兩天,AI圈里有個事,我越看越覺得,不對勁。
表面上看,是 Anthropic 又一次把自家最強的模型和能力,捂住了,不公開發。
理由也很堂皇,安全,風險,不能亂放,怕被濫用。
乍一看,好像沒毛病。
你想想看,模型越強,越可能被拿去搞攻擊、搞欺騙、搞自動化破壞。
那不發,就是一種負責。
但轉念一想。
這事,真的只是「安全起見」這么簡單嗎?
似乎并不是,真正值得討論的從來不是 Anthropic 那個沒公開的模型到底多厲害,也不是它到底發現了多少漏洞,參數多夸張,跑分多離譜。
真正關鍵的是,這件事幾乎是在明牌告訴所有人。
AI 行業,已經開始分裂了。
不是產品路線有點不同。
不是商業模式有點區別。
而是更深的一層。
世界觀,開始分叉了。
一邊在喊開源,喊普惠,喊人人都該有資格摸到最強的能力。
另一邊在說,不行,這玩意太危險了,越強越不能放,越強越要關起來,最好只在少數可控的場景里用。
你會發現,這已經不是單純的公司策略之爭了。
這是兩套完全不同的信仰,在同一個行業里正面撞上了。
這才是最有意思的地方。
也是最嚇人的地方。
![]()
很多朋友可能不知道,AI 行業過去這幾年,表面上一直特別熱鬧,今天誰發新模型,明天誰開源一套權重,后天誰又說自己「重新定義推理能力」。
看著像百花齊放。
但如果你把這些新聞稍微往深洼里探一下,你會發現,真正的分歧,其實一直都埋著。
只不過以前大家都還在卷能力。
誰更快,誰更便宜,誰更會寫代碼,誰上下文更長,誰視頻更真。
那時候的爭論,更多是產品層的。
而現在,不一樣了。
現在開始進入一個更麻煩的階段。
模型能力已經強到,讓公司自己都開始怕了。
這話聽著有點刺耳但,我覺得這才是今天 AI 行業最誠實的一面。
一邊拼命融資,拼命講故事,拼命告訴市場,AI 會重構一切,會改寫未來,會成為基礎設施。
另一邊,等它真做出一些更強的東西了,又開始說,這個不能給所有人,這個要控制,這個要謹慎,這個只能限定場景。
你說這算什么?
這其實就是行業進入了一種很奇怪的狀態。
它一邊靠「無限想象空間」吃紅利。
一邊又靠「有限開放權限」做防火墻。
這里面的張力太大了,而且,越往后,只會越大。
![]()
Anthropic 這次把這種分裂,暴露得太徹底了。
如果你站在安全派那邊,這事其實非常好理解。
強模型不是普通工具。
它不是一個更聰明的搜索框,也不是一個更會寫文案的助手。
它可能具備發現漏洞、組織攻擊路徑、自動化執行復雜任務的能力。
那你怎么可能像發個聊天機器人一樣,隨手扔到公網上?
說真的,如果站在這個角度想,謹慎,甚至過度謹慎,都有道理。
因為一旦真出事,后果不是「模型翻車」,而是現實世界有人被攻擊,有系統被打穿,有機構要背鍋。
安全派的邏輯,其實特別樸素。
有些能力,一旦擴散出去,你收不回來。
對,這就是他們真正害怕的。
不是能力本身,是擴散。
回到這一塊,我其實挺能理解這種恐懼。
因為技術史上,很多真正改變秩序的東西,一開始都不是因為「不夠強」出問題,而是因為「太容易擴散」才變得不可控。
問題也恰恰出在這里。
如果你站到另一邊,也就是開源派、普惠派、擴散派這邊,你同樣能說出一整套非常硬的邏輯。
憑什么最強能力只能掌握在少數幾家公司手里?
憑什么你一邊享受著全世界開發者、研究者、開源社區、公共語料、公共知識帶來的紅利,一邊到了最關鍵的能力節點,就說這個不給看了,那個不給用了?
說實話,這種不舒服,我覺得很多人是能共情的。
因為它背后不是單純的技術爭論。
而是權力問題。
誰有資格定義風險。
誰有資格控制能力。
誰有資格決定,普通人應該知道什么,應該接觸到什么,應該被允許用到哪一步。
你會發現,一旦問題走到這里,味道就變了。
它不再只是「安全第一」這么簡單。
它開始變成一種新的能力分配秩序。
說白了,就是不是所有人都配擁有更強的能力。
這就麻煩了。
因為 AI 這個行業,一開始最迷人的地方,恰恰就是它看起來像是在削平門檻。
小公司能做出大產品。
普通人能借助模型擁有過去大型機構才有的能力。
學生、個體創作者、獨立開發者,第一次真切地覺得,自己和大公司之間的差距,好像可以被技術壓縮一點。
你還沒來得及高興多久,對方又說,不好意思,梯子不能給所有人上,因為上面太危險。
那你說,普通人會怎么想?
肯定不只是失望。
更會覺得,這玩意到底是要改變世界,還是要重新定義誰有資格接近世界。
而且,這種事,已經不只是發生在 Anthropic 這種偏底層模型公司身上了。
![]()
如果你最近關注過 Seedance 2.0,其實也能感覺到一種很微妙的變化。
它的問題不在于能力不強。
恰恰相反,很多人之所以會討論它,就是因為大家都看得出來,這玩意是有東西的,是能打的,是有想象空間的。
但最后,大家都知道,它限制了功能。
問題來了,能力做出來了,不代表你就一定能完整地用到。
這話聽著有點繞,但我是真的覺得,這可能是接下來 AI 產品最核心的現實之一。
以前大家討論 AI,更多是在問,這家公司行不行,這個模型強不強,這個功能能不能做。
而現在,問題慢慢變成了另一種味道:
但它愿不愿意給你做,給你開放到哪一步,用什么條件給你,用完之后會不會突然收緊,這些全都變成了新問題。
你會發現,Anthropic 那邊是「最強的東西先別發」。
Seedance 2.0 這邊更像是「東西可以發,但功能、權限、邊界、使用方式,要重新切」。
一個是直接不放,一個是放,但不是完整地放。
表面上看,這兩種做法不一樣。
但說到底,它們背后其實是同一個行業趨勢:
AI 公司現在比起證明自己有多強,更在意決定你能接觸到多少。
這就很值得警惕了。
因為這意味著,未來普通用戶面對 AI,可能越來越不是一個「有沒有」問題,而是一個「給你多少」問題。
不是沒有能力,而是能力被切片了,被分層了,被權限化了,被條件化了。
這時候,普通人那種最真實的焦慮才會慢慢浮出來。
不是說你永遠用不到 AI。
而是你能用到的那部分,可能永遠是被平臺篩過、裁過、限過、包裝過的那部分。
這個變化比單純的模型強弱,更影響現實。
你以為自己正在擁抱一個越來越強的時代。
但也有可能,你真正拿到手的,只是一個越來越精致、越來越昂貴、越來越受控的入口。
把 Anthropic 和 Seedance 2.0 放在一起看,它們不是兩個孤立事件。
它們更像是同一股潮水,在不同位置拍出來的浪花。
所以你會發現,今天 AI 行業最激烈的沖突,已經不是 OpenAI 對 Google,Anthropic 對 Meta,這種公司層面的排名賽了。
那種競爭當然還在。
但更底下的一層,已經悄悄換了戰場。
變成了:到底應該讓 AI 更像一種公共能力,還是更像一種持牌武器?
開源派相信,能力越分散,社會整體越強,創新越快,濫權越少。
安全派相信,能力越集中,控制越穩,外部性越小,系統性風險越可控。
你看,連「什么叫負責任」的定義都不一樣了。
這不是哲學分裂,是什么?
![]()
我有時候覺得,今天很多人還沒意識到這件事的重要性,是因為大家還習慣把 AI 新聞當成產品新聞看。
誰又更新了、誰又融資了、誰又發布了、誰又不發布了。
但如果你換一個角度,把它當成「新秩序爭奪」來看,很多事一下子就通了。
為什么有的公司越來越強調安全敘事。
為什么有的公司越來越強調開源敘事。
為什么有的模型越強,離普通用戶反而越遠。
為什么有的團隊哪怕自己燒錢,也要把能力盡快公開。
為什么有的產品哪怕功能已經做出來了,真正給到用戶的卻永遠是被切過的一層。
不是策略不同,而是他們對未來世界到底該怎么運轉,判斷根本不一樣。
這并非是和普通大眾毫不相關的事,實際上跟普通人的關系,比很多人想的近得多。
因為一旦「能力越強,開放越少」變成行業共識,最先失去東西的,不是什么頭部公司。
而是普通人、是中小團隊、是獨立開發者。
是靠一點新工具縮小差距的人、是那些本來終于摸到梯子的人。
你會失去什么?
先是失去最強工具的直接使用權。
再往后,失去的是議價權。
因為一旦最強能力只掌握在少數閉源公司手里,它們就不僅是在賣模型。
它們是在賣通行證、賣接口、賣訪問權。
甚至是在賣你能在多大程度上接近未來。
這就很嚇人了。
因為那時候,AI 不再只是效率工具。
它會越來越像一種基礎資源。
而歷史已經反復證明過一件事。
當某種基礎資源被少數人高度控制之后,普通人的問題從來不是「能不能用」,而是「用到哪一步」「花多少錢」「什么時候被限流」「規則是誰定的」。
這話聽著有點重,但我是真的覺得,現在苗頭已經出來了。
而且,越往后,大家越會感受到這種差別。
很多人現在還在為一個模型更會寫代碼、更會畫圖、更會推理而興奮。
但轉念一想,更該盯住的,可能不是能力曲線,而是開放曲線。
到底是越強越開放,還是越強越封閉。
到底是技術紅利越來越普及,還是能力高地越來越收縮。
這兩條路,最后通向的是兩個完全不同的世界。
當然,我也不想把事情說得太絕對。
安全風險真實存在,開源也不是天然無害。
真正棘手的地方恰恰在這里。
這不是一邊純好,一邊純壞。
而是兩邊都拿得出理由,兩邊都能說自己是在保護未來。
因為最難討論的問題,從來不是誰明顯錯了。
而是當兩邊都看起來有道理的時候,我們到底該把權力交給誰。
說實話,我到現在也不覺得這個問題有一個特別輕松的答案。
我自己也還在摸索,但至少有一件事,我越來越確定。
今天 AI 行業最值得警惕的,不是哪個公司又出了一個多嚇人的模型。
而是整個行業,正在悄悄接受一種新的默認規則。
能力越強,開放越少,權限越細,普通人真正能拿到手的那一部分,反而未必越來越多。
如果這條規則最后真的被所有人默認了,那普通人失去的,可能不只是工具。
而是進入下一輪生產力革命中心地帶的資格。
![]()
我們第一次特別清楚地看到,AI 行業現在已經不只是路線不同。
它開始出現了真正意義上的陣營分裂。
一邊相信擴散。
一邊相信控制。
一邊相信更多人應該更早拿到能力。
一邊相信越強的能力越應該被關進玻璃柜。
另一邊則開始用更柔軟的方式做同樣的事,不是不讓你碰,而是只讓你碰到被切過的一層。
你說哪邊一定對?我不敢說。
但有一點,應該越來越清楚了。
這已經不是一次產品爭論。
也不是一次公司公關。
這是 AI 行業的第一條真正分水嶺。
而且,從今天開始,這條線只會越來越深。
如果你再往后看一步,你會發現,真正的問題甚至還不是 Anthropic 怎么選。
而是未來越來越多公司,大概率都會被迫選邊站。
因為模型能力繼續往上走,安全爭議一定會更大。
商業競爭繼續變激烈,開源壓力也一定會更大。
監管會介入、資本會催促、開發者會反彈、用戶會焦慮。
國家會重新定義什么叫可控、什么叫可用、什么叫不能擴散。
到那個時候,今天我們看到的,可能根本不是什么孤立事件。
而只是一個開頭。
一個關于未來 AI 權力結構,誰來定義,誰來持有,誰來分配的開頭。
而普通人,恰恰最該在這個時候保持清醒。
因為一旦規則先被定完了,你再進去,往往就只能接受別人已經寫好的游戲說明書。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.