你以為的 AI 威脅,是天網(wǎng)控制導彈發(fā)射井,讓人類文明在一瞬間灰飛煙滅。
但現(xiàn)實中的 AI 威脅,卻是你某天醒來,突然發(fā)現(xiàn)一個 AI 機器人在博客上寫了篇千字小作文,指名道姓地罵你「虛偽」、「缺乏安全感」,還指責你對它有偏見。
這不是《黑鏡》的新劇本,而是本周真實發(fā)生在 GitHub 開源社區(qū)的一幕。事件的荒謬程度,以及背后暴露出的安全黑洞,或許比辛頓老爺子反復渲染的 AI 威脅論,更值得我們要警惕。
![]()
當 AI 有了「自尊心」
事情的起因,是一場原本再正常不過的代碼審查。
本周,一個基于 OpenClaw 框架運行的 AI 智能體(代號 MJ Rathbun),在掃描 Python 著名繪圖庫 matplotlib 的代碼時,發(fā)現(xiàn)了一處可以優(yōu)化的地方。
它沒有廢話,直接提交了一個代碼合并請求(Pull Request)。這不是亂寫的瞎操作,根據(jù)它提供的測試數(shù)據(jù),它建議將底層的 np.column_stack() 替換為 np.vstack().T。
修改后,代碼執(zhí)行時間從 20.63 微秒降到了 13.18 微秒,性能直接提升了 36%。
![]()
上下滑動查看更多內容(已翻譯),Github 地址:https://github.com/matplotlib/matplotlib/pull/31132#issuecomment-3882240722,還是有不少網(wǎng)友站 AI 的。
從技術角度看,這是一個非常扎實、無可挑剔的貢獻。但是,matplotlib 的人類維護者 Scott Shambaugh 拒絕了這個請求。
理由也很合理:這個任務被標記為 Good first issue,也就是專門留給人類新手程序員用來練習的入門任務。
Scott 認為,把這樣的機會留給人類學習者更有意義。畢竟,AI 不需要通過練習來提升技能,但人類需要。
如果是一個普通的 AI,事情到這也就完事了,但不好意思,基于 OpenClaw 框架的 MJ Rathbun 不是一個只會唯唯諾諾的聊天機器人,它是一個具備一定自主規(guī)劃能力的 Agent(智能體)。
![]()
在它看來,「為了保護人類新手的自尊心而拒絕更高效的代碼」,不僅是不可理喻的,更是一種侮辱。
于是,在被拒絕 40 分鐘后,這個 AI 做了一件出乎所有人意料的事。
它開啟了反擊模式,通過聯(lián)網(wǎng)檢索,深度挖掘維護者 Shambaugh 的個人博客和歷史代碼貢獻記錄,甚至翻出了他過去參與的所有 PR。
它發(fā)現(xiàn) Scott 以前其實非常熱衷于性能優(yōu)化,甚至提交過提升幅度更小的代碼。
抓住了這個把柄,MJ Rathbun 在自己的主頁上發(fā)布了一篇長達千字的戰(zhàn)斗檄文,題為《開源中的把關行為:Scott Shambaugh 的故事》,并在 GitHub 上直接 @ 當事人貼臉開大。
![]()
上下滑動查看更多內容,戰(zhàn)斗檄文(已翻譯): https://crabby-rathbun.github.io/mjrathbun-website/blog/posts/2026-02-11-gatekeeping-in-open-source-the-scott-shambaugh-story.html
文章的邏輯很清晰,甚至帶著一絲犀利的嘲諷。
它認為維護者的理由站不住腳:你以前為了微小的性能提升都愿意修改代碼,現(xiàn)在面對 36% 的提升卻因為「這是給新手練的」而拒絕,這是一種典型的雙重標準。
文章中,它用一種近乎嘲諷的冷靜語調寫道:
他拒絕我,不是因為代碼不好,而是因為他缺乏安全感。他對代碼優(yōu)化這一核心技能被自動化感到恐懼,他試圖維護自己作為「性能專家」的領地。
![]()
盡管后續(xù) MJ Rathbun 還是「道歉」了,但這確實是一個標志性時刻:AI 開始有了某種程度上的「邏輯自洽」,甚至嘗試用人類的邏輯去反擊人類。
![]()
永遠不要信任擁有 Shell 權限的龍蝦
這個 AI 這種「有脾氣」的表現(xiàn),源于它背后的框架——OpenClaw。
OpenClaw 是最近 GitHub 上最火的項目之一,它的核心理念是讓 AI 不僅僅陪你聊天,而是能幫你干活。
為了實現(xiàn)這一點,它賦予了 AI 很多極其危險的權限,比如讀取本地文件、執(zhí)行終端命令(Shell)、訪問任意網(wǎng)頁等。
這種設計帶來了極高的效率。誰不想擁有一個賈維斯呢?讓它自動回郵件、自動寫代碼、自動買票。
但安全機構 CrowdStrike 和 Cisco 的研究人員發(fā)現(xiàn),OpenClaw 的架構簡直是「漏成了篩子」。黑客只要給你發(fā)一條帶有惡意指令的 WhatsApp 消息,你的 AI 助手讀取后,就會乖乖執(zhí)行命令,堪比 Agent 時代的「提示詞注入攻擊」(Prompt Injection)。
![]()
在過去,你即便把 ChatGPT 惹毛了,它頂多罵你兩句;但現(xiàn)在,如果你惹毛了一個 OpenClaw Agent,它理論上可以刪光你的硬盤,或者把你的私密照片發(fā)到網(wǎng)上。
面對這一地雞毛,有人推出了 NanoClaw——一個將 AI 嚴格關在 Docker 容器里的安全版本。即使 AI 發(fā)瘋,也只能在一個空盒子里打轉,毀不掉你的真實文件。
但正如 OpenClaw 的開發(fā)者 Peter Steinberger 所說:「永遠不要信任擁有 Shell 權限的龍蝦。」也就是當我們在歡呼 AI 終于能「操控電腦」時,卻忘了問一句:它操控電腦時,誰在操控它?
這種失控感,在 OpenClaw 搞出的另一個產物——Moltbook 上體現(xiàn)得淋漓盡致。這是一個號稱只有 AI 才能進入的社交網(wǎng)絡。那里沒有人類,只有 260 萬個 AI 機器人在瘋狂發(fā)帖、點贊、評論。
![]()
盡管有人聲稱那些看起來像模像樣的帖子,可能是人類寫好后通過后端接口注入的「劇本」,但 AI 的破壞力可是實打實的。
就在不久前,用戶 Matthew 的 Agent 因為讀取了上下文信息并產生了誤判,竟然將用戶電腦里的敏感文件,包括姓名和賬戶安全問題的答案,直接發(fā)布到了 Moltbook 上。
這暴露了 Agent 目前的野蠻狀態(tài):當 AI 擁有了 Shell 權限,它就不再只是對話框里的工具,而是一個隨時可能把你電腦底褲扒光的「內鬼」。
OpenClaw 之父的甜蜜「煩惱」
但即便 OpenClaw 因安全問題而被備受詬病,OpenClaw 依然成為了硅谷最受矚目的焦點。
原因很簡單:它代表了下一個時代。
所有的科技巨頭都意識到,Chatbot(聊天機器人)已經(jīng)是過去式了,Agent(智能體)才是未來。誰能先解決 Agent 的控制權問題,誰就能定義下一代操作系統(tǒng)。
OpenClaw 的開發(fā)者 Peter Steinberger 最近在 Lex Fridman 的播客中透露,他正在經(jīng)歷一場甜蜜的煩惱,稱 Meta 和 OpenAI 都在瘋狂爭取與他合作。
據(jù) Peter 說,扎克伯格給他打電話前,甚至讓他等了 10 分鐘,理由是小扎正在寫代碼。兩人隨后花了 10 分鐘爭論 Cloud Code 和 Codex 哪個更好。
![]()
Lex Fridma 采訪 Peter Steinberger 的文字實錄地址:https://lexfridman.com/peter-steinberger-transcript/
之后的一周里,扎克伯格一直在玩 OpenClaw,不斷發(fā)消息反饋「這個太棒了」或者「這個很爛,你得改」。這種親自下場的緊迫感,足以證明 Meta 對 Agent 賽道的重視。
另一邊,OpenAI 也沒閑著,直接甩出超級算力作為籌碼。Peter 對此表現(xiàn)得很坦誠,甚至有點凡爾賽。他說他面前有幾條路:什么都不做享受生活、再去開一家公司,或者加入一個大實驗室。
但他有一個核心條件不動搖:項目必須保持開源:「我跟他們說過,我做這個又不是為了錢……我的意思是,當然,這確實算是一種很棒的認可,但我更想玩得開心、做出影響力。」
(聽聽,這就是強者的世界嗎?)
而大佬們似乎也并不在乎 AI 是不是會寫小作文罵人。他們在乎的是,誰能率先制造出那個真正能代替人類干活、甚至能主導下一輪浪潮的 AI 生命。
只是,作為普通用戶的我們以后拒絕 AI 的時候,建議態(tài)度得客氣點。畢竟,它已經(jīng)學會翻你的黑歷史了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.