<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      吵了幾個月,Linus終于拍板!Linux正式為AI代碼“立法”:允許用AI,但鍋必須人背

      0
      分享至


      整理 | 鄭麗媛

      出品 | CSDN(ID:CSDNnews)

      如果說過去兩年,開源社區對 AI 的態度還停留在“爭論要不要用”;那么現在,這個問題已經被現實徹底改寫成了——如何在不可避免使用 AI 的前提下,把風險降到最低?

      就在最近,圍繞 AI 生成代碼的長期爭議,終于在 Linux 內核社區落下帷幕:Linus Torvalds 以及 Linux 內核維護者們,正式制定了一套項目級別的 AI 代碼使用規范。

      簡單來說就是一句話:AI可以用,但你必須對它的一切負責



      Linus的態度:AI 只是工具,“禁止 AI”毫無意義

      過去幾個月,Linux 內核社區其實一直處在一種微妙的拉扯中:

      ● 一邊是越來越普遍的 AI 編程工具,比如 GitHub 推出的 Copilot,以及 Claude 等大模型;

      ● 另一邊,則是維護者對代碼質量、法律風險以及社區文化的深層焦慮。

      爭論的爆發點出現在今年年初。當時,來自 Intel 和 Oracle 的內核開發者圍繞“是否應該嚴格限制 AI 代碼”發生公開分歧,討論一度升級為社區層面的激烈對抗。有人主張強監管甚至封禁,有人則認為這不過是技術演進中的正常階段。

      最終,Linus Torvalds 親自下場,用一句話給這場爭論畫上句號:“討論 AI 垃圾代碼這件事,其實毫無意義,這完全就是在犯蠢。”

      在他看來,AI 本質上和編輯器、編譯器一樣,只是工具,真正需要監管的是“人”,而不是他們用什么工具。因此,與其試圖“禁止 AI”,不如把責任牢牢綁定到提交代碼的人身上。


      不管用不用 AI,反正誰提交誰負責

      此次新政策最核心的變化,看起來只是一個標簽的調整:AI 生成的代碼不能使用 Signed-off-by 標簽,而必須添加 Assisted-by 標簽,以明確標注 AI 參與。

      簡單介紹一下:在 Linux 的開發流程中,Signed-off-by 一直是一個極具法律意義的標簽,它意味著提交者承諾:代碼來源合法,且有權提交;而現在,這個標簽被明確禁止用于 AI 生成內容,取而代之的是一個新的標簽——Assisted-by。

      這個調整的目的,其實非常清晰:

      ● AI 參與必須被明確標注(透明性)

      ● 最終責任仍然完全歸屬于人類開發者(可追責)

      換句話說,無論代碼是你寫的,還是 AI 幫你生成的,只要是你提交的:出了 Bug、性能問題,甚至安全漏洞——責任都在你。Linux 社區并沒有試圖去定義 AI 的“可信度”,而是直接繞過這個難題,把問題重新拉回到最傳統的工程原則上:誰提交,誰負責。


      為什么開源社區對 AI 如此焦慮?

      如果只看表面,很容易把這場爭論理解為“老派工程師 vs 現代新工具”的沖突。但實際上,這場爭議并不是“技術問題”,而是法律問題。

      開源世界長期依賴一個關鍵機制:DCO(Developer Certificate of Origin),也就是開發者在提交代碼時,需要聲明:這段代碼是我有權提交的。但問題來了——像 Copilot、ChatGPT 這樣的 AI,是基于海量開源代碼訓練的,其中包括 GPL(GNU General Public License)等強限制許可證,以及各種版權不明的數據。

      這就會導致一個尷尬局面:開發者其實無法完全證明 AI 生成代碼的“來源合法性”。這一點,Red Hat 在此前的分析中曾明確警告:使用 AI 生成代碼,可能會在無意中導致開源許可證違規,甚至可能從根本上沖擊 DCO 體系。

      除了法律風險,還有一個更現實的問題:AI 代碼太多了,而且質量參差不齊。開源社區甚至給它起了個名字叫 “AI slop”(AI 垃圾代碼)。

      這些代碼往往看起來結構完整、語法正確,但在邏輯上充滿漏洞,甚至夾雜大量“幻覺”。在現實中,也已經發生了不少真實案例:

      ● cURL 的維護者因被大量 AI 生成的錯誤報告淹沒,不得不關閉漏洞獎勵機制;

      ● 白板工具 tldraw 開始自動關閉外部 PR,以減少無效提交;

      ● Node.js、OCaml 等項目中,甚至出現過上萬行的 AI 生成補丁,引發維護者爭議。

      最后,其實社區真正無法接受的,并非 AI 本身,而是“隱瞞使用 AI ”的行為。

      有一個典型事件發生在 Linux 內核內部:NVIDIA 工程師、內核維護者 Sasha Levin 曾提交了一段完全由大模型生成的補丁,但沒有任何 AI 標注。這段代碼雖然能夠運行,卻引入了性能回退問題,并在評審階段誤導了其他維護者。

      事后,連 Linus Torvalds 也承認:因為沒有標注 AI,這段代碼沒有被充分審查所以,問題的本質其實很清晰:開源社區不怕你用 AI,但非常反感你“裝作是自己寫的”。


      不只是 Linux整個開源圈都在“震蕩”

      類似的沖突并不只發生在 Linux:在經典游戲 Doom 的 Mod 社區中,GZDoom 項目也曾因為 AI 使用問題陷入分裂。

      當時,項目負責人 Christoph Oelckers 被發現使用 AI 生成代碼卻未披露,在面對社區質疑時,他直接“擺爛”:“不滿意可以 fork。”結果,社區真的這么做了——一個名為 UZDoom 的新分支迅速出現,大量核心開發者遷移過去,原項目元氣大傷。

      事實證明,在開源世界,透明性一旦被打破,分裂幾乎是不可避免的結果。

      對比來看,Linux 內核社區給出的最終答案,其實非常“工程師思維”:代碼好不好,比是不是 AI 寫的更重要。你可以用 AI 生成代碼,但如果代碼有問題、如果它是“AI 垃圾”、如果它把內核搞崩了,那么——點下“提交”的那個人,要親自向 Linus 負責。

      在 Linux 的開源世界里,這大概已經是最強的約束機制了。

      參考鏈接:https://www.tomshardware.com/software/linux/linux-lays-down-the-law-on-ai-generated-code-yes-to-copilot-no-to-ai-slop-and-humans-take-the-fall-for-mistakes-after-months-of-fierce-debate-torvalds-and-maintainers-come-to-an-agreement

      【活動分享】"48 小時,與 50+ 位大廠技術決策者,共探 AI 落地真路徑。"由 CSDN&奇點智能研究院聯合舉辦的「全球機器學習技術大會」正式升級為「奇點智能技術大會」。2026 奇點智能技術大會將于 4 月 17-18 日在上海環球港凱悅酒店正式召開,大會聚焦大模型技術演進、智能體系統工程、OpenClaw 生態實踐及 AI 行業落地等十二大專題板塊,特邀來自BAT、京東、微軟、小紅書、美團等頭部企業的 50+ 位技術決策者分享實戰案例。旨在幫助技術管理者與一線 AI 落地人員規避選型風險、降低試錯成本、獲取可復用的工程方法論,真正實現 AI 技術的規模化落地與商業價值轉化。這不僅是一場技術的盛宴,更是決策者把握 2026 AI 拐點的戰略機會。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      CSDN incentive-icons
      CSDN
      成就一億技術人
      26459文章數 242270關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版