![]()
整理 | 鄭麗媛
出品 | CSDN(ID:CSDNnews)
現如今,大模型正在快速改變軟件開發方式,但開源社區卻開始陷入新的困惑:如果代碼是 AI 寫的,還算不算開發者貢獻?
最近,全球最重要的 Linux 發行版之一 Debian,就因為這個問題展開了一場持續數周的激烈討論:
● 有人認為,AI 只是新的開發工具,沒必要過度限制;
● 有人擔心,AI 會破壞開源社區培養新人的機制;
● 也有人從倫理角度反對生成式 AI,認為這些工具本身就在“掠奪互聯網”。
但爭論到最后,Debian 社區得出的結論卻有點出人意料——先觀望,暫時不做決定。
![]()
![]()
一份“AI貢獻政策”草案,引爆社區討論
事情的起點,是 Debian 開發者 Lucas Nussbaum 在今年 2 月中旬提出的一份草案。
![]()
他建議 Debian 社區討論一個問題:是否允許 AI 生成或 AI 輔助生成的代碼進入 Debian 項目。為此,他提出了一份草案,希望明確 Debian 在這一問題上的政策,并表示會先收集幾天社區反饋,再決定是否正式提交決議。
根據草案內容,AI 輔助生成的貢獻(部分或全部由大語言模型生成)是可以接受的,但需要滿足一系列條件,例如:
(1)如果貢獻的重要部分來自 AI 工具且沒有人工修改,必須明確披露
(2)貢獻中需要加入清晰聲明或機器可讀標簽,例如 [AI-Generated]
(3)提交者必須完全理解自己的提交內容
(4)提交者需要對代碼負責,包括技術質量、安全性、許可證合規和實際用途
此外,該草案還規定:為了避免發生嚴重的數據泄露風險,不得將非公開或敏感的項目數據輸入生成式 AI 工具,包括:私有郵件列表內容,以及未公開的安全漏洞報告。
換句話說,AI 可以幫你寫代碼,但責任必須仍由人類開發者來承擔。
![]()
爭論的第一步:大家連“AI是什么”都沒統一
但很快,這場討論很快暴露出一個更基礎的問題——大家甚至沒有就“AI”這個詞達成共識。
Debian 開發者 Russ Allbery 直言,如今“AI”這個詞已經變得過于模糊:現在的“AI”幾乎可以指宇宙中的任何東西。有人指 ChatGPT,有人指代碼生成工具,有人甚至把普通自動化工具也算進去。他認為,如果 Debian 要制定政策,就必須明確具體對象,例如是大語言模型(LLM)、強化學習,還是其他具體技術,否則政策很難具有可執行性。
![]()
“LLM 至少還有一個比較明確的含義,而 ‘AI’ 往往只是發言者想表達什么就代表什么,甚至同一場討論里含義都在變化。”他說。
另一位開發者 Sean Whitton 也建議:如果要制定政策,至少應該使用 LLM 而不是 AI 這個模糊詞;并區分不同的 AI 使用場景,比如代碼審查、原型生成還是直接生成生產代碼。他指出最好在投票選項中分別處理這些情況,而不是“一刀切”。
然而,不同于這些開發者的看法,Lucas Nussbaum 則認為,技術細節并不是重點,真正的問題是:是否允許自動化工具參與代碼生成或分析。
他舉了一個例子:在 Linux 內核早期,社區曾因為 BitKeeper 版本控制系統是否應該被使用而產生激烈爭論;類似的情況也出現在安全工具領域——如果漏洞掃描工具是閉源的,那社區是否應該忽略它發現的漏洞?
Nussbaum 表示:如果我們采取完全“反工具”的立場,那將很難劃出清晰邊界。
![]()
AI 可能破壞開源社區的“新人培養機制”?
隨后,這場討論轉向了一個更深層的問題:AI 會不會破壞開源社區培養新人的機制?
開發者 Simon Richter 提出了一個很有意思的觀點:AI 代理在某種程度上,可能取代初級開發者。在很多情況下,初級開發者能在導師指導下完成任務,同樣的任務,現在也可以由 AI 完成了——可問題是:AI 不會學習。
也就是說,社區投入的指導成本,無法轉化為新的長期貢獻者。
Simon Richter 說:“最好的情況是:一個小 Bug 被解決了,但沒有培養出新的貢獻者;最糟糕的情況是:所謂的貢獻者只是 AI 和維護者之間的‘中間人’。”
此外,他還擔心 AI 工具的使用成本:如果未來開發越來越依賴付費 AI 工具,可能會降低普通用戶參與開源的門檻。
對此,Lucas Nussbaum 也并不完全認同。他認為 Debian 不會缺少適合新人的任務,AI 甚至可能幫助新手處理更復雜的問題他還引用了一項研究(由 Anthropic 員工參與撰寫),其中指出:人與 AI 的交互方式差異很大,不同使用方式對學習效果影響也完全不同。
另一位知名 Linux 開發者 Ted Ts’o 也直接反駁了反 AI 的觀點:一些人擔心 AI 會減少未來的資深貢獻者,但如果因此拒絕 AI 用戶參與貢獻,那才是真正的自我傷害。
![]()
![]()
倫理問題:AI 公司正在“吸干互聯網”
還有一部分反對聲音來自倫理層面和版權問題。
Debian 開發者 Matthew Vernon 指出,生成式 AI 公司在訓練模型時存在明顯問題。例如:大規模抓取互聯網內容、無視版權與開源許可證、直接使用他人的知識產權訓練模型等。
他說:這些公司瘋狂抓取內容,對版權幾乎毫不在意。Matthew Vernon 還提到了其他爭議,包括 AI 的能源消耗、深度偽造問題和 AI 生成的虛假安全漏洞報告——在他看來,Debian 這樣的自由軟件項目應該明確反對這些 AI 工具。
除了倫理問題,版權問題也同樣懸而未決,主要涉及模型訓練數據的版權和 AI 生成內容的版權歸屬。對此,開發者 Jonathan Dowland 建議:在法律環境更清晰之前,也許暫時禁止這類貢獻會更安全。
![]()
AI代碼質量差?其實人類也一樣
在這場討論中,還出現了一個有趣的觀點。
很多人反對 AI 代碼,理由是質量太差。但 Debian 開發者 Russ Allbery 認為,這個理由并不成立:人類確實可以寫出比 AI 更好的代碼,但也同樣可以寫出更糟糕的代碼。他甚至調侃道:寫毫無意義的垃圾代碼不需要創造力,但要寫出真正糟糕的代碼,反而還需要人類的天賦呢。
還有開發者指出,AI 可能只是軟件開發的又一次技術演進,但它也帶來了新的問題,例如:如果代碼是通過 Prompt 生成的,那么代碼的“首選修改方式”是什么?
對此,Nussbaum 給出的答案是:應該修改 Prompt,而不是修改生成的代碼。不過,這個答案無法令人信服——畢竟 LLM 的輸出通常不是確定性的,且模型版本也會不斷更新,即使使用同樣的 Prompt,未來生成的代碼也可能完全不同。
![]()
最終結果:Debian決定先觀望
從整個討論來看,Debian 開發者在這個問題上遠未達成共識,甚至連一個最基礎的問題都沒有統一:什么才算是 AI 生成貢獻?
Nussbaum 表示,他最初提出決議,是因為社區中出現了一些針對 AI 用戶的攻擊。但經過一段時間交流后,目前討論總體仍然理性,因此沒有必要急于制定政策。
不過他也推測,如果未來真的進行投票,最終方案很可能會是:
允許使用AI,但將附帶一系列嚴格限制。
參考鏈接:https://lwn.net/SubscriberLink/1061544/125f911834966dd0/
未來沒有前后端,只有 AI Agent 工程師。
這場十倍速的變革已至,你的下一步在哪?
4 月 17-18 日,由 CSDN 與奇點智能研究院聯合主辦「2026 奇點智能技術大會」將在上海隆重召開,大會聚焦 Agent 系統、世界模型、AI 原生研發等 12 大前沿專題,為你繪制通往未來的認知地圖。
成為時代的見證者,更要成為時代的先行者。
奇點智能技術大會上海站,我們不見不散!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.