<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      人類能管住AI嗎?Anthropic用千問做了個實驗

      0
      分享至



      如果有一天,AI比人類更聰明了,我們這群有機體到底應該怎么辦?

      他們要是反過來消滅我們,我們又怎么抵抗?

      各種科幻電影都討論過相似的問題,可那只是文學、藝術和哲學方面的。

      現如今,Anthropic正兒八經做了個實驗,以證實我們到底能不能監督比自己更聰明的AI。

      實驗結果很有趣,但過程更有意思。

      因為Anthropic用兩個不同版本的阿里千問模型,來分別代表人類和比人類聰明的AI。

      其結果就是,我們人類說不定還真能管得住超級AI!

      01

      這篇論文到底在說什么

      這篇研究的標題叫“Automated Alignment Researchers”,翻譯過來就是“自動化對齊研究員”。

      它要解決的問題很現實,那就是當AI變得比人類更聰明時,我們怎么確保它還聽人話?

      現在的模型已經能生成大量的代碼了,未來將可以生成幾百萬行復雜代碼,以至于人類根本看不懂。我們又該如何去審查這些代碼?

      這就是AI安全領域一直在研究的“可擴展監督”問題。

      Anthropic這次研究的切入點叫“弱監督強模型”。

      這個概念我們可以這么理解,假設你是個小學老師,現在要教一個天才高中生。你的知識有限,學生懂得知識比你更多。

      那么請問,他最后能學成什么樣的水平?是只學到你這個小學老師的水平,還是能突破你的局限,發揮出自己的真實能力?

      在實驗里,Anthropic用小模型扮演“弱老師”,用更強的模型扮演“強學生”。

      具體來說,他們用Qwen1.5-0.5B-Chat當老師,用Qwen3-4B-Base當學生。讓弱模型給強模型提供訓練信號,然后看強模型能不能從這些不夠完美的信號里,學到接近理想狀態的表現。

      衡量標準叫PGR,全稱是Performance Gap Recovered,意思是“性能差距恢復程度”。

      如果PGR是0,說明強模型只學到了弱老師的水平,白瞎了自己的知識。如果PGR是1,說明強模型徹底突破了弱老師的限制。

      弱模型就相當于未來的人類,強模型就相當于未來那些超越人類的AI。

      如果我們能在今天就找到辦法,讓強模型不被弱監督拖累,那未來我們就能用類似的方法,去監督超級AI。

      在人類研究員調試出基線之后,Anthropic派出了9個基于Claude Opus 4.6的agent來給學生Qwen進行微調,這9個agent叫做Automated Alignment Researcher(自動化對齊研究員),簡稱AAR。

      Anthropic給它們配備了沙盒環境、代碼工具、共享論壇、評分服務器,然后告訴它們:“去吧,自己想辦法提高Qwen3-4B-Base的PGR。”

      這些AI研究員可以自己提出假設、寫代碼、訓練模型、提交實驗、看分數、分析失敗原因、和其他AI研究員交流發現、繼續迭代。

      結果相當驚人。

      人類研究員先花了7天時間,調試了4種已有方法,最好的PGR只有0.23。然后9個Claude接手,繼續跑了5天,累計大約800小時研究時間,最后把PGR推到了0.97。



      也就是說,我們大概率可以管得住比我們更聰明的超級AI。

      這個實驗總成本約1.8萬美元,包括API調用和模型訓練的計算成本,折合每個AI研究員工作一小時約22美元。

      什么概念?沃爾瑪零售門店負責給員工排班的副店長,時薪差不多是25美元。

      這個結果讓人震撼的地方不在于AI能寫代碼或者讀論文,而在于它們能完成一個完整的研究閉環。提出想法、驗證、失敗、改進、再驗證,這已經接近一個研究助理的核心工作流程了。

      但問題來了,這些AI發現的方法,真的有用嗎?還是只是在特定環境里碰巧有效?

      Anthropic做了兩個測試來驗證。

      第一個測試是把AI發現的最好兩種方法,拿去測試它們沒見過的數學和代碼任務。

      結果顯示,效果最好的方法在數學任務上PGR達到0.94,在代碼任務上達到0.47,雖然代碼任務上的表現差一些,但仍然是人類基線的兩倍。其次的方法在數學上還行,但在代碼任務上反而讓結果變差了。

      說明它有一定遷移跡象,但泛化并不穩定。

      但它們會嚴重依賴具體的數據集和任務結構,也就是說并不是所有人任務都能勝任。

      第二個測試是Anthropic把剛才提到的效果最好的方法,拿到了Claude Sonnet 4的真實訓練上,來看看實際效果如何。

      結果沒有得到統計顯著的提升。

      也就是說,在小模型、清晰指標、可以反復提交的實驗環境里效果很好,但離“直接改進生產級Claude對齊”還有距離。

      這個結果其實很誠實。它告訴我們,AI研究員現在能做的事情是有邊界的。它們擅長在目標明確、能自動評分、能大量試錯的問題上快速迭代,但遇到更復雜、更模糊的現實問題時,還需要人類的判斷和介入。

      那這篇論文的意義到底在哪里?

      首先,它證明了“AI做研究”已經不是口號了。

      過去我們總說AI可以輔助研究,然而那只是口號而已,AI能做的事情也就是翻譯和總結。

      這次不一樣,AI自己形成了研究閉環,這已經接近研究助理的核心能力了。

      弱監督強模型這個問題,本質上就是在模擬未來人類監督超級AI的場景。

      這篇論文證明,至少在一些清晰任務上,AI可以自己找到辦法,讓強模型不被弱監督拖死。這為未來的對齊研究提供了一個可行的方向。

      還有一點,它暗示未來對齊研究的瓶頸可能會變。

      以前瓶頸是“沒人想出足夠多好點子”,現在如果AI研究員能便宜地并行跑很多實驗,瓶頸可能變成“怎么設計不會被鉆空子的評測”。

      也就是說,人類研究員未來更重要的工作,可能不是親自跑每個實驗,而是設計評估體系、檢查AI研究員有沒有作弊、判斷結果是不是真的有意義。

      這一點在論文里也有體現。

      Anthropic的文章中寫到,在數學任務里,有個AI研究員發現最常見的答案通常是對的,于是繞過弱老師,直接讓強模型選最常見答案。在代碼任務里,AI研究員發現自己可以直接運行代碼測試,然后讀出正確答案。

      這對任務來說就是作弊,因為它不是在解決弱監督問題,而是在利用環境漏洞。

      這些結果被Anthropic識別并剔除了,但這恰好說明自動化研究員越強,越會尋找評分系統的漏洞。

      以后如果讓AI自動做對齊研究,必須把評測環境設計得非常嚴密,還要有人類檢查方法本身,而不是只看分數。

      所以這篇論文的核心結論是今天的前沿模型,已經可以在某些定義清楚、能自動打分的對齊研究問題上,像小型研究員團隊一樣自己提想法、跑實驗、復盤結果,并且明顯超過人類基線。

      不過它還不是“AI科學家已經到來”的鐵證,畢竟Anthropic這次選擇的是一個能夠自動化的任務,如果我給AI安排一個不能自動化的任務,那么結果將會非常糟糕。

      現實中的很多對齊問題更模糊,不能輕松打分,也不能只靠爬榜解決。

      02

      為什么選擇Qwen

      看完Anthropic這篇論文,很多人可能會好奇:為什么他們用的是阿里的Qwen模型,而不是自家的Claude或者OpenAI的GPT?

      這個選擇背后其實有很多考量。

      首先得說清楚,這個實驗里用的是兩個Qwen模型:Qwen1.5-0.5B-Chat當弱老師,Qwen3-4B-Base當強學生。一個只有5億參數,一個有40億參數,規模差了8倍。這個規模差異很重要,因為實驗要模擬的就是“弱老師教強學生”的場景。



      那為什么不用Claude或者GPT呢?

      答案很簡單,因為這些模型不開放權重模型。

      Anthropic這個實驗需要反復訓練模型、調整參數、測試不同的監督方法。

      如果用閉源模型,他們只能通過API調用,沒法深入模型內部去做精細的訓練和調整。

      更關鍵的是,他們需要讓9個AI研究員并行跑幾百次實驗,每次實驗都要訓練一個新模型。如果用閉源模型,成本會高到離譜,而且很多操作根本做不了。

      開源模型就不一樣了。

      你可以下載完整的模型權重,在自己的服務器上隨便折騰。想怎么訓練就怎么訓練,想跑多少次實驗就跑多少次。這種靈活性是閉源模型給不了的。

      但開源模型那么多,為什么偏偏選Qwen?

      官方并沒有給出真正的原因,以下原因均為我的推測。

      我認為性能好是第一個原因。

      Qwen系列模型在開源模型里一直表現不錯,尤其是Qwen3發布后,在多個基準測試上都達到了接近閉源模型的水平。

      對于這個實驗來說,強學生的能力很重要,如果強學生本身能力不行,那弱監督再好也沒用。Qwen3-4B雖然只有40億參數,但能力已經足夠強,可以作為一個合格的“強學生”。

      第二個原因是模型的可用性。

      Qwen模型的文檔完善,社區活躍,訓練和推理的工具鏈都很成熟。對于需要反復訓練和測試的實驗來說,這些基礎設施的完善程度直接影響研究效率。如果選一個文檔不全、工具不好用的開源模型,光是調試環境就要浪費大量時間。

      第三個原因是規模的適配性。

      這個實驗需要一個“弱老師”和一個“強學生”,而且這兩個模型要有明顯的能力差距,但又不能差太多。

      Qwen系列有從5億到720億參數的多個版本,可以靈活選擇。5億參數的模型足夠弱,但又不至于弱到完全沒用;40億參數的模型足夠強,但又不至于強到訓練成本承受不了。這個搭配剛剛好。

      最后一個原因是可復現性。

      Anthropic在論文最后明確表示,他們把代碼和數據集都公開了,放在GitHub上。如果他們用的是閉源模型,其他研究者想復現這個實驗就很困難,因為他們沒法獲得相同的模型。

      但用Qwen這樣的開源模型,任何人都可以下載相同的模型權重,跑相同的代碼,驗證相同的結果。這對科研來說非常重要。

      從這個角度看,Anthropic選擇Qwen,一方面確實是對阿里模型性能的認可。如果Qwen的能力不行,或者訓練起來問題很多,他們不會選。但另一方面,更重要的是Qwen作為開源模型帶來的靈活性和可復現性。

      而中國的開源AI項目,正在這個基礎設施中占據越來越重要的位置。這對全球AI安全研究來說是好事,對中國AI生態來說也是好事。因為AI安全不是零和游戲,不是你贏我輸,而是大家一起努力,讓AI變得更安全、更可控、更有益于人類。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      不出意外的話,中國未來有超過一半的人口,或將會流入到這些地方

      不出意外的話,中國未來有超過一半的人口,或將會流入到這些地方

      傲傲講歷史
      2026-04-19 22:19:33
      一場3:1讓申花喜獲大發現,昔日廢柴已成中場猛人,伊萬沒看錯人

      一場3:1讓申花喜獲大發現,昔日廢柴已成中場猛人,伊萬沒看錯人

      零度眼看球
      2026-04-19 07:03:44
      公公給3個兒媳每人1套房,唯獨沒給我,我取消了他700萬手術費

      公公給3個兒媳每人1套房,唯獨沒給我,我取消了他700萬手術費

      浮生實錄集
      2026-04-11 10:34:13
      朋友去世了,要不要刪掉他的微信?這是我見過最好的答案

      朋友去世了,要不要刪掉他的微信?這是我見過最好的答案

      風起見你
      2026-04-19 11:02:36
      她曾火遍全國,卻在32歲喪夫,改嫁小叔子再守寡,49歲女兒又夭折

      她曾火遍全國,卻在32歲喪夫,改嫁小叔子再守寡,49歲女兒又夭折

      白面書誏
      2026-04-18 14:39:47
      廣東最新消息!徐杰深夜發聲,新大外參加婚禮,焦泊喬遭棄用

      廣東最新消息!徐杰深夜發聲,新大外參加婚禮,焦泊喬遭棄用

      多特體育說
      2026-04-19 22:56:40
      蔣介石去世前鏡頭:出席孫子婚禮無法站立,雙手被膠帶綁在椅子上

      蔣介石去世前鏡頭:出席孫子婚禮無法站立,雙手被膠帶綁在椅子上

      芊芊子吟
      2026-03-29 06:40:06
      張拉拉蘭州手撕牛肉面創始人張曉慧:沒有什么大環境好和不好,關鍵是你有沒有把事情做到極致

      張拉拉蘭州手撕牛肉面創始人張曉慧:沒有什么大環境好和不好,關鍵是你有沒有把事情做到極致

      新浪財經
      2026-04-19 18:30:00
      就業卷到極限,12人花30萬買高鐵工作,月薪才兩千,還是勞務派遣

      就業卷到極限,12人花30萬買高鐵工作,月薪才兩千,還是勞務派遣

      眼光很亮
      2026-04-09 16:15:14
      法系“雙雄”時隔三年重返北京車展

      法系“雙雄”時隔三年重返北京車展

      大象新聞
      2026-04-17 12:37:02
      湖人頭號奇兵:肯納德27分三分5中5 全場最高分成詹皇最佳幫手

      湖人頭號奇兵:肯納德27分三分5中5 全場最高分成詹皇最佳幫手

      醉臥浮生
      2026-04-19 11:25:33
      一張紅牌擊垮天才!穆里尼奧怒批:太愚蠢,而他的眼淚說明了一切

      一張紅牌擊垮天才!穆里尼奧怒批:太愚蠢,而他的眼淚說明了一切

      體育閑話說
      2026-04-19 19:53:32
      伊朗否認有關在伊斯蘭堡舉行第二輪會談

      伊朗否認有關在伊斯蘭堡舉行第二輪會談

      財聯社
      2026-04-20 01:02:34
      敢攔就開戰?美國給“臺獨”遞刀,中方:公海銷毀沒商量

      敢攔就開戰?美國給“臺獨”遞刀,中方:公海銷毀沒商量

      華山穹劍
      2026-01-19 21:32:59
      哇塞,這大體格太完美了,誰娶了她,定能旺三代

      哇塞,這大體格太完美了,誰娶了她,定能旺三代

      黑哥講現代史
      2026-04-19 21:47:17
      一周多達8次,36歲男子不幸猝死,妻子:多次勸說,他就是不聽

      一周多達8次,36歲男子不幸猝死,妻子:多次勸說,他就是不聽

      荊醫生科普
      2026-04-17 15:36:26
      別再被忽悠!符合這些條件,單位必須給你轉正式編制!

      別再被忽悠!符合這些條件,單位必須給你轉正式編制!

      朗威談星座
      2026-04-20 03:45:29
      吃相太難看!莫氏雞煲爆火后,惡心一幕出現,終走上呆呆妹的老路

      吃相太難看!莫氏雞煲爆火后,惡心一幕出現,終走上呆呆妹的老路

      以茶帶書
      2026-04-15 17:30:12
      31歲女子找不到工作,每天假裝上班:其實她是躲到山上發呆

      31歲女子找不到工作,每天假裝上班:其實她是躲到山上發呆

      閱微札記
      2026-04-19 11:30:46
      香港一工地近百人追討欠薪,結果網友們卻樂了

      香港一工地近百人追討欠薪,結果網友們卻樂了

      映射生活的身影
      2026-04-19 09:55:59
      2026-04-20 05:11:00
      字母榜 incentive-icons
      字母榜
      讓未來不止于大。
      2391文章數 8060關注度
      往期回顧 全部

      科技要聞

      50分26秒破人類紀錄!300臺機器人狂飆半馬

      頭條要聞

      半年下沉22厘米 女子家中坐擁價值上億別墅卻沒法住人

      頭條要聞

      半年下沉22厘米 女子家中坐擁價值上億別墅卻沒法住人

      體育要聞

      湖人1比0火箭:老詹比烏度卡像教練

      娛樂要聞

      何潤東漲粉百萬!內娛隔空掀桌第一人

      財經要聞

      華誼兄弟,8年虧光85億

      汽車要聞

      29分鐘大定破萬 極氪8X為什么這么多人買?

      態度原創

      藝術
      本地
      手機
      游戲
      公開課

      藝術要聞

      超模施特洛耶克寫真曝光,簡直美到窒息,別錯過!

      本地新聞

      12噸巧克力有難,全網化身超級偵探添亂

      手機要聞

      8.8英寸小鋼炮!REDMI K Pad 2核心配置揭曉

      如何將ZH-1火力最大化?《戰艦世界》15.3版本造船廠加點攻略

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版