<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      AI正在制造一種“新窮人” | 對話詹姆斯·馬爾登

      0
      分享至



      “人類注定會越來越依賴AI,哪怕它依舊改不掉產生幻覺的毛病。”

      ?作者 | 石鴉

      ?編輯 | 騰宇

      當AI告訴你,“努力就能成功”是一種常識,你的第一反應是什么?

      詹姆斯·馬爾登(James Muldoon)會告訴你:別傻了,那只是加利福尼亞白人男性的價值觀。


      (圖/詹姆斯·馬爾登)

      這是牛津互聯網研究院研究員,同時也是社會學家的馬爾登,在走訪了6大洲,采訪了200多位AI從業者后得出的結論。但人類注定會越來越依賴AI,哪怕它依舊改不掉產生幻覺的毛病。

      而AI制造的最大的幻覺便是:AI只是個觀察者,沒有情緒,沒有立場,只是在處理信息,只是在給出客觀的答案。

      真是如此嗎?要知道,那些看上去輕巧、流暢、幾乎不知疲倦的回答,壓根不可能憑空發生。AI吃電、吃水,更會“吃人”。

      從采集、清洗、標注,到訓練、部署、維護,AI每變聰明一點,都是靠無數人類,拿著人類自己生產的,充斥著特定種族氣質的“AI養料”,一口一口喂出來的。

      因此,馬爾登真正關心的,也從來不是公眾喜聞樂見的末日式的問題——AI明天會不會覺醒、會不會統治世界、會不會毀滅人類。他更想追問,到底是誰在給AI定三觀?誰在靠它賺錢?誰又在為它買單、付出代價?為什么算法不僅沒消除偏見,反而把舊有的歧視、偏見、不平等,包裝得更冷靜和體面,再重新塞給人類?


      《投喂AI:人工智能產業的全球底層工人紀實》

      作者: [英]詹姆斯·馬爾登 (James Muldoon) / [英]卡勒姆·坎特 (Callum Cant) / [英]馬克·格雷厄姆

      出版社: 中信出版社

      出版年: 2025-10-1

      這正是馬爾登在《投喂AI》一書的寫作中重點關注的話題。基于他的研究領域和這本書,我們聊了聊關于AI的種種話題。


      AI時代,

      普通人注定離真相越來越遠

      《新周刊》:當AI說“這是常識”的時候,這個常識到底是誰的常識?

      馬爾登:它說的往往不是全人類的常識,而是由美國主導的、英語互聯網中產精英圈層的常識。誰提供數據,誰設計模型,誰就能定義AI的世界觀。

      先說數據,目前我們使用的數據集,在很大程度上是由西方的受眾和消費者構建的,其設計的主導者大多來自美國,以至于模型的設計方式甚至在無意識中都在推崇一種西方、現代中期的理性世界觀。

      再看模型。模型怎么訓練,什么回答算好,什么內容過于敏感需要屏蔽,什么價值被默認為“正常”“安全”“理性”,這些都是開發團隊定的。而今天最強的一批基礎模型,主要還是美國科技公司在做,所以它們天然更容易帶著美國科技行業那套世界觀。

      《新周刊》:這會導致什么結果?

      馬爾登:這些價值觀會強化我們從廣播、電視到互聯網等所有技術媒介中看到的等級制度和不平等現象。因此,當我們在AI中重現這種情況時,實際上是在加倍強化原本就存在的不平等現象。

      當然,現在很多模型也在加入中文、阿拉伯語、印地語、西語等更多語料,所以它們不是純粹的“加州白男”的腦子。但在主流閉源模型里,它們的底色仍然非常接近美國主導的英語世界主流認知

      《新周刊》:所以在AI時代,以往文化中的種種偏見,注定會被加深

      馬爾登:我不反對“用 AI減少偏見”這個想法。理論上它確實可能成為一個很有用的工具,前提是你得主動去找,主動去問,主動去對照。問題在于,大多數人并不會這樣去用AI,大家的日常使用更像是被動接收,而不是主動探索。

      現實里AI最主要的用途,不是用來訓練公眾的批判性思維,而是被組織用來做推薦系統,去提高用戶在平臺上的停留時間和互動量。你要提升互動量,最有效的方法往往不是給人更準確、更全面的信息,而是給人更極化、更刺激、更容易讓人憤怒的內容。憤怒會讓人停不下來,會讓人不斷刷新,不斷爭吵,不斷繼續看。它很讓人上癮,也很有對抗性,正適合平臺的商業目標。

      當然,我并不否認新技術對人也有解放的一面,它讓更多人更容易去追問、去核對、去反駁,至少讓一部分人,降低了“查證”這件事的門檻。以前你需要會搜索、會翻譯、會讀長文,甚至可能需要一些別的路徑,現在更多人可以直接追問信息的原始出處、對照不同版本,把結論拆開再看一遍。從這個意義上說,它確實讓求證和批判性思考變得更“民主”了。

      《新周刊》:這一輪AI競爭,說到底是不是“有錢人的游戲”?

      馬爾登:很大程度上,是。

      這一輪AI迭代浪潮和過去幾輪互聯網創新浪潮最大的不同在于,它不是先靠一個好產品起家,而是先看你有沒有足夠多的錢、算力和基礎設施

      想做一個真正有競爭力的基礎模型,成本非常高。不是幾個人寫代碼、做個App、拉一批用戶就能成。你得先有芯片,有服務器,有訓練數據,還要能承擔一次次試錯的成本。真正往上走,花的往往都是幾千萬、幾億美元,甚至更多。很多時候,你還沒見到用戶,錢已經先燒掉了。所以現在你會看到一個很現實的局面:表面上是AI初創公司在競爭,背后拼的還是大公司的資源。

      《新周刊》:那么,當大平臺控制信息的記錄、存儲和共享方式時,真相是否變得更容易被改寫?

      馬爾登:在我寫《平臺社會主義》(Platform Socialism)時就一直在強調,平臺早就不是中立的“工具”了,它們更像我們數字生活的基礎設施,但卻被少數公司當成私產來運營,連規則本身都由這些公司說了算。一旦它們控制了哪些內容能被留下、能被檢索、能被傳播,所謂“真相”就很容易變成一種數據庫操作: 不用造假,改一下排序權重,降一下可見度,關掉某些接口,或者把一段歷史從推薦和搜索里慢慢擦掉,公眾記憶就會跟著被改寫。更現實的是,這種控制還會延伸到數據的占有和提取,它們甚至能通過掌控關鍵基礎設施來獲取更大范圍的數據來源。

      《新周刊》:如何理解“AI不會讓真相更容易消失,但讓假裝真相的東西更容易流行”這個觀點?

      馬爾登:AI最嚇人的地方也不只是“能造假”,更是它讓“編排事實”這件事工業化了,速度更快、成本更低,風格還更像人,連你自己都分不清自己是在聽分析,還是在被牽著鼻子走。更麻煩的是,信息本來就不是按“真不真”來分發的,而是按“你會不會停下來”來分發的,AI一旦接上算法,信息繭房就更容易被制造了。AI讓你以為自己在看世界,其實你在看的是一個為你定制的版本。

      最后的結果可能很荒誕:不是謊言戰勝了真相,而是“太像真的東西”淹沒了真相,于是 AI 可能會使人們對信息的辨別更加有難度。

      《新周刊》:那普通人還有更便捷的方式來保護自己嗎?

      馬爾登:養成一個習慣——看到新信息先慢一點,先保持懷疑。你不需要一上來就去做很復雜的核查,先問幾個很基礎的問題就行:這是誰做的內容?他可能想達到什么效果?他為什么要用這種方式講?然后再補一點基本常識,知道媒體和平臺是怎么運作的,尤其是推薦算法是怎么做的。很多時候你以為自己在“看新聞”,其實你是在看平臺挑出來的、最容易讓你停留和產生情緒波動的東西。

      比如同一件事,你看看不同國家的報道、不同立場的評論,慢慢你會發現他們用的詞不一樣,關注的重點也不一樣。這樣做不是為了找到一個完全中立的版本,因為那種版本通常不存在。這更像是在訓練自己——識別哪些是事實,哪些是解釋,哪些是立場,哪些是在動員你站隊。普通人能做的自我保護,大部分就靠這些很樸素的步驟,長期堅持下來你會發現這比任何“萬能工具”更可靠。


      中國AI更“I”,美國AI更“E”?

      《新周刊》:如果把語言模型比作人,有人覺得美國的大模型更E,中國的大模型更I,你覺得呢?

      馬爾登:差不多。我與一些中國同事就中國的數據標注和人工智能開展調研之后發現,中國的項目往往比美國的項目更具獨立性。美國的供應鏈在一定程度上更加全球化,因為它們涉及更多的外包,而中國傾向于將數據留在國內,最終形成了一種相對獨立的情況。

      《新周刊》:“AI競賽不像奧運會設金、銀、銅牌。這場比賽只有金牌和銀牌,這兩塊獎牌屬于中美兩國”,你認可這個觀點嗎?

      馬爾登:如果只看資本、頂尖公司、研究能力和人才密度,美國和中國確實還是(在這場競賽中)最靠前的兩個國家。但我不太認同“金牌銀牌”這種說法,因為它把一場很復雜的博弈,又理解成了二元敘事。美國和中國都在爭奪技術領先,也都在把別的國家、企業、供應鏈、科研網絡拉進來,形成各自的技術陣營。AI不只是“誰更聰明”的問題,它同時牽扯經濟競爭、軍事實力、產業控制力和地緣政治影響力,所以你很難用金銀牌這種單線邏輯講清楚全局。

      另外,還有一個常被忽略的點: 即便同樣在做 AI,美國和中國對“為什么要做、要用來做什么”這件事的理解也不一樣。因為兩國在對自己在世界上的位置、政府在社會和產業里應該扮演的角色等問題上的判斷有所不同,這些基本判斷不同,最后會體現在AI的發展路徑、治理方式和優先級上。總之,領先者確實是這兩個國家,但你要理解,這是一盤棋,不是一場百米賽跑。

      《新周刊》在這盤AI棋局里,你如何判斷一個國家贏面最大?

      馬爾登:在AI競爭里,資源當然重要,但真正拉開差距的,未必是誰手里東西更多,而是誰更會用手里的東西。過去很多人會把這場競爭理解得很簡單,覺得只要有更多芯片和更多數據,就一定能做出更強的模型。

      美國現在對中國做的很多限制,也正是基于這種判斷,比如限制最先進芯片和相關技術的出口。但是DeepSeek告訴我們,芯片并不是贏得AI競賽的主要因素,這其中還涉及模型如何訓練,中國或許在這方面更有優勢。

      《新周刊》:具體是哪些優勢?

      馬爾登:中國的企業雖然會在某些方面有不少限制,但它們同時也能拿到大量資金支持,也有比較明確的政策扶持。因為在中國,AI不只是一個商業賽道,它還被放在更高的戰略位置上。這樣一來,人才、資本、基礎設施和產業資源,就更容易往這個方向集中。

      此外,中國人口眾多,也是一個數字化程度更高的國家,所以我認為有更多的數據可供自動駕駛、大模型、面部識別等科技公司利用。

      《新周刊》還有什么更有趣的發現嗎?

      馬爾登:在美國,AI女友非常受歡迎,而在中國,人們更傾向于擁有AI男友。


      真正的藝術家,不會被AI取代

      《新周刊》:有一種觀點認為,AI越來越強以后,人類標注很快就會過時,模型會自己標、自己學、自己迭代。

      馬爾登:我不太認同。原因很簡單,模型越復雜,越需要高質量的數據和更細致的人工反饋。很多工作不是機器能不能生成結果的問題,而是需要生成什么樣的結果,以及誰來對這個結果負責。

      所以未來5年,我不覺得數據標注員會消失,更可能發生的是任務變化,而不是崗位消失。他們可能不再只是做最基礎的標記,而是會更多地參與篩選、糾錯、質檢,以及更復雜的訓練支持。

      《新周刊》:你曾說過,如果10年后重寫這本書,你最希望過時的內容,就是“數據標注員”這部分,為什么?

      馬爾登:我最擔心的是,這份工作會繼續存在,但卻是以一種很不體面的方式存在。尤其是內容審核。世界上仍有很多數據標注員每天都在替平臺看最惡心、最暴力、最不該反復看的內容,替互聯網做清潔,但他們得到的報酬、保障和尊重,往往遠遠不夠。

      《新周刊》:我們聊回AI帶來的風險吧,你認為哪些對AI普遍的擔憂實際上是不必要的,哪些又是必要的呢?

      馬爾登:大概在2023年的時候,大家都在擔心AI會變得具有超人般的智能并接管世界。當時大家都在談論這種反烏托邦的想象情景,事實證明這只是人們抱有的一種離奇的、基于猜測的怪異恐懼,而這種恐懼并沒有真正基于當時AI的發展現實。畢竟,當時它甚至連一些單詞都拼寫不對。語言模型沒有意識,它們沒有感知能力。

      而我在書中提出的一系列問題要緊迫得多。我就給你列舉前三項:

      第一,是AI基礎設施對環境的影響。它消耗多少電力、多少水資源,以及創建數據中心、超大規模數據中心、計算機芯片和AI芯片需要開采多少關鍵礦物和采用哪些新的開采方式。

      第二,是供應鏈的類型以及投入其中的隱性人力勞動,也就是創建AI、訓練模型以及基本上本書所涵蓋的所有內容所需的數百萬人力。

      第三,我認為我們應該關注的主要問題是,在獲取知識、資源,和在網絡等方面存在的各種全球不平等現象,而AI似乎只會強化和凸顯這些不平等。實際上,所有極其富有、極其有權勢和享有特權的人,都在尋求進一步增強權力、獲取更多特權,并將AI作為實現這一目標的工具。實際上,這就是AI的工作方式。

      所以我不太擔心AI會突然像電影里那樣覺醒,我更擔心的是,它在沒有引起足夠警惕的情況下,已經開始幫最有權力的人把優勢變得更穩固了。


      (圖/《投喂AI:人工智能產業的全球底層工人紀實》)

      《新周刊》:那你認為AI會在多久之內取代學者和創作者?

      馬爾登:這不會發生的。雖然AI真正擅長的是對現有知識進行總結,當它必須執行這類任務時,我給它打9分(滿分10分)。我總能100%確定學生是否在使用AI,因為AI在表達觀點和總結思想的方式時,都有相似的語氣和自信程度。

      AI仍然存在不足的地方,它無法提出真正新穎、有趣的對世界的見解。這些見解本應反映人類體驗的基本方面以及它在當今的變化,但AI沒有體驗,只有數據,它并不生活在現實世界中。因此,它無法從全面、具身、存在主義的視角理解作為人類真正重要的是什么。

      《新周刊》:如果有了世界模型,會不會不一樣?

      馬爾登:它當然會讓AI變得更強,尤其是在理解物理環境、預測變化、處理復雜任務這類事情上,能力會往前走一大步。但AI本質上還是在根據已有數據去總結模式、做預測、反復試錯。

      它可以越來越擅長模擬這個世界的運行方式,但這不等于它真的擁有了人的那種理解能力。人的理解里有經驗、有情境、有目的感,也知道自己為什么要這么做。而AI就算能把環境建模得再像,對事物模擬得再像,它也只是在算概率、對答案。它能猜出你想聽什么,但它根本不知道自己在說什么。

      《新周刊》:但事實是,現在很多AI生成的畫作,甚至是網絡小說,普通讀者已經分不清它們與人類作品的區別了,我們強調“人的主體性”是否只是一種自我安慰?

      馬爾登沒錯,在技術層面,AI的擬態已經達到了巔峰。但藝術遠不止于畫一張“漂亮的畫”或講一個“通順的故事”。

      藝術的靈魂在于“意圖性”。當一個藝術家落筆時,他是在試圖對世界說些什么,那背后是個體的生命史、價值觀和對時代的抵抗。如果AI畫了一座房子,僅僅是因為它的數據集中有成千上萬座類似的房子,那么這種美就是空洞的,它廉價化了藝術的體驗。

      《新周刊》:你允許你的學生用AI寫論文嗎?

      馬爾登:這由不得我允不允許。對于學生自己來說,這要看你寫論文的目的是什么。 如果你寫論文只是為了交差,那AI當然可以很快幫你拼出一篇東西。

      但如果你寫論文是為了學習,那完全交給AI,其實就是在騙自己。因為寫論文最重要的,不只是交出一份結果,而是在這個過程中學會提問題、找材料、做判斷,慢慢形成自己的分析能力。

      這些能力,才是教育真正想訓練你的東西。以后你看新聞、刷短視頻、接觸各種新信息時,靠的也是這些能力,去判斷它是真是假,它背后有什么立場,又省略了什么。所以我的看法不是“絕對不能用AI”,而是不能讓AI代替你思考

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      刀鋒時間 incentive-icons
      刀鋒時間
      新周刊旗下品牌,從刀鋒圖書獎出發,發現全球好書,捕捉文化鋒芒。
      1159文章數 515關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版