ChatGPT以其驚艷的語言能力俘獲人心已滿三年。OpenAI這項發明引發的狂熱如此之盛,以至于如今美國最大的經濟增長引擎竟源于對這項技術的投資——它甚至許諾能治愈癌癥。
生成式人工智能真能兌現這些宏大承諾嗎?至少對于那些每天揮擲數百萬美元以維持聊天機器人運轉的投資者而言,答案是否定的。一旦業務出現崩塌,我們將面臨什么?
![]()
OpenAI首席執行官山姆·奧特曼因三年前公司推出ChatGPT而聲名鵲起。這場突如其來的成功,將他推向了科技英雄的精英神壇。面對全球范圍內的聚光燈,他非但沒有絲毫怯場,反而開始發表愈發驚世駭俗的言論。
例如,他宣稱:“盡管進程將循序漸進,但氣候問題的解決、太空殖民地的建立以及物理學全領域的探索——這些驚人的成就終將變得司空見慣。”
他的豪言壯語更進一步:“或許只需10吉瓦的計算能力,人工智能就能攻克癌癥療法;或者用同樣10吉瓦的算力,就能為地球上每個學生提供個性化教育。”作為參照,擁有150多萬人口的費城,其全城電力消耗僅約1吉瓦。
在另一次訪談中,他又表達了深深的憂慮:“我們非常擔憂威權政府會開發這項技術。”無論持有樂觀愿景還是末日論調,奧特曼都篤定生成式人工智能擁有巨大的力量:一切將從此改變。
最近,他似乎恢復了些許理性,開始降低近年來被不斷煽高的預期。在向投資者尋求更多資金時,奧特曼反思道:“當泡沫出現時,聰明人往往會對核心真相過度熱情。”他繼續反問道:“我們是否正處于投資者普遍對人工智能過度熱情的階段?我認為是的。但人工智能是否是長期以來最重要的事件?在我看來,亦是如此。”
究竟是誰讓投資者陷入了這種進退維谷的境地?
![]()
數據統計
如何理解這位科技界領軍人物看似自相矛盾的言論?這些看似雜亂無章、失衡甚至對立的表述,實則暗藏玄機。但要理解其中的深意,我們需要回溯一些背景。
2022年11月,ChatGPT的橫空出世令我們所有人感到震驚。其卓越的語言能力讓我們猝不及防,人們輕易地相信自己正在與“某人”對話——某種具有意識的存在。
我們不必固執己見:ChatGPT確實實現了更高級別的交互。雖然人工智能早已存在,但ChatGPT的突破在于它能夠輸出“新”內容,或者更準確地說,是以統計學概率的方式回收并重組舊內容。這就是生成式人工智能的運作原理——它不僅能在數據中發現關聯性(例如向我們推送“相關”廣告),更能創造全新的關聯。
但必須澄清一點:正如學者葉夫根尼·莫羅佐夫所言,人工智能既非“智能”也非“人工”。
它之所以不具備智能,是因為其本質上是統計學:如果簡化大型語言模型(當前人工智能領域最成熟的模型)的工作原理,可以將其理解為根據訓練時使用的數百萬個示例,預測某個詞語接續另一個詞語的概率。
另一方面,它也不具備“人工”屬性:因為其尋找關聯的內容源自人類智慧的結晶。若無此基礎,統計模型便無法實現逼真的擬態。事實上,中期發展存在一個無法解決的悖論:若人工智能真能取代人類,未來它將不得不接受其他人工智能產出的數據進行訓練,這將加劇本已頻發的錯誤、偏見和幻覺,形成惡性循環。
正如凱倫·郝在《人工智能帝國》一書中所闡述,OpenAI超越競爭對手的關鍵發現在于:當數據量、參數和計算能力呈倍數增長時,結果的可信度將成比例提升。
此后,西方科技企業紛紛投入巨資擴充這些變量以打造更強大的系統,幾乎停止了對替代路徑的探索。例如,面對海量內容需求時,它們不再僅采信可靠來源,而是不加區分地抓取網絡上所有信息——從紅迪網到推特,乃至各類雜牌雜志。這導致訓練數據的平均質量持續惡化,與生成可靠答案的目標背道而馳。
對人工智能而言,世界僅存在概率;真偽等概念毫無意義,因為它無法認知現實世界——畢竟“認知”本身就意味著某種意識,而這正是它所欠缺的。
這場變量擴張競賽的另一惡果,是催生出規模日益龐大的數據中心。成千上萬的處理器堆疊運行不僅耗能巨大,其配套的冷卻系統更消耗驚人的能源和水資源。這些數據中心的能耗堪比數十萬人口的城市,其產生的空氣污染、持續噪音及周邊水資源短缺等問題,正嚴重危害著周邊居民的健康。
盡管尚無確切的電力消耗數據,但根據麻省理工學院的預測,若按當前速度發展(除非該行業加速擴張或徹底崩潰),到2030年數據中心可能消耗全球21%的電力需求。
原計劃關閉的發電廠將持續運轉以滿足增長需求。這意味著全球為防治變暖所做的努力將付諸東流,甚至造成更大的生態損失。
面對技術引發問題的種種鐵證,科技巨頭們卻提出了更多“技術方案”來應對。例如,奧特曼輕描淡寫地宣稱人工智能將能“修復”氣候問題,同時他又創辦了一家核能公司。盡管人類早已掌握了無需人工智能也能“修復”全球變暖的方法。
弗雷德里克·詹姆遜關于“想象地球的終結比想象資本主義的終結更容易”的著名論斷,如今已演變為“想象人工智能將解決全球變暖,比想象能阻止一個蓬勃發展的產業更容易”。
歸根結底是經濟問題,蠢貨
![]()
近年來,我們聽過太多夸大其詞的承諾:非同質化代幣將拯救藝術家免于饑餓,加密貨幣將實現貨幣控制的民主化并讓“民眾”擺脫銀行束縛,元宇宙將帶來前所未有的互聯網“生活”體驗等等。
這些項目(及其他類似企劃)皆將過剩的資本導入看似短期高回報的項目,而中長期收益則懸而未決。畢竟,正如那些在科技賭場押注者反復強調的——他們同時將地球生態系統置于賭局之中——誰曾預料谷歌會發展成今日之規模?無論如何,關鍵在于及時抽身,讓別人買單。這正是病態資本主義碎片化的體現——它在投機狂潮中擴張,最終以危機收場。
山姆·奧特曼玩轉這套游戲堪稱完美,即便在談論人工智能的危險時亦是如此。若人工智能能攻克癌癥與全球變暖,正因其是極具顛覆性的技術。反之,若它演變為能消滅人類的終結者,也僅需更多處理器(能源)、數據與參數支撐。
企業似乎不再需要那些討薪、要求加薪的“煩人”員工。誰會想錯過這樣的機遇呢?
那些不依賴人工智能謀生卻深入研究該領域的人,則持更懷疑的態度。他們不認為超級智能——那種擁有模糊的超意識和全部信息的智能——是統計學道路的終點。
哈佛大學、麻省理工學院和蘋果公司等機構的嚴肅研究表明,盡管人工智能在回答問題時能提供看似可信的結果,但其中并無推理的痕跡。面對邏輯問題時,它們并非運用演繹法則,而是基于歷史案例推演概率。
當然,在許多領域,精確的統計推斷往往足夠:例如身為律師,撰寫判決書時可節省時間,但必須仔細校對——可惜并非人人如此,有人因懶惰或過度追求效率而最終付出代價。因為人工智能可以突破統計概率的邊界,“發明”那些“可能”發生的情況。
谷歌母公司字母表的首席執行官桑達爾·皮查伊在接受《邊緣》雜志采訪時承認:“幻覺問題仍然沒有解決。某種程度上,這是其固有特性。正是這種特性賦予了模型強大的創造力。”
盡管承認可靠性有限,企業仍在游說將高度敏感的任務——如交通、教育、軍工或醫療領域——委托給人工智能。
![]()
泡沫已現,為何執意兜售達不到預期承諾的產品?因為投資者正變得焦躁不安,渴望獲得切實可感的回報信號。盡管部分人工智能助手的付費版本收入在增長,但增速遠低于成本上升幅度——尤其隨著數據中心規模持續擴大。
為縮小差距,安索帕等公司不得不限制付費用戶訪問其編程人工智能“克勞德”的次數:每月200美元的收費無法覆蓋成本,且似乎無法大幅提價。這意味著即便是付費客戶也讓企業蒙受虧損。
但當前關于人工智能的輿論影響力如此之大,以至于所有人都承受著使用它的壓力:或是因為上司要求,或是為了提升生產力以求生存。教師、建筑師、律師或網紅們,或出于信念、壓力或需求嘗試使用,發現它或多或少能派上用場,于是因時間緊迫或單純懶惰而將任務外包。
企業的預期是,遲早認知外包會讓我們依賴這些工具來處理所有無法自主完成的工作。
企業同樣承受著壓力,咨詢公司便以人工智能標簽兜售解決方案,至少能緩解他們的“錯失恐懼癥”心理,彰顯企業現代化形象。但實際成效尚不明朗:麥當勞等企業因系統產生超量訂單而被迫撤回服務。如今已有專業人士專門修復人工智能產生的錯誤。其他領域則討論著通過特定應用提升員工生產力的方案。
關于勞動力替代的最全面研究顯示,22至25歲年輕人的招聘量下降了13%。這一數字值得關注,但遠未達到廣告宣傳的恐怖規模。這種替代是否可持續也尚無定論。
另一個不容忽視的問題是向在線人工智能服務共享信息的風險。正如愛德華·斯諾登所警示的,2024年OpenAI董事會吸納了前美國國家安全局局長保羅·中曾根將軍——該機構曾于2013年被指控通過科技公司對全球民眾實施大規模監控。這能有什么問題?
面對這種運作于黑箱之中、實現決策自動化的技術,任何理性的反駁都顯得蒼白無力。
于是,夸大其詞的承諾讓投資者爭相將資金投向這項號稱將徹底改變世界的技術,股價水漲船高,而那些眼光敏銳者則能在必要時將燙手山芋轉手他人。
![]()
數百萬美元在各方間流轉后又回到起點,卻制造了頭條新聞,維持了市場對芯片的預期與需求——正是這種需求讓英偉達市值達到三年前的十倍。真正的生意不在于經營烤雞店或網球場,而在于說服人們相信這些是好生意,并收取建設費用。至于人工智能真正創造的、支撐這臺機器運轉的實際收入?這個問題至今無人能解。
事態發展已至如此地步:奧特曼不再談論治愈癌癥或開創物理學新紀元,轉而熱衷于推出新社交網絡、在ChatGPT開放色情內容或開發新型瀏覽器——這些領域早已飽和,如今更難稱得上創新或顛覆性。本該改變未來的科技,如今卻淪為在飽和市場里賺取零碎利潤的工具。
騎向懸崖的自行車
只要資金源源不斷,這些科技巨頭就停不下來。因此對許多人而言,問題已不再是這種人工智能發展模式的泡沫何時會破裂,而是何時破裂以及破裂后會留下什么。它會像非同質化代幣那樣悄無聲息地消逝,還是像2001年互聯網泡沫那樣,雖讓投資者損失數千億美元,卻為幸存者留下了基礎設施?
但即便泡沫破滅后能建立新事物,經驗表明技術往往不會應用于最惠及大眾的領域,而是投向最能盈利的領域。
例如,千禧年伊始,人們投入數十億美元研發了極其強大的人工智能工具,并聘請了頂尖專業人才,但這些技術并未用于預防疾病或幫助人們實現自我,而是被用于投放廣告,讓民眾沉迷于微量多巴胺刺激,對心理健康造成嚴重危害。
更糟的是,美國大部分經濟增長都源于對生成式人工智能的投資。英國央行預計該行業將出現“突然修正”。德意志銀行的一份客戶報告明確指出:“人工智能泡沫是維系美國經濟運轉的唯一支柱”。
失去它,美國經濟將陷入衰退。正因如此,其他成本更低、危害更小的人工智能形式(所構成的威脅,引發了劇烈震動。市場對此采取否認態度,將價格維持在遠低于成本的水平,奉行“繼續前進”的邏輯。
目前,美國科技企業與政府之間的共生關系。但矛盾的是,在放任科技資本自由發展的過程中,資源的浪費可能導致他們不進反退。
事實上,OpenAI首席財務官莎拉·弗里爾在《華爾街日報》舉辦的活動中引發了另一波恐慌,她聲稱美國政府最終應為投資提供擔保。他們是否在預演2009年奧巴馬式的企業救助?人工智能領域存在著遠比美國企業選擇的道路更廣闊的探索空間,其價值更關乎公共利益而非暴利。
政府通過合同維持著市場預期。例如彼得·蒂爾旗下的數據處理與軍事承包商帕蘭提爾公司,就為美國政府提供非法移民追蹤服務。得益于這些合同,帕蘭提爾的股價在過去兩年間大幅攀升。
該公司及其他企業還承諾將優化政府運作效率——這些運作被封存在人工智能的黑匣子中,不久之后便無人知曉其運作機制。
正如研究者哈根·布利克斯和英格博格·格利默在《我們為何恐懼人工智能》中所闡釋的,人工智能的統計錯誤——例如將合法移民誤判為非法移民——具有強大的意識形態功能,能引發全民恐慌。面對運行于黑箱中并自動化決策的技術,理性辯論根本無從談起。
![]()
正如他們所言:“人工智能在技術層面存在缺陷時,卻能在意識形態層面實現目標。”從這個角度看,生成式人工智能是否會產生誤報并不重要——只要所有移民都因恐懼而自我約束,就是成功的。
那么這項技術是否毫無價值?如前所述,生成式人工智能蘊含的探索路徑遠比美國企業選擇的道路更為廣闊。存在更精簡的模型,它們基于可靠數據訓練,僅定位于自身本質:即發現模式并推測有用模式的實用統計工具。
例如,可以訓練系統控制交通信號燈及其他路標,從而優化城市交通流;或用于設計蛋白質,再由專家進行分析測試——這在現實中已有所實踐。
我們需要評估這些潛力巨大的工具所帶來的影響、經濟成本及環境損害。但最現實可持續的場景與所謂“超級智能”毫無關聯——后者既不能治愈癌癥,也不會演變成終結者。這些服務于人類的現實人工智能,需要建立優先考慮人類福祉的政治體系,將環境代價置于少數人短期利益之上。其成果始終需要人類的自覺監督,切莫忘記人工智能缺乏判斷力——且種種跡象表明,它永遠不會具備這種能力。
埃斯特班·馬格納尼
插圖:塞巴斯蒂安·安格雷薩諾
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.