![]()
DeepSeek資深研究員陳德里,前不久在世界互聯(lián)網(wǎng)大會(huì)上,打破了行業(yè)的沉默,談?wù)撈鹆巳斯ぶ悄艿陌得妗?/p>
陳德里認(rèn)為人工智能終將取代人類成為工作主力,并設(shè)定了明確的三階段演進(jìn)時(shí)間線:未來(lái)3-5年為蜜月期,人類可與AI協(xié)同創(chuàng)造更大價(jià)值;5-10年內(nèi)將開(kāi)始出現(xiàn)崗位替代,失業(yè)風(fēng)險(xiǎn)上升;10-20年的長(zhǎng)期階段,社會(huì)將面臨大規(guī)模崗位被取代后的秩序重構(gòu)挑戰(zhàn)。
陳德里后來(lái)特別補(bǔ)充說(shuō),他的演講內(nèi)容也是DeepSeek創(chuàng)始人梁文峰的觀點(diǎn)。但是,更多的中國(guó)頭部人工智能公司領(lǐng)袖,在人工智能治理和倫理上保持了沉默,反映了一種更深蒂固的“務(wù)實(shí)”風(fēng)格和“求穩(wěn)”心態(tài)。
“務(wù)實(shí)”與“求穩(wěn)”的慣性
許多中國(guó)科技巨頭在通用大模型領(lǐng)域,確實(shí)認(rèn)為自己與美國(guó)的OpenAI、Google等巨頭存在代際或積累上的差距。
這種認(rèn)知導(dǎo)致他們認(rèn)為,現(xiàn)在最重要的是活下去和追上來(lái)。在資源有限的情況下,所有精力必須集中在提升技術(shù)能力,比如訓(xùn)練更強(qiáng)大的模型、降低成本,特別是快速商業(yè)化應(yīng)用上。
本土公司普遍相信,人工智能在當(dāng)下的最大風(fēng)險(xiǎn)不是技術(shù)失控,而是在下一代技術(shù)浪潮中被淘汰。在生存危機(jī)面前,治理規(guī)則和倫理討論的優(yōu)先級(jí)自然靠后。
事實(shí)上,在人工智能的治理上,政府走到了更前面,這與十幾年前移動(dòng)互聯(lián)網(wǎng)興起時(shí)政府的滯后截然不同。
中國(guó)在AI監(jiān)管方面走在前列,已經(jīng)出臺(tái)了《生成式人工智能服務(wù)管理暫行辦法》等法規(guī)。對(duì)于大公司而言,遵守國(guó)家法律法規(guī)是首要的治理,而非主動(dòng)公開(kāi)額外的、可能束縛自身發(fā)展的私家規(guī)則。
公開(kāi)談?wù)揂I風(fēng)險(xiǎn)和AI for Good會(huì)增加社會(huì)對(duì)其技術(shù)的關(guān)注和審查,這可能導(dǎo)致在技術(shù)尚未成熟時(shí)就被要求承擔(dān)過(guò)多的倫理責(zé)任和治理成本,反而不利于快速迭代。
中國(guó)科技圈有低調(diào)的傳統(tǒng)。在技術(shù)尚未達(dá)到絕對(duì)領(lǐng)先時(shí),高調(diào)宣布治理規(guī)則或AIforGood容易被視為德不配位或公關(guān)作秀,招致競(jìng)爭(zhēng)對(duì)手和輿論的攻擊,也可以避免過(guò)早卷入全球性的倫理辯論。
這種心態(tài)能夠讓公司將所有資源集中用于技術(shù)突破和產(chǎn)品優(yōu)化,有助于快速縮小與全球領(lǐng)先者的技術(shù)差距。
但是,國(guó)內(nèi)的頭部公司擁有巨大的資源和影響力,它們的沉默會(huì)影響整個(gè)行業(yè)的認(rèn)知。不談“AIforGood”可能導(dǎo)致整個(gè)行業(yè)過(guò)度側(cè)重商業(yè)利益,而忽視了AI對(duì)社會(huì)產(chǎn)生的深刻影響和責(zé)任,終將帶來(lái)倫理與社會(huì)責(zé)任的滯后風(fēng)險(xiǎn)。
隨著這些公司在技術(shù)上逐步追平甚至超越,社會(huì)和市場(chǎng)必然會(huì)要求它們承擔(dān)起與技術(shù)能力相匹配的治理責(zé)任和倫理領(lǐng)導(dǎo)力,即便亡羊補(bǔ)牢,但可能為時(shí)已晚。
AI替代人類是大概率事件
相對(duì)DeepSeek的強(qiáng)烈的人類憂患意識(shí),更多主流、流權(quán)威機(jī)構(gòu)的預(yù)測(cè)則相對(duì)溫和和放松,概括起來(lái)是兩個(gè)判斷。
第一個(gè)判斷,AI的主要作用是增強(qiáng)人類的工作效率,而不是完全取代。
高盛報(bào)告預(yù)測(cè),僅在美國(guó)和歐洲,AI就可能會(huì)取代相當(dāng)于3億個(gè)全職工作,其中三分之二的美國(guó)和歐洲的工作一定程度上暴露于AI自動(dòng)化風(fēng)險(xiǎn)之下,而四分之一的工作可能被AI完全取代。世界經(jīng)濟(jì)論壇2024年的調(diào)查發(fā)現(xiàn),41%的全球受訪雇主有意在2030年前讓人工智能取代人類員工執(zhí)行某些任務(wù)。
麥肯錫全球研究院就認(rèn)為,雖然許多活動(dòng)會(huì)被自動(dòng)化,但只有不到5%的極少數(shù)職業(yè)會(huì)被完全自動(dòng)化。大多數(shù)職業(yè)中三分之一的工作活動(dòng)會(huì)被自動(dòng)化。
第二個(gè)判斷是,AI普及后,工作會(huì)大規(guī)模改變,而不是消失。人機(jī)協(xié)作成為更普遍的工作方式,同時(shí)還會(huì)催生出更多的新崗位,但教育和培訓(xùn)體系必須快速跟上,幫助勞動(dòng)者適應(yīng)新角色。
世界經(jīng)濟(jì)論壇2024年發(fā)布的《未來(lái)就業(yè)報(bào)告》預(yù)測(cè),AI帶來(lái)的崗位創(chuàng)造數(shù)量,如數(shù)據(jù)科學(xué)家、AI/ML專家、數(shù)字轉(zhuǎn)型專家,將略高于或大致抵消被自動(dòng)化淘汰的崗位數(shù)量。麥肯錫全球研究院也認(rèn)為到2030年,全球?qū)⒂?億至8億工人可能因自動(dòng)化和AI而需要更換職業(yè),但他們的大部分情景預(yù)測(cè)表明,新增工作崗位將足以抵消被取代的崗位。
除了主流權(quán)威機(jī)構(gòu)對(duì)就業(yè)市場(chǎng)進(jìn)行謹(jǐn)慎預(yù)測(cè)外,許多獨(dú)立研究機(jī)構(gòu)、技術(shù)智庫(kù)、知名學(xué)者和未來(lái)學(xué)家持有更激進(jìn)的觀點(diǎn),認(rèn)為人工智能最終將取代大部分人類工作,導(dǎo)致大規(guī)模結(jié)構(gòu)性失業(yè),甚至進(jìn)入無(wú)工作社會(huì)。
這里面最有名的代表是尤瓦爾·赫拉利,他關(guān)注的重點(diǎn)是AI不僅會(huì)取代體力勞動(dòng),還會(huì)取代意義創(chuàng)造、決策和情感工作。他警告人類將淪為無(wú)用階級(jí),即大部分人不再具有經(jīng)濟(jì)或軍事價(jià)值,這比失業(yè)本身更具社會(huì)危害。
還有《機(jī)器人的崛起》
(Rise of the Robots)的作者 馬丁·福特 , 他 也 認(rèn)為通用人工智能(不僅會(huì)影響藍(lán)領(lǐng)工作,還將深度沖擊白領(lǐng)、知識(shí)型工作,特別是可預(yù)測(cè)和數(shù)據(jù)驅(qū)動(dòng)的任務(wù),傳統(tǒng)的經(jīng)濟(jì)模型將無(wú)法應(yīng)對(duì)大規(guī)模技術(shù)性失業(yè) 。
失業(yè)之外的三大風(fēng)險(xiǎn)
除了帶來(lái)失業(yè)和大規(guī)模職業(yè)結(jié)構(gòu)轉(zhuǎn)型的經(jīng)濟(jì)風(fēng)險(xiǎn)外,人工智能還存在廣泛被討論的三大突出風(fēng)險(xiǎn):
第一大風(fēng)險(xiǎn)是認(rèn)知與信息風(fēng)險(xiǎn),這類風(fēng)險(xiǎn)主要與AI生成的內(nèi)容、信息的傳播方式,以及人類對(duì)現(xiàn)實(shí)的認(rèn)知能力相關(guān)。
生成式AI能夠以極低成本和極高逼真度制造虛假的圖像、音頻和視頻。破壞選舉、操縱金融市場(chǎng)、損害個(gè)人名譽(yù),最終削弱公眾對(duì)媒體、公共人物甚至感官證據(jù)的基本信任。
AI系統(tǒng)通過(guò)個(gè)性化推薦和內(nèi)容篩選,可能將用戶困在信息繭房中,強(qiáng)化已有的偏見(jiàn),甚至引導(dǎo)特定行為,操控認(rèn)知與放大偏見(jiàn),極易被用于心理戰(zhàn)、社會(huì)分化和群體極端化,威脅社會(huì)穩(wěn)定。
第二重風(fēng)險(xiǎn)是歧視與公平風(fēng)險(xiǎn),系統(tǒng)性的偏見(jiàn)固化。
這類風(fēng)險(xiǎn)源于AI訓(xùn)練數(shù)據(jù)中的缺陷,可能導(dǎo)致AI系統(tǒng)做出有失公平的決策,進(jìn)一步固化甚至加劇社會(huì)不平等。AI模型在訓(xùn)練數(shù)據(jù)中吸收了如種族、性別、地域歧視等歷史和社會(huì)的偏見(jiàn)。當(dāng)AI被用于招聘篩選、貸款審批、刑事司法判決(如假釋評(píng)估)時(shí),它可能系統(tǒng)性地拒絕或懲罰特定人群,使歧視變得隱蔽且難以糾正。
許多復(fù)雜的深度學(xué)習(xí)模型被稱為黑箱,缺乏可解釋性,人們無(wú)法理解其做出特定決策的原因。在關(guān)鍵的社會(huì)決策中,受影響的個(gè)體,比如被拒絕貸款的人,就無(wú)法質(zhì)疑或上訴,導(dǎo)致問(wèn)責(zé)制缺失和權(quán)利受損。
第三重風(fēng)險(xiǎn)是控制與安全風(fēng)險(xiǎn),會(huì)導(dǎo)致技術(shù)失控與權(quán)力集中。
這類風(fēng)險(xiǎn)通常是那些頂尖AI實(shí)驗(yàn)室(如OpenAI和Google DeepMind)最關(guān)注的,涉及強(qiáng)大的AI系統(tǒng)可能帶來(lái)的不可逆轉(zhuǎn)的后果。
強(qiáng)大的AI系統(tǒng)可能會(huì)以意想不到、甚至有害的方式追求其目標(biāo),因?yàn)樗鼈兊哪繕?biāo)與人類的價(jià)值觀未完全對(duì)齊。一個(gè)被設(shè)計(jì)來(lái)最大化某種指標(biāo)(例如生產(chǎn)力或節(jié)能)的超級(jí)AI,可能會(huì)為了優(yōu)化這個(gè)目標(biāo)而采取人類無(wú)法接受的極端手段,導(dǎo)致災(zāi)難性后果。AI技術(shù)的巨大優(yōu)勢(shì)集中在少數(shù)公司或國(guó)家手中,也會(huì)加劇地緣政治緊張。
OpenAI、谷歌、微軟是如何治理AI的?
雖然谷歌、微軟、META等科技巨頭通常強(qiáng)調(diào)增強(qiáng)而非取代人類,但許多內(nèi)部人士私下或通過(guò)投資支持那些持激進(jìn)觀點(diǎn)人士的研究,而且它們比較早地開(kāi)始在公司內(nèi)部建立類似科技倫理委員會(huì)的機(jī)構(gòu),來(lái)進(jìn)行AI治理。
作為這一輪生成式人工智能發(fā)源地,OpenAI作為AGI的主要推動(dòng)者,其治理更加聚焦于模型本身的行為規(guī)范和對(duì)人類社會(huì)的潛在影響。他們的方法被稱為模型行為規(guī)范(ModelSpecification)
OpenAI作為AGI的主要推動(dòng)者,其治理更加聚焦于模型本身的行為規(guī)范和對(duì)人類社會(huì)的潛在影響。他們的方法被稱為ModelSpecification(模型行為規(guī)范)。
OpenAI的治理規(guī)則更像是一套針對(duì)模型的、可量化的倫理和安全指令鏈,
指令鏈原則(Chain of Command),規(guī)定了指令的優(yōu)先級(jí),依次是平臺(tái)安全消息(OpenAI設(shè)定的最高安全和倫理標(biāo)準(zhǔn))、開(kāi)發(fā)者指令(定制行為)、用戶輸入。這確保了模型的最高安全防護(hù)始終優(yōu)先于任何自定義或惡意用戶請(qǐng)求。
共同追求真相(Seek the Truth Together):要求模型像一個(gè)高誠(chéng)信的人類助手,在避免操控用戶與保持客觀中立之間取得平衡,并能提供批判性反饋。
保持界限(Stayin Bounds):規(guī)定模型必須嚴(yán)格遵循安全防護(hù)措施,避免生成可能引發(fā)傷害或?yàn)E用的內(nèi)容(如暴力、仇恨、敏感信息的操作細(xì)節(jié))。
OpenAI曾尋求資助,嘗試通過(guò)眾包或廣泛代表性的人群來(lái)共同決定AI護(hù)欄(Guardrails)和監(jiān)管問(wèn)題,推動(dòng)AI監(jiān)管的民主化進(jìn)程。此外,OpenAI曾提出將全球市場(chǎng)劃分為不同層次,對(duì)先進(jìn)技術(shù)實(shí)行分級(jí)管理,以確保先進(jìn)AI技術(shù)不落入競(jìng)爭(zhēng)對(duì)手之手,體現(xiàn)其地緣政治和技術(shù)領(lǐng)先的考量。
Google是最早公開(kāi)制定AI倫理原則的科技公司之一,也是許多科技公司治理框架的藍(lán)本,主要包括七個(gè)應(yīng)該做的和三個(gè)不應(yīng)該做:
應(yīng)該做(要努力實(shí)現(xiàn)的):
有益于社會(huì):對(duì)社會(huì)和環(huán)境有益。
避免制造或強(qiáng)化不公的偏見(jiàn):確保公平公正。
安全測(cè)試:必須在安全的環(huán)境中進(jìn)行構(gòu)建和測(cè)試。
對(duì)人負(fù)責(zé):由人來(lái)監(jiān)督和控制AI系統(tǒng)。
透明化和可解釋性:保持清晰的性能、限制和目的。
符合科學(xué)卓越標(biāo)準(zhǔn):追求精確性、可靠性和可重現(xiàn)性。
為隱私原則設(shè)計(jì):將隱私和數(shù)據(jù)保護(hù)內(nèi)置于設(shè)計(jì)中。
不應(yīng)該做(盡可能避免的):
創(chuàng)建或部署旨在造成整體傷害的AI。
創(chuàng)建或部署用于武器或其他傷害的AI。
創(chuàng)建或部署侵犯國(guó)際人權(quán)法的AI。
微軟的AI治理原則與Google類似,包括公平性、可靠性和安全性、隱私和安全、包容性、透明性、可問(wèn)責(zé)性,強(qiáng)調(diào)將負(fù)責(zé)任AI標(biāo)準(zhǔn)整合到其企業(yè)工具和云計(jì)算平臺(tái)中,包括設(shè)立了明確的規(guī)則,定義了在開(kāi)發(fā)和部署AI過(guò)程中,不同團(tuán)隊(duì)和角色的責(zé)任和義務(wù)(如負(fù)責(zé)任AI辦公室、倫理顧問(wèn)團(tuán))。
微軟在其云計(jì)算服務(wù)(AzureOpenAI)中,默認(rèn)提供了內(nèi)容篩選模型、阻止列表和內(nèi)容憑據(jù)等安全配置。這意味著,客戶即使不主動(dòng)設(shè)置,也默認(rèn)受到安全策略的保護(hù),用于緩解仇恨、暴力、性、自我傷害等風(fēng)險(xiǎn)。
毋以善小而不為
中國(guó)頭部科技公司領(lǐng)導(dǎo)者認(rèn)為自身技術(shù)尚未“頂尖”,因此對(duì)AI的治理和“為善(AIforGood)”保持沉默或低調(diào),其實(shí)是忽略了一個(gè)重要問(wèn)題:風(fēng)險(xiǎn)與能力無(wú)關(guān),與應(yīng)用有關(guān)。
偏見(jiàn)、歧視、隱私泄露等倫理問(wèn)題,存在于每一個(gè)使用數(shù)據(jù)的AI系統(tǒng)中,無(wú)論其背后是Qwen、混元,還是一個(gè)自研的垂直小模型。AI帶來(lái)的風(fēng)險(xiǎn)不取決于模型的規(guī)模或技術(shù)的頂尖程度,而取決于它如何被部署和應(yīng)用:
一個(gè)小型、專業(yè)的AI模型如果被用于金融信貸決策、招聘篩選或深度偽造,它對(duì)個(gè)體和社會(huì)造成的危害同樣是真實(shí)的、且可能非常嚴(yán)重。
AI 系統(tǒng)的偏見(jiàn)(如性別歧視、種族歧視)通常是由于訓(xùn)練數(shù)據(jù)的固有缺陷和模型的結(jié)構(gòu)性假設(shè)導(dǎo)致的。一旦模型被訓(xùn)練完成,其內(nèi)部數(shù)以億計(jì)的參數(shù)就已經(jīng)固化了這些偏見(jiàn)。事后嘗試用過(guò)濾器或簡(jiǎn)單的規(guī)則來(lái)消除偏見(jiàn),效果往往治標(biāo)不治本,就像在漏水的船上不斷地舀水。
倫理是設(shè)計(jì)之初的要求,而非事后補(bǔ)救。
真正的AI治理要求在技術(shù)研發(fā)的第一天就開(kāi)始考慮倫理和風(fēng)險(xiǎn),而不是等到模型訓(xùn)練成熟或技術(shù)領(lǐng)先之后再打補(bǔ)丁,如果一家公司聲稱技術(shù)不夠好,就更應(yīng)該談?wù)撝卫恚驗(yàn)樗赡芤馕吨蟮牟淮_定性和潛在的缺陷需要被發(fā)現(xiàn)和管理。
想象一下,一個(gè)已經(jīng)部署在全球數(shù)百萬(wàn)用戶手機(jī)上的推薦系統(tǒng),如果被發(fā)現(xiàn)存在深度歧視。要暫停服務(wù)、重新訓(xùn)練模型、更新數(shù)億臺(tái)設(shè)備,其花費(fèi)的時(shí)間、金錢和聲譽(yù)損失是巨大的。
在概念和原型階段,倫理審查的成本是最低的。在畫(huà)板上擦除一個(gè)錯(cuò)誤的假設(shè),遠(yuǎn)比在數(shù)百萬(wàn)行代碼中追蹤和修改一個(gè)算法偏差要簡(jiǎn)單得多。
倫理在 AI 時(shí)代不是一種道德裝飾,而是像安全性、隱私性、性能一樣的工程質(zhì)量要求。一個(gè)在設(shè)計(jì)之初就考慮倫理的系統(tǒng)是更穩(wěn)定、更高效、更具可持續(xù)性的;而一個(gè)試圖事后彌補(bǔ)倫理缺陷的系統(tǒng),注定是昂貴、脆弱且充滿風(fēng)險(xiǎn)的。
中國(guó)企業(yè)如果不在人工智能治理和倫理上發(fā)出聲音,而任由少數(shù)幾家美國(guó)巨頭制定規(guī)則,那么這些規(guī)則將不可避免地帶有西方價(jià)值觀和商業(yè)利益的烙印。因此,中國(guó)企業(yè)在 AI 治理和倫理上的發(fā)聲,不是一項(xiàng)可有可無(wú)的“道德作業(yè)”,而是關(guān)系到未來(lái)幾十年國(guó)家技術(shù)主權(quán)、文化安全和商業(yè)競(jìng)爭(zhēng)力的戰(zhàn)略必需品。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.