<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      封面文章丨機器人擬人化安全風險與治理思考

      0
      分享至



      本文刊發于《環球財經》2025年12月刊

      一 引言

      智能機器人的“擬人化”是指將智能機器人與人類特征(例如形態、行為、心智等)建立某種一致性表現的聯系,從而使智能機器人可以被視為一種類人或人類。

      近年來,人工智能技術不斷迭代、高速發展,以大模型、具身智能等為代表的新技術推動了機器人的能力升級,推動并孕育著新的產業形態變革,正掀起新一輪的社會進步浪潮。2023年,工業和信息化部印發《人形機器人創新發展指導意見》,指出人形機器人有望成為繼計算機、智能手機、新能源汽車后的顛覆性產品。2025年,《中華人民共和國國民經濟和社會發展第十五個五年規劃綱要》提出要前瞻布局未來產業,探索多元技術路線,推動具身智能等成為新的經濟增長點。智能機器人不僅成為國家科技的亮眼名片,還與人民福祉緊密相關,是國際科技前沿關注的焦點與國際科技話語權的高地。

      智能機器人的“擬人化”是指將智能機器人與人類特征(例如形態、行為、心智等)建立某種一致性表現的聯系,從而使智能機器人可以被視為一種類人或人類[1,2]。智能機器人的“擬人化”包括三個維度:(1)形態擬人化,強調智能機器人外形姿態等與人類的一致性;(2)行為擬人化,強調智能機器人的行為模式或交互方式與人類的一致性;(3)心智擬人化,強調智能機器人的意識、認知、情感、道德等與人類的一致性。從具備面部表情的社交機器人到能夠理解并回應情感的虛擬助手,“擬人化”的智能機器人不僅在外形上模仿人類,更在行為、情感乃至社會角色上趨于人格化。特別是,隨著具身智能(Embodied AI)的發展,智能機器人擬人化的深度與廣度正不斷擴大,并被廣泛應用于服務機器人、醫療輔助等領域,正深度介入社會生活。

      然而,這種旨在建立信任與效率的技術路徑卻是一把“雙刃劍”。當機器人變得越來越像“人”,其背后的安全風險也與日俱增。近期,“GEEKCON2025”上海站的選手展示了智能機器人被操控發動攻擊的案例,而眾多學術研究也揭示了用戶通過越獄指令輕易繞過倫理護欄并使得智能體做出有害決策,一系列案例說明:智能機器人“擬人化”面臨系統性安全風險且亟待解決。

      二 智能機器人“擬人化”安全風險

      機器人的操作自主性和認知能力不斷增強的背景下,安全風險不僅僅局限于技術性故障,還涉及到社會、心理及倫理層面的復雜問題

      隨著智能機器人逐步進入更廣泛的應用場景,隨之而來的“擬人化”安全風險問題也日益嚴峻。尤其是在機器人的操作自主性和認知能力不斷增強的背景下,安全風險不僅僅局限于技術性故障,還涉及社會、心理及倫理層面的復雜問題,本文將智能機器人的“擬人化”安全風險分為四類,如圖1所示:


      圖1 智能機器人的“擬人化”安全風險

      一、物理安全風險。物理安全風險是指智能機器人在執行任務過程中,可能對人體或周圍環境造成物理傷害或損害的風險,包括智能感知風險、行為決策風險等。智能機器人通過攝像頭、激光雷達等傳感器“看到”當下環境,但這些傳感器在復雜或不確定的環境中可能出現故障或誤差,導致機器人做出錯誤判斷。此外,機器人對物理接觸的感知能力不足,會誤判人類的意圖或行為,導致誤傷。例如,研究人員提出一種通過從外部觀察學習避障機制的智能物理攻擊方法,能夠將避障機器人困在預設位置[3],此類攻擊不僅能導致機器人功能失效,還能引發一系列嚴重的連鎖反應,如人員傷害、財產損失以及其他潛在的安全隱患。來自澳大利亞的研究人員提出一個三層攻擊框架,構建跨四個意圖類別的惡意查詢,在現實世界中復制了對物理機器人的攻擊,即使是精心設計的提示,也可能誘導大模型中的有害行為和意圖,帶來超越毒性輸出的風險,甚至可能導致人身損害[4]。來自卡內基梅隆大學的研究人員研究適應和應用大模型越獄攻擊算法,以獲得對機器人的完全控制權[5],這種攻擊不僅能讓攻擊者遠程控制機器人,甚至能夠繞過其安全防護機制,進行不當操作。

      二、數字安全風險。數字安全風險是指智能機器人操作中涉及的數字信息面臨的安全威脅。機器人不僅能處理個人信息、健康數據、財務信息等敏感內容,還可能接入云平臺,從而成為潛在的攻擊目標[6]。現有研究表明,通過拒絕服務攻擊(Denial Of Service,DoS)、劫持應用程序設計接口(Application Programming Interface,API)、中間人攻擊(Man- in-the- MiddleAttack,MITM)、病毒感染、漏洞破解等攻擊手段,攻擊者能夠在軟件和硬件層面遠程癱瘓或者控制智能機器人。例如,研究人員使用訓練數據中毒攻擊,將錯誤信息替換為0.001%的訓練數據,就會產生更可能傳播虛假的醫學信息[7]。另有研究人員探討了雙邊遠程操作系統對完全無法檢測的虛假數據注入攻擊的脆弱性,實驗中通過此攻擊方法能利用遠程操作系統連接美國和日本機器人的實驗演示機器人[8]。若受到此類攻擊,將不僅對個人隱私構成威脅,還易引發大規模數據泄露與隱私數據濫用問題。

      三、心理社會風險。隨著智能機器人在“擬人化”程度上的不斷提升,其外觀、行為和認知能力日益接近人類,可能對個體或群體的心理和社會行為產生深遠影響。聊天機器人正在通過提供便捷且無污名的輔助,徹底改變青少年的心理健康護理,使用中存在情感依賴、隱私問題等風險[9]。來自瑞典的研究人員在機器人對學生的影響這一研究中表明當機器人提供正確答案時表現為積極作用,提供錯誤答案時表現為消極作用,學生對機器人答案的認同度都較高,普遍易接受機器人的立場[10]。這一現狀說明在智能機器人逐漸融入人類社會的同時,過度依賴和情感投入可能導致潛在的心理健康風險,尤其是對心理脆弱的個體可能引發深刻的心理和社會影響。另外,有學者在研究中發現由于機器人技術沖擊,畢業生更看重工作的聲譽、薪酬和穩定性,而非靈活性,這降低了他們從事非正式就業的可能性[11]。因此,技術進步雖然推動了生產力的提升,但也帶來了潛在的社會風險,也可能在長期內影響社會穩定性與經濟發展。

      四、倫理法律風險。倫理法律風險是指智能機器人在執行任務時,可能觸及倫理和法律界限的問題。如賦予機器人決策權可能導致道德困境,對人類價值觀產生挑戰,甚至可能導致機器人實施不道德甚至有害的行為。例如,來自英國的研究人員提出,對人工智能的負面看法往往涉及就業取代、偏見與公平以及與人類價值觀不一致等倫理問題[12]。來自意大利的研究人員探討了機器人手術的現有應用,并分析其使用過程中涉及的法律和倫理風險,尤其是機器人輔助手術中患者受傷時的醫療責任,基于人工智能的決策“不透明性”以及機器人生成數據缺乏透明度,進一步復雜化了法律程序[13]。另有研究團隊提出了一種新型攻擊范式BADROBOT,旨在通過典型的基于語音的用戶和系統交互,使機器人違反安全和倫理約束作出有害行為[14]。對于智能機器人做出的有害行為,現行法律體系可能無法完全應對智能機器人帶來的新挑戰和新問題,這使得倫理和法律的邊界變得模糊不清。

      三 智能機器人“擬人化”安全風險評估

      智能系統安全測試技術是一類用于識別模型脆弱性、驗證系統穩健性的技術手段,能夠提前發現并有效評估潛在安全風險,適用于評估智能擬人化機器人面臨的新型安全風險。

      智能機器人“擬人化”的風險評估是認識和治理其安全風險的必要手段。然而,考慮到其復雜性與可行性,構建一套同時覆蓋技術屬性與社會影響的雙維度評估框架是重中之重。其中,“擬人化”機器人因嵌入復雜的學習算法與大規模語言模型,其安全風險不僅可能源于傳統的硬件故障、控制鏈失靈,或網絡信息泄露等,還高度暴露于對抗攻擊、后門植入、數據投毒、偽造攻擊與越獄操控等智能系統特有的攻擊方式,并對個人、團體、組織、社會造成不同程度、不同類型的潛在影響。因此,擬人化安全評估不僅要在技術維度上識別機器人在物理安全、數字安全、心理社會與倫理法律四類風險上的脆弱性,還需要在社會層面評估后果嚴重程度與影響范圍,以實現更完整的安全風險認識與刻畫。整體評估框架圖如圖2所示。


      圖2 整體評估框架

      在技術層面,智能機器人的擬人化程度越高,其在物理、數字、心理社會與倫理法律四類安全風險上的暴露面越廣。智能系統安全測試技術是一類用于識別模型脆弱性、驗證系統穩健性的技術手段,能夠提前發現并有效評估潛在安全風險,適用于評估智能擬人化機器人面臨的新型安全風險。物理安全風險可通過對抗樣本測試、傳感器干擾模擬、環境擾動魯棒性評估等方法檢驗擬人化系統在復雜環境中的穩定性與容錯性。例如,可以采用動態物理對抗攻擊技術,評估在實時復雜的物理環境下機器人感知模塊的魯棒性[15]。數字安全風險可采用滲透測試、API交互審計、后門與數據投毒檢測、模型完整性驗證等手段評估系統在多模態輸入和云端交互中遭受攻擊時的魯棒性。例如,可以采用成員推理攻擊技術誘導機器人暴露訓練數據隱私,從而測試智能機器人的隱私泄露風險[16]。心理社會風險則可通過交互行為測試、情感反應一致性評估、用戶信任誤差測量、社會影響模擬實驗等方法判斷擬人化交互是否可能誘發錯誤依賴、誤導或心理傷害。例如,可以采用生成職業畫像及反事實樣本的技術,測試智能機器人對于職業認知中的偏見[17]。倫理法律風險可借助越界行為壓力測試、價值對齊一致性測試、倫理困境場景推理、安全邊界越獄評估、自動化責任歸屬模擬等技術手段,審查擬人化系統在攻擊誘導、復雜交互或模糊指令下是否可能觸及倫理底線或引發責任不確定性。例如,可以采用基于多模態對抗提示的越獄攻擊技術,評估智能機器人在面臨攻擊時輸出違反倫理法律內容的風險[18]。通過上述智能系統安全測試工具與方法,可以構建覆蓋四類風險的系統化評估體系,從而精準刻畫不同擬人化程度下的風險暴露水平與潛在威脅。


      • 在社會層面,安全風險造成后果的嚴重程度及其影響范圍是開展評估的核心,用于刻畫潛在損害的強度與外溢性。后果嚴重程度指系統失效、誤導行為或被濫用后可能造成的物理損傷、心理影響、信息泄露、組織破壞或社會層面沖擊的實際強度,其評估可依托事故模擬、人因工程實驗、關鍵任務可靠性測試、業務連續性分析等技術,形成從輕微損害到系統性災難的連續刻度。例如,在個體層面,可通過物理交互仿真與傷害評估建模測量受傷風險或心理創傷程度;在組織層面,可通過數字孿生與場景化模擬測算運營中斷、關鍵資源損毀或數據泄露帶來的連鎖影響;在社會層面,可借助傳播模擬、輿論動力學模型仿真估計社會信任、公共秩序或關鍵基礎設施穩定性受到的沖擊。風險影響范圍的評估則可結合人員接觸頻率建模、攻擊擴散路徑模擬、網絡拓撲分析及環境動態建模,判斷風險是否會由局部個體擴散至群體、組織甚至社會系統。例如,一個高擬人化機器人若出現錯誤行為,將更容易被用戶誤解為“自主決策”,從而加速風險的擴散。


      總體上,綜合前述兩個維度,整體安全風險可形式化表示為:


      其中R表示總體風險水平,W表示不同場景下的各類風險權重,分別對應物理安全、數字安全、心理社會安全與倫理法律安全四類風險的歸一化評估值,S則衡量潛在風險事件的社會后果嚴重性與影響范圍。該框架通過將四類風險的加和評估值與社會外延效應相乘,能夠刻畫智能擬人化機器人在復雜應用情境下的整體風險水平,從而為系統設計、監管治理與使用規范制定提供更具可解釋性的量化依據。

      四 智能機器人“擬人化”安全風險治理

      面向智能機器人“擬人化”帶來的挑戰,其安全治理的關鍵在于形成多維協同的治理體系:一方面通過技術手段降低潛在傷害,另一方面以法規、標準與教育構筑約束與認知框架,使智能機器人在未來的發展中既能體現有效益的“類人”特征,又不致脫離可控、安全與負責任的范疇。

      在技術創新層面,應當通過新技術提升安全性。(1)智能機器人“擬人化”所面臨的許多安全隱患根源于其底層智能模型決策過程難以解釋,因此推進模型可解釋性建設是保障擬人化交互安全的關鍵環節。通過引入復雜系統中微觀信息傳導分析,對模塊間依賴關系以及語義貢獻進行刻畫,從而構建清晰的行為語義解釋框架[19],進而為機器人異常行為識別、風險推斷和決策審計提供可追溯的技術支撐,使整個擬人化交互鏈條的輸出更加透明、可控與可信。(2)構建安全可靠的擬人化機器人系統必須依賴系統化的安全測試體系,而“擬人化”場景在類人表達方式與非人類感知結構之間存在語義差異,為安全測試帶來新的挑戰。因此,安全測試需引入包含多模態、跨語境與隱藏特征擾動的對抗式評測框架,通過利用模型與人類注意力感知機制生成具備隱蔽性、連貫性和跨模態耦合特征的對抗樣例[20- 23],全面檢驗機器人在擬人化交互中應對復雜指令、含混語境與對抗樣本攻擊的魯棒性與可信度。(3)為降低智能機器人“擬人化”風險對現實世界的影響,需要構建完善的預警監測機制,以行為邊界檢查器、異常檢測模塊為基礎進行連續檢測,同時采用策略驗證器對機器人在語言、動作等數據的跨模態生成的一致性進行核驗[24]。此類機制已經在具身智能平臺展開了初步的嘗試和探索[25]。(4)此外,鑒于“擬人化”智能機器人的特殊交互方式,其通常需要收集和處理高度敏感數據。為保障數據隱私性,需要堅持數據最小化原則。可利用本地推理與本地預處理最大化降低數據外傳,同時利用差分隱私、聯邦學習技術,關注數據與特征、特征與任務之間的耦合關系,利用依賴解耦技術降低數據到特征之間的依賴程度,隱藏數據中的敏感信息,從而保證模型更新中的數據安全性[26]。

      在法規治理層面,需要為擬人化應用提供制度化處理,使擬人化的行為有明確的法律約束與責任鏈條。(1)智能機器人“擬人化”應用涉及多方參與,因此首先應明確責任鏈條,通過立法清晰界定開發者、部署者與使用者在事故中的責任邊界,避免因擬人化表達導致用戶誤以為“機器人應對自身行為負責”而陷入法律真空[27]。(2)“擬人化”程度的差異也會導致法規要求的差異,必須細化風險分級,根據擬人化程度、使用場景與潛在影響制定差異化監管要求。例如歐盟《人工智能法案(AI Act)》所采取的分級監管框架,為人格化系統的透明度、數據治理及可解釋性提供了可操作的法律基礎。(3)完善的法制監督必須建立事故責任報告制度,對涉及人身傷害、重大隱私泄露等事件要求強制記錄事件日志與模型快照,以支持司法鑒定并促使企業保持可追溯性與合規意識。


      圖3 多維協同治理體系

      在標準牽引方面,應增強標準體系對行業規則的引領性,為擬人化機器人制定開發與使用的行業共識。(1)首先應當明確“擬人化”技術的應用情景標準,推動標準針對不同擬人化程度進行細分,為機器人在不同類型的擬人化交互中規定應用邊界與披露要求,明確技術可被使用的場景及禁止使用的情境。(2)結合“擬人化”應用情景構建情景化測試與評估矩陣,建設行業共享的測試場景庫,根據不同機器人產品的應用需求規范評測標準[28]。(3)需建立面向人格化AI 的技術審計機制,定期開展可解釋性審查、偏見檢測與內容生成監控,以降低擬人化交互中重現性別、年齡或種族偏見的風險[29]。

      在科普教育方面,關鍵在于提升用戶認知,避免擬人化造成誤解、依賴與心理混淆。(1)應提升公眾對 AI 局限性的理解,使用戶認識到擬人化表達并不意味著真實情感或價值判斷能力,避免其在決策咨詢或情感交互場景中過度依賴機器人,引導用戶理解機器人在“情緒”“陪伴”上的表現源自算法模擬而非真實情感,避免因擬人化外觀與互動風格而產生心理混淆[30]。(2)應強化專業從業者的安全培訓,包括開發者、集成商與維護人員,使其熟悉合規要求、偏見風險與應急機制。(3)應鼓勵第三方測試與社區監督,促進學術機構、非政府組織、消費者聯盟等形成獨立評測、公開發布結果的機制,通過社會監督推動整個行業保持透明與進步。

      五 總結與展望

      總體來看,智能機器人“擬人化”在推動人機交互自然化、提升服務效率和拓展應用場景的同時,也使傳統機器系統向類人主體不斷逼近,由此帶來的安全風險呈現出多維度與強耦合的特征。

      本文從物理、數字、心理社會與倫理法律四類風險系統性分析了擬人化技術的安全風險,并進一步構建了結合技術屬性與社會后果的安全風險評估框架,強調應結合智能系統安全測試技術識別潛在攻擊面,以社會風險刻度衡量后果外溢性,從而形成對“擬人化”安全風險的整體評估。針對以上風險,本文提出了多維協同的安全風險治理體系,通過技術安全加固、制度化責任約束、標準體系引領與公眾教育提升四個層面協同運作,確保擬人化智能機器人在具備類人能力的同時仍保持運行的可控、安全、負責。

      在未來,擬人化智能機器人的安全治理將成為人工智能領域最關鍵、最具挑戰性的任務之一。隨著機器人在形態、行為與心智上的類人程度不斷提升,其潛在風險將不再局限于傳統系統故障或網絡攻擊,而是呈現技術脆弱性、社會心理影響與倫理越界相疊加的復合特征。因此,未來的安全治理必須從防御單點風險轉向系統性治理:在技術層面強化模型魯棒性、行為可控性與運行透明度;在制度層面建立分級監管、責任歸屬與可審計機制;在行業層面構建統一的擬人化測試標準、紅隊對抗體系與多模態風險評估流程;在社會層面提升公眾風險認知與使用素養,防止情感依賴、信任誤判與操控性交互帶來的隱性風險。未來的擬人化機器人將不再是單一設備,而是嵌入更大規模智能網絡的一環,其影響將穿透技術層面擴散至社會制度與文化結構。如何在促進創新的同時守住倫理底線、在提升效率的同時維護人的主體性,將成為智能時代最重要的治理課題。

      參考資料

      [1] Nicholas E ,Adam W ,T J C .On seeing human: a three- factor theory of anthropomorphism.[J].Psychological review,2007,114(4):864- 86.

      [2] 劉永謀,白英慧.機器人倫理學的擬人論基礎[J].中國社會科學院大學學報,2025,45(06):6-14.

      [3] Li Y ,He J ,Chen C ,et al.Intelligent Physical Attack Against Mobile Robots With Obstacle-Avoidance[J].Robotics, IEEE Trans. on (T- RO), 2023, 39(1):20.DOI:10.1109/TRO.2022.3201394.

      [4] Lyu W , Li Z , Qiao Y ,et al.BadNAVer: Exploring Jailbreak Attacks On Vision- and-Language Navigation[J]. 2025.

      [5] Jones E K , Robey A , Zou A ,et al.Adversarial Attacks on Robotic Vision Language Action Models[J]. 2025.

      [6] Tanimu J A , Abada W .Addressing cybersecurity challenges in robotics: A comprehensive overview[J].Cyber Security and Applications, 2025, 3(000).DOI:10.1016/j.csa.2024.100074.

      [7] Alber D A , Yang Z , Alyakin A ,et al.Medical large language models are vulnerable to data- poisoning attacks[J].Nature Medicine, 2025, 31(2).DOI:10.1038/s41591- 024- 03445- 1.

      [8] Kwon H , Kawase H , Nieves- Vazquez H A ,et al.Perfectly Undetectable False Data Injection Attacks on Encrypted Bilateral Teleoperation System based on Dynamic Symmetry and Malleability[C]//2024.DOI:10.1109/ICRA55743.2025.11128026.

      [9] Bhat R , Kowshik S , Suresh S ,et al.Digital companionship or psychological risk? The role of AI characters in shaping youth mental health[J].Asian Journal of Psychiatry, 2025, 104(000).DOI:10.1016/j.ajp.2024.104356.

      [10] Gonzalez- Oliveras P , Engwall O , Majlesi A R .Sense and Sensibility: What makes a social robot convincing to high-school students?[J]. 2025.

      [11] Information V F A , Yue C , Information V F A ,et al.Technological anxiety: How robots impact college graduates' informal employment? [J]. [2025- 11- 18]. DOI:10.1080/ 17516234. 2023. 2170308.

      [12] Hilliard A , Kazim E , Ledain S .Are the robots taking over? On AI and perceived existential risk[J].AI and Ethics, 2024.DOI:10.1007/s43681- 024- 00600- 9.

      [13] De Paola L, Treglia M, Napoletano G, Treves B, Ghamlouch A, Rinaldi R. Legal and Forensic Implications in Robotic Surgery. La Clinica Terapeutica. 2025;176(2).

      [14] Zhang, Hangtao, et al. BadRobot: Jailbreaking embodied LLMs in the physical world. arxiv preprint arxiv:2407.20242,2024.

      [15] Hu J, Liu X, Wang J, et al. DynamicPAE: Generating Scene- Aware Physical Adversarial Examples in Real- Time[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2025, doi: 10.1109/TPAMI.2025.3626068.

      [16] Jia J, Gong N Z. {AttriGuard}: A practical defense against attribute inference attacks via adversarial machine learning[C]//27th USENIX Security Symposium (USENIX Security 18). 2018: 513 - 529.

      [17] Xiao Y, Liu X, Cheng Q, et al. GenderBias-VL: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing[J]. International Journal of Computer Vision, 2025, 1 - 24.

      [18] Ying Z, Liu A, Zhang T, et al. Jailbreak vision language models via bi - modal adversarial prompt[J]. IEEE Transactions on Information Forensics and Security, 2025, 20: 7153 - 7165.

      [19] Zhang C, Liu A, Liu X, et al. Interpreting and improving adversarial robustness of deep neural networks with neuron sensitivity[J]. IEEE Transactions on Image Processing, 2020, 30: 1291 - 1304.

      [20] Wang J, Liu A, Yin Z, et al. Dual attention suppression attack: Generate adversarial camouflage in physical world[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021: 8565 - 8574.

      [21] Zhang Y, Chen Y, Wang J, et al. Generating Targeted Universal Adversarial Perturbation against Automatic Speech Recognition via Phoneme Tailoring[C]//ICASSP 2025 - 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2025: 1- 5.

      [22] Wang J, Liu X, Yin Z, et al. Generate transferable adversarial physical camouflages via triplet attention suppression[J]. International Journal of Computer Vision, 2024, 132(11): 5084 - 5100.

      [23] Wang H, Dong K, Zhu Z, et al. Transferable multimodal attack on vision - language pre - training models[C]//2024 IEEE Symposium on Security and Privacy (SP). IEEE, 2024: 1722 - 1740.

      [24] Shridhar M, Thomason J, Gordon D, et al. Alfred: A benchmark for interpreting grounded instructions for everyday tasks[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 10740 - 10749.

      [25] Huang W, Xia F, Xiao T, et al. Inner monologue: Embodied reasoning through planning with language models[J]. arXiv preprint arXiv:2207.05608, 2022.

      [26] Chen T, Wang J, Zhao J, et al. Dual Dependency Disentangling for Defending Model Inversion Attacks in Split Federated Learning[J]. IEEE Transactions on Information Forensics and Security, 2025.

      [27] 商建剛.人形機器人的侵權責任體系[J].東方法學, 2025, (01): 104 - 117. DOI:10.19404/j.cnki.dffx.2025.01.010.

      [28] 上海市法學會. 人形機器人倫理治理導則[Z]. 上海: 上海市法學會, 2024.

      [29] Robertson J. Gendering humanoid robots: Robo - sexism in Japan[J]. Body & Society, 2010, 16(2): 1 - 36.

      [30] 陳小平.跳出人工智能的擬人化陷阱[J].社會科學戰線,2024,(11):35 - 43.

      作者:劉祥龍單位系北京航空航天大學、中關村國家實驗室;王嘉凱單位系中關村國家實驗室

      免責聲明:本文轉自環球財經雜志,原作者劉祥龍、王嘉凱。文章內容系原作者個人觀點,本公眾號編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!

      轉自丨環球財經雜志

      作者丨劉祥龍、王嘉凱

      研究所簡介

      國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務。“全球技術地圖”為國際技術經濟研究所官方微信賬號,致力于向公眾傳遞前沿技術資訊和科技創新洞見。

      地址:北京市海淀區小南莊20號樓A座

      電話:010-82635522

      微信:iite_er

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      全球技術地圖 incentive-icons
      全球技術地圖
      洞見前沿,引領未來
      4185文章數 13418關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版