<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      戰(zhàn)爭中人工智能機器人的倫理問題與思考

      0
      分享至


      當今世界,新一輪人工智能熱潮正席卷全球,機器學習、大數(shù)據(jù)等技術(shù)的突破和迭代更新迅速延伸至各學科領域,逐步成為這些學科領域未來發(fā)展的基礎性支撐。在萬物互聯(lián)的大背景下,人工智能已成為21世紀橫跨計算機、心理學、哲學等領域的尖端技術(shù)之一,對現(xiàn)代戰(zhàn)爭的形態(tài)與模式產(chǎn)生了深刻且深遠的影響。與其他新技術(shù)一樣,人工智能技術(shù)也是一把“雙刃劍”。尤其是將該技術(shù)應用于武器裝備領域時,即便機器具備了人類的思維認知能力,但也無法擁有人類所特有的社會屬性,即難以受到道德和經(jīng)濟利益的束縛。由此可見,如何應對并破解戰(zhàn)爭中人工智能機器人的倫理問題,便成為當今戰(zhàn)爭倫理研究領域的緊迫課題。本文將結(jié)合機器人三大定律,從戰(zhàn)爭倫理與道德哲學的思辨性視角,深入剖析人工智能機器人(特指類人智能的機器人)應用于軍事領域所引發(fā)的根本性倫理問題。

      基于機器人三大定律的

      倫理爭議探討

      機器有權(quán)殺人嗎?針對這個問題,我們不妨先回顧一下知名科幻作家阿西莫夫曾提出的機器人三大定律:第一,機器人不得傷害人類,或因不作為而使人類遭受傷害;第二,除非違背第一定律,機器人必須服從人類的命令;第三,除非違背第一及第二定律,機器人必須保護自己。這一著名的機器人三大定律,其核心意義在于提醒人們,人工智能技術(shù)的發(fā)展必須要恪守相應的倫理準則。


      科幻作家阿西莫夫

      機器人三大定律中的第一條就是“機器人不得傷害人類”,但“傷害”本身就是一個難以準確定義的概念。尤其當機器人被應用于軍事領域時,這一概念會因情境的特殊性而變得更加模糊和復雜。將人工智能技術(shù)融入機器人,并投入未來戰(zhàn)場中,這本身就是一個亟待深入探討的戰(zhàn)爭倫理問題。

      人工智能機器人作為人類制造的產(chǎn)物,若在戰(zhàn)場上實施殺傷行為,是否可將其視為人類的創(chuàng)造物出現(xiàn)了“異化”?要回答這一問題,需深入剖析人工智能的本質(zhì),并結(jié)合戰(zhàn)爭的本質(zhì)展開辨析。戰(zhàn)爭本質(zhì)上是一種暴力沖突,從這一屬性來看,“機器殺傷”似乎具備了形式上的某種合理性。然而戰(zhàn)爭的本質(zhì)更是政治的延續(xù),機器無法獨立承擔其實施殺傷行為所引發(fā)的法律與倫理責任,相應責任須由操控機器的人類主體或相關組織承擔,因此機器本身不具備實施殺傷行為的“權(quán)力”。


      美軍專家計劃旨在賦予人工智能

      自動識別并生成攻擊建議的能力,

      圖為該計劃中的Maven 智能系統(tǒng)

      美國防部自2017年啟動的專家計劃,便是人工智能應用的典型案例之一。該項目于2022年移交美國國家地理空間情報局,旨在賦予人工智能自動識別目標并生成攻擊建議的能力。這一技術(shù)的發(fā)展趨勢雖未直接指向人工智能機器人自主決定實施殺人行為,卻已引發(fā)相關倫理爭議,且與機器人三大定律中的第一定律形成潛在的核心沖突。例如,戰(zhàn)場上人工智能系統(tǒng)被編程為“敵方戰(zhàn)斗人員=合法目標”,但現(xiàn)實戰(zhàn)場的復雜性遠非算法模型所能涵蓋:一方面是平民誤判;另一方面是戰(zhàn)斗人員與非戰(zhàn)斗人員的識別認定界限變得愈發(fā)模糊。這一切都指向一個亟待厘清的核心問題:如果人工智能系統(tǒng)自主發(fā)起攻擊,是否違背了“不得傷害人類”的基本原則?

      用于戰(zhàn)爭的人工智能機器人

      與其背后的倫理問題

      過去的機器旨在節(jié)省人的體力,現(xiàn)在的人工智能機器人逐步承擔起替代人類智力的功能。人工智能機器人的軍事化運用,或?qū)⒁颥F(xiàn)有國際軍備管控條約存在的漏洞與空白,助推此類機器人武器的全球擴散。


      機器人要與道德和正義有機結(jié)合,

      才能具備成為行為體的可能

      人工智能機器人的人性缺陷問題。人性,或者說是人文主義,理應成為人工智能發(fā)展的一盞明燈。人工智能作為現(xiàn)代科技的核心成果,其發(fā)展具有科技的“雙刃劍”特性——解放人類和發(fā)展人類,但同時也潛藏著諸多弊端。若我們不能謹慎看待機器人戰(zhàn)爭背后的倫理問題,就有可能面臨被脫離倫理規(guī)范約束的機器人戰(zhàn)爭所吞噬的危險。網(wǎng)絡上存在著“人類將要被人工智能打敗”的擔憂;更有觀點認為,“必須慎重發(fā)展人工智能,不久的將來,人類將會被人工智能所代替,最終將變得一無是處”。這類論調(diào)無疑只看到了事物的一面,恰恰凸顯出未來人工智能戰(zhàn)爭所蘊含的倫理隱患。如果我們不重視倫理層面的問題,不及時對人工智能機器人進行倫理規(guī)范與約束,其后果將不堪設想。

      人工智能機器人的理性缺失問題。戰(zhàn)爭是推動一門技術(shù)從誕生到成熟的加速劑。可應用于戰(zhàn)爭的人工智能機器人,一旦被投入到戰(zhàn)場并適應了戰(zhàn)爭需求的變化,就有可能進化為高效精準、脫離人類操控的殺傷性武器,而這一進化過程,恰恰會讓其理性先天缺失的核心問題被無限放大。這會對戰(zhàn)爭的政治屬性形成反噬,最終必然會讓己方在戰(zhàn)爭中陷入政治被動。

      人工智能機器人的本性缺位問題。本性主要是指人類的向善本性。從人性的角度來看,大多數(shù)士兵對殺戮行為會本能地產(chǎn)生反感,但人工智能機器人并不具備這一本性。正因為它缺乏人類的情感與價值判斷,一旦在軍事領域廣泛應用,便難以避免會產(chǎn)生違背指揮官意志、引發(fā)不可預期的戰(zhàn)場狀況。而這種先天的本性缺失,也讓人工智能機器人在投入戰(zhàn)爭后,極易引發(fā)兩方面的關鍵問題:一是會導致戰(zhàn)爭破壞性的擴大,這是因為其缺少了人類對戰(zhàn)爭的恐懼感與厭惡感;二是其機動性不受電池電量之外的其他因素制約,這一特性拓展了戰(zhàn)役戰(zhàn)術(shù)的機動邊界——機器人不知疲倦,可執(zhí)行長途奔襲任務,這顯然會大大增加戰(zhàn)爭的不對稱性。

      破解戰(zhàn)爭中使用人工智能

      機器人倫理問題的建議

      哲學上,人們把道德與經(jīng)濟利益看作是倫理的基本問題。而人工智能機器人對人類沒有同情心,自然不會對目標手下留情,一旦被啟動,其強大的破壞力便會使其成為冷血的“殺人機器”。在戰(zhàn)爭中,敵對雙方均受基于人類社會理性形成的戰(zhàn)爭倫理制約,也就是說,戰(zhàn)爭倫理的存在對戰(zhàn)爭的破壞性能起到制衡的作用,讓戰(zhàn)爭的破壞力始終處于人類可承受的范圍內(nèi)。我們研究戰(zhàn)爭中使用人工智能機器人的倫理問題,目的就在于超前研究機器人戰(zhàn)爭伴生的戰(zhàn)爭倫理問題,并力求在未來戰(zhàn)爭爆發(fā)之前,尋求解決這一問題的具體對策。

      給機器人這把雙刃劍加上“人工道德”的劍鞘。對待人工智能機器人這類新事物,我們既要秉持批判態(tài)度,更要保持謹慎與客觀的理性思考。人工智能機器人的倫理問題,本質(zhì)上就是“人工道德”問題,這一問題從源頭上來看,由人工智能技術(shù)衍生而來。這就要求科學家清醒認識到,科學技術(shù)并非無禁區(qū),需秉持理性原則發(fā)展人工智能技術(shù)。部分觀點認為,如果包括機器人在內(nèi)的智能產(chǎn)品能夠具備“人工道德”,那么從某種意義上講,智能產(chǎn)品行為的倫理責任將從設計者與使用者轉(zhuǎn)移至智能產(chǎn)品本身。因此,對自主性要求日益提升的人工智能機器人而言,科學家應注重其人工道德的設計與塑造,更應推動其自身成為人工道德行為體。相較于材料構(gòu)造、性能參數(shù)等硬指標,讓人工智能機器人具備道德判斷與思考能力的軟指標,其重要性同樣不容忽視。

      給機器人這種類人體嵌入“正義倫理”的標準。機器人通過模仿人類思維具備類人特征,這正如計算機網(wǎng)絡之間文本傳輸依托統(tǒng)一協(xié)議,當將其應用于戰(zhàn)場時,必須先明確一個問題——不同機器人之間,需建立起具備“協(xié)議”作用的統(tǒng)一道德約束規(guī)范,且這一協(xié)議本身要根植正義倫理的內(nèi)核。戰(zhàn)爭中,敵對雙方的機器人均服務于己方作戰(zhàn)目標與政治目的,為爭奪戰(zhàn)爭利益而存在,這也為我們建立類人智能之間的統(tǒng)一道德聯(lián)系造成了巨大阻礙。其根源在于人類自身,換言之,科學家需清醒認識到,科學與倫理有著截然不同的選擇與評價標準。因此,在開展機器人設計時,要將科學與倫理有機結(jié)合,而非僅局限于科學范疇。

      給機器人這一新事物接上“社會屬性”的芯片。政治可以使文化免于沉淪,也能為人類文明發(fā)展錨定方向。愛因斯坦曾說過:“科學家對社會政治問題一般顯得很少有興趣。其原因在于腦力勞動的專門化,造成了對政治和人類問題的盲目無知。”機器人在戰(zhàn)爭中的倫理問題,本質(zhì)上反映的是機器人的出現(xiàn)及其軍事應用,會引發(fā)怎樣的道德與經(jīng)濟利益變化,以及這種變化是否契合人類在道德準則與經(jīng)濟利益層面的普遍預期。也正因如此,有人擔憂這類道德與經(jīng)濟利益層面的變化,可能會引致人類文明的毀滅。從文章開篇提及的機器人三大定律可知,機器人的本質(zhì)是人類的附屬品,其社會屬性體現(xiàn)在作為人類的工具而存在,而非脫離人類獨立發(fā)展。人工智能本身,是人類依托自身區(qū)別于動物的特有能力,賦能自身社會屬性提升、進而實現(xiàn)自我解放的一種新嘗試,而這一嘗試,必然存在讓人類陷入新災難的潛在可能。

      免責聲明:本文轉(zhuǎn)自軍事文摘,原作者王流選、李龍林。文章內(nèi)容系原作者個人觀點,本公眾號編譯/轉(zhuǎn)載僅為分享、傳達不同觀點,如有任何異議,歡迎聯(lián)系我們!

      轉(zhuǎn)自丨軍事文摘

      作者丨王流選、李龍林

      研究所簡介

      國際技術(shù)經(jīng)濟研究所(IITE)成立于1985年11月,是隸屬于國務院發(fā)展研究中心的非營利性研究機構(gòu),主要職能是研究我國經(jīng)濟、科技社會發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問題,跟蹤和分析世界科技、經(jīng)濟發(fā)展態(tài)勢,為中央和有關部委提供決策咨詢服務。“全球技術(shù)地圖”為國際技術(shù)經(jīng)濟研究所官方微信賬號,致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見。

      地址:北京市海淀區(qū)小南莊20號樓A座

      電話:010-82635522

      微信:iite_er

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      全球技術(shù)地圖 incentive-icons
      全球技術(shù)地圖
      洞見前沿,引領未來
      4271文章數(shù) 13420關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版