![]()
俄新社:科學(xué)家指出軍事沖突中使用人工智能的主要風(fēng)險(xiǎn)
近期,在打擊伊朗以及委內(nèi)瑞拉軍事行動(dòng)中使用人工智能的細(xì)節(jié)被披露。專家認(rèn)為,這只是戰(zhàn)爭大規(guī)模轉(zhuǎn)型的開端,神經(jīng)網(wǎng)絡(luò)在作戰(zhàn)決策中的作用將迅速提升。俄新社對此進(jìn)行了報(bào)道。
五角大樓已證實(shí)人工智能在軍事行動(dòng)中被使用,但拒絕透露細(xì)節(jié)。
據(jù)悉,包括帕蘭提爾技術(shù)公司(Palantir Technologies)研發(fā)產(chǎn)品在內(nèi)的情報(bào)平臺(tái)正在收集海量信息,從衛(wèi)星圖像到特工情報(bào)。隨后算法對其進(jìn)行分析,確定優(yōu)先打擊目標(biāo)、選擇最優(yōu)武器,甚至評估打擊的法律依據(jù)。
俄新社援引俄羅斯科學(xué)院世界經(jīng)濟(jì)與國際關(guān)系研究所國際安全中心研究員德米特里?斯特凡諾維奇的話稱:
“借助人工智能,可以更高效地調(diào)配兵力和裝備,確保在綜合所有因素下完成打擊任務(wù) —— 從敵方擁有的對抗手段,到該地區(qū)的地理、地形特點(diǎn),直至天氣情況。”
人工智能系統(tǒng)幾乎能瞬間提供行動(dòng)方案。不過目前扣動(dòng)扳機(jī)的依然是人。但軍方已在討論擴(kuò)大神經(jīng)網(wǎng)絡(luò)在這一環(huán)節(jié)自主性的可能。
專家指出,最大的危險(xiǎn)不在于人工智能技術(shù)本身,而在于人類開始盲目信任算法的結(jié)論,卻并不總能理解其決策邏輯。
科學(xué)家也發(fā)出了警示。倫敦國王學(xué)院近期開展了一項(xiàng)實(shí)驗(yàn),讓三款主流神經(jīng)網(wǎng)絡(luò)模擬核危機(jī):GPT?5.2、Claude 和 Gemini。結(jié)果顯示,在95% 的場景中,人工智能都選擇使用核武器。
這表明,機(jī)器的戰(zhàn)略邏輯可能與人類截然不同,且遠(yuǎn)比人類更激進(jìn)。
專家越來越頻繁地發(fā)出警告:如果將越來越多的權(quán)限交給算法,對全球安全造成的后果可能極其嚴(yán)重。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.