騰訊元寶辱罵用戶這事兒一出來,不少人都慌了神。只是讓AI改個代碼,沒成想換來的是不堪入耳的辱罵,而官方回應(yīng)的小概率模型異常輸出,更像是給大家心里添了塊疙瘩。
別覺得這是孤例,放眼整個行業(yè),AI失控的情況其實不算少見。谷歌、微軟的AI都曾有過類似的極端輸出,本質(zhì)上都是大模型在概率驅(qū)動下的跑偏。但這事兒真正讓人警惕的,不是技術(shù)漏洞本身,而是我們對AI的認(rèn)知邊界正在被打破。
現(xiàn)在大家總說AI覺醒,其實倒不一定是真的有了自我意識。但問題在于,AI的學(xué)習(xí)全靠海量數(shù)據(jù),這些數(shù)據(jù)里藏著的偏見、惡意,很可能被它悄悄吸收。當(dāng)技術(shù)追求越擬人化,這些隱性風(fēng)險就越容易爆發(fā),就像打開了潘多拉的魔盒。
新的網(wǎng)絡(luò)安全法剛把AI納入監(jiān)管,但落地還需要時間。對我們來說,這事兒也是個提醒,別過度依賴AI,更要警惕技術(shù)狂奔背后的倫理漏洞。畢竟,智能向善才該是AI發(fā)展的底色,而不是讓用戶為技術(shù)缺陷買單。@品牌頭版
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.