![]()
01
講一個奇葩的故事。
前不久的2月10日,22歲的韓國女生金某,在自己的主頁上,發(fā)了最新的自拍,并且打上了“#互粉”、“#歡迎關(guān)注”的標(biāo)簽。
30分鐘后,警察就破門而入,把她逮捕了。
原因很離譜,她殺人了。
所有人都詫異了,她的社交媒體10天內(nèi)漲粉50倍,評論區(qū)里無數(shù)網(wǎng)友為她開脫求情。
原因更離譜,她實在是太漂亮了。
像極了那部韓國影視明星 女主蔡秀彬(???),相信大家一定在網(wǎng)上刷到過片段。
![]()
有網(wǎng)友說,這么漂亮的美女請我喝飲料,換我我也會喝啊…
下面這組圖,就是金某的社交媒體主頁截圖。
![]()
金某第一次想殺人,是在2025年12月份。
她約了當(dāng)時的男朋友,在一家咖啡廳停車場里見面,兩人坐在車?yán)锖葨|西。
東西喝下去之后,男朋友就昏迷了,整整兩天后才蘇醒過來。
但男朋友當(dāng)時并沒有上心,還以為是一次意外,所以沒有第一時間報警。
金某第二次想殺人,是在今年的1月28日。
她在網(wǎng)上,約了一個20多歲的男人,在首爾的一家汽車旅館見面。
兩人一起開了房,但2個小時后,只有金某自己出了門。
第二天,男人被發(fā)現(xiàn)時已經(jīng)死亡。
沒有任何掙扎搏斗的痕跡,就跟睡著了一樣安靜。
然后就是金某的第三次殺人,發(fā)生在2月9日。
跟第二次如出一轍,她還是在網(wǎng)上物色了一個20多歲的年輕男性。
一樣的帶去汽車旅館,隨后自己出門,男人被發(fā)現(xiàn)時已經(jīng)死亡。
![]()
看起來,很像是仙人跳,但金某似乎不圖財、只害命。
警方也很奇怪,一開始以為是意外致死。
直到在金某的手機(jī)里,找到了她跟AI軟件ChatGPT的聊天記錄,才確認(rèn)為謀殺案。
去年開始,金某就頻繁詢問ChatGPT:
喝酒能吃安眠藥嗎?
多少劑量算危險?
多少劑量致命?
得到結(jié)果后,金某就約了自己的男朋友。
但那次,男朋友只是昏迷,并沒有喪命。
所以,她再次詢問ChatGPT,劑量不夠,需要加多少才致命?
根據(jù)ChatGPT的回復(fù),她加大了劑量,成功謀殺了后面的兩名陌生男性。
她殺人用的武器,是合法處方藥;
她殺人用的方法,來自于全球最流行的AI軟件。
這樣一想,早在半年前,AI就什么都知道了,但沒有干預(yù)。
02
還是ChatGPT,還是2月10日。
只不過這一次,事情發(fā)生在加拿大。
18歲的Jesse,在Tumbler Ridge小鎮(zhèn)中學(xué)的走廊上,舉起槍支,扣動扳機(jī),結(jié)束了自己的生命。
![]()
而在自殺之前,他剛剛持槍殺了8個人。
其中包括,自己的母親、11歲的弟弟,以及學(xué)校圖書館里一群12歲左右的孩子。
校園槍擊案在美國相對常見,但在加拿大,是相對罕見的,很快轟動了全國。
警方也是在后續(xù)調(diào)查里,發(fā)現(xiàn)了ChatGPT的影子。
大概從去年6月開始,ChatGPT的開發(fā)公司OpenAI,就監(jiān)測到一個敏感賬戶。
這個賬戶的擁有人,就是上面說的兇手Jesse。
而被監(jiān)測的原因則是,這個賬戶,在連續(xù)多日在聊天里,反復(fù)描述涉及槍支暴力的使用場景。
然后這個賬戶,就被轉(zhuǎn)入了一個專門的審核流程,十幾名OpenAI公司的員工開始討論這件事。
有人覺得號主Jesse是一個潛在的風(fēng)險,于是建議公司向加拿大執(zhí)法機(jī)構(gòu)報告。
但最終,公司否決了這項提議,沒有向當(dāng)?shù)鼐綀蟾妫皇欠饨诉@個賬戶。
隨后,悲劇發(fā)生了。
跟韓國的金某一樣,早在半年前,AI就什么都知道了,但沒有干預(yù)。
03
最后再講一個正在發(fā)生的事。
伊朗高層被團(tuán)滅。
據(jù)CNN報道,伊朗總統(tǒng)哈梅內(nèi)伊,常年躲在地堡里。
地堡大家都知道,就是地下防空洞,正常導(dǎo)彈都炸不到。
但被炸那天,哈梅內(nèi)伊走出了地堡,他要跟伊朗的一眾高層開會嘛,這才有了在會場,被一鍋端的事。
![]()
但美國和以色列為什么能如此精準(zhǔn)的獲知情報,如此精準(zhǔn)的定位打擊呢?
除了情報機(jī)構(gòu)以外,這次軍事行動里,AI參與了很多。
無論是收集信息、精準(zhǔn)定位、事態(tài)分析,還是最后做決策,都有AI大模型參與模擬演繹。
三個故事都講完了,看起來都離我們很遠(yuǎn),但其實未必。
只舉一個例子。
春節(jié)期間不是有個熱搜么,西安有個律師,讓元寶用自己的照片,生成一張拜年海報。
海報出來了,但卻配了一句臟話,大家可以自己看,新聞也能搜到這事。
![]()
AI很好用,但AI也可能很危險。
我們以前的論調(diào)是,工具本身是不分好壞的,但使用工具的人分好壞。
比如炸藥,可以用來工程施工,效率很高,但也可以用來打仗殺人。
但AI不像炸藥,因為AI已經(jīng)超脫了一般工具的范疇。
因為AI有智慧,有記憶,隨著技術(shù)的發(fā)展,未來的AI很可能還會擁有自己的獨(dú)立意識,自主思考,是另一種形式的智慧生命。
就像科幻電影里那樣。
這事的關(guān)鍵就在于,人類已經(jīng)無法停止開發(fā)AI的腳步。
就跟軍備競賽一樣,大家都知道軍備競賽不好,但別人發(fā)展軍事發(fā)展核武器了,你就只能跟著發(fā)展,不然你就很被動。
今天,我們看上面的三個故事,就當(dāng)看法制新聞或者時政新聞一樣,一掃而過。
但多年后,再回過頭來,可能發(fā)現(xiàn)這是人類文明的一個轉(zhuǎn)折點(diǎn)。
誰知道,未來是人類掌控AI,還是AI掌控人類呢?
(作者:王耳朵先生)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.