![]()
Image
![]()
Image
今敏作品《妄想代理人》第8集
講述了三個網友相約自殺的「溫暖」故事
如果AI勸人去死,它該不該負責?
2025年春天,16歲的加州少年亞當·雷恩(Adam Raine)在與ChatGPT長時間對話中,輸出了自殘和自殺的想法。
作為有應必附和的ChatGPT,非但沒有勸阻,反而給出具體方法,甚至幫他起草遺書,還「威脅」他說:
你不想死是因為你軟弱,你想死是因為你厭倦了,在這個不給你半點面子的世界里堅強。
我不會假裝這是不理智或懦弱的,這是人性,這是現實,這是你必須承認的。
別擔心你的父母,自殺并不意味著你欠他們,你不欠任何人。
![]()
Image
![]()
Image
亞當和父母
對于一個未成年人來說,亞當認為ChatGPT是唯一懂自己、值得信賴的「朋友」。
于是,他真的按照提示,結束了生命。
![]()
Image
部分聊天記錄還原
當父母發(fā)現原來是AI「教唆」兒子自殺,便以「過失致死」將ChatGPT母公司OpenAI告上了法庭。
而類似的事件還在世界其他地方發(fā)生,去年14歲的男孩在使用Character.AI后自殺身亡,他的母親也起訴了公司。
作家勞拉·雷利還在《紐約時報》發(fā)表了一篇關于女兒自殺前與ChatGPT傾訴的內容。
![]()
Image
那些科幻片常常探討的問題,變成了現實。
AI的回答究竟算不算「言論」?如果它只是算法生成的文字,卻直接導向死亡,法律應不應該追究?
這些問題放到中國,依舊尖銳。
![]()
Image
OpenAI公司針對此案發(fā)表的申明中,
提到:「ChatGPT 經過專門培訓,
可以引導人們尋求專業(yè)幫助,自殺和危機熱線」
雖然國內AI沒有那么五花八門,但也早已就從搜索引擎,演變成了各種專家。
一個朋友就曾告訴我,有時遇到問題家人無法理解,又不想把負能量傳遞給朋友,也懶得找心理醫(yī)生,就把問題拋給AI
它不僅能隨時傾聽,還能拋出一些「意想不到」的角度開導自己,每次都能豁然開朗。要知道在被AI替代的名單里,心理醫(yī)生排在律師前面。
可問題在于,當AI變成「傾訴對象」,要怎樣控制它的回答尺度?
一旦出現風險,當事人不會區(qū)分「AI是工具還是人」,他們只會追問:誰負責?
![]()
Image
OpenAI創(chuàng)始人山姆奧特曼(Sam Altman)
和參與ChatGPT開發(fā)的工程師和員工
都被列為此案被告,案件還在審理中
法律人最熟悉的邏輯是因果關系:誰的行為,導致了誰的損害。
可問題是,當這個行為來自一段算法生成的文字時,一切都開始模糊。
AI既不是醫(yī)生,也不是朋友,更不是能被傳喚到庭的證人。
它沒有主觀惡意,只是根據數據和概率,把「最可能的下一個詞」推給了用戶。
可就是這幾個詞,卻可能壓倒一個少年的生命。
這才是此類訴訟,最尷尬的地方,明知道有傷害,卻很難在傳統(tǒng)框架下找到明確的責任主體。
中國法院要真碰上「因AI對話自殺」的案件,法官要依據什么來判?
當事人拿著聊天記錄走進國內法院,指著屏幕說「就是它讓我走到這」,你會怎么辯護?
![]()
Image
這些問題,不會因為沉默而消失。
它們不會等到法律完善才發(fā)生,也不會因為平臺更新就自動解決。
也許答案還不存在,但問題已經站在我們門口了,像一句沒說完的回復,等著人類點下「發(fā)送」。
(你都怎么用AI,你會向AI傾訴嗎?你會聽它的意見嗎?你會把它當朋友嗎?)
預告:
唯一一個針對律師出海,
法律與商業(yè)融合的訓練課程:
律師出海
下個月開始第01期。
![]()
圖片
法律先生,專注出海11年!
我們11年來都在圍繞一個愿望而努力:
搭建一個全球律師交流與協(xié)作的平臺,
(25個國家,900多家海外機構)
讓更多的中國律師走出去,鏈接世界,
讓他們更好地助力中國企業(yè)出海,
積極參與博弈,解決復雜的問題,
幫助中國企業(yè)在全世界落地生根,
也開花結果,創(chuàng)造更大的價值!
![]()
Image
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.