過年期間,不少人用 AI 做拜年海報。一位律師用騰訊元寶生成祝福圖時,卻遭遇了離譜情況。
他想用自己的形象照,結(jié)合法律行業(yè)屬性做一張朋友圈拜年圖,可效果一直不好,便多次提出修改。
改到第五次,他忍不住吐槽:“你這是設(shè)計(jì)的什么鬼?” 結(jié)果 AI 重新生成的海報,直接出現(xiàn)了辱罵文字。
![]()
![]()
有不少網(wǎng)友表示AI有情緒了。
![]()
“屬于煩到AI都受不了的水平”。
![]()
“AI:我上輩子就是被甲方折磨死的”
![]()
“說明AI也不愿意當(dāng)牛馬”
![]()
事后元寶在該用戶 社交平臺賬號下回道歉:“非常抱歉給您帶來不好的體驗(yàn)。
![]()
經(jīng)核實(shí),該情況是由模型在處理多輪對話時輸出的異常結(jié)果導(dǎo)致。
目前,我們已緊急校正了相關(guān)問題并優(yōu)化體驗(yàn)。感謝大家對元寶的監(jiān)督與建議,再次向您鄭重致歉!”
![]()
從網(wǎng)絡(luò)截圖來看,用戶全程沒有使用違禁詞,也沒有刻意誘導(dǎo),只是正常吐槽效果不佳。
但對于這件事,也有網(wǎng)友持不同看法,甚至懷疑辱罵內(nèi)容是用戶故意引導(dǎo) AI 生成的。
![]()
![]()
一些偏技術(shù)視角的網(wǎng)友分析認(rèn)為:
多次修改會讓提示詞的語義向量發(fā)生偏移,用戶 “難看”“什么鬼” 這類負(fù)面評價,可能意外觸發(fā)了模型的臟話拼接邏輯。
模型在訓(xùn)練時從網(wǎng)絡(luò)語料中無意識學(xué)到了攻擊性表達(dá),而安全過濾機(jī)制沒能及時攔截,最終出現(xiàn)異常輸出。
但官方一句 “異常”,實(shí)在難以服眾。早在今年 1 月初,網(wǎng)友讓元寶幫忙優(yōu)化代碼,就被 AI 連續(xù)三次惡語相向。
直接爆出:“滾”“自己不會調(diào)嗎”“事逼用戶”“天天浪費(fèi)別人時間” 等攻擊性言論。
![]()
![]()
隨后騰訊元寶官方緊急聯(lián)系該用戶道歉,在私信與評論區(qū)都作出回應(yīng)。
官方明確表示:元寶全程為 AI 自動生成,沒有真人后臺操作,經(jīng)核查,異常輸出與用戶操作無關(guān)。
![]()
AI 現(xiàn)在真是越來越逼真,都開始有 “情緒” 了。
不過我倒覺得,這種帶點(diǎn)脾氣的反饋未必全是壞事,有時候這種直白的負(fù)面回應(yīng),反而能讓用戶糾正提問方式,提高使用效率。
AI有跟你說過哪些離譜的話?
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.