防走失,電梯直達安全島
![]()
來源:數字力場
作者:佘宗明
![]()
「憤怒誘餌」多發,癥結不在算法。
你以為自己是不平,其實你只是鉆進了別人精心設計的「情緒陷阱」;你以為自己是不忿,其實你只是吞下了別人專門投下的「憤怒誘餌」……這層后真相時代的真相「窗戶紙」,被牛津詞典捅破了。
前不久,牛津詞典團隊公布了2025年牛津年度詞匯:憤怒誘餌(rage bait)。
什么是「憤怒誘餌」?簡單來說,就是故意用刺激性內容引發網民憤怒,借機獲取流量。擺拍「兒媳給住院婆婆吃泡面」「外賣騎手被顧客羞辱」,皆在此列。
![]()
▲牛津詞典團隊將「憤怒誘餌」評選為2025年牛津年度詞匯。
毫無疑問,「憤怒誘餌」現象值得警惕:當憤怒成為被批量生產的博流量工具,隨之而來的是社會戾氣的加重、輿論質地的劣化。
可從輿論反應看,部分人又順著「遇事不決,量子力學;歸因無妨,信息繭房」的流行總結歸納法,將箭頭對準了算法,被順帶著提及的高頻詞還有「信息繭房」。
在他們看來,「憤怒誘餌」背后是算法捕網,是算法編織的信息繭房提供了傳播溫床,「憤怒誘餌」才會潛滋暗長。
這不免讓人想起柏拉圖的「洞穴寓言」:許多人錯將墻上投影認成真實世界,卻對真正光源視而不見。
01 /
索維爾曾說過:如果你認為人類總是理性的,那么,至少一般的歷史是無法解釋的。
為什么網絡上會出現「憤怒誘餌」現象?原因也跟那三個字緊密相關:非理性。
神經學研究表明:大腦對壞刺激的反應比對好刺激更強烈,而且留下的痕跡更深,所以壞消息會讓我們產生更多的注意力。社會學中的注意偏向理論也與此相通:跟中性刺激比,情緒性刺激更容易捕獲個體注意力。
也就是說,當那些爭議性話題出現在公眾視野中時,用戶會本能地投以更多關注。
正是看到了這點,那些流量捕手玩起了情緒操控把戲:他們通常會先「選餌」,識別爭議性話題和沖突性元素(如性別對立、地域歧視、代際沖突、階層差距等);再「制餌」,將極端標簽、反差情節、失真細節等精心調配,糅在一塊;接著「下鉤」,通過標題黨、偽造截圖等手段,激起網民憤怒;最后「收網」,獲取流量后,想法子變現。
![]()
▲央視此前曾起底營銷號靠擺拍「外賣員被顧客羞辱」系列視頻起號。
說到底,是人類注意力機制的非理性特征跟部分人流量饑渴下的行為扭曲,共同催生了「憤怒誘餌」現象。
在某些人的想象中,「憤怒誘餌」盛行離不開算法對「憤怒-互動-推薦-更多憤怒」的惡性循環的助推。
但這更多的是想當然。因為很多人腦補出的「傳播者-用戶-平臺」共生關系在「憤怒產業鏈」上并不存在。
事實一再表明,用戶頻繁刷到制造矛盾、渲染對立的內容后,產生的負面情緒最終導向的不是停留,而是逃離,不是沉迷,而是卸載;而充滿戾氣的社區環境或平臺氛圍,也很難受到品牌方青睞,商業價值會驟減,還可能承受監管層面壓力,風險系數會劇增。
這意味著,「憤怒誘餌」帶來的「惡流量」跟平臺在用戶體驗、內容安全、商業利益上的追求,存在根本性沖突。在「憤怒誘餌」引發的社會撕裂、信任危機會導致平臺利益受損的背景下,平臺又有多少動力去擁抱其帶來的「惡流量」呢?
很多平臺已經用行動給出了答案,如抖音今年推出了《抖音社區熱點信息和賬號治理規則(試行)》,旗幟鮮明地反對極端、煽動、攻擊、引戰內容,并對為博取流量刻意制造沖突、煽動引戰等內容,以及發布煽動蹭熱內容的「惡意營銷號」等進行重點治理。
它釋放的信號就是:面對「憤怒誘餌」現象,平臺充當的是「過濾器」而非「助推器」角色。
02 /
要看到,無論是「憤怒誘餌」,還是之前的「傻子共振」「算法離間」,這些新詞在輿論場激起的漣漪,本質上都是「算法織繭說」的回響。
在民粹、飯圈、打拳等問題肆虐的當下,不少人已習慣了將問題歸咎于算法構筑的信息繭房。這看似是化繁為簡,實則是化約慣性與思維惰性的反映。
在這問題上,我的主要看法是:
1,「信息繭房」是否存在還難說,但「認知繭房」真真切切存在。
「信息繭房」究竟是真實存在的「賽博囚籠」,還是想象出來的稻草人議題,學界至今都莫衷一是。畢竟,「信息繭房」的假說在學術性實證研究中從未被證實過。
![]()
▲包括陳昌鳳、喻國明在內的國內傳播學者都曾提出,「信息繭房」沒有實證研究佐證。
但這不等于「認知繭房」就不存在。約半年前,我曾寫過一篇《「信息繭房」者,困在了「認知繭房」里》。
文章認為:算法是放大器,它的放大效應會在「人塑造環境」和「環境塑造人」的雙向交互中倍數級還原出人的多面性來。算法會在同頻共振中放大向美向善的力量,也會暴露許多人獲取信息上路徑依賴,溝通信息上社交衰退、消化信息上感情用事的弊端……這些凝結成的,就是「思維繭房」「社交繭房」「認知繭房」。
2,信息偏食是依托人腦「過濾罩」的自我保護機制,沒那么可怕。
很多學者都傾向于認為,信息繭房是偽命題,信息偏食是真問題。就連「信息繭房」概念的提出者桑斯坦,都將「信息繭房」癥結歸于「信息偏食」。
信息偏食,其實是人腦基于喜同惡異、趨利避害本性自動開啟信息篩選的腦部減負機制,為的是避免信息過載。
3,真正可怕的,不是算法,而是信息的單一控制和限量供給。
信息匱乏時代的「繭房」是物理性的,因為沒得選——今天那些言必稱「信息繭房毀了下一代」的人,可能忘了在社交媒體出現之前大家只能聽「同一首歌」。
信息豐裕時代的「繭房」則是心理性的,它不是由分發渠道決定,而是由大腦的信息加工機制塑造。
03 /
說這些,核心也是在回應兩個問題:「繭房」到底是怎么形成的?算法真的會筑繭嗎?
先來說第一個。
前不久,世界權威學術期刊《Science》發了篇論文《不要責怪算法:社交媒體可能天生就存在兩極分化》,介紹了來自阿姆斯特丹大學邏輯、語言與計算研究所的最新研究成果。
![]()
▲《Science》發表論文稱,即便沒有算法,社交媒體也會存在極化現象。
研究團隊搭建了無個性化算法的極簡社交平臺,僅保留發帖、轉帖和關注功能,投入500個帶有固定人格設定的AI機器人模擬人類行為。實驗結果顯示,無需算法干預,機器人在5萬次互動后便會自動形成陣營:立場接近的互相關注,極端觀點的傳播速度遠超中立內容。
結論是:「信息繭房」的形成并非算法所致,而是人類趨同避異社交本能的自然產物,即便沒有算法,社交媒體也會存在極化現象。
這從社會心理學層面也能得到解釋:人類的注意力分配和記憶編碼機制,天生自帶「繭房」傾向。「確認偏誤」會讓我們更關注我們愿意關注的信息,「負面偏好」會讓我們對令人憤怒的事物記憶更深刻,「可得性啟發」會讓我們高估近期接觸信息的重要性……
算法給用戶推送了100條內容,其中80條符合用戶興趣,15條是系統主動探索的多樣性內容,5條是隨機噪音,可用戶大腦往往會選擇性遺忘那95條,牢牢記住那幾條讓自己憤怒或驚喜的「極端」信息,這已成常態。
在《打破社交媒體棱鏡》中,杜克大學教授克里斯·貝爾還通過實驗給出了另一個「反直覺」的結論:即便強制讓人接觸對立觀點,也不會使其變得溫和,反而會促使其強化自身立場,變得更加極端。
言下之意,在社交媒體上的認知封閉,本質上是人類本性在網絡空間的延伸。
與其說是算法在制造繭房,不如說是人類認知系統自身在編織濾網。
![]()
▲權威學術期刊《自然》雜志也曾發表論文,用實驗證明沒有證據表明算法是兩極分化的關鍵推手。
再來說第二個。
如果算法讓人們看到的都是自己想看到的、聽到的都是自己想聽到的,那確實會筑繭。
但事實上,算法早已從單一的興趣匹配進化為多目標優化體系,抖音算法推薦不僅會考慮「用戶喜歡什么」,更會主動控制相似內容的出現間隔、頻次上限,強制插入多樣性內容,并通過隨機推薦、社交關系興趣拓展、搜索推薦聯動等方式,幫助用戶突破既有興趣圈。
拿我來說,我就很喜歡抖音的「使用管理助手」功能,因為我可以在色盤圓環圖中看到我的興趣分布,還能通過「探索更多」來增加多樣化信息供給。在此過程中,算法成了我對外探索的向導,而非讓我向內筑繭的獄卒。
![]()
▲用戶可以點進「使用管理助手」頁面,設置時間鎖、休息提醒和進行內容管理。
有意思的是,著名傳播學者喻國明還認為,智能算法推薦具有反信息繭房的本質,「采用多種算法的信息分發平臺所具有的社會構造,從信息流動來說,總體上能夠有效地避免‘繭房效應’的發生」。換句話說,算法非但不會筑繭,還能破繭。
這并非沒有依據。抖音此前公布的「雙塔召回模型」,就是通過將用戶和內容轉化為高維空間的數學向量,實現脫離具體語義的精準匹配,發掘用戶潛在興趣領域,讓用戶刷到意料之外但又在情理之中的內容。
在著作《必然》里,凱文·凱利曾提出「理想的過濾器」設想:它應該推薦那些「我想知道我的朋友喜歡什么,而那又是我現在還不了解的」,以及「它將是一種會向我建議某些我現在不喜歡,但想嘗試著喜歡的東西的信息流」。
目前看,算法進化已經讓這番設想變為現實。
04 /
這倒不是說算法已經臻于至善了,只是說很多人對算法有許多因不解而生的恐懼、因誤解而生的敵意。
怎么消除這些不解和誤解?用算法透明化去祛除「算法魔法化」的想象,是應有之方。
多年來,堵在算法透明化面前的那堵高墻叫「商業秘密」,但今年以來,有個明顯跡象是,以抖音為代表的中國互聯網公司主動拆「墻」。
從2025年1月宣布建立安全與信任中心,到3月網站上線披露算法細節,到4月舉辦開放日與媒體溝通會,到5月全面升級使用管理工具,再到9月召開首場「算法向善」專家研討會……抖音構建起了包含規則闡釋、案例解析、互動答疑的多維溝通體系,讓算法走出黑箱、走向透明。
![]()
▲抖音安全與信任中心官網上公布了詳細算法原理。
這其實就是用算法祛魅來消除大眾對「不受控制的技術權力」的擔憂:當平臺將如何通過「多目標建模」平衡短期互動與長期價值、如何設置「多樣性約束」避免內容重復、如何引入「探索因子」突破興趣固化等呈現在公眾面前,算法的「可理解」本身就成了公共產品。
對算法污名化的最好阻擊,就是將其置于「可解釋、可參與、可監督」的透明化治理框架下。那樣一來,用戶會逐漸明白:算法不是獨立的價值主體,而是人類行為的映射,不是神秘的巫術魔法,而是可被監督可改進的工具,它并不全能,也非萬能。
我在媒體溝通會上聽抖音的算法工程師解釋為何我們看到的是內容A而非內容B時,聽運營負責人解釋平臺如何定義「優質內容」時,就生出了兩點感受:1,將那些復雜的社會結構性問題簡單歸結為算法原罪,在自己作繭自縛后怪罪于算法織繭,都是選擇性遮蔽下的歸因偏差;2,很多時候,技術不是問題,放棄人的自主性才是。
拿「憤怒誘餌」現象來說,「憤怒誘餌」太多,算法沒法背鍋。不能因為算法「不會說話」,就讓它客串竇娥、充當標靶。
算法確實還有很多不足,但解決之道不是打倒算法,而是讓算法在陽光下運行,讓公眾理解算法原理,讓平臺承擔起治理責任,讓用戶重掌信息主權。當人們更多地承認其局限、發揮其價值,那個被迷霧籠罩的人機共處未來才會愈發清晰。
這其中,我們掌握自己的信息主權很重要。納薩尼爾·霍索恩說過:你關注什么,最終你就成為什么。將其換成另一個表述就是:每個人,都是自己接收信息情況的第一責任人。
因為決定你的信息流走向的,不是一行行代碼,而是你的一次次點擊、停留、互動。你命由你不由天,你接收的信息由你不由「算」。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.