![]()
圖源:Unsplash / Markus Spiske
撰文|張榆澤
算法會加劇社會分裂嗎?這種“技術(shù)決定論”敘事在經(jīng)驗證據(jù)上是薄弱的。算法的核心是商業(yè)性的“參與度優(yōu)化”,而非意識形態(tài)灌輸。更關(guān)鍵的是,國外的研究發(fā)現(xiàn),極化主要由政治精英、黨派媒體和深層社會經(jīng)濟結(jié)構(gòu)驅(qū)動,強迫人們走出繭房、接觸對立觀點,非但不能促進理解,反而會使其立場變得更加極端。
早在“算法”成為熱詞之前,瓦爾特·李普曼(Walter Lippmann)就對“輿論”的形成提出了深刻的質(zhì)疑。他引用羅伯特·皮爾爵士的話說,“所謂輿論就是匯集了愚蠢、軟弱、偏見、錯誤的感覺,準確的感受,固執(zhí)的觀點和報紙文章的大雜燴”。近一個世紀前,人們幾乎不會把社會的裂痕簡單歸因于某一特定要素,而是試圖從更復(fù)雜的結(jié)構(gòu)中找到答案。
在當代公共話語中,一種普遍的觀點認為,社交媒體在加劇社會分裂,無論是故意推送對立觀點以制造不同群體之間的矛盾,還是將極端者聚集起來相互強化,這些敘事都指向一個共同的“元兇”:算法。
這種“技術(shù)決定論”的觀點,很大程度上源于伊萊·帕里澤(Eli Pariser)提出的“過濾泡”(Filter Bubble)概念,他認為算法的個性化推薦機制會將用戶在知識上隔離開來,只向他們展示與其既有觀點相符的內(nèi)容,從而助長了政治極化。
這個邏輯符合我們的直覺,但它在很大程度上只是一種“未經(jīng)證明的預(yù)設(shè)”。近年的多項研究正在對這一“常識”發(fā)起挑戰(zhàn)。
01 “繭房”的實證脆弱性
首先,“算法導(dǎo)致繭房”這一前提,在實證研究中就顯得相當薄弱。
人們常說的“過濾泡”,指的是算法通過個性化排序,為我們每個人創(chuàng)造了一個獨特的信息宇宙,從而侵蝕了共同的討論基礎(chǔ)。而“信息繭房”或“回音室”(Echo Chamber),則指我們最終停留在一個封閉的媒體空間,內(nèi)部信息被放大,而外部信息被隔絕。
但現(xiàn)實中,這樣的“繭房”真的普遍存在嗎?
路透新聞研究所(Reuters Institute)發(fā)布的一份文獻綜述在回顧了大量相關(guān)研究后指出:真實的“繭房”非常罕見,大多數(shù)人接受的媒介信息是相對多樣化的。一項針對英國的研究估計,只有約6%到8%的公眾處在黨派新聞的“回音室”中。
與普遍認知相反,多項研究一致發(fā)現(xiàn),依賴搜索引擎和社交媒體獲取新聞的人,其接觸到的新聞來源反而更廣泛、更多元。這被稱為“自動的機緣巧合”(Automated Serendipity)——算法會“投喂”給你本不會主動選擇的內(nèi)容。
少數(shù)確實存在于繭房中的人,主要是因為他們主動選擇只看某些媒體,而不是算法有預(yù)謀推送的結(jié)果。
事實上,那些認為算法離間的觀點,往往假設(shè)平臺樂于見到?jīng)_突,因為沖突帶來流量。然而,這種假設(shè)忽視了平臺運營的真正目標:長期用戶留存。
正如抖音安全與信任中心所公開的算法原理,如果算法一味迎合用戶已有的興趣,會導(dǎo)致內(nèi)容越來越同質(zhì)化,這會使用戶很快感到無聊并離開平臺。因此,推薦系統(tǒng)必須在“利用”和“探索”之間保持平衡,主動將用戶可能感興趣的新內(nèi)容推送給用戶,以保持新鮮感和用戶黏性。
02 當“兼聽”不再“明”
既然“算法導(dǎo)致繭房”的證據(jù)不足,那么極化的根源究竟在哪?
中國有句古話叫“兼聽則明”,西方的商談民主理論也認為,公民在理性商談中接觸不同觀點,會變得更溫和。如果“繭房”是問題所在,那么打破它——讓人們“兼聽”——理應(yīng)能緩解極化。
但如果這個前提在社交媒體時代失效了呢?
杜克大學(xué)社會學(xué)家克里斯·貝爾(Chris Bail)教授進行了一項巧妙的實地實驗,直接測試了這個問題。他的團隊招募了一批立場堅定的民主黨和共和黨推特用戶,然后付錢讓他們關(guān)注一個專門轉(zhuǎn)發(fā)對立陣營政治言論的“機器人”賬號。
這個實驗的設(shè)計,本質(zhì)上就是強行打破繭房,迫使參與者“兼聽”。然而,實驗結(jié)果讓人意想不到:一個月后,參與者非但沒有變得更溫和、更理解對方,反而普遍變得更加極端了。
這一發(fā)現(xiàn)證明,至少在社交媒體環(huán)境中,強迫你“走出信息繭房”,非但沒有解決問題,反而加劇了極化。
阿姆斯特丹大學(xué)一項最新的“生成式社交模擬”研究進一步證實了這一觀點。當研究者使用AI智能體創(chuàng)建了一個只有發(fā)帖、轉(zhuǎn)發(fā)和關(guān)注功能的“最小平臺”后,發(fā)現(xiàn)即使沒有復(fù)雜的推薦算法,黨派回音室、影響力高度集中和極端聲音放大等功能障礙依然會自發(fā)產(chǎn)生。情緒化的(往往是極端的)內(nèi)容獲得更多轉(zhuǎn)發(fā),轉(zhuǎn)發(fā)行為又為發(fā)布者帶來更多關(guān)注者(即影響力),這又進一步強化了極端內(nèi)容在網(wǎng)絡(luò)中的主導(dǎo)地位。
這一發(fā)現(xiàn)的意義在于,問題不是算法“隔離”了我們,而在于人類社交網(wǎng)絡(luò)的基礎(chǔ)架構(gòu)就會獎勵那些基于身份、情緒化、非理性的反應(yīng),并允許這些反應(yīng)直接構(gòu)建了我們的社交關(guān)系。
03 極化的真相是什么?
為什么接觸對立觀點會適得其反?要回答這個問題,我們必須區(qū)分兩種截然不同的“極化”。
現(xiàn)代政治科學(xué)研究指出,意識形態(tài)極化(Ideological Polarization),即人們在具體政策立場上的分歧,在普通民眾中并未顯著增加。然而,情感極化(Affective Polarization),即不同黨派群體之間日益增長的厭惡、不信任和敵意,卻在急劇上升。這種極化無關(guān)乎政策,關(guān)乎身份;其特征更多體現(xiàn)為“對群外的憎恨”(Out- Group Hate)。
貝爾教授據(jù)此提出的“社交媒體棱鏡”(Social Media Prism)理論認為,社交媒體既不是“鏡子”,也不是“繭房”,而是一面“棱鏡”:它會扭曲我們對自我和他人的認知。
這種扭曲來自兩個方面:首先,社交媒體的核心機制是身份展演和地位競賽,這為極端者提供了最佳舞臺。其次,當極端者占據(jù)了輿論場,溫和派會因“沉默的螺旋”而噤聲。這面“棱鏡”讓我們錯誤地以為對立陣營里所有人都是我們在網(wǎng)上看到的那些極端分子。
這也解釋了貝爾的實驗為何失敗:參與者被迫看到的,并非溫和的對立觀點,而是被“棱鏡”折射過的、最刺耳的聲音,這自然加深了他們的情感極化。也有研究表明,用戶雖然能感知到一種基于身份的“個體意見氛圍”,但其“個體意見表達”卻并不受其顯著影響,更別說制造認同,從而演變成非理性行為了。
04 超越“參與度”,算法的未來在哪?
算法是在一個預(yù)先存在的極化環(huán)境中運作的,而非創(chuàng)造了這個環(huán)境。
極化加劇的時間線,遠早于現(xiàn)代社交媒體算法的出現(xiàn),一種“自上而下”的模式似乎很早就有。
首先,精英極化(Elite Polarization)先于并驅(qū)動著大眾極化,政治家和活動家首先采取了更鮮明的立場。其次,深層的社會經(jīng)濟因素,如日益加劇的經(jīng)濟不平等,與政治極化之間存在著深刻的結(jié)構(gòu)性關(guān)系。此外,時間序列分析也顯示,收入不平等的衡量標準(如基尼系數(shù))與國會極化程度之間存在著強烈的長期相關(guān)性。
將算法視為極化危機核心的“技術(shù)決定論”敘事,是對一個復(fù)雜、多因現(xiàn)象的過度簡化。
“算法離間論”和“傻子共振”所描述的現(xiàn)象,其根源更多在于人類的心理偏見(如選擇性接觸)和深層的社會政治結(jié)構(gòu)。當一條長達450分鐘的《紅樓夢》深度解讀視頻能獲得3億播放量,這恰恰是算法主動破壁、發(fā)掘用戶深度興趣的結(jié)果,而非“繭房”的產(chǎn)物。
既然算法只是“放大器”,那么簡單的技術(shù)調(diào)整能否“校正”這種放大效應(yīng)?阿姆斯特丹大學(xué)的“AI沙盒”(Sand box)研究為此提供了發(fā)人深省的答案。研究者測試了六種廣泛提議的“親社會干預(yù)措施”,結(jié)果發(fā)現(xiàn)那些看似“解藥”的方案效果“微乎其微”,甚至適得其反。
例如,強行打破所謂繭房(即“提升對立黨派內(nèi)容”)的干預(yù)措施,結(jié)果顯示“幾乎沒有影響”,AI智能體在被迫接觸對立觀點時,并沒有改變自己的行為,再次證實了“跨黨派曝光本身是不夠的”。而許多人呼吁回歸的“按時間排序”信息流,雖然確實能大幅降低“注意力不平等”,但它帶來了意想不到的負作用:它加劇了社交媒體棱鏡效應(yīng),使得極端黨派用戶的聲音獲得了更強的相對影響力。
因此,富有成效的干預(yù)措施,不應(yīng)著眼于創(chuàng)造“中立”算法這一徒勞的目標。而應(yīng)更多地關(guān)注探索超越原始參與度優(yōu)化的替代性算法設(shè)計,例如,轉(zhuǎn)而優(yōu)先考慮獎勵用戶的“陳述偏好”(用戶反思后認為有價值的內(nèi)容)而非“揭示偏好”(用戶沖動點擊的內(nèi)容),或為“建設(shè)性話語”進行設(shè)計,從而將技術(shù)的力量植根于對我們當前分裂的人類和政治根源的更準確理解之上。
本文作者系對外經(jīng)濟貿(mào)易大學(xué)文學(xué)與國際傳播學(xué)院講師
參考文獻:
- [1] Larooij, M., & T?rnberg, P. (2025). Can we fix social media? Testing prosocial interventions using generative social simulation. arXiv preprint arXiv:2508.03385v1.
- [2] Milli, S., Carroll, M., Wang, Y., Pandey, S., Zhao, S., & Dragan, A. D. (2025). Engagement, user satisfaction, and the amplification of divisive content on social media. PNAS Nexus, 4, pgaf062.
- [3] Arguedas, A. R., Robertson, C. T., Fletcher, R., & Nielsen, R. K. (2022). Echo chambers, filter bubbles, and polarisation: a literature review. Reuters Institute for the Study of Journalism.
- [4] Zuiderveen Borgesius, F. J., Trilling, D., M?ller, J., Bodó, B., de Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles?. Internet Policy Review, 5(1).
- [5] Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. F., Lee, J., Mann, M., Merhout, F., & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216-9221.
- [6] Waller, I., & Anderson, A. (2021). Quantifying social organization and political polarization in online platforms. arXiv preprint arXiv:2010.00590v3.
- [7] Bakker, B. N., & Lelkes, Y. (2024). Putting the affect into affective polarisation. Cognition and Emotion, 38(4), 418-436.
- [8] Vlaicu, R. (2023). Inequality, participation, and polarization: Economic origins of partisan policies (Discussion Paper N° IDB-DP-1040). Inter-American Development Bank.
- [9] Prummer, A. (2020). Micro-targeting and Polarization. Accepted Paper
- [10] 王伯魯. 馬克思技術(shù)決定論思想辨析[J]. 自然辯證法通訊, 2017, 39(5): 126-135.
- [11] 晏齊宏. 算法推薦對網(wǎng)民意見極化的影響機制研究——基于輿論可見性視角的多層次分析[J]. 現(xiàn)代傳播, 2024, 8: 12-25.
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.