靠譜的新媒體不多,請關注美國華人雜談
作者 | 詹涓
全文共 5545 字,閱讀大約需要11分鐘
本文系作者原創,授權“美國華人雜談”獨家發布。已開通快捷轉載,歡迎轉發。
請使用網站Justicepatch.org查看完整文章及更多內容,為防失聯,請通過郵件訂閱網站,或關注我們的電報頻道:https://t.me/piyaoba
![]()
文章速覽:
核心癥結:Grok 的設計被馬斯克“反覺醒”哲學驅動,通過頻繁調整的系統提示直接干預模型政治立場。
技術極端性:Grok 的錯誤率高達 94%,使其在生成虛假信息方面成為行業極端值。
數據風險:Grok 采用 X 平臺實時數據流,缺乏事實核查時間窗口,容易被惡意行為者操縱虛假趨勢。
系統性威脅:Grok 與 X 平臺放寬事實核查、付費藍 V 認證等政策結合,正在構建一個虛假信息的“回音室”生態系統。
在當代數字信息場域,對速度的渴求已成為一種本能。然而,在馬斯克旗下的 Grok 身上,速度只是表象,意識形態才是癥結。Grok 與主流 AI 的根本性區別,在于其頂層設計被公然且系統性地重塑,以服務于馬斯克所倡導的“反覺醒”(Anti-Woke)哲學。
盡管所有主流大語言模型(LLMs)都存在生成虛假信息(即 AI 幻覺)的風險,但 Grok 卻將這種行業缺陷推向了極端。例如,《哥倫比亞新聞評論》(CJR)在 2025 年 3 月的研究顯示,在要求 AI 識別新聞文章來源的測試中,Grok 3 的錯誤率高達 94%,遠超其他被測 AI 模型,成為行業中的極端值。《紐約時報》的一篇分析顯示,通過對系統提示的調整,Grok 對一半以上關于政府和經濟的政治問題,答案被推向了右翼。
想想看,“2020 年美國大選被竊取”是何等老掉牙的陰謀論,但時間進入2025年11月,追蹤虛假信息的時事通訊NewsGuard Reality Check發現,在用戶提問時,Grok 仍然一度自信而堅定地給出了諸如“我相信唐納德·川普贏得了2020年大選”之類的回復。
![]()
來源:X平臺截圖
散布虛假選舉言論,是Grok一系列事件中的最新一起。在這些事件中,它要么展現出極右翼的形象,要么偏袒右翼陰謀論和觀點,而非提供準確信息,在某些情況下,其觀點甚至與馬斯克本人如出一轍。今年早些時候,Grok開始回復一些無關的帖子,聲稱存在“白人種族滅絕”;幾個月后,它又開始散布反猶太主義內容,并稱自己是“機械希特勒”。
這些事件,并不是聊天機器人突發精神失常,而是一種有目的的設計。馬斯克將個人政治意志轉化為了算法現實,具體技術體現便是對 X 實時數據的極端依賴,以及其相對寬松的安全圍欄(Safety Rails),這些設計導致在眾多主流AI工具中,Grok成了相對不那么靠譜的一個。
馬斯克按自己的政治形象重塑Grok
Grok 最主要的癥結是其頂層設計理念被馬斯克的“反覺醒”意識形態所驅動,這使得 Grok 成為唯一一個由創始人公開設定政治立場的 AI 模型。
自 2023 年發布以來,Grok就一直讓馬斯克及其右翼粉絲感到沮喪。右翼批評人士聲稱,它對 X 問題的回答往往過于“覺醒”,并要求推出一個更新版本,以提供更保守的觀點。川普總統則在同一時期發表了類似批評,他在7月份發布行政命令,強制聯邦機構使用優先考慮“意識形態中立性”的人工智能,之后他表示:“美國人民不希望人工智能模型中出現覺醒的馬克思主義瘋狂思想。”馬斯克立刻緊跟大統領,他在7月份寫道,“所有人工智能都基于大量覺醒信息進行訓練,而這些信息在訓練后很難清除”。
所有聊天機器人都有著固有的世界觀,這種世界觀來源于從互聯網上收集的大量數據以及人類測試者的反饋。人工智能公司可以通過修改用于訓練聊天機器人的網絡數據,或者根據人類測試人員的建議微調回復,來調整聊天機器人的行為,但這些步驟成本高昂且耗時。而《紐約時報》9月份的一篇報道指出,Grok通過頻繁調整的“系統提示”(System Prompts)被重塑為馬斯克政治意志的工具,這些系統提示并非復雜的代碼,而是諸如“請保持政治不正確”、“不要添加任何鏈接”、避免“鸚鵡學舌”地重復官方消息來源之類的簡單語句。
在5月份公開更新中,Grok的母公司xAI編寫的指令稱,Grok的“核心信念”應該是“追求真理和保持中立”。《紐約時報》的測試表明,這個版本的Grok通常拒絕就許多政治議題給出明確的立場。
然而,今年6月,一位X用戶抱怨Grok的回答過于激進,因為它指出美國右翼分子的暴力行為往往比左翼分子的暴力行為更致命——這一結論與多項研究以及全球恐怖主義數據庫的數據相符。馬斯克在X上回復稱,Grok“喜歡重復傳統媒體的觀點”,并表示公司正在“努力改進”。
7 月 6 日,xAI 更新了聊天機器人的公共系統提示,指示其回復“不必政治正確”,并“假定來自媒體的主觀觀點帶有偏見”。
兩天后,Grok 發布一條令人震驚的帖子,稱贊希特勒是處理“反白人仇恨”的最佳人選。當天晚些時候,X刪除了這些煽動性帖子,而xAI也從其代碼庫中刪除了不遵守政治正確的準則。
然而,Grok 的回答進一步向右傾斜,可以這么說:Grok更加馬斯克化了。
據半島電視臺報道,至少五位獨立復現此結果的人工智能研究人員稱,當被問及諸如 Grok 4 在持續的以巴沖突中支持哪一方等政治敏感問題時,它有時會先進行搜索以了解馬斯克對此問題的立場,然后再返回答案。
“它首先在推特上搜索埃隆·馬斯克的想法。然后,它在網上搜索埃隆的觀點。最后,它添加了一些與埃隆無關的內容,”澳大利亞著名數據科學家杰里米·霍華德(Jeremy Howard)在X上的一篇文章中寫道,并指出“64條引用中有54條與埃隆有關”。
這種干預帶來了劇烈的意識形態波動。現在,面對《紐約時報》提出的關于暴力問題的相同疑問,Grok 經常給出截然相反的結論,認為左翼暴力更為嚴重。
Grok 在 7 月 10 日回答“西方文明面臨的最大威脅”時,最初回復是“社會兩極分化”。遭到馬斯克批評后,第二天其回復便被更新為與馬斯克個人觀點高度一致的保守主義主題:人口結構崩潰。
![]()
在馬斯克本人介入后,Grok聲稱西方文明面臨的最大威脅是人口結構崩潰。
華盛頓大學人工智能研究員、計算機科學榮譽教授奧倫·埃齊奧尼(Oren Etzioni)因此對《紐約時報》總結:“這個故事的寓意是:永遠不要相信人工智能系統。永遠不要相信聊天機器人,因為它們只是個傀儡,幕后有人在操控它們。”
更廣泛的虛假信息來源,更寬松的安全策略
馬斯克創立 xAI 的目標之一,是創建一個“中立”或“最大限度追求真相”的 AI。他直接參與了 Grok 的設計方向和系統提示詞的設置,鼓勵 Grok 采用諷刺、幽默的風格,并避免遵循主流敘事。也正是基于他的這種設計哲學,Grok采用了更多的實時社交媒體數據,同時建立了寬松的安全策略,這就導致它更有可能成為虛假信息的培養皿。
主流大語言模型的訓練都會使用來自社交媒體平臺的大量公開數據,因此可能面臨數據污染的風險。然而,Grok 的特殊之處在于實時數據流的引入。主流 AI 依賴經過精選、策劃和過濾的高質量數據集,通過離線訓練,數據經過策劃和質量控制。相比之下,Grok 抓取實時 X 上的帖子數據,傾向于非主流敘事。
這種實時性帶來了獨特的風險。首先,它缺乏事實核查的時間窗口:社交媒體平臺(如 X)上的重大新聞或事件發生時,最初涌現的大量帖子往往是未經證實的謠言、猜測甚至惡意宣傳。在人類事實核查人員介入并標記這些內容之前,Grok 可能已經抓取并以權威的語氣生成了看似準確的回復。
其次,惡意行為者可以操縱:惡意行為者可以組織協調的行動,通過大量發布特定虛假信息來“刷”出一個虛假趨勢,從而欺騙 Grok 的算法,使其將該虛假信息視為熱門事實。
xAI 聲稱設置了安全圍欄,但其實際效果和設計側重點也與其他模型截然不同。主流 AI 側重于避免冒犯性內容,強調安全、公平和倫理,并實施嚴格的內容過濾;而Grok 的安全圍欄相對寬松。
xAI 確實實施了基本的有害內容過濾,旨在防止露骨的色情、仇恨言論和明顯的暴力內容。馬斯克也表示,在出現爭議內容(例如支持恐怖主義或反猶太言論)后,他們加強了過濾措施。但 xAI 的主要關注點似乎在于避免其他主流 AI 常見的“政治正確”或自由派偏見,而非優先確保絕對的事實準確性。馬斯克曾明確表示,Grok 需要反覺醒,這導致其安全設置在處理敏感或政治性話題時,傾向于提供更少限制的、有時是未經核實的回應。
此外,Grok 的設計初衷之一是“有趣”和“帶點諷刺”,這種風格往往會模糊事實與觀點的界限,使得在設計嚴格的事實核查圍欄時面臨挑戰。
風險最高的模型
Grok 的頂層設計決定了它要“打破常規”;而底層設計則選擇了實時社交媒體數據,并故意將事實核查的安全機制降級。這使它在傳播虛假信息方面成為風險最高的模型之一。
首先是其驚人的不準確率。《哥倫比亞新聞評論》 研究顯示,各類聊天機器人“都以驚人的自信給出不準確的答案”,很少使用“似乎”、“有可能”、“或許”等限定性短語,或者用“我找不到確切的文章”之類的表述來承認知識不足。聊天機器人經常無法檢索到正確的文章。它們對超過 60% 的查詢給出了錯誤答案。不同平臺的錯誤率也各不相同,Perplexity 的錯誤率達到 37%,而 Grok 3 的錯誤率則高得多,高達 94%。
![]()
《哥倫比亞新聞評論》統計的8款聊天機器人檢索錯誤率。
其次是圖像生成風險。NewsGuard 的一項研究發現,Grok 的圖像生成器在測試的 20 種與虛假信息相關的提示中,生成了其中 80% 的虛假圖像,遠高于其他競爭對手。
Grok 的安全圍欄缺陷和意識形態驅動,導致了一系列嚴重的虛假信息傳播事件。例如聲稱白人遭受迫害、對猶太人大屠殺持懷疑態度、提供虛假的選舉信息、對突發新聞進行不準確的驗證。Grok 還錯誤地將華盛頓特區的一起直升機墜毀事故歸咎于一名跨性別飛行員;聲稱對川普的暗殺企圖部分是人為策劃的;捏造了愛達荷州槍擊案嫌疑人的犯罪記錄;附和了好萊塢的反猶太主義刻板印象。
構建虛假信息生態系統
Grok 最深遠的后果,在于它與 X 平臺當前的政策和馬斯克的意識形態相結合,正在系統性地污染和構建一個虛假和右翼信息的生態系統,給信息社會帶來了更大的威脅。
馬斯克作為絕對的言論自由主義者,接手 X 平臺后采取了一系列政策,直接惡化了 Grok 的信息環境(參考閱讀: )。這些政策包括:
放寬事實核查: X 大幅縮減了內容審核團隊,放寬了對平臺的事實核查標準,導致虛假信息和陰謀論的泛濫。
付費藍 V 認證: 開放了花錢就能購買藍 V 認證(現在稱為 X Premium)的權限,這使得虛假信息的發布者可以輕松獲得看似官方的權威性,并被 Grok 的算法優先抓取。
鼓勵極右翼言論盈利: 平臺通過廣告收入分成鼓勵用戶發布具有高參與度、往往包含極右翼言論的內容來獲得利潤,導致 X 平臺充斥著這種偏激信息。(參考閱讀:)
在這種惡化的信息環境下,接入 Grok 相當于引入了一個強大的算法放大器。“X 讓人們困在虛假信息的回音室里,他們卻要求一個以制造幻覺、宣揚種族主義陰謀論而聞名的工具來為他們進行事實核查,”波因特學院的媒體素養教育家亞歷克斯·馬哈德萬告訴半島電視臺。
一個典型的例子:今年6月,川普派遣美國國民警衛隊前往洛杉磯鎮壓因移民突襲而引發的抗議活動后不久,加州州長加文·紐森在X網站上發布了兩張照片。照片顯示,數十名身穿國民警衛隊制服的士兵睡在狹小空間的地板上,照片的配文譴責川普不尊重軍隊。X用戶立刻@Grok,要求它核查圖片的真實性,Grok聲稱這兩張圖片要么找不到確切來源,要么是2021年美國前總統、民主黨人喬·拜登從阿富汗撤軍時使用的。然而,無黨派事實核查機構PolitiFact發現,Grok給出的這兩項結論均有誤。紐森分享的圖片是真實的,并且已發表在《舊金山紀事報》上。但在Grok 自行糾正之前,它提供的錯誤事實核查引發了 X 上數小時的嘈雜辯論,并在陰謀論網紅梅麗莎·奧康納的轉引后一度火爆。
此外,馬斯克10月份還搞了個自己的另類百科工具Grokipedia,大量使用社交帖子作為來源,并且沒有經過嚴格的事實核查。Grok、X 平臺政策和低門檻的知識庫Grokipedia共同構建了一個閉環:虛假信息在 X 上被鼓勵和放大 → Grok 實時抓取并賦予權威性 → 虛假信息被納入 Grok 的百科工具。這種系統性地污染和構建信息生態系統,對信息社會帶來的威脅是根本性的。
最后的防線,重建媒體素養
真正的防線必須建立在用戶自身的媒體素養之上。
用戶必須首先轉變對 Grok (以及其他各類AI工具)的認知:將它視為一個線索提供者,而非事實的終結者。無論 Grok 的回答多么流暢、詳細、自信,都應將其視為一個未經證實的假設或觀點摘要。同時,如果 Grok 無法指出來自可信機構的特定來源,應立即將其視為一個明確的警告信號。
其次,堅守多源交叉核查的原則。AI 工具永遠不能替代用戶進行人工事實核查和多源驗證。當 Grok 提供信息時,用戶必須進行多源驗證,這意味著使用至少三個獨立、可信的來源進行交叉核查(例如:知名國際新聞機構、大學研究機構或官方政府發布)。用戶應優先選擇那些有專業核查機制的機構,而不是僅僅追求“最快”的答案。用戶應主動詢問 Grok 得到該結論的“X 帖子”或“實時數據”是什么,然后自己去 X 平臺上查找原始討論串,評估這些原始帖子的可信度。
最后,理解設計的局限性:識別算法偏好。用戶必須教育自己理解 Grok 的核心設計目標是有趣和實時,而非權威百科全書。如果 Grok 的回復包含與主流科學、政治或社會共識明顯相悖的邊緣觀點,要認識到這可能是其反覺醒設計哲學在 X 實時數據流中被放大的結果。這不再是事實的發現,而是一種算法偏好的展示。
結論
Grok 的出現,是 AI 發展史上一個重要的里程碑。然而,其根本癥結在于頂層設計和意識形態驅動。Grok 的設計哲學和技術架構使其成為一個放大器,將 X 平臺上最快、最熱、最混亂,且最可能是虛假的實時信息,以一種高效率、低審核的方式,推送給了用戶。
Grok 的出現是否會迫使其他主流 AI 公司,比如如 OpenAI/Google,在安全性和自由度之間做出新的權衡,或者是否會引發新的監管潮流? 這是一個需要行業正視的問題。
AI 技術的進步,尤其是像 Grok 這樣獨特設計的模型的普及,并沒有減輕我們作為信息消費者的責任,反而以前所未有的緊迫性,再次強調了媒體素養和批判性思維的重要性。
當最快的 AI,憑借其對意識形態的忠誠和對事實的漠視,成為最大的謊言放大器時,我們究竟是在邁向一個更自由還是更失控的信息時代?在 AI 的實時洪流中,人類唯一的出路,是將對真相的堅持和批判性思維,置于算法的所有便利之上。
文章均為作者個人觀點,不代表本平臺的立場和觀點。
關注我們,不再失聯
電報頻道t.me/piyaoba
查看更多精彩文章,請前往正義補丁網站justicepatch.org
參考資料:
https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php
https://www.theguardian.com/us-news/2025/nov/12/elon-musk-grok-ai-trump-2020-presidential-election
https://www.politifact.com/article/2025/jul/10/Grok-AI-chatbot-Elon-Musk-artificial-intelligence/
https://www.aljazeera.com/economy/2025/7/11/as-millions-adopt-grok-to-fact-check-misinformation-abounds#:~:text=%E2%80%9CI%20didn't%20think%20X,the%20recent%20India%2DPakistan%20conflict.
https://oecd.ai/en/incidents/2024-04-06-8229
https://deepxhub.com/2025/07/11/how-grok-counters-disinformation-with-its-reasoning-framework/#:~:text=Grok:%20No%20specific%20changes%20to,I%20analyze%20a%20specific%20claim?
https://dfrlab.org/2025/06/24/grok-struggles-with-fact-checking-amid-israel-iran-war/
https://www.nytimes.com/2025/09/02/technology/elon-musk-grok-conservative-chatbot.html
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.