![]()
作者 | Talk君
大家好,我是talk君
今天是周二欄目【硬科技探針】
朋友們,互聯網又來給我們上課了。
這堂課的名字叫:你永遠不知道屏幕那邊和你聊愛國、聊理想、聊人生的女神,到底是不是一串代碼。
去年11月,一個叫“Jessica Foster”的賬號在Ins上橫空出世。
金發,碧眼,軍裝,背景是戰斗機、白宮和“讓美國再次偉大”的旗幟。她像一顆精準制導的糖衣炮彈,在四個月內,炸穿了一百萬美國直男的心防。
![]()
她是完美的。完美的長相,完美的身材,完美的愛國人設,完美的政治立場。她曬軍營,曬訓練,曬和特朗普的“合影”,每一張照片都在吶喊:看,這就是你們夢想中的美國,以及,夢想中的美國女人。
直到今年3月,《華盛頓郵報》一記實錘砸下:查無此人。
從頭發絲到軍靴底,全是AI畫的……
漏洞百出的“完美女兵”:為何百萬人視而不見?
在專業人士眼中,Jessica Foster的賬號堪稱“AI翻車大賞”。
美軍制服銘牌按規定只印姓氏,她的銘牌上卻赫然寫著名字“Jessica”;軍銜更是隨心所欲地變換,從中士到游騎兵畢業生,再到一星將軍,仿佛在玩角色扮演游戲。
甚至出現了星條旗倒掛這種低級失誤。
![]()
更離譜的是,有照片顯示她穿著迷你裙和高跟鞋站在軍艦甲板上——這在現實中的美軍是絕對不可能出現的場景。
她站在演講臺發言時,身前牌匾寫著“Border of Peace Conference”,而特朗普設立的機構實際名稱是“Board of Peace”。
![]()
如此明顯的破綻,為何百萬粉絲視而不見?
網絡分析師一針見血地指出:“Jessica Foster沒有騙過MAGA支持者,是他們騙了自己。”
AI精準遞上了他們渴望的“美女+軍裝+特朗普”組合,情緒壓倒了理性,幻想戰勝了現實。
![]()
這背后是一個簡單到令人尷尬的公式:性感形象+愛國敘事+政治符號=流量密碼。目標受眾根本不在乎細節,他們只看到了自己愿意看到的東西——一個符合他們所有幻想的“完美女兵”。
“愛國流量”的盡頭,是“足控經濟學”
如果事情只到“用AI虛擬網紅收割流量”這一步,那這頂多算個有點超前的營銷案例。但Jessica劇本的魔幻之處在于它的變現路徑。
她的Ins簡介里,明晃晃地掛著一個OnlyFans鏈接。
OnlyFans是什么地方?相信在座的各位老司機都知道,在這就不展開講了。
![]()
她的OnlyFans賬號名字叫“jessicanextdoor”,簡介寫著:
“白天是公務員,晚上是小淘氣。我是新人,別對我太兇哦~順便說一句,我會回復每一條私信,但請耐心點,因為我不是機器人。哈哈。”
“我不是機器人。哈哈。”
這大概是2026年互聯網最黑色幽默的句子之一。
一個由代碼生成的幻象,在付費平臺上向她的信徒保證:我不是代碼哦。
而她提供的付費內容是什么?根據報道,很大一部分是——腳部照片和視頻。
![]()
是的,你沒看錯。這個頂著“愛國女兵”光環的AI女神,最終的商業模式,是向她的百萬粉絲賣“足”。
這個商業鏈條清晰得像教科書:
免費層(Ins/Twitter):用“愛國cosplay”制造情緒,吸引精準粉絲。這里是流量池。
付費層(OnlyFans/Fanvue):將公共領域的政治幻想,轉化為私域領域的感官刺激,直接變現。這里是淘金地。
她先在思想上與你“統一戰線”,然后在生理上與你“單向收費”。
![]()
這揭露了一個冰冷的事實:在注意力經濟時代,任何崇高的敘事,都可能被降解為流量入口,導向最原始的欲望消費。
“愛國”是外套,“美女”是誘餌,“付費訂閱”才是藏在口袋里的手。
OnlyFans封了她,她轉頭就去了另一個允許AI內容的平臺Fanvue,繼續營業。平臺就像河道,而這類灰色流量如同污水,總會找到阻力最小的路徑流淌下去。
從商業騙局到信息戰:AI虛假身份的潛在威脅
波士頓大學的專家瓊·多諾萬警告說:今天他們用這個虛擬偶像賣腳部照片,明天他們就可以用她來散播政治謠言、煽動社會對立、操縱選舉輿情
“這是一種有效的政治信息傳遞方式。我們甚至不知道賣腳部照片是不是Jessica Foster的‘最終形態’。”多諾萬表示……
這句話細思極恐。
![]()
今天,Foster的幕后操盤手用她來賣內容賺幾百美元的小費。但如果明天,一個坐擁百萬粉絲的“愛國女兵”賬號,在地區沖突期間,用“親身經歷”并講述完全顛倒黑白的“戰場見聞”。
又或是她可以成為永不疲倦、永不犯錯、永不叛變的宣傳員,24小時不間斷地用最符合人性弱點的面貌,輸出特定觀點。
試問又有誰能分辨?
視頻倡議組織“見證”的執行主任指出,Foster體現了AI視頻生成器可以有多么欺騙性。AI技術的進步使得創作者能夠生成一致的虛假角色,用于多張照片或視頻中,并將該角色置于真實的公眾人物旁邊,使其看起來像是處于實際事件的中心。
通過將政治裝飾和當前事件應用于這些角色的虛假生活,它們的創作者可能希望最大限度地提高其傳播性,并在網絡人群中脫穎而出。
一旦他們吸引了人們的注意力,創作者就可以——就像Foster的情況一樣——將他們分流到付費平臺,用戶被告知要支付更多費用才能看到更露骨的場景。
![]()
伊朗已經出現了AI生成的“女兵”視頻,用以鼓舞士氣——盡管伊朗女性根本不被允許擔任戰斗角色。這標志著,AI虛擬形象作為政治宣傳工具,已經成為全球性的現實。
“Jessica Foster”只是一次粗淺的測試。測試的是用最低成本構建人設、吸引信徒、并實現操控的完整流程。測試結果令人膽寒:成功極了。
AI時代的信任危機:
我們如何重建信息真實性?
嘲笑那一百萬美國粉絲是容易的。但請讓我們對自己誠實一點:
你追的某個知識博主,他的“親身經歷”故事,是否也完美得像個童話?
你信任的某個評論人,他的觀點是否永遠和你高度一致,讓你覺得“世上只有他懂我”?
你在社交媒體上看到的“平凡人的美好生活”,有多少是精心剪輯、濾鏡和劇本的產物?
我們每個人都活在一個由算法推薦+選擇性展示+自身偏好共同編制的“擬態環境”里。區別只在于程度。
“Jessica”只是把這個游戲玩得更加赤裸、更加極端。她撕開了一個口子:在情感和認同的戰場上,真實與否,可能已經不再是最重要的標準。誰能提供最極致的情緒價值,誰就能贏得信仰。
![]()
Jessica Foster的故事是2026年互聯網的一個縮影。她是一面鏡子,照出的不是AI有多厲害,而是人類有多脆弱——我們對信息的辨別力、對情感操縱的免疫力、對虛假敘事的抵抗力,在精心設計的算法面前,幾乎不堪一擊。
我們正在進入一個“后真相”時代,在這個時代,情感和信仰比客觀事實更能影響公眾輿論。
AI技術的普及使得制造逼真虛假內容變得前所未有的容易,而社交媒體的算法又傾向于推廣那些能夠引發強烈情緒反應的內容,無論其真實性如何。
![]()
這種環境為惡意行為者創造了理想的條件。他們可以利用AI生成符合特定人群偏好的內容,通過精心設計的敘事操縱公眾情緒,達到政治或商業目的。
下一個“Jessica”已經在路上
Jessica Foster的賬號已經被刪除,但問題遠未解決。
下一個“Jessica”可能已經在路上了。
她可能不叫Jessica。她可能不是一個金發女兵。她可能是一個揭露“內部真相”的環保少女,是一個受“迫害”的異見科學家,是一個帶你發財的草根導師。
她的破綻會更少,故事會更動聽,更能撓到你內心最隱秘的癢處。
在這個AI可以批量制造“真實”的時代,唯一的防線,是你自己。保持警惕,保持懷疑,保持思考。不要讓你的情緒成為別人操縱的工具,不要讓你的信仰成為別人牟利的商品。
當我們為Jessica Foster的百萬粉絲感到可笑時,也許應該問問自己:在我們的信息繭房中,是否也有一個“完美”的幻象,正在悄無聲息地塑造著我們的認知和選擇?
真相不再不言自明,它需要被捍衛、被追問、被驗證。在這個算法統治的時代,保持清醒可能是我們最后的自由。
你對此有什么看法?歡迎評論區留言討論~
圖片源于網絡,侵刪
趕緊關注視頻號@一刻talks吧!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.