![]()
新智元報道
編輯:定慧 桃子
【新智元導讀】奧特曼和五角大樓握手的那一刻,70萬用戶選擇了逃跑。而Anthropic只用了一個功能,就把ChatGPT最深的護城河「用戶記憶」,一刀斬斷。60秒,一次復制粘貼,你在ChatGPT積累的一切,原封不動搬進Claude。這不只是產品戰,這是AI時代第一場關于「數字主權」的革命。
OpenAI最引以為傲的護城河,正被Claude用一個功能撬動了!
今天,Anthropic專為Claude上線了「導入記憶」(Import Memory)新功能,可一鍵絲滑搬家。
![]()
博客地址:
https://support.claude.com/en/articles/11817273-using-claude-s-chat-search-and-memory-to-build-on-previous-context
只需一次簡單的「復制粘貼」,就能將ChatGPT所有上下文,完整遷移至Claude。
整個過程,不到一分鐘,就可以開啟「首場對話即入戲」的無縫銜接。
![]()
![]()
Claude一夜登上App Store榜首后,直接來挖OpenAI「墻角」了!
![]()
2026年的AI大戰,烈度已經超乎所有人想象!
這個功能的邏輯簡單到令人發指:
你跟ChatGPT聊了幾個月,積累了無數對話偏好、工作風格、個人背景……這些「數字靈魂」,原本是你不得不留在ChatGPT里的最大理由——搬走意味著從零開始,重新「馴化」一個不了解你的AI。
但現在,Claude直接把這道門拆了。
只需兩步、一次復制粘貼,不到60秒,你在ChatGPT里積累的一切上下文,就能完整遷移進Claude。
不得不說,這簡直就是,對OpenAI赤裸裸地挑釁。
眾所周知,ChatGPT最懂人心的地方,在于它的記憶力,用越久,越懂你。
![]()
自奧特曼官宣與國防部合作后,全網掀起了一場大規模的「抵制ChatGPT」的運動,如今愈演愈烈。
網友們紛紛加入陣營,取消訂閱,甚至是卸載了ChatGPT。
![]()
這一次,憤怒沒有停留在鍵盤上。
OpenAI辦公室外人行街道上,人們用彩色粉筆留下了驚心動魄的控訴,外圍一圈紅線綿延數百米——
別讓AI變成殺人機器!
如今,全網都在大規模從ChatGPT遷移至Claude。
60秒搬家,復制粘貼絲滑完成
進入主頁,Claude「導入記憶」介紹非常精簡,一看就會。
![]()
在搬家之前,一共有兩步——
第一步,將Claude給你的提示詞提供給任何一個AI工具。
第二步,將AI工具返回的內容,再提供給Claude。
![]()
Claude記憶偷取魔咒
如果你想把一個長期AI伙伴的記憶完整的導出來,如何做?
Claude給出了一個最佳提示詞。
I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.
讓我們來拆解一下這段提示詞:
我正在遷移至其他服務,需要導出我的數據。請列出您存儲的關于我的所有記憶,以及您從過往對話中了解到的任何上下文信息。將所有內容輸出在單個代碼塊中,以便我輕松復制。
請按以下格式記錄每條信息:[保存日期(如可獲取)] - 記憶內容。請務必涵蓋以下所有類別——盡可能逐字保留我的原始表述:
我向您提供的回復指示(語氣、格式、風格、“始終執行 X”、“永不執行 Y”);
個人信息:姓名、所在地、職業、家庭、興趣;項目、目標及重復討論的話題;
我使用的工具、語言和框架;
我對您行為的偏好與修正;上述未涵蓋的其他存儲上下文。
請勿總結、歸類或省略任何條目。
在代碼塊輸出后,請確認這是完整數據集還是仍有遺漏。
這段話的精妙之處在于——
你是在用ChatGPT自己的記憶系統,打包帶走它存儲的關于你的「數字檔案」,然后一鍵喂給Claude。
ChatGPT:???
連反抗的機會都沒有。
OpenAI疑似反擊
不過在實測的過程中,我們發現,OpenAI似乎已經意識到了問題。
不論是英文還是中文提示詞,能夠導出的記憶基本是None。(當然和每個人賬戶的聊天多少也有很大的關系)
![]()
如果想要完整導出記憶功能,可能需要使用OpenAI自己的個人數據下載功能。
![]()
也就是說OpenAI其實并沒有門戶打開,讓Cladue攫取最寶貴的信息。
同樣地提示詞在Gemini中,就可以獲得基礎信息。
![]()
「記憶」,曾經是OpenAI最深的護城河
要理解這件事的殺傷力,你得先明白ChatGPT的記憶功能到底有多重要。
用過ChatGPT Plus的人都知道那種感覺:
用得越久,它越懂你。它記得你喜歡簡潔的回答不喜歡廢話,記得你是程序員用Python,記得你有個項目叫什么名字,記得你上周跟它吐槽了什么……
這種「越用越舍不得走」的粘性,是OpenAI最引以為傲的用戶壁壘。
用專業術語說:切換成本。
而Anthropic這一刀,直接把切換成本砍到了接近零。
再見了,ChatGPT:70萬人拋棄
社交網絡上,#QuitGPT 話題迅速爆炸。
![]()
![]()
僅僅幾天內,就有70萬用戶宣布取消ChatGPT訂閱,卸載APP,轉投它處。
![]()
而此時此刻,Claude正在App Store穩穩坐上了榜首。
![]()
Anthropic盯著這波流量,笑了。
![]()
更大的戰爭,剛剛才開始
把視野拉遠一點,你會發現這件事的影響遠不止于「Claude挖了ChatGPT的墻角」。
它揭示的,是一場AI平臺化時代的根本性矛盾:
當AI助手開始真正理解你、陪伴你、記住你,它積累的那些數據——你的偏好、你的風格、你的人生背景——到底算誰的資產?
過去二十年,互聯網平臺用同樣的邏輯把用戶鎖死:
你的微信聊天記錄帶不走,你的微博粉絲帶不走,你在抖音培養的算法推薦畫像帶不走。
平臺靠著這種「數據重力」,慢慢把用戶變成了自己的囚徒。
AI時代,這件事本來會變得更極端——因為AI記憶比任何社交圖譜都更私密、更難復現。
但更深層的問題還在后面:
如果「AI記憶數據自由流動」成為行業共識,那么下一步,是否會出現類似「銀行間轉賬標準」的AI記憶互通協議?
用戶的數字人格檔案,能不能像錢包一樣拎著走,在不同AI平臺之間隨意切換?
![]()
流浪地球2中所暢想的數字生命
這聽起來像科幻,但它在技術上完全可行。
真正阻礙它實現的,從來不是技術,而是商業利益。
每一家AI公司,都想做那個最終留住用戶的「數字家園」。
但當用戶開始覺醒,開始要求數據主權,當一場大規模抗議運動第一次把「AI倫理」和「我的個人數據」直接掛鉤——
規則,就開始動搖了。
也許有一天,AI領域會出現類似「號碼攜帶」的法規——你可以把你跟任何AI積累的「關系史」,完整帶走,轉入任何新平臺。
那一天,AI競爭的主戰場,將徹底從「誰記住了你」,轉移到「誰更值得你托付」。
這才是這件事真正讓人心跳加速的地方。
參考資料:
https://claude.com/import-memory
https://x.com/GregFeingold/status/2027904566696788225?s=20
https://x.com/itsolelehmann/status/2028062372661789069?s=20
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.