有沒(méi)有發(fā)現(xiàn),自從 AI 成了你的「智力外掛」,大腦好像開(kāi)始偷偷摸魚(yú)了?
好用是真好用,但是一味地迷信 AI 給出的東西,就有點(diǎn)不太對(duì)勁了——小心吶,過(guò)于依賴(lài) AI,是會(huì)讓大腦變蠢的。
微軟研究院聯(lián)手劍橋大學(xué),針對(duì) AI 對(duì)批判性思維的影響做了一個(gè)深入研究,發(fā)現(xiàn)過(guò)于相信生成式工具,會(huì)減少對(duì)自己批判性思維的使用。
![]()
對(duì) AI,別太信了
這一次微軟把研究范圍聚焦到了生成式 AI 和知識(shí)工作者身上,也就是經(jīng)常用大模型工具做案頭工作的一群人。
一共 319 名知識(shí)工作者,這些參與者每周至少用到一次 AI 工具,包括 ChatGPT、微軟的 Copliot 和 Google 的 Gemini,總用例多達(dá)到 936 個(gè)。
現(xiàn)在的 GenAI 工具尤其擅長(zhǎng)文書(shū)類(lèi)任務(wù),研究人員把這種任務(wù)分成了三大類(lèi)、九小類(lèi):
![]()
這個(gè)分類(lèi)基本覆蓋了大多數(shù)場(chǎng)景,從潤(rùn)色郵件、總結(jié)內(nèi)容、提取要點(diǎn)、精準(zhǔn)查詢(xún)……這些就是我用 AI 常做的事啊。
平心而論,用 AI 本來(lái)就是為了提高效率,減少花在「臟活兒」上的時(shí)間,這無(wú)可厚非。比如有一位程序員,會(huì)用 Claude 幫忙寫(xiě)代碼;一位外匯交易員,用 ChatGPT 生成交易策略;還有一位老師,會(huì)用 Dall-E 生成學(xué)校洗手教程的圖片。
![]()
這樣一來(lái),用戶(hù)自己需要做的工作,就從曾經(jīng)的「零幀起手」,轉(zhuǎn)變成「監(jiān)督學(xué)習(xí)」。AI 負(fù)責(zé)出東西,用戶(hù)來(lái)挑毛病、提意見(jiàn),一輪兩輪 N 輪的修改,直到滿(mǎn)意為止。
這樣的過(guò)程不是挺有效率的,怎么會(huì)讓大腦退化呢?
這些事務(wù)型的任務(wù) AI 完成起來(lái)又快又好,也就容易讓人「掉以輕心」。除非是真的出現(xiàn)了特別離譜的結(jié)果,不然很多人都會(huì)放心把事情交給 AI。
![]()
而正是這種對(duì) AI 的信任、對(duì)自己所選中的「虛擬工作伙伴」的認(rèn)可,會(huì)讓用戶(hù)不愿意反思和復(fù)盤(pán)自己在工具上的使用——也很好理解,誰(shuí)會(huì)輕易質(zhì)疑自己的經(jīng)驗(yàn)?zāi)兀?/p>
于是研究人員提出了這樣一個(gè)問(wèn)題:在與 AI 合作完成任務(wù)的過(guò)程中,你會(huì)調(diào)用自己的批判性思維嗎?
這里所謂的「批判性」來(lái)源于英文的「critical thinking」,是對(duì)可用事實(shí)、證據(jù)、觀察和論據(jù)進(jìn)行分析的過(guò)程。
在這個(gè)研究里,「批判性」在這里,并非單純地指給成品挑毛病,而是有更確切的定義:
1. 能夠?qū)徱曌约旱男枨蠛鸵鈭D,從而確定需要 AI 參與的地方
2. 能在心中設(shè)定明確的目標(biāo)
3. 通過(guò)主觀標(biāo)準(zhǔn)驗(yàn)證信息、驗(yàn)收質(zhì)量
這三點(diǎn)對(duì)應(yīng)了三種批判性思維里的核心構(gòu)件:意識(shí)、動(dòng)機(jī)和能力。當(dāng)沒(méi)有意識(shí)、沒(méi)有動(dòng)機(jī)、還缺乏能力的時(shí)候,依賴(lài) AI 無(wú)異于讓自己的認(rèn)知思維進(jìn)一步退化。
而這次研究最重要的發(fā)現(xiàn),是那個(gè)影響調(diào)用批判性思維的決定因素:不是任務(wù)類(lèi)型,也不是模型的強(qiáng)大程度,而是人對(duì) AI 有多「信」。
![]()
在強(qiáng)大的模型面前,每一個(gè)人都會(huì)產(chǎn)生自我懷疑——懂得不如它多,反應(yīng)不如它快。有了 DeepSeek R1 這樣的天才型選手之后,更是懷疑自己的深度思考能力也不及 AI 了。
出于對(duì) AI 的認(rèn)可,自然也就把重要的事交出去,不再過(guò)問(wèn)。
怎么避免退化?從自信開(kāi)始
依賴(lài)工具會(huì)讓人變蠢,類(lèi)似的說(shuō)法很常見(jiàn)了,不是一天兩天。最著名的研究,要數(shù)針對(duì)出租車(chē)司機(jī)習(xí)慣用導(dǎo)航之后,大腦內(nèi)海馬體的變化。
![]()
上個(gè)世紀(jì) 60 年代時(shí),人們就發(fā)現(xiàn)海馬與空間記憶密切相關(guān)。英國(guó)神經(jīng)學(xué)家對(duì)倫敦的出租車(chē)司機(jī)進(jìn)行了研究,發(fā)現(xiàn)接受培訓(xùn)期間,新手司機(jī)熟悉了倫敦的空間,他們的海馬體明顯變大。相比之下退休的司機(jī),海馬體則是在變小。
后來(lái),又有學(xué)者直接找普通人做實(shí)驗(yàn),發(fā)現(xiàn)在使用 GPS 時(shí)行走時(shí),海馬體不會(huì)處于活躍狀態(tài)。只有自己思考路線(xiàn)該怎么走時(shí),海馬體才會(huì)被激活。
![]()
圖片來(lái)自:大象公會(huì)
必須指出的是,出租車(chē)司機(jī)因?yàn)楣ぷ鹘?jīng)驗(yàn),海馬體本身就異于常人,即便退化也只是回到普通人的均值,并不是惡性的萎縮、損傷。
這兩個(gè)研究更多是在指出了鍛煉大腦的必要性。這是一個(gè)惡性循環(huán):越相信工具,就會(huì)越少調(diào)用自己的判斷和認(rèn)知。隨著認(rèn)知的退化,逐漸不具備找到錯(cuò)漏的能力了,只能越來(lái)越相信工具。
![]()
不過(guò),這并不意味著要從此跟 AI 工具一刀兩斷,沒(méi)必要。在工具越來(lái)越普及的現(xiàn)在,也不可能完全對(duì) AI 避之不及。
回到剛才的「意識(shí)」「動(dòng)機(jī)」和「能力」方面,只要建立不能盡信 AI 的意識(shí),不過(guò)分放手。「3R 原則」是一個(gè)值得嘗試的日常小練習(xí):
Review 強(qiáng)制復(fù)查:對(duì) AI 返回的答案、代碼、方案,進(jìn)行至少兩次修改,拒絕復(fù)制粘貼。
Reverse 逆向訓(xùn)練:每周完成一次「0 生成純天然」的基礎(chǔ)任務(wù)。比如對(duì)長(zhǎng)文章的提煉摘要、讀書(shū)總結(jié)、播客總結(jié),哪怕 AI 完成得更好,也堅(jiān)持自己做一遍。可以把自己成果和 AI 的版本進(jìn)行對(duì)照,這樣可以觀察自己的思路是否需要增補(bǔ),以及 AI 容易在哪些地方出現(xiàn)幻覺(jué)。
Reconstruct 重構(gòu)輸出:將 AI 生成的內(nèi)容重新解構(gòu)。用工具生成思維導(dǎo)圖是一個(gè)常見(jiàn)的用法,但是思維導(dǎo)圖是被高度提煉之后的內(nèi)容,許多信息被「折疊」了。正是這些被折疊的部分,影響了認(rèn)知能力的鍛煉。Reconstruct 的要點(diǎn)在于反過(guò)來(lái)拆解 AI 的長(zhǎng)篇大論,建立獨(dú)一無(wú)二的的思維導(dǎo)圖。
「變蠢」可能是一個(gè)略帶簡(jiǎn)單粗暴的說(shuō)法,但這背后隱藏著一個(gè)樸素的道理:用進(jìn)退廢。
批判性思維的減少,和對(duì)人工智能的信任有所相關(guān),那么提高批判性思維,不如就從更相信自己開(kāi)始。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.