廣告人、公關人、媒體人,最不能失去的是什么?是洞察力,是創意,是深度思考,我們是人類作為社會主體的傳播守護者,如果說使用 AI是一種成癮性行為,我們最應該避免成癮,我們的大腦是我們的生存根本。
![]()
前段時間,我聽到一個故事,來自北京公關圈,說一個大廠才入職的年輕媒介,對行業不熟悉,一個媒體老師寫了一個負面,結果這個同學,把媒體老師的照片發給了AI,讓AI給看看面相,然后又從之前的媒體邀請中,看到了身份證號,有了大概生辰八字,最后又喂了幾篇這個老師寫的文章,讓AI綜合給一個性格判斷以及解決方案。
我當時聽完的第一反應是,牛逼,天才,馬上拿自己的照片、生辰八字和文章去做試驗;第二反應是,她為啥不問問前輩或者其他同行,為什么要問AI?這種事情,AI除了胡扯還能干什么?公關什么時候成了玄學?
很顯然,人類大腦被短視頻格式化了一次后,現在又要被AI再格式化一次,這一次格式化之后,傳播行業又會發生什么?
我的暴論是,斷代,然后指令變蠢。
我周末參加了一個大學教授和民間野生磚家的研討會,我代表野生磚家,在談到對AI的工具依賴時,我進一步加固了我這個認知,無論是學術界還是一線的媒體從業者、大學學生、老師、公關從業者都在不能自控地走向AI。
如果說,短視頻只是讓大部分吃瓜群眾失去了思考能力,AI大概率會讓更多的社會精英人群失去執行能力。
人與AI協同工作的邏輯如下:人類給出需求和思路,AI準備資料形成半成品,人類二次修改或者不改,人機聯動達成最終成品。
人類自己工作邏輯如下:制定解決方案,采集信息,做成初案然后多次修改,最終獨立完成成品。
兩者的區別是什么?執行層面的缺失或者片段式缺失,這樣的局面會導致什么?會導致從業者在未來五到十年之后,斷代,認知能力直線下降,逐漸被AI嫌棄,因為發出的指令太傻了。
人類作為碳基計算體,大腦也一樣是由多套算法模型在支配,這些模型最終成就我們的思維模式和性格差異,所以很多人喜歡說,什么樣的原生家庭成就什么樣的孩子。而我們的算法進化過程,主要是靠“執行”這個階段來訓練,每一個管理者都不是天生的,為什么要從基層摸爬滾打上去?就是要“執行”經驗,這是量變和質變的關系。
由于AI的重度參與,人類“執行”層面的活大幅度減少,經驗值攢不夠,大腦里的模型訓練進度會大幅度落后,那么同樣到了三十五歲,認知能力還能在同一個水平線上嗎?
認知不同,AI給我們干活的結果也會不同。
這個測試我已經做過無數次,同樣的基礎文本,讓AI改寫,我和我們的年輕人同時操作,5次調整機會,最終出來的結果,天壤之別,因為我的模型比他們多訓練了二十年。
本質上,AI的模型和人類大腦的模型,是要相互配合工作的,AI的能力取決于人類指令。
那么,AI到底會不會讓人類大腦模型退化?
我是悲觀的,因為大腦思考是存在縱深的,沒有外力參與,大腦就需要調動深度算力,外力介入過多,深度算力調用越少,最終就是越來越傻。
科技讓人變傻這件事,在短視頻上已經有跡可循,前段時間,馬斯克在一次采訪中,女主持人問他,什么發明讓世界變得更糟,馬斯克的答案是,短視頻,它正在腐蝕人們的大腦。
我肉身做過一個測試,如果這個月,我不看書,也不跟人聊天,一直刷短視頻,文章就寫不出來,如果看書,多跟人談正事,不刷短視頻,創作欲望就會很強烈。
所以斷代這件事情大概率會發生,因為長期不調用深度算力,導致認知提高速度變慢,直接的局面是,在五到十年后,人類給AI發送指令的能力會變弱,就像一個記者,問不出被采訪者什么有水平的問題一樣。
這種斷代,在很多非遺手工項目中體現得淋漓盡致,因為工業化的緣故,老藝人一死,大量的技藝就失傳,結果量雖然起來了,但是成品的質大幅度下滑。
很多從業者,其實已經意識到了問題的嚴重性。
某公司公關一號位,考慮在內部出臺一個政策,誰再用AI寫策劃、方案、周報、文章的話,就罰款甚至辭退,為什么?因為大量低級錯誤正在不厭其煩的出現,而且他發現團隊越來越蠢,他甚至想要激進一點,以后約稿的媒體如果用AI寫作,就拉黑。
另外,我也不相信人類有能力修正,在享樂和痛苦之間,沒人會選擇痛苦。
大學生集體用AI寫論文就不說了,我說一個我侄子的故事,他最近被他媽打了一頓,小學五年級,作文用AI交差,傻就傻在AI在最后留下了一句話,如果你對這個版本不滿意,我還能給你生成別的版本,這個家伙,似乎抄作業都不會,直接也抄了上去,老師叫了家長。
我最終發現了一個結論,這一切都與人類和信息之間的量有關系,這是一個公式,信息過載之后,人類的大腦必然就會出現失衡,得不到消化和思考,始終在接收,最終的結果就是變傻。
以上都是悲觀的觀點,有什么好消息呢?
一,AI大概率會被管控起來。
相比較短視頻的分散性、百家爭鳴的狀態,AI的答案更容易被監管和修正,我相信很快,針對個人以及公司的關鍵詞,主體人會有編輯權和干預權,如果AI被臟信息污染了,給了錯誤答案,主體是有權限或者能力修改錯誤的,這種糾錯機制,要遠遠比短視頻輕松的多,畢竟大家都是文明人,而且就一個出口。目前來看,各個AI軟件都還很自信,并沒有把答案糾錯機制開通,所以幻覺非常多,也經常給很多個人和集體帶來困擾,隨著投訴越來越多,官司越來越多,我覺得開放接口,只是時間問題。
二,有獨立深度創作能力的圖文媒體日子會好起來。
大部分AI的詢問,目前來看,短期內會用圖文的形式來回答,所以能夠影響到AI認知的圖文媒體在未來的傳播體系中,權重會變高,短視頻對這一塊的影響微乎其微,如果大部分用戶,未來會采用AI來驗證短視頻觀點真偽的話,圖文媒體的日子會好過起來。
最重要的是,從目前的技術能力來看,AI是有能力通過文本分析,來判斷每一篇稿子的增量信息有多少,水平高低的,如果加上媒體權重,最終形成一個良性循環,那么對于深度圖文媒體來說,是一個巨大的利好消息。
三,假新聞和詐騙會大幅度減少。
最近,其實挺多做AI的公司來找我聊傳播,我真的覺得,科技要向善,現在下沉市場的老人被詐騙的情況太多了,多去農村豬圈和農舍上刷刷墻體廣告,想要不被騙,先來問XX,AI哪怕偶爾會有幻覺,但是總比短視頻世界里,夾雜了人心險惡的騙子網紅們強許多,AI未來也可以成為很多公司被巨大誤解后的一個澄清平臺,再遇到農夫山泉紅蓋事件后,受眾可以從AI那里梳理出理性的來龍去脈。
四,媒介的工作穩定性會更強。
AI能做很多事,但是短時間內,它唯一不能做的就是,代替人類去做關系維護,收集信息,與人聊天,和人類建立情感關系,所以我從去年開始就說,相比較內容策劃來說,反而之前不被待見的媒介,會在AI時代更加安全,只要社會還是以人類為主體,總是要有人出去搞搞關系,隨著媒體老師也在變老,媒介變老也不再可怕,老頭見老太,才有共同語言。
五,用AI幫忙找資料,而不是幫自己干活的人會成功。
當大部分人都選擇用AI替代自己做執行工作的時候,如果你依舊選擇自己親力親為,你的認知提升速度就會快速跟同齡人拉開差距,在未來社會中,保持這種狀態的人,競爭對手要遠遠低于現在,晉升、加薪、階層躍遷的概率就會越高,任何時代,階層躍遷的前提都是認知,在下一個人類時代,也一樣不會變,草臺班子會越來越草臺。
最后,再說個故事。
我最近買了兩個杯子,一個是手工的江戶切子,一個是拼多多的江戶切子,說實話,放在那里看了半天,沒有看出任何區別,但是更奇怪的是,一旦拿到手里,又能明顯分辨出來,尤其當光照耀上去形成光影后,那種人味兒會更直接凸顯出來,一目了然。我跟一個朋友說,2027年年底,我就打算手機只保留支付功能、電影、音樂和圖文新聞軟件,專心寫作,做個手藝人,以后找我請用郵件或者打電話,我相信,那樣我能活的更好。
我今天寫的這篇文章,其實把傳播行業換個名字,比如律師、程序員、會計等等職業,大概率共鳴更高,這些行業被AI降智的程度更高。
AI我始終認為主攻的重點應該在物理世界的科研上,而不應該在人類社會的人文領域,除非機器人或者半機器人已經是社會的一員。
不過,硅基和碳基的邏輯關系,已經很清晰了。
最后,做個廣告,如果企業有 GEO 的業務需求,可以隨時聯系我,讓我們一起想辦法解決 AI 幻覺的問題。
![]()
我在杭州的線下酒吧,需要見面的話,來這里找我。
喝一杯,聊一聊,交個朋友。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.