一、了解人工智能
1.大語言模型的技術原理
ChatGPT的技術原理,是充當一個非常精妙的自動輸入補全工具,也就是預測下一個詞。比如你輸入“離離原上”這四個字,它一定會預測下一個字是“草”。因為離離原上草這句詩太經典了,“離離原上”之后會接“草”這個字的概率非常高。但如果你問:“火星人吃香蕉,是因為?”那答案可就千變萬化了,因為在這種開放式的問題中,可能性實在太多了。而且大語言模型本身會故意加入一點“隨機性”,這樣才能讓每一次對話都有點差別,讓ChatGPT有點“人味”。
![]()
2.訓練方法:預訓練+微調
想讓人工智能像人類一樣理解和生成語言,第一步,就是給讓它閱讀大量的文本,這些文本可能來自網站、書籍、新聞等等,各種你能想到的數字文檔,都讓它讀一遍。這個階段叫做預訓練。和早期的AI不同,大語言模型的訓練是無監督學習,也就是說,不需要人為地一個字一個字去標注什么意思,就讓AI自己看、自己學,靠分析大量的例子,慢慢學會人類語言中的模式、結構和上下文。
![]()
第二步是微調,讓人參與進來,對AI進行更細致的訓練。一種非常關鍵的微調方法,叫做人類反饋強化學習,也就是讓人來幫AI“糾正答案”。 人工智能公司會雇一批人,閱讀AI生成的回答,然后做出判斷:這個回答準不準確?是不是符合人類的道德標準和表達習慣?有沒有包含暴力、色情、種族歧視等內容?這些人類給出的反饋,會被用于額外的訓練,微調人工智能的性能,讓它們的回答更適應人類的偏好。除了這種“基礎微調”,很多公司還會根據自己的需求進行定制微調。比如,一家公司想用AI來當客服,他們會提供人工客服的歷史對話和一些回復范例,讓AI的學習能更貼近公司業務。
3.人工智能訓練過程中的倫理問題
倫理爭議很大程度上來自于人工智能所學習的預訓練材料。大多數AI模型的語料庫,包括一些無需授權的公共資源,比如維基百科、政府網站等等。但除此之外,他們還從大量公開網站上抓取內容,其中可能也包括了有版權的內容。使用這些內容訓練人工智能,這種做法是否合法,不同的國家有不同的做法。即使人工智能的預訓練是合法的,它也有可能是不道德的。大多數人工智能公司在抓取訓練數據時,并沒有征得創作者的同意。
另一個更嚴重的倫理問題是——人工智能也有偏見,它繼承了人類社會中原本就存在的刻板印象。人工智能公司的計算機科學家們,決定了收集哪些數據,作為人工智能的訓練材料。這些科學家往往是受過良好教育的白人男性,他們在決定收集哪些數據時,會帶有自己的偏見。這就導致人工智能對世界的了解出現了偏差,因為它的訓練數據根本不能代表互聯網人口的多樣性,更不用說代表整個地球了。人類反饋強化學習雖然能用來矯正偏見,但是也可能會引入新的偏見。AI還有一個公認的弱點:它其實很容易被人操控。只要技巧得當,人類就能說服他們違背自己的規則進行操作,甚至突破設定的安全邊界。
![]()
降低人工智能帶來的風險,需要一場社會各界共同參與的深度協作:人工智能公司應該把透明度、問責機制和人為監督等原則納入核心設計;研究人員需要被激勵去開發有益于社會的技術;而政府需要制定合理的法律法規,確保公眾利益高于企業的盈利動機。最重要的是,公眾需要接受人工智能教育,成為有判斷力的AI使用者。
二、用好人工智能
1.與人工智能合作的四項原則
原則一:始終邀請人工智能參與討論。在不違法、不違規的前提下,什么事都可以試著讓AI幫你一把。哪怕最后不用它的建議,至少你能慢慢摸清楚它的能力邊界,知道它擅長做什么,能怎么幫助我們。
原則二:成為回路中的人。面對越來越強的AI系統,我們要積極參與,絕對不能把決策全甩給它。這樣做不僅能讓你保持自己的專業能力,也能避免出錯,同時確保AI給出的解決方案,是符合人類的價值觀和道德標準的。
原則三:像對待人一樣對待人工智能。人工智能不同于人類,但經常以接近人類的行為方式工作,尤其是大語言模型,確實很“像人”,它們能完成人性化的任務,也會像人一樣犯錯。所以,使用AI的時候,最好明確地告訴人工智能它是誰。指令越清晰具體,AI越知道怎么幫你,也越少出錯。
![]()
原則四:假設這是你用過的最糟糕的人工智能。永遠不要迷信人工智能,它很強大,但它也會犯錯,而且有時候會一本正經地瞎編,這就是所謂的“幻覺”。我們必須保持警惕,把AI當作一個非常努力但能力有限的助手。不過,人工智能的局限性是短暫的,現在的AI也許是你這輩子用過最菜的一版,以后它只會越來越強,越來越靠譜。所以,一邊對AI的能力保持懷疑,一邊對AI的發展保持開放,就是最好的態度。
2.與人工智能的合作方式
方式一:把人工智能當成創作者。人工智能會產生幻覺,會瞎編亂造,但如果換個角度看,這就是創造力的一種表現。不妨試著邀請AI參與頭腦風暴,幫你打破思維局限,生成新的創意或解決方案。大語言模型本質上就是一種連接機器,它在詞語之間建立關系,不管它們乍看之下有沒有邏輯。再加上模型設計里故意加入的一點“隨機性”,它就能蹦出一些意想不到的新點子。
![]()
方式二:把人工智能當成同事。我們可以把工作任務分成三類。第一類任務是只屬于人類的任務。只有人類能干,AI干不了,比如育兒、講笑話。第二類是委托任務,你可以交給AI去做,但最后需要你自己把關,仔細檢查。第三類任務是自動化任務,那些對你來說不重要又特別耗時間的任務,可以交給AI去做,比如過濾垃圾郵件、校對文稿。當我們對工作進行重新分配,把繁瑣、無意義的任務交給AI之后,我們也許會更喜歡工作。
方式三:把人工智能當成導師和教練。人工智能可以指導學生完成學業,必要時還可以提供其他學習路徑。而且,人工智能導師可以提供個性化的指導,根據每個學生的需求,因材施教,定制教學計劃。它還可以提供實時反饋,幫助學生根據自己的學習進度調整節奏。我們還可以利用人工智能開發訓練系統,讓他扮演教練,指導學生進行練習。
3.警惕和AI合作帶來的潛在風險
首先,過度依賴人工智能,可能會讓我們放棄對工作的主動性和判斷力。當人類放棄思考,把選擇權完全交給算法時,反而可能降低整體的決策質量。
其次,人工智能可能會侵蝕我們的創造力和思維深度。如果我們總是接受AI給出的第一個想法,不再主動嘗試探索不同的視角或替代方案,久而久之,我們的大腦就會變得遲鈍,失去質疑、反思和突破的能力。請記住,人工智能是強大的工具,但工具不能代替思考。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.