近期,眾多歐美知名人士簽署公開聲明,要求立即停止超級人工智能的開發。難道人工智能真的是洪水猛獸?
其實,類似的反對聲音早已經多次出現,要么不讓研發,要么希望放慢腳步。原因主要就是擔心人工智能發展過快,會迅速替代許多人的工作,導致現有經濟結構崩潰;還有就是擔心人工智最終可能產生自我意識失控,反噬人類,甚至導致人類滅絕。
![]()
這些擔憂確實有一定道理,但任何新事物的發展都有利有弊,對于人工智能的潛在風險,如果能做好強有力的監管和控制,相信會極大地促進人類文明的發展,而不是帶來災難。例如,對于人工智能導致經濟崩潰的擔憂,通過建立健全社會保障體系、改革分配方式等方法就能很好地解決。
科技是第一生產力,人類的美好生活與科技發展息息相關!每一次重大科技革命都會改變人類的生產、生活方式,提高整個社會的運轉效率。人工智能在軍事、工業、科研、醫療、教育等方面的應用潛力巨大。可以肯定,第4次科技革命與人工智能、可控核聚變等有關,而這些技術在未來100年內或許有望讓人類邁入行星級文明行列。
![]()
盡管人工智能技術的發展在前期會帶來短暫陣痛,但長遠來看利大于弊,不僅能解決勞動力短缺問題,還能推動科學技術的進步,極大地提升生產效率。例如,現在部分國家出現了老齡化、勞動力短缺等人口問題,以至于需要通過外來移民補充勞動力,但移民也有可能帶來嚴重的社會問題,而通過發展人工智能、機器人等技術,就能有效緩解勞動力短缺問題。
![]()
人工智能并不一定是洪水猛獸,關鍵看怎么發展!以前不也是很多知名人士簽署聲明反對核武器,聲稱那可能會導致大規模核戰爭,致使人類滅絕,然而通過有效管控,現在核武器的存在反而在一定程度上促進了世界和平,利大于弊。因此,我們沒有必要因為一些可以被化解的潛在風險,就暫緩或者完全停止人工智能的發展。
![]()
人工智能的發展可以分為“弱人工智能-通用人工智能-超級人工智能”三大階段。簡單來說,弱人工智能(ANI)是“專才”,在某個方面達到人類智能水平;通用人工智能(AGI)是“通才”,在幾乎所有方面達到人類智能水平;超級人工智能(ASI)則是“超才”,智能水平顯著超越人類,其不僅能憑借強大的智能在未知領域進行探索,創造出新的知識和理論,還可能進化出和人類完全不同的認知能力和思維方式,甚至還可能誕生自我意識。
近些年在大模型等技術的推動下,人工智能的能力確實獲得了極大提升,某些方面的表現已經達到甚至超越單一人類,正處于弱人工智能邁入通用人工智能的過渡時期,但這距離超級人工智能的實現,應該還有很長的路要走。況且,超級人工智能的實現路徑尚不明確,其是否會誕生自我意識也不確定。
![]()
目前在人工智能研究上處于全球一流水平的國家主要就是中國和美國。美國肯定不會放棄發展人工智能。既然美國不會停,那中國人工智能的發展步伐不僅不能停,還應該加速,因為人工智能是第4次科技革命的關鍵,千萬不能因噎廢食,落后于人。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.