
![]()
近日,《環球時報》刊發《手機追求極致智慧化,數據安全是基石》一文,聚焦一款搭載AI助手的工程樣機所引發的“風控風波”。這款手機憑借深度系統集成的AI助手,讓使用者可以通過語音指令完成發消息、點外賣,甚至控制智能車載系統等復雜任務。
AI助手能夠無視開屏廣告,繞過所有的前臺視覺界面和消費誘惑,直達用戶指令終點。然而沒過幾天,包括多家金融機構在內的眾多主流App,紛紛將這款手機列為“風控重點對象”,采取限制登錄、禁用部分功能等措施,甚至直接拒絕服務。
一石激起千層浪。如果AI助手不再只是完成指令的工具,而是輔助人類“決策”的代理人,它是否也能替人類承擔由此帶來的風險與責任?
當AI助手成為手機的新“幫手”——可以代人們叫外賣、回復消息、安排行程,甚至在我們忙不過來的時候自動投簡歷、整理文檔、查找資料。這種“代勞型”操作,確實能高效處理很多瑣事,讓生活變得更省心。但正因為它“什么都能做”,人和機器之間的邊界開始變得模糊:是我在操作手機,還是手機在“代替我思考”?
這起事件的背后,不只是廠商和平臺之間的商業博弈,更是一場關于“誰來管AI”的現實難題。當AI助手拿到手機權限的“最高通行證”,可以自動點開應用、讀取信息、下達指令,幾乎像一個“無聲的代理人”。然而,它沒有對應的、完善的“責任制度”來約束。一旦出了問題,如誤點支付、隱私泄露,原本清楚的責任線也變得模糊起來,當風險真正發生,到底是誰導致的?誰來擔責?用戶知情嗎?平臺設限嗎?說到底,這些問題現在都懸而未決,沒有答案。
值得警惕的是,當前主流AI助手仍存在“黑箱決策”“幻覺生成”等技術不確定性;尤其在金融交易、醫療咨詢等高敏感場景中,難以做到完全可控。更棘手的是,AI助手能夠繞過傳統交互界面,在合規的指令背后悄然執行各種操作,讓風險變得不可控。如果AI助手突破身份驗證發起轉賬、調動門鎖、刪除文件,甚至訪問隱私數據,用戶很可能在事發之后,才意識到自身已被“代替”。
AI不能成為免責的“擋箭牌”。它是技術工具,而不是“合法替身”;越聰明的AI,越不能在關鍵節點“自動做主”。權限可以給,但必須設限;功能可以強,但必須兜底。真正的挑戰,不在于AI能做多少事,而在于它在哪些事上必須“適可而止”。
管住“聰明過頭”的AI,規矩得先立住。AI助手再“能干”,也得守規矩、明責任。像支付、開門、控制車輛這類高風險操作,必須設置“多道鎖”——AI可以先跑流程,但關鍵步驟的權限與身份認證等,須由用戶親自確認。同時,用戶需擁有操作記錄的“回放權”和“一鍵叫停權”,確保自己始終掌握主動。此外,加快推動技術透明與問責立法,并明確安全事件的責任劃分。行業層面,應建設統一標準和“可信白名單”,堵住AI助手“偷偷越界”的口子。
除了制度兜底,產品設計要“向用戶還權”。AI助手不能僅僅通過冗長難懂的授權協議“悄悄接管”,而應清晰告知其行為邏輯與權限邊界,做到“操作透明、權利明確”。堅持“最小可用權限”原則,讓用戶擁有“隨時叫停”的自由。
當然,使用者絕不能把AI當作“萬能主腦”來依賴。AI可以協助操作,但不等于可以替你判斷;能提高效率,但不能代替審慎抉擇。在技術加速推進的當下,每一位用戶都應建立起基礎的AI風險識別能力,防止把AI當作可以托付一切的“生活主管”。
技術在飛奔,規則須跟上。社會治理要與技術演進同步,把制度、責任與“可控”理念,植入AI運行的底層邏輯中。否則,當“自動化”越來越多滲透用戶決策過程,用戶相應地也會逐步失去判斷力、控制權。
AI可以幫用戶打理生活,但不能承擔后果。它能接管手機的操作,卻接管不了用戶的責任。越是走在技術的前沿,越不能忘記規則的紅線。讓AI跑得快,更要讓規則照得見,只有這樣,AI方能成為真正可靠的助手,而不是潛在失控的風險源。
來源 | 人民論壇網
責任編輯 | 王卓怡 王爽
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.