![]()
谷歌Gemini正在測試一項新功能,使其能夠利用上下文判斷是否需要自動分析用戶設備的屏幕內容。該功能名為“屏幕上下文”(Screen Context),旨在減少用戶操作步驟,提升交互效率。此前,用戶若想讓Gemini分析當前屏幕畫面,必須手動點擊“詢問關于屏幕的內容”按鈕;而現在,系統可在檢測到相關提問時,自動截取屏幕并進行分析。
這項功能類似于Gmail中檢測郵件遺漏附件時的提醒機制。當用戶提出與當前顯示內容相關的問題時,Gemini會自主判斷是否需要查看屏幕,并在獲得許可后立即捕獲截圖進行處理。這一改進意味著用戶不再需要主動觸發屏幕共享動作,整個過程更加無縫自然。
目前,該功能已開始向部分用戶推送,并進入公開測試階段。首次啟用時,系統會彈出提示說明此功能的作用,并明確告知用戶可隨時選擇關閉,以應對隱私顧慮。盡管在初步測試中,Gemini對意圖識別的準確率約為50%,但實際表現可能因提問方式和個人使用習慣而異。
該更新由Android Authority于2025年3月報道,標志著Gemini在情境感知能力上的進一步演進。隨著更多設備逐步接收該功能,用戶有望體驗到更智能、更流暢的助手服務。
來源:Android Authority,發布日期:2025年3月
參考鏈接:
https://www.androidauthority.com/gemini-screen-context-3625824
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.