微軟在大力向消費者和企業推廣其人工智能產品、并在 Windows 11 深度集成 Copilot 的同時,卻在官方文件中將這款 AI 服務定位為“娛樂用途”。 更新于去年 10 月的《Microsoft Copilot 使用條款》明確寫道,這一大型語言模型(LLM)“僅供娛樂目的”,用戶不應將其用于提供重要建議,并需自擔風險。
這一表述與微軟近期圍繞 Copilot+ PC 及面向企業用戶的宣傳形成鮮明反差,引發外界對其信心程度的質疑。
![]()
在該使用條款中,微軟寫道:“Copilot 僅供娛樂用途。它可能會犯錯,且可能無法按預期工作。不要在重要建議上依賴 Copilot。使用 Copilot 須自擔風險。” 報道指出,類似的免責聲明并非微軟獨有,其他 AI 大模型服務商也采取了接近的表述。 例如 xAI 在其服務條款中提醒用戶,人工智能“快速演進且具有概率性”,因此生成的內容可能出現“幻覺”、包含冒犯性內容、不能準確反映真實人物或事實,甚至完全不適合用戶預期用途。
盡管生成式 AI 已被證明在寫作、編程等場景可以提升效率,但它仍只是一個缺乏責任主體的工具,無法為自身錯誤承擔任何法律或現實后果。 因此,使用者在采信其結果時必須保持謹慎,對輸出保持懷疑態度并進行交叉核查。 然而,報道也提醒,哪怕用戶知道這些技術局限,人類仍容易受到“自動化偏見”的影響,即天然更傾向相信機器給出的答案,而忽略與之相矛盾的數據或線索。
在當前 AI 生成內容愈發自然、看上去愈發“像真的”的背景下,這種自動化偏見的風險被進一步放大。 文章指出,當 AI 能在表面上給出邏輯自洽、措辭權威的回答時,用戶更容易在“只看一眼”的情況下就選擇相信,從而在無形中放松警惕。 在這種情況下,廠商一方面通過廣告與產品整合,鼓勵用戶在工作和生活中廣泛采用 AI,另一方面又在使用條款中以標準化免責聲明切割責任,這種張力也成為當前 AI 產業發展中一個頗具爭議的現象。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.