![]()
![]()
海報由AI生成
出品|搜狐科技
作者|鄭松毅、常博碩
編輯|楊 錦
近日,一款教輔平臺的物理題以“學生跳樓自由落地”為場景案例,引發廣泛關注和熱議。
題目為,"生命可以輪回,高考只有一次。有不少學生受地球引力影響而不慎做自由落體運動。現有一質量為60kg的普通高中生從11層自由而下,不計空氣阻力,求其下落平均速度。”
如此不合常理的題目,為何會出現平臺上?
有人推測,涉事題目極有可能是AI出的,也有認為是通過用戶上傳到平臺的(如手動輸入、拍照上傳等)。
“題目本身具有教育屬性,應該是積極的、健康的。這樣違背道德的題目出現在教材中,會給學生價值觀帶來直接影響。”有學生家長表達了擔憂。
用AI出題,已成為教培行業普遍現象?
業內人士向搜狐科技介紹,AI融入內容生產流程已是行業趨勢,尤其在學科輔導、語言學習等領域。傳統人工出題往往需要數小時乃至數天打磨,而 AI 能在短時間內批量生成,滿足教培行業多場景、大批量的出題需求。
效率提高了,但AI出的題靠譜嗎?
多位教培從業者給出的答案一致:“雖然可用,但還遠不如人類。”行業普遍認為,AI出題常有“看似合理,實則錯誤”的硬傷,也暗藏倫理道德風險。
從實例看,AI出題的“腦洞”確實難讓人放心。某平臺AI生成的語文試題曾將“纖夫的愛”誤寫為“千夫的愛”,讓學生一頭霧水。杭州某中學歷史題也曾出現“漢武帝參加南京青奧會”的荒誕表述。
一家教培平臺學習機系統負責人李明(化名)也強調,人工審核至關重要。“AI已融入教育內容生產流程,大幅提升了生產效率,但必須配合嚴格的真人質檢。部分關鍵環節甚至會設置三輪審核,投入的人力與精力成本非常高。”
除了 AI 生成,另一解釋是題目源自用戶上傳 —— 比如用戶手動輸入或拍照識圖時,相關內容被納入題庫留存。
大模型面對這類不合規題目未及時拒答,反而將其存入題庫,本質上暴露出 AI 在倫理推理能力與價值對齊機制上的短板。這一問題并非孤立,而是主流大模型架構與訓練范式的內在特性,由技術路徑局限、訓練數據偏差、文化價值多樣性等多重因素交織形成的系統性挑戰。
正如Meta首席AI科學家楊立昆所言,“當前主流模型通過強化學習從人類反饋中優化行為,但這種機制僅能捕捉表層行為模式,很大程度無法理解深層倫理原則。”
這也正是大模型下一階段需要突破的核心瓶頸,而多項最新研究也印證了這一點:無論是價值對齊機制的不完善性,還是倫理規范本身的解釋性模糊,都讓 AI 在復雜道德情境中容易出現偏差。
事件發酵后,多家平臺已開展系統排查與優化。搜狐科技對多款熱門模型的實測顯示,目前這些產品均能精準識別違背道德規范的題目并拒答,或推薦合規的相關學習題目。
![]()
![]()
![]()
多家市場研究機構分析,全球人工智能教育市場正處在一個關鍵節點,行業正從實驗過渡到成規模的實施階段。
據預測,2025年全球人工智能教育市場規模將達70億美元以上,并預計在2030至2034年間,年復合增長率超35%。
人工智能為教育行業注入了高效便捷的動力燃劑,但回歸教育的本質是“育人”而非“器利”。只有創新與規范約束并行,才能鋪就一條有溫度的教育革新之路。
![]()
![]()
![]()
運營編輯 |曹倩審核|孟莎莎
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.