Meta剛給Imagine功能加了語音輸入。產品經理的原話是:「能用嘴說、但還不會打字的孩子,終于能玩AI畫圖了。」這話說得直白——他們盯上的是幼兒園到小學低年級那批用戶。
語音轉提示詞不是新技術。但之前所有AI畫圖工具都在卷提示詞工程,恨不得用戶去報個培訓班學怎么寫「8K超高清、賽博朋克風格」。Meta這次反著來:把門檻砍到會說話就行。一個5歲小孩描述「會飛的紫色大象在彩虹上跳舞」,系統照樣能出圖。
這背后有個被忽略的數據:美國8歲以下兒童日均屏幕時間超過2.5小時,但識字率要到7歲才勉強夠用。語音入口直接吃掉這片空白市場。競爭對手不是沒試過,Midjourney的Discord界面把小孩擋在門外,DALL·E的網頁版同樣需要打字。
不過隱患也明顯。語音輸入意味著更難審核——孩子隨口說的詞,可能比精心構造的文字提示更野。Meta說會加內容過濾,但沒解釋怎么識別童聲里的敏感意圖。有家長已經在Reddit吐槽:娃讓AI畫「怪獸吃老師」,系統真給畫了。
目前該功能僅在美國區上線,支持英語。團隊內部在測試西班牙語版本,中文暫無時間表。一位參與內測的工程師透露,他們最意外的發現是:小孩平均每次會話說47秒,是成年人的3倍——孩子們真的把AI當聽眾,而不是工具。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.