![]()
做客戶端開發(fā)的朋友,大概都經(jīng)歷過這種糾結:想給應用加點AI能力,一看教程要先配云服務,再綁信用卡,最后寫一堆REST調(diào)用——項目周期就兩周,光調(diào)研環(huán)境就得三天。
微軟MVP Lance McCarthy最近演示了一套"作弊碼":用Windows AI APIs,10分鐘讓應用跑上NPU本地算力。不需要云API、不需要付費、不需要導ONNX模型,幾行代碼直接調(diào)用Phi Silica和圖像理解能力。
他拿開源應用Xkcd Viewer做了演示。這個看漫畫的工具原本對視障用戶不太友好,集成Image Description API后,應用能"看懂"圖像語境,再用語音合成把笑點講出來。檢測NPU、生成描述、朗讀內(nèi)容——流程簡單得像調(diào)用系統(tǒng)相機。
唯一門檻是設備:得是Windows 11 AI+ PC。換句話說,微軟把算力預埋在系統(tǒng)里,開發(fā)者只管調(diào)用,剩下的交給本地NPU。
McCarthy把ViewModel拆成部分類,檢測到NPU才動態(tài)加載AI模塊,默認用DetailedNarration模式保留漫畫的幽默細節(jié)。這種"漸進增強"的思路,倒像是給舊應用做無障礙改造時的標準操作。
有開發(fā)者在評論區(qū)問:這和直接調(diào)云端API比,精度會不會打折扣?McCarthy的回復很直接:Xkcd的幽默梗,本地模型能get到——對大多數(shù)場景來說,夠用了。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.