<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      韓國科技大學(xué)突破:首個視覺信息價值A(chǔ)I評測指標(biāo)問世

      0
      分享至


      這項由韓國首爾國立科技大學(xué)數(shù)據(jù)科學(xué)系領(lǐng)導(dǎo)的研究發(fā)表于2026年2月的arXiv預(yù)印本服務(wù)器,論文編號為arXiv:2602.17186v1。有興趣深入了解的讀者可以通過該編號查詢完整論文。

      如今,AI已經(jīng)能夠同時理解文字和圖像,就像一個既能讀書又能看畫的聰明學(xué)生。這類被稱為"大型視覺語言模型"的AI系統(tǒng)在回答關(guān)于圖片的問題時表現(xiàn)出色,但研究人員發(fā)現(xiàn)了一個令人困擾的問題:這些AI有時候根本不看圖片,僅憑文字就給出答案,就像學(xué)生在考試時不看題目就憑猜測作答。

      韓國首爾國立科技大學(xué)的研究團(tuán)隊注意到,當(dāng)前的AI訓(xùn)練就像一個糊涂的老師,對所有學(xué)習(xí)材料一視同仁。無論是需要仔細(xì)觀察圖片才能回答的問題,還是僅憑常識就能解決的問題,AI都用同樣的精力去學(xué)習(xí)。這就好比讓學(xué)生花同樣的時間背誦"一加一等于二"和解復(fù)雜的幾何題,顯然不夠合理。

      研究團(tuán)隊首次提出了一個革命性的指標(biāo)——"視覺信息增益",簡稱VIG。這個指標(biāo)就像一個精明的考官,能夠準(zhǔn)確測量每一道題目到底需要多少"看圖"的能力。通過這個指標(biāo),他們開發(fā)出了一套全新的AI訓(xùn)練方法,專門挑選那些真正需要視覺能力的學(xué)習(xí)材料進(jìn)行重點(diǎn)訓(xùn)練。

      這項創(chuàng)新的意義遠(yuǎn)超學(xué)術(shù)研究本身。當(dāng)AI能夠更準(zhǔn)確地依賴視覺信息做出判斷時,我們在日常生活中遇到的各種視覺AI應(yīng)用——從醫(yī)療影像診斷到自動駕駛汽車的環(huán)境識別——都將變得更加可靠和值得信賴。

      一、發(fā)現(xiàn)問題的根源:AI的"視而不見"現(xiàn)象

      現(xiàn)代AI就像一個擁有超強(qiáng)記憶力的學(xué)生,能夠儲存海量的文字知識。當(dāng)面對一張船在水面航行的圖片,被問及"船在水中留下的痕跡叫什么"時,許多AI會直接從記憶中調(diào)取答案"尾流",而完全不去觀察圖片中的實際情況。這種現(xiàn)象被研究人員稱為"語言偏見",就像學(xué)生過度依賴課本知識而忽視了實際觀察的重要性。

      這個問題的嚴(yán)重性超乎想象。研究團(tuán)隊發(fā)現(xiàn),即使是目前最先進(jìn)的AI系統(tǒng),在處理視覺問題時也經(jīng)常表現(xiàn)出"視覺忽視"的癥狀。它們會自信地描述圖片中根本不存在的物體,或者給出與圖片內(nèi)容完全矛盾的答案。這就好比一個人戴著墨鏡在黑暗中卻聲稱能清楚看到周圍的一切。

      問題的根源在于AI的訓(xùn)練數(shù)據(jù)就像一個混雜的圖書館。其中既有需要仔細(xì)觀察圖片才能回答的高質(zhì)量問題,也有大量僅憑文字常識就能解決的簡單問題。更麻煩的是,許多訓(xùn)練數(shù)據(jù)本身就存在問題——圖片與文字描述不匹配,或者包含誤導(dǎo)性信息。

      傳統(tǒng)的訓(xùn)練方法就像一個不分青紅皂白的老師,讓AI花費(fèi)同樣的精力學(xué)習(xí)所有內(nèi)容。無論是描述圖片中物體顏色這樣需要精確視覺觀察的任務(wù),還是回答"the"這樣的語法詞匯,AI都被要求投入相同的學(xué)習(xí)資源。這種"一刀切"的方式導(dǎo)致AI無法區(qū)分什么時候應(yīng)該依賴視覺信息,什么時候可以依靠文字知識。

      二、創(chuàng)新解決方案:視覺信息增益指標(biāo)的誕生

      面對這個復(fù)雜問題,韓國研究團(tuán)隊提出了一個巧妙的解決方案,他們稱之為"視覺信息增益"(VIG)。這個指標(biāo)的工作原理就像一個精準(zhǔn)的天平,能夠準(zhǔn)確測量圖片信息在AI回答問題時的真實貢獻(xiàn)度。

      VIG的核心思想非常直觀:如果AI在看到圖片后回答問題的準(zhǔn)確度顯著提高,說明圖片提供了重要信息;如果有沒有圖片都差不多,那么這個問題可能主要依靠文字知識就能解決。為了模擬"沒有圖片"的情況,研究團(tuán)隊采用了一個聰明的方法——將原始圖片進(jìn)行高斯模糊處理,讓它變成一團(tuán)看不清任何細(xì)節(jié)的色塊。

      這種測量方式就像給學(xué)生做對比實驗:先讓他們在光線充足的環(huán)境下做題,再讓他們在昏暗環(huán)境中做同樣的題目。如果成績差別很大,說明這些題目確實需要良好的視覺條件;如果成績相差不大,說明主要靠的是記憶和推理能力。

      VIG指標(biāo)不僅能在整個問題層面進(jìn)行評估,還能精確到每個詞匯。研究團(tuán)隊發(fā)現(xiàn),當(dāng)AI在描述圖片時,像"紅色"、"坐著"、"飛行"這樣的詞匯往往具有很高的VIG值,因為確定這些信息確實需要觀察圖片。相反,像"一個"、"的"、"這"這樣的語法詞匯VIG值很低,因為它們主要由語言規(guī)則決定。

      通過大量實驗驗證,VIG指標(biāo)展現(xiàn)出了令人印象深刻的準(zhǔn)確性。在不同類型的視覺問答測試中,VIG值的分布完全符合人們的直覺預(yù)期。那些需要精細(xì)視覺觀察的任務(wù)(如圖像描述)顯示出較高的VIG值,而那些更依賴文字推理的任務(wù)(如某些知識問答)則顯示出較低的VIG值。

      三、精準(zhǔn)訓(xùn)練策略:讓AI學(xué)會"看重點(diǎn)"

      基于VIG指標(biāo),研究團(tuán)隊開發(fā)了一套革命性的訓(xùn)練策略,就像為AI配備了一個智能的學(xué)習(xí)計劃制定者。這個系統(tǒng)能夠自動識別哪些學(xué)習(xí)材料真正值得重點(diǎn)關(guān)注,哪些可以適當(dāng)忽略。

      具體的訓(xùn)練過程分為兩個層次的篩選。首先是樣本層面的選擇,就像一個挑剔的圖書管理員,只保留那些VIG值排名前70%的高質(zhì)量問答對。這樣做的效果立竿見影——那些僅憑文字就能回答的簡單問題被過濾掉了,剩下的都是真正需要視覺觀察才能解決的有價值內(nèi)容。

      接下來是更精細(xì)的詞匯層面篩選。在保留的高質(zhì)量樣本中,訓(xùn)練系統(tǒng)進(jìn)一步識別每個詞匯的VIG值,只有那些真正需要視覺信息支持的詞匯才會被納入重點(diǎn)學(xué)習(xí)范圍。這就像告訴學(xué)生:"在這道關(guān)于圖片的題目中,你需要特別注意'藍(lán)色'和'飛翔'這些詞匯,而'一個'和'的'這些詞匯可以按常規(guī)處理。"

      這種精準(zhǔn)化的訓(xùn)練策略帶來了驚人的效果。研究團(tuán)隊發(fā)現(xiàn),即使AI只學(xué)習(xí)了原來30%到70%的訓(xùn)練材料,其在視覺理解任務(wù)上的表現(xiàn)反而比學(xué)習(xí)全部材料時更好。這個結(jié)果顛覆了傳統(tǒng)"多多益善"的訓(xùn)練理念,證明了質(zhì)量比數(shù)量更重要。

      更令人興奮的是,經(jīng)過VIG指導(dǎo)訓(xùn)練的AI展現(xiàn)出了更強(qiáng)的"視覺專注力"。通過分析AI內(nèi)部的注意力分配模式,研究人員發(fā)現(xiàn)這些AI在處理視覺問題時會將更多注意力投向圖片信息,而不是像之前那樣過度依賴文字記憶。這種改變就像培養(yǎng)了一個更善于觀察的學(xué)生,讓他們學(xué)會了在適當(dāng)?shù)臅r候相信自己的眼睛。

      四、實驗驗證:全方位性能提升的驚人表現(xiàn)

      為了驗證VIG指導(dǎo)訓(xùn)練的實際效果,研究團(tuán)隊進(jìn)行了一系列全面而嚴(yán)謹(jǐn)?shù)膶嶒灐K麄冞x擇了三個不同規(guī)模的AI模型進(jìn)行測試,包括70億參數(shù)和130億參數(shù)的LLaVA-1.5模型,以及70億參數(shù)的ShareGPT4V模型。這就像在不同年級的學(xué)生中驗證新教學(xué)方法的效果。

      實驗結(jié)果令人震撼。在視覺理解能力測試中,所有經(jīng)過VIG訓(xùn)練的模型都取得了顯著提升。以LLaVA-1.5 7B模型為例,盡管只使用了原來34%的訓(xùn)練數(shù)據(jù),但在LLaVAW基準(zhǔn)測試中得分從59.02提升到61.22,在MMVet測試中從28.62提升到32.71。這就像學(xué)生通過更有針對性的復(fù)習(xí),用更少的時間取得了更好的成績。

      更加令人驚喜的是模型在"幻覺"問題上的改善。AI的幻覺現(xiàn)象就像人在黑暗中看到并不存在的東西,會描述圖片中根本沒有的物體或場景。經(jīng)過VIG訓(xùn)練的模型在這方面表現(xiàn)出了顯著的改進(jìn)。在POPE幻覺測試中,LLaVA-1.5 7B的幻覺率從14.99%下降到12.80%,這意味著AI變得更加誠實和可靠。

      研究團(tuán)隊還測試了VIG方法與其他現(xiàn)有改進(jìn)技術(shù)的兼容性。結(jié)果發(fā)現(xiàn),VIG訓(xùn)練就像一個通用的基礎(chǔ)改進(jìn)方法,能夠與其他技術(shù)完美結(jié)合,產(chǎn)生疊加的增益效果。當(dāng)VIG訓(xùn)練與對比解碼、注意力增強(qiáng)等技術(shù)組合使用時,AI的整體性能得到了進(jìn)一步提升。

      最引人注目的是訓(xùn)練效率的巨大提升。130億參數(shù)的LLaVA-1.5模型在經(jīng)過VIG訓(xùn)練后,僅使用了原來21%的訓(xùn)練數(shù)據(jù)就達(dá)到了比原始模型更好的性能。這種效率提升對于資源有限的研究團(tuán)隊和應(yīng)用場景具有重要意義,就像發(fā)現(xiàn)了一種更高效的學(xué)習(xí)方法,讓同樣的時間和精力產(chǎn)生更大的效果。

      五、深入分析:揭示AI視覺理解的內(nèi)在機(jī)制

      為了更深入地理解VIG訓(xùn)練為什么如此有效,研究團(tuán)隊對AI的內(nèi)部工作機(jī)制進(jìn)行了細(xì)致分析。他們發(fā)現(xiàn),經(jīng)過VIG訓(xùn)練的AI在處理視覺任務(wù)時展現(xiàn)出了與人類更相似的注意力分配模式。

      通過分析AI的注意力權(quán)重分布,研究人員發(fā)現(xiàn)傳統(tǒng)訓(xùn)練的AI往往將大部分注意力集中在文字信息上,對圖片信息的關(guān)注相對較少。這就像一個學(xué)生在看圖作文時花費(fèi)大量時間思考語法和詞匯,卻很少觀察圖片本身的內(nèi)容。而經(jīng)過VIG訓(xùn)練的AI則顯示出了截然不同的模式——它們會將更多注意力分配給視覺信息,特別是在模型的中間層,這些層被認(rèn)為是進(jìn)行語義特征提取的關(guān)鍵部位。

      更有趣的是,研究團(tuán)隊發(fā)現(xiàn)不同規(guī)模的AI模型對VIG訓(xùn)練的響應(yīng)方式存在差異。較大的模型(如130億參數(shù)的版本)能夠更充分地利用精選的高質(zhì)量數(shù)據(jù),即使訓(xùn)練數(shù)據(jù)大幅減少也能保持優(yōu)秀的性能。這種現(xiàn)象就像經(jīng)驗豐富的學(xué)習(xí)者能夠從少量高質(zhì)量的學(xué)習(xí)材料中提取更多有價值的信息。

      研究團(tuán)隊還測試了AI對文字干擾的抗性。他們設(shè)計了一個巧妙的實驗:向AI展示圖片的同時,提供帶有誤導(dǎo)性的文字描述,觀察AI是相信自己"看到"的還是"聽到"的信息。結(jié)果顯示,經(jīng)過VIG訓(xùn)練的AI表現(xiàn)出了更強(qiáng)的視覺可靠性,它們更傾向于相信圖片信息而不是被誤導(dǎo)性文字所迷惑。這種改善就像培養(yǎng)了一個更加獨(dú)立思考的學(xué)生,不會輕易被他人的錯誤觀點(diǎn)所影響。

      六、廣泛影響:重塑AI視覺理解的未來

      VIG方法的影響遠(yuǎn)遠(yuǎn)超出了學(xué)術(shù)研究的范疇,它為整個AI視覺理解領(lǐng)域帶來了新的發(fā)展方向。首先,這種方法提供了一個標(biāo)準(zhǔn)化的評估工具,讓研究人員能夠客觀地衡量不同訓(xùn)練數(shù)據(jù)的質(zhì)量。就像為混亂的圖書館配備了一個智能分類系統(tǒng),能夠自動識別哪些書籍真正有價值。

      在實際應(yīng)用層面,VIG訓(xùn)練的AI系統(tǒng)將在多個關(guān)鍵領(lǐng)域發(fā)揮重要作用。在醫(yī)療影像診斷中,能夠更準(zhǔn)確依賴視覺信息的AI將減少誤診風(fēng)險,為醫(yī)生提供更可靠的輔助判斷。在自動駕駛領(lǐng)域,具備更強(qiáng)視覺理解能力的AI將能夠更準(zhǔn)確地識別道路狀況和潛在危險,提高行車安全性。

      教育領(lǐng)域也將從這項技術(shù)中受益。AI教學(xué)助手將能夠更準(zhǔn)確地理解和分析學(xué)生提交的圖片作業(yè),提供更精準(zhǔn)的反饋和指導(dǎo)。同時,這種技術(shù)也將推動視覺內(nèi)容創(chuàng)作工具的發(fā)展,讓AI能夠更準(zhǔn)確地理解創(chuàng)作者的視覺意圖,生成更符合要求的內(nèi)容。

      從技術(shù)發(fā)展角度來看,VIG方法展示了數(shù)據(jù)質(zhì)量優(yōu)于數(shù)量的重要原則。這一發(fā)現(xiàn)將推動整個AI行業(yè)重新思考數(shù)據(jù)收集和處理策略,從簡單的"大數(shù)據(jù)"思維轉(zhuǎn)向"精準(zhǔn)數(shù)據(jù)"思維。這種轉(zhuǎn)變不僅能夠提高AI系統(tǒng)的性能,還能顯著降低訓(xùn)練成本和環(huán)境影響。

      研究團(tuán)隊也坦誠地指出了當(dāng)前方法的局限性。VIG計算需要額外的計算資源,雖然這是一次性成本,但對于資源受限的研究環(huán)境仍然是一個挑戰(zhàn)。此外,該方法目前主要在特定的AI架構(gòu)上進(jìn)行了驗證,其在其他類型模型上的效果還需要進(jìn)一步探索。

      七、未來展望:開啟智能視覺的新時代

      這項研究不僅解決了當(dāng)前AI視覺理解中的關(guān)鍵問題,更重要的是為未來的發(fā)展指明了方向。VIG指標(biāo)的提出標(biāo)志著AI訓(xùn)練從"粗放式"向"精準(zhǔn)式"的重要轉(zhuǎn)變,就像從撒網(wǎng)捕魚進(jìn)化為精準(zhǔn)垂釣。

      展望未來,研究團(tuán)隊計劃將VIG方法擴(kuò)展到更多類型的AI模型和應(yīng)用場景中。他們特別感興趣的是探索VIG在多模態(tài)AI系統(tǒng)中的應(yīng)用潛力,這些系統(tǒng)不僅需要理解圖像和文字,還需要處理音頻、視頻等多種信息類型。隨著技術(shù)的不斷完善,我們有理由相信,未來的AI將具備更加人性化和可靠的視覺理解能力。

      這項來自韓國首爾國立科技大學(xué)的創(chuàng)新研究證明了,有時候解決復(fù)雜問題的關(guān)鍵不在于增加更多資源,而在于更智能地使用現(xiàn)有資源。VIG方法的成功提醒我們,在追求AI性能提升的道路上,精準(zhǔn)比盲目更重要,質(zhì)量比數(shù)量更關(guān)鍵。當(dāng)AI學(xué)會了真正"用眼睛思考",我們與智能機(jī)器的協(xié)作將變得更加可靠和高效。

      Q&A

      Q1:視覺信息增益VIG指標(biāo)到底是什么?

      A:VIG是一個能夠測量圖片信息對AI回答問題重要程度的指標(biāo)。它通過對比AI看清楚圖片時和看模糊圖片時的回答準(zhǔn)確度來計算,如果差別很大說明圖片很重要,差別小說明主要靠文字知識就能回答。

      Q2:VIG訓(xùn)練方法會不會讓AI丟失某些能力?

      A:不會。研究顯示VIG訓(xùn)練實際上是一個"增強(qiáng)式"的方法,它讓AI更專注于真正需要視覺能力的任務(wù),同時保持了原有的文字理解能力。就像培養(yǎng)學(xué)生專注力,并不會讓他們失去其他技能。

      Q3:普通用戶什么時候能體驗到VIG技術(shù)帶來的改進(jìn)?

      A:雖然這還是前沿研究,但考慮到AI技術(shù)的快速發(fā)展,預(yù)計在未來1-2年內(nèi)就可能在一些商業(yè)AI產(chǎn)品中看到類似技術(shù)的應(yīng)用,特別是在圖像識別、視覺問答等需要準(zhǔn)確視覺理解的場景中。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      近40國聯(lián)手封殺:俄海外雇傭兵招募徹底遇阻,36個友好國赫然在列

      近40國聯(lián)手封殺:俄海外雇傭兵招募徹底遇阻,36個友好國赫然在列

      老馬拉車莫少裝
      2026-02-24 22:46:14
      你見過哪些悶聲發(fā)大財?shù)娜耍烤W(wǎng)友:干這個買三套房子,兩個門面

      你見過哪些悶聲發(fā)大財?shù)娜耍烤W(wǎng)友:干這個買三套房子,兩個門面

      夜深愛雜談
      2026-02-01 18:57:04
      美荷兩國曾同時發(fā)聲,對中國獨(dú)立研發(fā)的光刻機(jī)技術(shù)給予了強(qiáng)烈批評

      美荷兩國曾同時發(fā)聲,對中國獨(dú)立研發(fā)的光刻機(jī)技術(shù)給予了強(qiáng)烈批評

      來科點(diǎn)譜
      2026-02-27 07:32:59
      春節(jié)后,這4種蔬菜不要隨便買!菜販子:我從來不吃,顧客搶著買

      春節(jié)后,這4種蔬菜不要隨便買!菜販子:我從來不吃,顧客搶著買

      阿龍美食記
      2026-02-26 10:37:19
      三名新任省委常委新職明確

      三名新任省委常委新職明確

      上觀新聞
      2026-02-27 14:46:22
      寒假開學(xué)不到90天就放暑假了!全國多地迎來近10年最短學(xué)期

      寒假開學(xué)不到90天就放暑假了!全國多地迎來近10年最短學(xué)期

      閃電新聞
      2026-02-27 21:47:59
      國家稅務(wù)總局紅河州稅務(wù)局黨委書記、局長、督辦劉毅被查

      國家稅務(wù)總局紅河州稅務(wù)局黨委書記、局長、督辦劉毅被查

      瀟湘晨報
      2026-02-26 17:19:31
      美伊談判基本告吹、攻擊隨時可能開始;另,巴基斯坦或攻入阿富汗

      美伊談判基本告吹、攻擊隨時可能開始;另,巴基斯坦或攻入阿富汗

      邵旭峰域
      2026-02-27 10:54:56
      86歲暢銷書作家楊本芬就“抄襲”道歉!曾獲谷雨文學(xué)獎,“出圈”代表作被曝與王朔、余華等人作品高度相似

      86歲暢銷書作家楊本芬就“抄襲”道歉!曾獲谷雨文學(xué)獎,“出圈”代表作被曝與王朔、余華等人作品高度相似

      都市快報橙柿互動
      2026-02-27 11:37:59
      寧抓國際友人,不抓莫斯科少爺:俄羅斯1.4億人中有兩千萬不能碰

      寧抓國際友人,不抓莫斯科少爺:俄羅斯1.4億人中有兩千萬不能碰

      黃娜老師
      2026-02-27 03:15:43
      教育部發(fā)布會答封面新聞:北京市破除唯分?jǐn)?shù)論導(dǎo)向,減輕學(xué)生應(yīng)試負(fù)擔(dān)和焦慮

      教育部發(fā)布會答封面新聞:北京市破除唯分?jǐn)?shù)論導(dǎo)向,減輕學(xué)生應(yīng)試負(fù)擔(dān)和焦慮

      封面新聞
      2026-02-27 17:49:29
      中領(lǐng)館提醒: 18-65歲在俄長期居留男性 須同意在俄軍事單位等至少服役1年

      中領(lǐng)館提醒: 18-65歲在俄長期居留男性 須同意在俄軍事單位等至少服役1年

      閃電新聞
      2026-02-26 12:46:48
      巴拿馬總統(tǒng)稱巴接管長和運(yùn)營港口后中國不會反制,外交部回應(yīng)

      巴拿馬總統(tǒng)稱巴接管長和運(yùn)營港口后中國不會反制,外交部回應(yīng)

      澎湃新聞
      2026-02-27 15:36:35
      WTT新加坡大滿貫:雨果張本智和接連爆冷出局,王曼昱今再戰(zhàn)張本美和

      WTT新加坡大滿貫:雨果張本智和接連爆冷出局,王曼昱今再戰(zhàn)張本美和

      上觀新聞
      2026-02-28 04:47:08
      上海是個垃圾桶,全國的垃圾都來上海

      上海是個垃圾桶,全國的垃圾都來上海

      上海云河
      2026-02-26 22:23:23
      你家里有鐵皮茶葉盒嗎?趕緊回家找出來,作用太厲害花錢都難買!

      你家里有鐵皮茶葉盒嗎?趕緊回家找出來,作用太厲害花錢都難買!

      妙招酷
      2026-02-26 23:48:36
      杭州一地發(fā)布放假通知:連休10天!浙江各地時間表也排定

      杭州一地發(fā)布放假通知:連休10天!浙江各地時間表也排定

      都市快報橙柿互動
      2026-02-27 15:56:56
      為何郭士強(qiáng)挑戰(zhàn)違體仍領(lǐng)T?日本媒體公布證據(jù),被指吹T是否冤冤?

      為何郭士強(qiáng)挑戰(zhàn)違體仍領(lǐng)T?日本媒體公布證據(jù),被指吹T是否冤冤?

      一盅情懷
      2026-02-27 18:28:36
      BBA集體 “大跳水”!奧迪跌破10萬,寶馬降27萬...網(wǎng)友:感謝新能源!

      BBA集體 “大跳水”!奧迪跌破10萬,寶馬降27萬...網(wǎng)友:感謝新能源!

      極果酷玩
      2026-02-26 16:49:51
      谷歌生圖新王Nano Banana 2深夜突襲!性能屠榜速度飛升,價格腰斬【附實測】

      谷歌生圖新王Nano Banana 2深夜突襲!性能屠榜速度飛升,價格腰斬【附實測】

      智東西
      2026-02-27 04:19:56
      2026-02-28 06:12:49
      至頂AI實驗室 incentive-icons
      至頂AI實驗室
      一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實驗室。
      1958文章數(shù) 162關(guān)注度
      往期回顧 全部

      科技要聞

      狂攬1100億美元!OpenAI再創(chuàng)融資神話

      頭條要聞

      特朗普警告伊朗:“有時候不得不打”

      頭條要聞

      特朗普警告伊朗:“有時候不得不打”

      體育要聞

      一場必須要贏的比賽,男籃何止擊敗了裁判

      娛樂要聞

      郭晶晶霍啟剛現(xiàn)身香港藝術(shù)節(jié)盡顯恩愛

      財經(jīng)要聞

      沈明高提共富建議 百姓持科技股國家兜底

      汽車要聞

      嵐圖泰山黑武士版3月上市 搭載華為四激光智駕方案

      態(tài)度原創(chuàng)

      教育
      本地
      家居
      藝術(shù)
      公開課

      教育要聞

      寫字歪歪扭扭?四線格本輕松搞定!

      本地新聞

      津南好·四時總相宜

      家居要聞

      素色肌理 品意式格調(diào)

      藝術(shù)要聞

      王個簃『清供圖』

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進(jìn)入關(guān)懷版