<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      學(xué)習(xí)噪聲標(biāo)簽的智慧:樣本標(biāo)簽置信度如何改進(jìn)深度學(xué)習(xí)分類性能?

      0
      分享至

      深度學(xué)習(xí)需要大量標(biāo)注數(shù)據(jù)才能表現(xiàn)出色,然而現(xiàn)實(shí)中數(shù)據(jù)標(biāo)簽往往存在錯(cuò)誤。就像在混亂的書架上尋找正確的書籍,機(jī)器學(xué)習(xí)模型也會(huì)被這些錯(cuò)誤標(biāo)簽所迷惑。現(xiàn)有方法要么過分抑制所有樣本,導(dǎo)致欠擬合;要么無法有效區(qū)分噪聲,導(dǎo)致過擬合。本文介紹一種基于樣本標(biāo)簽置信度的創(chuàng)新學(xué)習(xí)框架,它能夠在混沌中建立秩序,精確識(shí)別并抑制噪聲樣本,同時(shí)保留干凈數(shù)據(jù)的學(xué)習(xí)效果。就像一位睿智的淘金者,能在泥沙中準(zhǔn)確找出金子。這種方法不僅理論上可以達(dá)到最優(yōu)點(diǎn),還能與現(xiàn)有方法靈活結(jié)合,在各種噪聲環(huán)境下都展現(xiàn)出優(yōu)異的分類性能。


      噪聲的挑戰(zhàn)

      深度學(xué)習(xí)在圖像分類領(lǐng)域取得了令人矚目的成就,有些模型的表現(xiàn)甚至超越了人類。AlexNet、ResNet等模型在ImageNet等大型數(shù)據(jù)集上的出色表現(xiàn),讓人工智能領(lǐng)域看到了前所未有的可能性。但這些成功建立在一個(gè)重要前提上:大量高質(zhì)量的標(biāo)注數(shù)據(jù)。

      現(xiàn)實(shí)情況卻并非如此美好。即使是精心整理的數(shù)據(jù)集,也難免出現(xiàn)標(biāo)注錯(cuò)誤。以CIFAR-10為例,這個(gè)包含60,000張圖像的數(shù)據(jù)集,盡管經(jīng)過專家精心標(biāo)注,仍然存在標(biāo)簽錯(cuò)誤問題。根據(jù)研究發(fā)現(xiàn),CIFAR-10數(shù)據(jù)集中約有5%的樣本標(biāo)簽存在誤差。這些錯(cuò)誤標(biāo)簽的存在,就像是教師給學(xué)生提供了錯(cuò)誤的知識(shí)點(diǎn),不僅不利于學(xué)習(xí),反而會(huì)帶來負(fù)面影響。

      標(biāo)注錯(cuò)誤的來源多種多樣。一方面,人工標(biāo)注過程難免受到主觀因素影響,尤其是對(duì)于視覺上相似的類別,如貓和狗、船和飛機(jī)的某些角度;另一方面,某些圖像本身就具有模糊性,即便專業(yè)人士也難以給出準(zhǔn)確標(biāo)注。此外,數(shù)據(jù)規(guī)模越大,標(biāo)注難度越高,錯(cuò)誤率也隨之增加。

      深度神經(jīng)網(wǎng)絡(luò)具有驚人的記憶能力,能夠"記住"訓(xùn)練集中的所有樣本,包括那些錯(cuò)誤標(biāo)注的樣本。這一特性在面對(duì)噪聲標(biāo)簽時(shí)變成了致命弱點(diǎn)。研究表明,當(dāng)訓(xùn)練數(shù)據(jù)中包含噪聲標(biāo)簽時(shí),模型性能會(huì)顯著下降。在CIFAR-10數(shù)據(jù)集上,當(dāng)引入20%的標(biāo)簽噪聲時(shí),普通卷積神經(jīng)網(wǎng)絡(luò)的分類準(zhǔn)確率會(huì)從95%降至85%以下;當(dāng)噪聲比例達(dá)到40%時(shí),準(zhǔn)確率甚至?xí)抵?0%以下。

      針對(duì)噪聲標(biāo)簽問題,研究人員提出了多種解決方案,主要分為三類:噪聲估計(jì)、樣本選擇和穩(wěn)健損失函數(shù)。

      噪聲估計(jì)方法假設(shè)可以獲得關(guān)于噪聲模型的先驗(yàn)知識(shí),如噪聲轉(zhuǎn)移矩陣等。但在實(shí)際應(yīng)用中,這些信息往往難以獲取,限制了方法的適用范圍。

      樣本選擇方法嘗試從數(shù)據(jù)集中剔除噪聲標(biāo)簽,僅用"干凈"樣本訓(xùn)練模型。Co-teaching、JoCoR等方法都屬于這一類。但這些方法的效果高度依賴于噪聲識(shí)別的質(zhì)量,而人為設(shè)定的篩選標(biāo)準(zhǔn)往往難以在不同數(shù)據(jù)集間泛化。

      穩(wěn)健損失函數(shù)方法設(shè)計(jì)理論上對(duì)標(biāo)簽噪聲不敏感的損失函數(shù)。MAE、GCE、SCE等損失函數(shù)通過降低對(duì)錯(cuò)誤預(yù)測(cè)的懲罰力度,避免模型學(xué)習(xí)噪聲標(biāo)簽。但這些方法也會(huì)導(dǎo)致欠擬合問題,降低模型性能。

      交叉熵?fù)p失函數(shù)是深度學(xué)習(xí)中最常用的目標(biāo)函數(shù),但它對(duì)錯(cuò)誤預(yù)測(cè)非常敏感。當(dāng)預(yù)測(cè)概率與給定標(biāo)簽偏離越大時(shí),損失值和梯度幅度都會(huì)顯著增加,促使模型迅速學(xué)習(xí)這些樣本。這一特性使得模型容易過擬合到噪聲標(biāo)簽上。相比之下,穩(wěn)健損失函數(shù)減輕了對(duì)錯(cuò)誤預(yù)測(cè)的懲罰,防止模型學(xué)習(xí)錯(cuò)誤標(biāo)簽。但批量隨機(jī)梯度下降往往會(huì)阻礙模型收斂到穩(wěn)健損失函數(shù)的最優(yōu)點(diǎn),導(dǎo)致欠擬合問題。

      置信度框架


      針對(duì)上述挑戰(zhàn),我們提出了一種基于樣本標(biāo)簽置信度的學(xué)習(xí)框架,旨在解決穩(wěn)健損失方法的欠擬合問題,同時(shí)避免過擬合到噪聲標(biāo)簽。

      樣本標(biāo)簽置信度是衡量標(biāo)簽可靠性的指標(biāo),值范圍從0到1。置信度越高,表示該標(biāo)簽越可能是正確的;反之則越可能是噪聲標(biāo)簽。我們的框架根據(jù)樣本的標(biāo)簽置信度動(dòng)態(tài)調(diào)整學(xué)習(xí)策略,對(duì)高置信度樣本施加強(qiáng)懲罰,促進(jìn)學(xué)習(xí);對(duì)低置信度樣本施加弱懲罰,抑制噪聲影響。

      框架核心包含兩個(gè)模型:噪聲穩(wěn)健模型和無噪聲模型。噪聲穩(wěn)健模型使用穩(wěn)健損失函數(shù)在整個(gè)數(shù)據(jù)集上訓(xùn)練,負(fù)責(zé)計(jì)算樣本標(biāo)簽置信度;無噪聲模型使用加權(quán)交叉熵?fù)p失函數(shù)訓(xùn)練,權(quán)重由標(biāo)簽置信度決定。

      具體來說,對(duì)于輸入圖像x和標(biāo)簽y,我們首先通過噪聲穩(wěn)健模型計(jì)算預(yù)測(cè)概率f(x;θ)。然后,我們使用穩(wěn)健損失函數(shù)L計(jì)算損失值L(f(x;θ),y),并通過映射函數(shù)h()將損失值轉(zhuǎn)換為標(biāo)簽置信度C(x,y)=h(L(f(x;θ),y))。

      映射函數(shù)h()設(shè)計(jì)需滿足兩個(gè)關(guān)鍵條件:(1)隨損失值增加而單調(diào)遞減,(2)當(dāng)損失值超過特定閾值時(shí),輸出為0。我們?cè)O(shè)計(jì)的映射函數(shù)為:

      C(x,y) = σ(0.5 * (-L(f(x;θ),y) + μ + m))

      其中,σ()是sigmoid函數(shù),μ是平均損失值,m是影響置信度大小的調(diào)節(jié)參數(shù)。

      無噪聲模型通過最小化加權(quán)交叉熵?fù)p失進(jìn)行訓(xùn)練:

      加權(quán)交叉熵?fù)p失 = Σ C(x,y) * CE(f(x;θ*),y)

      其中CE是交叉熵?fù)p失函數(shù),f(x;θ*)是無噪聲模型的預(yù)測(cè),C(x,y)是標(biāo)簽置信度。這種設(shè)計(jì)使得模型對(duì)高置信度樣本的學(xué)習(xí)更為重視,對(duì)低置信度樣本(可能的噪聲標(biāo)簽)保持謹(jǐn)慎態(tài)度。

      我們還提供了理論證明,表明在特定條件下,本框架可以近似達(dá)到穩(wěn)健損失方法的最優(yōu)點(diǎn)。理論顯示,存在一個(gè)穩(wěn)健損失和加權(quán)交叉熵?fù)p失的線性組合,可以作為穩(wěn)健損失的下界:

      穩(wěn)健損失 ≥ (n-|Dce|)/n * 穩(wěn)健損失 + α * |Dce|/n * 加權(quán)交叉熵?fù)p失

      其中n是數(shù)據(jù)集樣本數(shù),|Dce|是學(xué)習(xí)交叉熵?fù)p失的樣本量(由置信度決定),α是權(quán)重系數(shù)。


      為增強(qiáng)學(xué)習(xí)能力,我們還引入了數(shù)據(jù)增強(qiáng)不變性正則化和標(biāo)簽校正技術(shù)。數(shù)據(jù)增強(qiáng)不變性通過確保同一圖像的不同增強(qiáng)視圖產(chǎn)生相似預(yù)測(cè),增強(qiáng)模型對(duì)語義信息的學(xué)習(xí)能力;標(biāo)簽校正則通過噪聲穩(wěn)健模型的預(yù)測(cè)逐漸修正原始標(biāo)簽,減少噪聲影響。

      與現(xiàn)有方法相比,我們的框架具有兩大優(yōu)勢(shì):(1)通過標(biāo)簽置信度靈活調(diào)整學(xué)習(xí)策略,避免了樣本選擇方法中的硬閾值問題;(2)通過理論上可近似達(dá)到穩(wěn)健損失最優(yōu)點(diǎn),同時(shí)解決欠擬合問題,提升了整體性能。

      在實(shí)際應(yīng)用中,框架的實(shí)現(xiàn)分為五個(gè)步驟:(1)初始化兩個(gè)模型;(2)對(duì)輸入數(shù)據(jù)進(jìn)行增強(qiáng);(3)用噪聲穩(wěn)健模型計(jì)算標(biāo)簽置信度;(4)用無噪聲模型計(jì)算加權(quán)交叉熵?fù)p失;(5)聯(lián)合優(yōu)化兩個(gè)模型。整個(gè)訓(xùn)練過程中,噪聲穩(wěn)健模型不斷調(diào)整對(duì)樣本的評(píng)估,無噪聲模型則根據(jù)這些評(píng)估調(diào)整學(xué)習(xí)策略,形成一個(gè)動(dòng)態(tài)平衡的學(xué)習(xí)系統(tǒng)。

      在CIFAR-10數(shù)據(jù)集的人工噪聲實(shí)驗(yàn)中,當(dāng)噪聲比例為80%時(shí),傳統(tǒng)方法的準(zhǔn)確率通常低于80%,而我們的方法可達(dá)到91%以上,展現(xiàn)出卓越的魯棒性。在真實(shí)噪聲數(shù)據(jù)集如WebVision和Clothing1M上,我們的方法也達(dá)到了最先進(jìn)的性能水平,證明了其在實(shí)際應(yīng)用中的有效性。

      理論根基

      樣本標(biāo)簽置信度方法不僅是一種實(shí)用技術(shù),更有堅(jiān)實(shí)的理論基礎(chǔ)支撐。這套理論建立在噪聲穩(wěn)健損失函數(shù)的基礎(chǔ)上,并通過嚴(yán)格的數(shù)學(xué)推導(dǎo)證明了其有效性。

      傳統(tǒng)的噪聲穩(wěn)健損失函數(shù),如MAE(平均絕對(duì)誤差)、GCE(廣義交叉熵)等,雖然能夠抵抗標(biāo)簽噪聲的影響,但常常面臨收斂慢、欠擬合等問題。為解決這些問題,我們的理論框架引入了樣本標(biāo)簽置信度的概念,并證明了在特定條件下,結(jié)合標(biāo)簽置信度的學(xué)習(xí)策略可以近似達(dá)到噪聲穩(wěn)健損失的最優(yōu)點(diǎn)。

      這一理論的核心在于下面這個(gè)不等式定理:假設(shè)L(f(x;θ),y) := g(f(x;θ)y),其中g(shù)是一個(gè)從[0,1]到非負(fù)實(shí)數(shù)的映射函數(shù)。給定α >; 0,使得當(dāng)p趨近于1時(shí),g(p)關(guān)于p的導(dǎo)數(shù)加上α乘以log p的導(dǎo)數(shù)小于0,那么存在一個(gè)值δ <; 1,滿足以下不等式:

      穩(wěn)健損失 ≥ (n-|Dce|)/n * 穩(wěn)健損失 + α * |Dce|/n * 加權(quán)交叉熵?fù)p失

      這個(gè)不等式表明,通過最小化右側(cè)的組合損失函數(shù),我們可以近似最小化左側(cè)的穩(wěn)健損失函數(shù)。這為我們同時(shí)解決噪聲標(biāo)簽和欠擬合問題提供了理論保障。


      標(biāo)簽置信度計(jì)算是整個(gè)理論框架的關(guān)鍵環(huán)節(jié)。為確保理論框架的可行性,標(biāo)簽置信度必須滿足兩個(gè)關(guān)鍵條件:(1)與穩(wěn)健損失值嚴(yán)格負(fù)相關(guān),即損失值越高,置信度越低;(2)當(dāng)穩(wěn)健損失值超過特定閾值時(shí),置信度趨近于0。這兩個(gè)條件直觀且合理,符合我們的基本假設(shè):穩(wěn)健損失值較低的樣本不太可能是噪聲樣本。

      基于這些理論條件,我們?cè)O(shè)計(jì)了標(biāo)簽置信度的計(jì)算公式:

      C(x,y) = σ(0.5 * (-L(f(x;θ),y) + μ + m))

      其中σ是sigmoid函數(shù),L是穩(wěn)健損失函數(shù),μ是平均損失值,m是調(diào)節(jié)參數(shù)。這個(gè)公式滿足上述兩個(gè)理論條件,使得標(biāo)簽置信度能夠準(zhǔn)確反映樣本的可靠性。

      在實(shí)際訓(xùn)練過程中,我們采用了一個(gè)雙模型框架:噪聲穩(wěn)健模型和無噪聲模型。噪聲穩(wěn)健模型通過最小化穩(wěn)健損失函數(shù)訓(xùn)練,用于計(jì)算標(biāo)簽置信度;無噪聲模型通過最小化加權(quán)交叉熵?fù)p失訓(xùn)練,權(quán)重由標(biāo)簽置信度決定。兩個(gè)模型通過參數(shù)差異懲罰項(xiàng)聯(lián)合優(yōu)化,確保它們學(xué)習(xí)到相似的特征表示。

      這種雙模型方法不僅解決了單模型同時(shí)優(yōu)化兩個(gè)目標(biāo)函數(shù)的困難,還允許兩個(gè)模型各自專注于自己的目標(biāo),提高了整體性能。理論上,當(dāng)兩個(gè)模型參數(shù)相同時(shí),我們的方法等價(jià)于優(yōu)化一個(gè)復(fù)合損失函數(shù);當(dāng)參數(shù)差異較小時(shí),它近似優(yōu)化穩(wěn)健損失函數(shù)。

      訓(xùn)練算法具體實(shí)現(xiàn)如下:

      1. 對(duì)輸入數(shù)據(jù)進(jìn)行增強(qiáng),生成兩個(gè)不同視圖

      2. 用噪聲穩(wěn)健模型計(jì)算穩(wěn)健損失和標(biāo)簽置信度

      3. 用無噪聲模型計(jì)算加權(quán)交叉熵?fù)p失

      4. 計(jì)算兩個(gè)模型的參數(shù)差異懲罰

      5. 聯(lián)合優(yōu)化兩個(gè)模型的參數(shù)

      這個(gè)算法還包含一些實(shí)用技巧,如移動(dòng)平均計(jì)算損失均值、在訓(xùn)練中期開始標(biāo)簽校正等。這些技巧進(jìn)一步提高了方法在實(shí)際應(yīng)用中的穩(wěn)定性和性能。

      理論分析還表明,我們的方法在數(shù)學(xué)上等價(jià)于一種自適應(yīng)的樣本選擇策略,但避免了傳統(tǒng)樣本選擇方法中硬閾值帶來的不穩(wěn)定性。通過標(biāo)簽置信度的概率解釋,我們實(shí)現(xiàn)了對(duì)樣本的軟選擇,使得模型能夠平滑地適應(yīng)不同可靠性的樣本。

      實(shí)驗(yàn)驗(yàn)證


      為全面評(píng)估樣本標(biāo)簽置信度方法的有效性,我們?cè)诤铣蓴?shù)據(jù)集和真實(shí)世界數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn),并與現(xiàn)有最先進(jìn)的噪聲標(biāo)簽學(xué)習(xí)方法進(jìn)行了詳細(xì)對(duì)比。

      在合成數(shù)據(jù)集實(shí)驗(yàn)中,我們使用了CIFAR-10和CIFAR-100這兩個(gè)廣泛使用的圖像分類基準(zhǔn)數(shù)據(jù)集,并人為引入了兩種類型的標(biāo)簽噪聲:對(duì)稱噪聲和非對(duì)稱噪聲。對(duì)稱噪聲假設(shè)所有樣本被錯(cuò)誤標(biāo)注的概率相等,而非對(duì)稱噪聲則假設(shè)標(biāo)簽依賴的噪聲,即特定類別的樣本容易被錯(cuò)誤標(biāo)注為某個(gè)特定類別。我們使用ResNet-34作為骨干網(wǎng)絡(luò),從頭開始訓(xùn)練模型。

      實(shí)驗(yàn)結(jié)果表明,我們的方法在各種噪聲比例下都顯著優(yōu)于現(xiàn)有方法。特別是在高噪聲比例情況下,性能優(yōu)勢(shì)更為明顯。例如,在CIFAR-10數(shù)據(jù)集上,當(dāng)對(duì)稱噪聲比例為80%時(shí),我們的方法達(dá)到了91.13%的分類準(zhǔn)確率,比第二好的方法GJS高出12.02個(gè)百分點(diǎn);在CIFAR-100數(shù)據(jù)集上,同樣噪聲比例下,我們的方法達(dá)到61.05%的準(zhǔn)確率,比GJS高出16.56個(gè)百分點(diǎn)。

      在非對(duì)稱噪聲實(shí)驗(yàn)中,我們的方法同樣表現(xiàn)出色。在CIFAR-10數(shù)據(jù)集上,40%非對(duì)稱噪聲下,我們的方法達(dá)到93.17%的準(zhǔn)確率,比第二好的方法高出3.52個(gè)百分點(diǎn);在CIFAR-100數(shù)據(jù)集上,同樣條件下達(dá)到68.05%的準(zhǔn)確率,比第二好方法高出4.35個(gè)百分點(diǎn)。


      為了深入理解我們方法的工作機(jī)制,我們進(jìn)行了一系列消融實(shí)驗(yàn)。我們比較了噪聲穩(wěn)健模型和無噪聲模型在訓(xùn)練過程中的表現(xiàn)。結(jié)果顯示,兩個(gè)模型在訓(xùn)練集上表現(xiàn)相似,但在測(cè)試集上,無噪聲模型的準(zhǔn)確率隨著訓(xùn)練的進(jìn)行逐漸超過噪聲穩(wěn)健模型。這表明無噪聲模型不僅繼承了噪聲穩(wěn)健模型的抗噪能力,還解決了欠擬合問題,提高了泛化性能。

      我們還研究了調(diào)節(jié)參數(shù)m對(duì)性能的影響。m控制標(biāo)簽置信度的整體大小,從而影響交叉熵?fù)p失的作用強(qiáng)度。實(shí)驗(yàn)發(fā)現(xiàn),當(dāng)m在-1到1之間變化時(shí),方法性能保持穩(wěn)定,表明我們的自適應(yīng)樣本選擇策略具有較強(qiáng)的魯棒性。當(dāng)m為-5時(shí),方法性能接近純GCE模型,符合理論分析:當(dāng)|Dce|接近0時(shí),我們的方法更準(zhǔn)確地近似噪聲穩(wěn)健損失。當(dāng)m為5時(shí),交叉熵?fù)p失影響最強(qiáng),性能反而下降,表明簡(jiǎn)單組合交叉熵?fù)p失和噪聲穩(wěn)健損失會(huì)導(dǎo)致性能嚴(yán)重下降。

      此外,我們比較了不同框架變體的性能。"單模型"變體在單個(gè)模型中同時(shí)優(yōu)化交叉熵?fù)p失和噪聲穩(wěn)健損失,結(jié)果表明其性能與基線方法相似,未能顯著改善性能。這是因?yàn)榻徊骒負(fù)p失和噪聲穩(wěn)健損失的學(xué)習(xí)目標(biāo)存在沖突。相比之下,我們的"雙模型"變體,即使沒有增強(qiáng)不變性正則化和標(biāo)簽校正,也能持續(xù)優(yōu)于基線方法。最后,完整的方法,包括增強(qiáng)不變性正則化和標(biāo)簽校正,表現(xiàn)最佳。

      在真實(shí)世界數(shù)據(jù)集實(shí)驗(yàn)中,我們使用了Clothing1M和mini-WebVision兩個(gè)常用的基準(zhǔn)數(shù)據(jù)集。Clothing1M包含14個(gè)服裝類別,mini-WebVision包含WebVision數(shù)據(jù)集中最流行的50個(gè)類別的樣本。我們將我們的方法與多種最先進(jìn)的方法進(jìn)行了比較,包括Co-teaching、DivideMix、ELR+、GJS等。

      在mini-WebVision數(shù)據(jù)集上,我們的方法達(dá)到了78.72%的分類準(zhǔn)確率,超過了使用更強(qiáng)大的InceptionResNetV2骨干網(wǎng)絡(luò)的ELR+和DivideMix。當(dāng)使用模型集成時(shí),我們的方法達(dá)到80.00%的準(zhǔn)確率,與GJS的集成性能相當(dāng)。

      在Clothing1M數(shù)據(jù)集上,我們使用ResNet-50骨干網(wǎng)絡(luò)達(dá)到了74.61%的準(zhǔn)確率,僅比性能最好的方法低0.2個(gè)百分點(diǎn),但顯著優(yōu)于GJS。使用ResNet-18骨干網(wǎng)絡(luò)時(shí),我們的方法達(dá)到72.97%的準(zhǔn)確率,超過了其他樣本選擇方法。這些結(jié)果表明,我們的方法在真實(shí)世界噪聲環(huán)境中同樣表現(xiàn)出色。

      總體而言,實(shí)驗(yàn)結(jié)果驗(yàn)證了我們方法的有效性和魯棒性。在各種噪聲類型、噪聲比例和數(shù)據(jù)集上,我們的方法都表現(xiàn)出優(yōu)于或至少與現(xiàn)有最先進(jìn)方法相當(dāng)?shù)男阅堋L貏e是在高噪聲比例情況下,我們的方法的優(yōu)勢(shì)更為明顯,表明它能夠有效處理嚴(yán)重的標(biāo)簽噪聲問題。

      參考資料

      1. Ahn, C., Kim, K., Baek, J., Lim, J., &; Han, S. (2023). Sample-wise Label Confidence Incorporation for Learning with Noisy Labels. ICCV 2023.

      2. Ghosh, A., Kumar, H., &; Sastry, P. S. (2017). Robust loss functions under label noise for deep neural networks.

      3. Zhang, Z., &; Sabuncu, M. (2018). Generalized cross entropy loss for training deep neural networks with noisy labels.

      4. Wang, X., Hua, Y., Kodirov, E., &; Robertson, N. M. (2019). Improving MAE against CCE under label noise.

      5. Li, J., Wong, Y., Zhao, Q., &; Kankanhalli, M. S. (2020). Learning to learn with variational information bottleneck for domain generalization.

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      男性長(zhǎng)期禁欲,性能力會(huì)更加強(qiáng)?醫(yī)生提醒:可能要付出這幾個(gè)代價(jià)

      男性長(zhǎng)期禁欲,性能力會(huì)更加強(qiáng)?醫(yī)生提醒:可能要付出這幾個(gè)代價(jià)

      醫(yī)者榮耀
      2025-12-17 12:05:09
      毛主席曾留七大預(yù)言:當(dāng)時(shí)沒人信,如今6個(gè)已應(yīng)驗(yàn),第7個(gè)即將實(shí)現(xiàn)

      毛主席曾留七大預(yù)言:當(dāng)時(shí)沒人信,如今6個(gè)已應(yīng)驗(yàn),第7個(gè)即將實(shí)現(xiàn)

      秀心文雅
      2025-09-13 10:25:44
      尷尬!佛山一家長(zhǎng)稱孩子都畢業(yè)了,初三伙食費(fèi)要補(bǔ)9百多,涉700人

      尷尬!佛山一家長(zhǎng)稱孩子都畢業(yè)了,初三伙食費(fèi)要補(bǔ)9百多,涉700人

      火山詩(shī)話
      2025-12-15 18:48:49
      1951年,戴笠獨(dú)子被處決,蔣介石兩年后下令:他的子孫全接回臺(tái)灣

      1951年,戴笠獨(dú)子被處決,蔣介石兩年后下令:他的子孫全接回臺(tái)灣

      古書記史
      2025-12-11 17:37:45
      北京大學(xué)發(fā)布驚人科研成果:女性生3-4個(gè)小孩死亡風(fēng)險(xiǎn)最低

      北京大學(xué)發(fā)布驚人科研成果:女性生3-4個(gè)小孩死亡風(fēng)險(xiǎn)最低

      必記本
      2025-11-30 16:58:14
      折疊iPhone明年見!蘋果未來兩年發(fā)布路線曝光,主打手機(jī)五款變七款

      折疊iPhone明年見!蘋果未來兩年發(fā)布路線曝光,主打手機(jī)五款變七款

      華爾街見聞官方
      2025-12-17 06:15:19
      現(xiàn)在是12月17號(hào)上午,剛剛傳來7個(gè)驚天大消息,要來大動(dòng)作了嗎?

      現(xiàn)在是12月17號(hào)上午,剛剛傳來7個(gè)驚天大消息,要來大動(dòng)作了嗎?

      股市皆大事
      2025-12-17 08:01:14
      文班亞馬,哭了!MVP!東部第一后衛(wèi)誕生

      文班亞馬,哭了!MVP!東部第一后衛(wèi)誕生

      籃球?qū)崙?zhàn)寶典
      2025-12-17 17:24:23
      破案了!場(chǎng)均32分郭昊文今年突然爆發(fā)原因找到,得感謝浙江隊(duì)1人

      破案了!場(chǎng)均32分郭昊文今年突然爆發(fā)原因找到,得感謝浙江隊(duì)1人

      后仰大風(fēng)車
      2025-12-17 09:10:10
      男生長(zhǎng)得太帥是一種怎樣的體驗(yàn)?網(wǎng)友:帥哥的人生有點(diǎn)易如反掌…

      男生長(zhǎng)得太帥是一種怎樣的體驗(yàn)?網(wǎng)友:帥哥的人生有點(diǎn)易如反掌…

      夜深愛雜談
      2025-12-10 19:44:09
      回顧:河南女子去喝喜酒,發(fā)現(xiàn)9年前被槍決的弟弟,竟坐在桌對(duì)面

      回顧:河南女子去喝喜酒,發(fā)現(xiàn)9年前被槍決的弟弟,竟坐在桌對(duì)面

      飛云如水
      2024-12-19 01:45:00
      汪明荃和羅家英在不丹補(bǔ)拍婚紗照!相愛36年終圓16年婚紗夢(mèng)

      汪明荃和羅家英在不丹補(bǔ)拍婚紗照!相愛36年終圓16年婚紗夢(mèng)

      叨叨話影
      2025-11-20 10:04:28
      小舅子兒子滿月酒辦45桌,我凍結(jié)老婆10個(gè)賬戶,老婆只能催我掏錢

      小舅子兒子滿月酒辦45桌,我凍結(jié)老婆10個(gè)賬戶,老婆只能催我掏錢

      今天說故事
      2025-11-19 18:12:51
      劉亦菲的腳引熱議!20年隱痛竟藏這些秘密

      劉亦菲的腳引熱議!20年隱痛竟藏這些秘密

      落雪聽梅a
      2025-12-17 09:44:28
      因長(zhǎng)的太漂亮,七次拒絕導(dǎo)演“要求”遭打壓,如今43歲憑實(shí)力走紅

      因長(zhǎng)的太漂亮,七次拒絕導(dǎo)演“要求”遭打壓,如今43歲憑實(shí)力走紅

      山野盧員外
      2025-12-17 16:54:56
      杭州小米交付中心車禍!事件經(jīng)過曝光,有網(wǎng)友稱是自己堂弟沒了…

      杭州小米交付中心車禍!事件經(jīng)過曝光,有網(wǎng)友稱是自己堂弟沒了…

      火山詩(shī)話
      2025-12-16 05:54:57
      俄媒:佩斯科夫“輕蔑”回應(yīng)歐洲派兵烏克蘭方案

      俄媒:佩斯科夫“輕蔑”回應(yīng)歐洲派兵烏克蘭方案

      參考消息
      2025-12-17 16:02:23
      一個(gè)人在體制內(nèi)呆久了會(huì)變成什么樣子?網(wǎng)友:我要笑死在評(píng)論區(qū)

      一個(gè)人在體制內(nèi)呆久了會(huì)變成什么樣子?網(wǎng)友:我要笑死在評(píng)論區(qū)

      夜深愛雜談
      2025-12-05 21:01:58
      收到工資1002415.13元,愛你華為。

      收到工資1002415.13元,愛你華為。

      純潔的微笑
      2025-12-12 21:29:39
      大選被宣布無效?賴清德空歡喜一場(chǎng)!洪都拉斯總統(tǒng)點(diǎn)名警告特朗普

      大選被宣布無效?賴清德空歡喜一場(chǎng)!洪都拉斯總統(tǒng)點(diǎn)名警告特朗普

      絕對(duì)軍評(píng)
      2025-12-17 15:44:57
      2025-12-17 18:16:49
      清風(fēng)鑒史 incentive-icons
      清風(fēng)鑒史
      作有深度的歷史解讀
      2689文章數(shù) 36642關(guān)注度
      往期回顧 全部

      科技要聞

      特斯拉值1.6萬億靠畫餅 Waymo值千億靠跑單

      頭條要聞

      男子花十幾萬"賭石"付款前說是頂級(jí)貨 切開全是邊角料

      頭條要聞

      男子花十幾萬"賭石"付款前說是頂級(jí)貨 切開全是邊角料

      體育要聞

      短短一年,從爭(zhēng)冠到0勝墊底...

      娛樂要聞

      鞠婧祎收入曝光,絲芭稱已支付1.3億

      財(cái)經(jīng)要聞

      重磅信號(hào)!收入分配制度或迎重大突破

      汽車要聞

      一車多動(dòng)力+雙姿態(tài) 長(zhǎng)城歐拉5上市 限時(shí)9.18萬元起

      態(tài)度原創(chuàng)

      教育
      時(shí)尚
      房產(chǎn)
      本地
      游戲

      教育要聞

      近日,教育部發(fā)布加強(qiáng)中小學(xué)日常考試管理20條舉措。其中要求:義務(wù)教育學(xué)校日常考試實(shí)行等級(jí)評(píng)價(jià),考試結(jié)...

      44歲的宋慧喬面相變了!她的變美思路普通人也可以借鑒

      房產(chǎn)要聞

      封關(guān)前夜!海南綠發(fā)20億拿下三亞重磅宅地!

      本地新聞

      云游安徽|踏過戰(zhàn)壕與石板,讀一部活的淮北史

      《FF7重制版》制作人透露 自己平時(shí)最愛玩《健身環(huán)》

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 成年无码av片完整版| 亚洲av无码专区在线厂| 措美县| AV人摸人人人澡人人超碰| 亚洲色欲色欲大片www无码| 安陆市| 免费观看全黄做爰大片| 美女大量吞精在线观看456| 日韩99在线a| 国产免费成人视频| 色妺妺视频网| 18岁日韩内射颜射午夜久久成人| 91色在线| 91人妻论坛| 被黑人伦流澡到高潮HNP动漫| 国产精品国产三级在线专区| 亚洲欧洲成人精品久久一码二码| 色99999| 亚洲乱理伦片在线观看中字| 久久综合88熟人妻| 依兰县| 爱3P| 男女xx00xx的视频免费观看| 欧美日韩精品一区二区在线播放| 人人妻人人澡人人爽国产一区| 国产精品99久久久久久成人| 不卡无码av| 亚洲成a人片网站| 超碰成人人人做人人爽| AV一区二区三区| 国产在线精品一区二区中文| 国产人妻人伦精品1国产丝袜| 色伊人亚洲综合网站| 精品无码毛片| 粉嫩av懂色av蜜臀av熟妇| 中文字幕在线天堂| 最新午夜男女福利片视频| 一本大道东京热无码| 亚洲婷婷综合色高清在线| 精品人妻中文字幕专区| 人妻久久久|