<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      中科大讓AI學會"有選擇地遺忘":機器也能忘記不想要的記憶

      0
      分享至


      隨著人工智能在我們生活中扮演越來越重要的角色,一個意想不到的問題浮出水面:如何讓聰明的AI模型"忘記"一些東西?這聽起來可能有些奇怪,畢竟我們通常希望機器記住更多信息。但在現實世界中,讓AI忘記某些數據變得至關重要。比如,當用戶要求刪除個人信息時,或者當訓練數據中包含錯誤、過時或惡意信息時,我們需要AI能夠"選擇性失憶"。

      這項由中國科學技術大學計算機科學與技術學院的劉嘉偉、吳晨旺、廉德富和陳恩紅教授團隊完成的突破性研究,于2025年7月發表在arXiv預印本平臺上(論文編號:arXiv:2507.23257v1),為這個難題提供了一個優雅的解決方案。他們的研究題為"Efficient Machine Unlearning via Influence Approximation",首次從認知科學的角度重新審視了機器遺忘問題,并開發出了一種名為IAU(影響近似遺忘)的新方法。

      傳統上,當我們想讓AI模型忘記某些訓練數據時,最直接的方法就是重新訓練整個模型——就像重新教一個學生整門課程一樣。但這種方法極其耗時且昂貴,特別是對于那些處理海量數據的大型模型。另一種方法是使用"影響函數"來估算特定數據對模型的影響,然后相應地調整模型參數。然而,這種方法需要計算復雜的數學矩陣(稱為Hessian矩陣),這個過程就像要求一個人同時記住并分析成千上萬個復雜的數學關系,計算量巨大。

      研究團隊從認知科學中獲得了靈感。心理學研究表明,對人類來說,記住新事物通常比忘記舊事物要容易得多。基于這個觀察,他們提出了一個巧妙的想法:與其直接讓AI"忘記"某些數據,不如讓它"記住"一些能夠抵消這些數據影響的新信息。這就像用一個正向的力來平衡一個負向的力,最終達到平衡狀態。

      他們的IAU方法包含三個核心組件。首先是"增量近似"模塊,它通過讓模型學習與需要遺忘數據相反的梯度信息來實現遺忘效果。這個過程類似于在天平的一邊放上重物來平衡另一邊的重量。第二個組件是"梯度校正",它確保模型在忘記目標數據的同時,不會影響對其他重要數據的處理能力。最后一個組件是"梯度限制",它在模型訓練階段就開始工作,通過控制梯度的大小來讓模型更容易進行后續的遺忘操作。

      研究團隊在多個數據集和模型架構上進行了廣泛的實驗驗證。他們使用了包括CIFAR-10、SVHN、Purchase100和CIFAR-100在內的多個標準數據集,以及LeNet5、ResNet18、MLP和VGG19等不同類型的神經網絡模型。實驗結果表明,IAU方法在保持模型性能的同時,顯著提高了遺忘效率。

      一、從認知科學角度重新理解機器遺忘

      人類大腦處理記憶和遺忘的方式為這項研究提供了核心洞察。當我們學習新知識時,大腦會形成新的神經連接;而當我們想要忘記某些記憶時,大腦實際上是通過形成新的連接來"覆蓋"或"抵消"舊的記憶模式。研究團隊發現,這個生物學原理可以應用到人工智能模型中。

      傳統的機器遺忘方法試圖直接刪除或修改模型中與特定數據相關的參數,這個過程既復雜又容易破壞模型的整體性能。相比之下,IAU方法采用了一種更自然的方式:通過增量學習來實現遺忘。具體來說,如果我們想讓模型忘記某個數據點A,我們可以讓模型學習一個與A具有相反影響的數據點B。當A的影響和B的影響相互抵消時,模型就等效地"忘記"了A。

      這種方法的數學基礎建立在影響函數理論上。影響函數可以告訴我們,當我們從訓練數據中移除一個特定樣本時,模型參數會如何變化。研究團隊發現,如果兩個數據點的梯度相反,那么它們對模型的影響也會相反。因此,通過學習一個具有相反梯度的數據點,模型可以有效地抵消需要遺忘的數據點的影響。

      這個發現不僅解決了計算復雜度的問題,還為機器學習開辟了一個新的研究方向。它表明,增量學習和機器遺忘這兩個看似獨立的研究領域實際上存在深刻的理論聯系。

      二、三重保障確保遺忘效果與模型性能

      IAU方法的成功關鍵在于其三個相互協作的核心模塊,每個模塊都承擔著特定的任務,共同確保遺忘過程既徹底又安全。

      增量近似模塊是整個系統的核心驅動器。當接收到遺忘請求時,這個模塊不會直接刪除相關信息,而是計算需要遺忘數據的梯度信息,然后讓模型沿著相反的方向進行學習。這個過程可以類比為物理學中的作用力與反作用力原理:如果原始數據對模型產生了向右的"推力",那么增量近似模塊就會產生一個向左的"推力"來抵消它。這種方法避免了傳統影響函數方法中復雜的矩陣計算,大大提高了計算效率。

      然而,僅憑增量近似可能會導致"過度遺忘"的問題。就像用力過猛可能會讓天平倒向另一邊一樣,單純的梯度抵消可能會影響模型對其他重要數據的處理能力。因此,梯度校正模塊應運而生。這個模塊的任務是在遺忘目標數據的同時,加強模型對剩余數據的學習。它通過讓模型重新學習保留數據的梯度信息,確保模型在忘記不需要的信息后,仍然能夠很好地處理其他任務。

      梯度限制模塊則是一個前瞻性的設計。與其他兩個模塊在遺忘階段才開始工作不同,這個模塊從模型訓練的最初階段就開始發揮作用。它通過在損失函數中添加一個梯度規范化項,限制模型參數梯度的大小。這樣做的好處是,當后續需要進行遺忘操作時,所有數據點對模型的影響都相對較小且均勻,使得遺忘操作更加精確和可控。

      這種三重保障機制的設計理念體現了工程學中的魯棒性原則。單獨使用任何一個模塊都可能存在局限性,但三個模塊的協同工作確保了IAU方法在各種情況下都能穩定運行。實驗結果證實了這種設計的有效性:當分別測試只使用增量近似、增量近似加梯度校正、以及完整的三模塊組合時,完整版本在模型效用和遺忘效果之間取得了最佳平衡。

      三、實驗驗證展現卓越性能表現

      為了驗證IAU方法的實際效果,研究團隊設計了一系列全面的對比實驗。他們選擇了四個具有代表性的基準數據集:CIFAR-10和SVHN(圖像分類任務)、Purchase100(表格數據)和CIFAR-100(更復雜的圖像分類任務)。同時,他們使用了多種不同架構的神經網絡模型,包括經典的LeNet5、現代的ResNet18、基礎的多層感知機MLP,以及更深層的VGG19網絡。

      實驗的評估標準包含三個關鍵維度。首先是模型效用,即遺忘后的模型在測試集上的性能與理想情況(重新訓練)的差距。理想情況下,這個差距應該盡可能小。其次是遺忘時間,即完成遺忘操作所需的計算時間。最后是遺忘效果,通過成員推斷攻擊來測試模型是否真正"忘記"了目標數據。

      在與現有主流方法的對比中,IAU展現出了顯著優勢。以在CIFAR-10數據集上使用LeNet5模型遺忘5%訓練數據為例,傳統的USGD方法需要33秒完成遺忘,模型性能下降0.80%,而IAU只需要13秒,性能下降僅為1.31%。更重要的是,當使用Fisher方法時,遺忘時間竟然達到了1294秒,這已經接近重新訓練的時間成本。

      特別值得注意的是IAU在處理異常數據時的表現。研究團隊專門設計了一個移除異常值的實驗,使用孤立森林算法在SVHN數據集中識別出587個異常樣本。實驗結果顯示,IAU在處理這類具有挑戰性的遺忘任務時表現尤為出色,這證明了梯度限制模塊在處理具有大梯度的異常數據時的有效性。

      為了更直觀地展示遺忘效果,研究團隊還提供了激活圖可視化分析。他們比較了不同遺忘方法處理前后的模型激活模式。結果顯示,重新訓練后的模型激活圖呈現輕微的向下偏移,這是預期的正常變化。而IAU方法產生的激活圖變化模式與重新訓練非常相似,證明了其遺忘效果的真實性。相比之下,其他一些方法要么變化過于劇烈(可能導致過度遺忘),要么變化不足(可能遺忘不徹底)。

      四、計算復雜度分析凸顯效率優勢

      從理論角度分析,IAU方法的計算復雜度優勢非常明顯。傳統的基于Hessian矩陣的影響函數方法需要計算O(nt? + nk?p? + p?)的時間復雜度,其中n是樣本數量,p是模型參數數量,t?是前向傳播時間,k?是Hessian矩陣元素的計算成本。這個復雜度中最關鍵的問題是p?項,它來自于Hessian矩陣求逆操作。對于現代深度學習模型,參數數量p往往達到數百萬甚至數十億,使得p?成為一個幾乎無法承受的計算負擔。

      相比之下,IAU方法的時間復雜度僅為O(nt? + nk?p),其中k?是梯度計算的成本。關鍵的區別在于,IAU完全避免了矩陣求逆操作,將立方復雜度降低到了線性復雜度。即使考慮到一些近似方法(如L-BFGS或LiSSA)可以將Hessian求逆的復雜度降低到O(tp),其中t是迭代次數,但總體復雜度仍然遠高于IAU。

      這種復雜度的差異在實際應用中轉化為巨大的性能優勢。在實驗中,Fisher方法(基于Hessian近似)在處理相對簡單的LeNet5模型時就需要超過1000秒的計算時間,而IAU只需要十幾秒。當模型規模進一步擴大時,這種差異將變得更加顯著。

      更重要的是,IAU的計算過程主要涉及標準的梯度計算操作,這些操作可以很好地利用現代GPU的并行計算能力。而Hessian矩陣的計算和求逆往往需要更多的內存帶寬和復雜的數值優化技術,在并行化方面存在更多挑戰。

      五、廣泛的適用性和魯棒性驗證

      研究團隊通過一系列補充實驗證明了IAU方法的廣泛適用性。首先,他們在表格數據上驗證了方法的有效性。使用Purchase100數據集和三層MLP模型的實驗表明,IAU不僅適用于圖像數據,在處理結構化的表格數據時同樣表現出色。這證明了方法的通用性,不局限于特定的數據類型或模型架構。

      針對更具挑戰性的任務,研究團隊在CIFAR-100數據集上使用VGG19模型進行了實驗。CIFAR-100包含100個類別的圖像,分類難度遠高于CIFAR-10的10個類別。VGG19則是一個具有19層的深度卷積神經網絡,參數數量和模型復雜度都顯著提高。即使在這種更具挑戰性的設置下,IAU仍然保持了良好的性能平衡。

      特別值得關注的是IAU在處理異常值移除任務時的表現。異常值通常具有與正常數據顯著不同的特征分布,它們對模型的影響往往不成比例地大。傳統的遺忘方法在處理這類數據時經常遇到困難,要么無法完全移除異常值的影響,要么在移除過程中破壞了模型對正常數據的處理能力。IAU方法通過其梯度限制機制,在訓練階段就對這類異常影響進行了控制,使得后續的遺忘操作更加精確和可控。

      研究團隊還進行了詳細的消融實驗,分別驗證了三個核心模塊的作用。實驗結果顯示,僅使用增量近似模塊時,雖然遺忘效果很好,但模型效用有所下降。加入梯度校正模塊后,模型效用得到了顯著改善,但遺忘效果略有下降。當三個模塊完整結合時,系統在兩個維度上都取得了最佳的平衡。

      超參數敏感性分析進一步證明了方法的魯棒性。研究團隊測試了梯度限制項的權重系數α從0到0.01的不同取值,以及遺忘比例從1%到10%的不同設置。結果表明,IAU方法對超參數變化相對不敏感,在較寬的參數范圍內都能保持穩定的性能。這種魯棒性對于實際應用非常重要,因為它減少了用戶進行復雜參數調優的需求。

      六、方法的理論意義和實踐價值

      IAU方法的提出不僅解決了一個具體的技術問題,更重要的是它在理論層面建立了增量學習和機器遺忘之間的橋梁。傳統上,這兩個研究領域被視為相互獨立的問題:增量學習關注如何讓模型高效地學習新數據,而機器遺忘關注如何讓模型忘記舊數據。IAU的核心洞察是,遺忘可以通過特殊形式的增量學習來實現。

      這種理論統一具有深遠的意義。它表明,我們可以將機器學習中的許多看似不同的問題歸納到更一般的框架中。增量學習領域經過數十年的發展,已經積累了大量成熟的理論和方法。通過建立這種聯系,機器遺忘研究可以直接借鑒和應用這些成果,加速自身的發展。

      從實踐角度來看,IAU方法的優勢在于其簡單性和高效性。與需要復雜數學推導和數值優化的傳統方法不同,IAU的核心操作就是標準的梯度計算和參數更新,這些都是深度學習框架中的基礎操作。這意味著IAU可以很容易地集成到現有的機器學習工作流程中,無需額外的專門工具或復雜的實現。

      在隱私保護方面,IAU方法提供了一種實用的解決方案。隨著GDPR等隱私法規的實施,組織需要能夠響應用戶的數據刪除請求。傳統的重新訓練方法在面對頻繁的刪除請求時成本過高,而IAU提供了一種快速、可靠的替代方案。更重要的是,IAU的遺忘效果可以通過成員推斷攻擊等技術進行驗證,為隱私保護提供了可信的保障。

      在模型安全方面,IAU方法也展現出了價值。當發現訓練數據中包含惡意樣本(如數據投毒攻擊)時,傳統的應對方法通常需要重新收集清潔數據并重新訓練模型,這個過程既耗時又昂貴。IAU方法使得組織可以快速移除惡意數據的影響,及時修復模型的安全漏洞。

      七、技術細節和實現考量

      IAU方法在技術實現上的一個重要特點是其對現有深度學習基礎設施的良好兼容性。整個算法只需要標準的自動微分功能來計算梯度,以及基本的參數更新操作。這意味著無論是PyTorch、TensorFlow還是其他主流深度學習框架,都可以直接支持IAU的實現,無需額外的底層優化或特殊硬件支持。

      梯度限制損失函數的設計體現了方法的前瞻性思考。傳統的機器遺忘方法通常只關注遺忘階段的操作,而忽略了訓練階段的準備工作。IAU通過在訓練損失中添加梯度規范化項,主動控制了模型參數對各個樣本的敏感度。這個設計不僅改善了后續的遺忘效果,還帶來了一個意外的好處:模型收斂速度的提升。實驗顯示,使用梯度限制損失訓練的模型通常需要更少的訓練輪數就能達到相同的性能水平。

      在處理批量遺忘請求時,IAU方法展現出了良好的擴展性。當需要同時遺忘多個數據點時,算法只需要計算所有目標樣本的梯度總和,然后進行一次參數更新操作。這種設計使得批量遺忘的計算成本與單個樣本遺忘基本相同,這對于實際應用中經常出現的批量刪除請求非常有價值。

      值得注意的是,IAU方法的內存需求也相對較低。由于避免了Hessian矩陣的存儲和計算,方法的內存占用主要來自于梯度計算,這與標準的訓練過程基本相同。這使得IAU可以應用于資源受限的環境,或者處理內存需求較大的大型模型。

      八、局限性和未來發展方向

      盡管IAU方法在多個方面表現出色,但研究團隊也誠實地指出了其局限性。首先,作為一種近似方法,IAU無法達到重新訓練的完美效果。雖然在大多數情況下這種差異很小且可接受,但在某些對精確性要求極高的應用場景中,這可能成為一個考量因素。

      其次,IAU方法的理論分析主要基于凸優化和一階泰勒展開的假設。雖然實驗結果表明這些假設在實踐中是合理的,但深度神經網絡的高度非凸性質意味著理論保證與實際表現之間可能存在差距。未來的研究需要進一步加強理論分析的嚴謹性。

      在方法的通用性方面,當前的IAU主要針對監督學習任務進行了驗證。對于無監督學習、強化學習或其他機器學習范式,方法的適用性還需要進一步探索。特別是在強化學習中,樣本之間的時序依賴關系可能會對基于梯度的遺忘方法提出額外挑戰。

      研究團隊指出了幾個有前景的未來研究方向。首先是將IAU的思想擴展到更先進的增量學習方法中。當前的實現主要使用了基礎的梯度下降,而現代增量學習領域已經發展出了許多更sophisticated的技術,如彈性權重整合、記憶回放等。將這些技術與IAU框架結合可能帶來進一步的性能提升。

      另一個重要方向是在聯邦學習環境中的應用。聯邦學習中的遺忘問題更加復雜,因為數據分布在多個客戶端上,而IAU的分布式實現可能為這個挑戰提供新的解決思路。

      此外,自適應超參數選擇也是一個值得探索的方向。雖然IAU對超參數相對不敏感,但不同的數據集和模型可能仍然存在最優參數設置。開發自動化的超參數選擇機制可以進一步提升方法的實用性。

      說到底,這項研究最令人興奮的地方在于它改變了我們思考機器學習問題的方式。通過從認知科學中汲取靈感,研究團隊不僅解決了一個具體的技術難題,更重要的是展示了跨學科思維在科學研究中的巨大價值。當我們面對看似復雜的技術問題時,答案可能就隱藏在其他領域的基礎原理中。

      IAU方法的成功證明了,有時候解決問題的最好方法不是直接攻擊問題本身,而是重新審視問題的本質。通過將"遺忘"重新定義為"反向記憶",研究團隊巧妙地將一個困難的問題轉化為一個相對簡單的問題。這種思維方式不僅在技術研究中具有價值,在我們的日常生活和工作中同樣適用。

      對于普通讀者來說,這項研究的意義遠不止于技術本身。它提醒我們,在人工智能越來越深入我們生活的今天,我們不僅需要關注AI能做什么,也需要關注AI不應該記住什么。隱私保護、數據安全、模型公平性等問題將在未來變得越來越重要,而像IAU這樣的技術為解決這些問題提供了有力工具。

      有興趣深入了解技術細節的讀者可以通過arXiv平臺訪問完整論文(https://arxiv.org/abs/2507.23257),研究團隊還在GitHub上開源了相關代碼(https://github.com/Lolo1222/IAU),為進一步的研究和應用提供了便利。

      Q&A

      Q1:IAU機器遺忘方法與傳統重新訓練相比有什么優勢?

      A:IAU最大的優勢是效率。傳統重新訓練需要從頭開始訓練整個模型,耗時數小時甚至數天,而IAU只需要幾秒到幾分鐘就能完成遺忘操作。同時,IAU避免了復雜的矩陣計算,大大降低了計算成本和內存需求,特別適合需要頻繁處理數據刪除請求的場景。

      Q2:IAU方法是如何確保真正"忘記"數據而不是假裝忘記的?

      A:研究團隊使用了成員推斷攻擊來驗證遺忘效果。這種攻擊試圖判斷某個數據是否被用于訓練模型。如果IAU真正忘記了目標數據,那么攻擊成功率應該與重新訓練的模型相似。實驗結果顯示,IAU處理后的模型確實表現出了與重新訓練模型相似的攻擊抵抗能力,證明遺忘是真實有效的。

      Q3:普通用戶或小公司能否使用IAU技術來保護數據隱私?

      A:可以的。IAU方法的一個重要優勢是實現簡單,只需要標準的深度學習框架就能運行,不需要特殊硬件或復雜工具。研究團隊已經在GitHub開源了代碼,任何有基礎機器學習知識的開發者都可以集成到自己的系統中。這為中小企業合規處理用戶數據刪除請求提供了實用的技術方案。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      1956年不愿被提及的羅源灣空戰,原志愿軍王牌飛行員被擊落犧牲

      1956年不愿被提及的羅源灣空戰,原志愿軍王牌飛行員被擊落犧牲

      興趣知識
      2025-12-31 02:34:52
      官宣才兩天就翻車?七七被連環爆料,林俊杰體面不保

      官宣才兩天就翻車?七七被連環爆料,林俊杰體面不保

      橙星文娛
      2025-12-31 16:21:13
      譚詠麟32歲兒子近照曝光,眉宇透著英氣像母親,在加拿大任工程師

      譚詠麟32歲兒子近照曝光,眉宇透著英氣像母親,在加拿大任工程師

      娛說瑜悅
      2025-12-31 16:20:24
      下月起,看病開藥新規!6類藥超7天全自費,慢病一次開3個月

      下月起,看病開藥新規!6類藥超7天全自費,慢病一次開3個月

      蜉蝣說
      2025-12-30 11:59:54
      13歲小女孩說肚子里有東西,父母帶她去檢查,結果出來父母大哭

      13歲小女孩說肚子里有東西,父母帶她去檢查,結果出來父母大哭

      青青會講故事
      2025-07-02 17:20:57
      真實故事:40人的武裝隊伍,遇到大型狼群,最終結局如何?

      真實故事:40人的武裝隊伍,遇到大型狼群,最終結局如何?

      極品小牛肉
      2024-09-18 09:34:29
      “美國已頒發許可,批準向中國出口”

      “美國已頒發許可,批準向中國出口”

      魯中晨報
      2025-12-31 15:53:03
      央媽嚴選!林高遠登央視跨年晚會,合唱《不再猶豫》,帥爆了

      央媽嚴選!林高遠登央視跨年晚會,合唱《不再猶豫》,帥爆了

      球盲百小易
      2026-01-01 02:37:25
      不要買!一級致癌物超標9000倍,成本最低僅1元,央視曝光

      不要買!一級致癌物超標9000倍,成本最低僅1元,央視曝光

      另子維愛讀史
      2025-12-30 20:42:23
      成都人跨年有多積極:距離零點五小時天府雙塔周邊已擠滿人,外地游客下火車就來也沒搶到前排

      成都人跨年有多積極:距離零點五小時天府雙塔周邊已擠滿人,外地游客下火車就來也沒搶到前排

      極目新聞
      2025-12-31 21:34:06
      新年第一炸!2026年首款新機官宣:1月1日,正式發布

      新年第一炸!2026年首款新機官宣:1月1日,正式發布

      科技堡壘
      2025-12-29 11:11:10
      伊朗爆發三年來最大動亂,矛頭對準哈梅內伊,危難關頭高層內訌

      伊朗爆發三年來最大動亂,矛頭對準哈梅內伊,危難關頭高層內訌

      溫度歷史
      2025-12-31 19:23:27
      千萬不要過度體檢?醫生再三提醒:55歲后,這5種體檢能不做就不做

      千萬不要過度體檢?醫生再三提醒:55歲后,這5種體檢能不做就不做

      神奇故事
      2025-12-30 23:09:45
      西部最新排名:快船創NBA奇跡,火箭收大禮,勇士穩住前八

      西部最新排名:快船創NBA奇跡,火箭收大禮,勇士穩住前八

      籃球大視野
      2025-12-31 17:14:21
      “跨年”全面放開,南京的變化透露什么信號?

      “跨年”全面放開,南京的變化透露什么信號?

      創客公社-江蘇第一創投媒體
      2025-12-31 15:31:57
      江蘇15名省管領導干部,任前公示

      江蘇15名省管領導干部,任前公示

      上觀新聞
      2025-12-31 18:32:04
      采訪中問留守兒童“為什么不吃肉”,被解讀為“何不食肉糜”,魯豫回應惡評和偏見

      采訪中問留守兒童“為什么不吃肉”,被解讀為“何不食肉糜”,魯豫回應惡評和偏見

      觀威海
      2025-12-31 09:30:04
      憋屈30年,中國終于掀桌子!一紙退貨令甩出,澳洲巨頭徹底慌神

      憋屈30年,中國終于掀桌子!一紙退貨令甩出,澳洲巨頭徹底慌神

      近史博覽
      2025-12-31 17:04:43
      北京一老板招25人其中24個騙子 :面試時積極,入職后就打卡混日子,試用期一到就離職,不用交社保,專騙底薪

      北京一老板招25人其中24個騙子 :面試時積極,入職后就打卡混日子,試用期一到就離職,不用交社保,專騙底薪

      觀威海
      2025-12-31 09:10:05
      2026高速“無感”通行來了!這五類車全年免費,收費站將逐步消失

      2026高速“無感”通行來了!這五類車全年免費,收費站將逐步消失

      三農老歷
      2026-01-01 01:10:21
      2026-01-01 07:15:00
      至頂AI實驗室 incentive-icons
      至頂AI實驗室
      一個專注于探索生成式AI前沿技術及其應用的實驗室。
      895文章數 151關注度
      往期回顧 全部

      科技要聞

      老羅,演砸了,也封神了?

      頭條要聞

      土耳其宣布對持普通護照中國公民免簽

      頭條要聞

      土耳其宣布對持普通護照中國公民免簽

      體育要聞

      羅馬諾:內馬爾與桑托斯就續約達成協議,合同期至2026年12月

      娛樂要聞

      官宣才兩天就翻車?七七被連環爆料

      財經要聞

      高培勇:分配制度改革是提振消費的抓手

      汽車要聞

      凱迪拉克純電中型SUV 售價不足24萬/33寸曲面屏

      態度原創

      教育
      數碼
      親子
      本地
      公開課

      教育要聞

      父母常說的3句話,會嚴重破壞孩子的內動力

      數碼要聞

      三星將在CES 2026發布廚房家電陣容,首次將谷歌Gemini塞進冰箱

      親子要聞

      從羅永浩到你的孩子:關于ADHD,這個真相越早知越好!

      本地新聞

      即將過去的2025年,對重慶的影響竟然如此深遠

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 欧美三级在线播放| 人妻无码网站| 精品国产成人一区二区| 欧美v亚洲v日韩v最新在线| 熟女少妇精品一区二区| 国产精品1区| 人妻成人网| 日本人妻伦在线中文字幕 | 成人性影院| 成在线人永久免费视频播放| 岛国精品在线播放| 精品毛片日| 欧美肥妇bwbwbwbxx| 亚洲第一无码专区天堂| 日韩无码中出| 日本欧美一区二区三区乱码| 久艹视频免费看| 中国亚州女人69内射少妇| a片地址| 99无码人妻一区二区三区色| 亚洲三区在线观看无套内射| 夜夜高潮次次欢爽av女| 全球熟女AV最大导航| 肏屄视频在线播放| 久久久婷婷成人综合激情| 美女一区二区三区亚洲麻豆| 内射网址| 丰满少妇人妻久久久久久| 在线精品视频一区二区| 久久国产精品老女人| 一本大道无码一区二区天天爽| 日韩av一区二区精品不卡| 亚洲欧美在线观看| 99人妻| 霞浦县| 男女一边摸一边做爽爽| 久久精品国产99久久6| 亚洲熟女食品| 亚洲欧洲激情| 无码国产精品一区二区色情男同| 在线看av一区二区三区 |