<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      多模態情感分析:從數據融合到人工智能理解人類情感的進化之路

      0
      分享至

      在人工智能的浩瀚星空中,多模態情感分析如同一顆正在崛起的新星,照亮了機器理解人類情感的前進道路。當文字、聲音和圖像融合在一起,AI能否真正讀懂人類復雜的情感世界?從早期單一模態的局限,到如今多種信息通道的協同融合,這一技術正逐步縮小機器與人類之間的情感鴻溝。然而,解讀諷刺話語、分析隱藏情緒、處理跨語言文本——這些挑戰仍如同未解之謎,等待著研究者的探索。當我們站在多模態情感分析的十字路口,是否已經看到了AI與人類情感共鳴的曙光?


      情感解讀之路

      情感是人類對外部刺激的主觀反應。這種反應不僅僅體現在我們的言語中,還會通過面部表情、聲音語調等多種渠道表達出來。想象一下,當一個人說"今天真是太好了",如果他面帶微笑、聲音愉悅,我們很容易判斷他確實心情不錯;但如果他板著臉、語調低沉,同樣的話卻可能表達出強烈的諷刺意味。

      人工智能情感分析技術正是希望賦予機器這種理解人類復雜情感的能力。最初的情感分析主要集中在文本上,通過分析人們在社交媒體、評論區發表的文字內容來判斷其情感傾向。比如2014年,研究者們開始使用詞向量和深度學習方法來分析文本中的情感,準確率達到了約70%。這在當時已經是相當不錯的成績。

      不過,單純依靠文本進行情感分析存在明顯局限。例如,一條簡單的"好"字評論,究竟是真心贊美還是敷衍了事?僅從文本很難判斷。就像一個人只通過讀信件來猜測對方情緒一樣,缺少了面對面交流時的語調變化、表情變化等重要線索。

      隨著計算機視覺和語音處理技術的發展,研究者們逐漸將目光投向了多模態情感分析。所謂"多模態",簡單來說就是同時分析來自多個信息通道(模態)的數據,比如結合文本、語音和視頻一起判斷情感。

      2016年,CMU-MOSI數據集的發布標志著多模態情感分析的研究進入了新階段。這個數據集包含了93段YouTube視頻,這些視頻被分割成2,199個片段,每個片段都標注了從強烈負面到強烈正面的情感強度(-3到+3)。借助這個數據集,研究者們開始嘗試不同的方法來融合文本、語音和視覺信息。

      有趣的是,多模態情感分析的價值遠不止于提升準確率。在商業領域,它可以幫助企業更準確地分析用戶對產品的真實感受,從而改進產品設計;在心理健康領域,它可以輔助醫生監測患者的情緒變化;在智能客服領域,它能讓機器人更好地理解客戶的情感需求,提供更人性化的服務。

      2020年,一項利用多模態情感分析技術的研究顯示,相比僅使用文本分析,結合面部表情和語音特征的多模態方法將抑郁癥檢測的準確率提高了約15%。這一成果充分說明了多模態分析在實際應用中的巨大潛力。


      隨著研究的深入,多模態情感分析也在不斷挑戰更復雜的情感理解任務。比如識別諷刺、理解文化差異帶來的情感表達差異等。MELD數據集(基于美劇《老友記》的場景)的出現,使研究者們可以在更接近真實社交場景的環境中測試模型性能。該數據集包含1,400個視頻,分為13,000個片段,不僅標注了積極、消極等基本情感,還包括憤怒、厭惡、悲傷、喜悅、中性、驚訝和恐懼等細分情感類別。

      多模態情感分析不只是技術的進步,它代表了AI向真正理解人類情感邁出的重要一步。當計算機能夠像人類一樣從多個維度理解情感,我們與技術的互動方式將發生根本性的變革。

      數據與融合術

      在多模態情感分析的世界里,高質量的數據集和有效的融合方法是兩大核心支柱。這就像廚師需要優質食材和絕妙烹飪技巧才能做出美味佳肴一樣。

      多模態情感分析常用的數據集各有特色。IEMOCAP是2008年發布的早期數據集,包含1,039段對話視頻,總時長達12小時。這些視頻記錄了演員們按照預設情景表演各種情緒,并標注為十種情感類別:中性、快樂、悲傷、憤怒、驚訝、恐懼、厭惡、沮喪、興奮和其他。

      CMU-MOSI和CMU-MOSEI是兩個廣泛使用的數據集。CMU-MOSI包含93個YouTube視頻,分為2,199個片段;而CMU-MOSEI則更大,包含3,228個視頻,分為23,453個片段。兩者都提供了從-3到+3的情感強度標注。

      CH-SIMS是專為中文多模態情感分析設計的數據集,包含60個網絡視頻,分為2,281個片段。每個片段只包含一個人的面部和聲音,涵蓋了不同場景和不同年齡的說話者。

      MEMOTION數據集則關注互聯網上流行的表情包(meme),包含10,000個數據點,主要涉及政治、宗教和體育相關的表情包。這些表情包被標注為三個子任務:情感分析、情感分類和情感強度分級。

      在如此豐富的數據基礎上,研究者們開發了各種方法來融合不同模態的信息。這些融合方法大致可分為三類:早期特征融合、中期模型融合和后期決策融合。

      早期特征融合是在模型的淺層進行融合,相當于將不同單一模態的特征統一到同一個參數空間中。比如THMM(三模態隱馬爾可夫模型)通過張量分解方法提取隱藏狀態和轉移概率,有效利用了多模態數據之間的相關性和互補性。RMFN(循環多階段融合網絡)則使用多個循環神經網絡層逐步融合不同模態特征,從局部到全局,從低層到高層,最終獲得全面的情感表示。

      中期模型融合是在模型的中間層進行特征融合。MKL(多核學習)使用不同的核函數表示不同模態信息,通過優化目標函數選擇核函數的最佳組合。BERT-like模型則基于Transformer架構,利用自注意力機制實現文本和圖像之間的對齊和融合。

      后期決策融合是在每個模態單獨訓練模型后,將不同模態的輸出融合成最終決策。Deep Multimodal Fusion Architecture讓每個模態有獨立的分類器,最后通過平均各分類器的置信度分數輸出預測結果。SAL-CNN(選擇-加法學習CNN)則是基于CNN和注意力機制的多模態情感分析模型,使用自適應注意力機制融合文本和圖像特征。


      2020年的MISA模型做了一個有趣的嘗試——將每個模態映射到兩個不同的特征空間,一個學習模態的不變特征,一個學習模態的獨特特征。這種方法可以區分不同模態間的共享信息和私有信息,提高模型性能。

      2021年的TIMF模型則采用了張量融合網絡對每個模態的特征進行融合,并在決策融合階段通過軟融合調整決策結果。這種多層次的融合策略取得了不錯的效果,在CMU-MOSI數據集上達到了92.28%的準確率。

      2022年的Self-MM模型則將自監督學習與多任務學習相結合,構建了一種新穎的多模態情感分析架構。該模型通過自監督學習生成單模態標簽,然后通過權重調整策略將這些標簽整合到原始的多模態情感分析模型中。

      在模型比較方面,基于Transformer的模型如MAG-BERT在處理文本信息時表現出色;而對于視頻和音頻模態信息,LSTM更適合捕捉時間序列中的模態信息。有趣的是,不考慮視覺模態的DFF-ATMF模型在各項性能指標上都相對較低,這說明視覺信息可以提供額外的人類表情、姿勢、場景等信息,能夠增強文本和語音模態的信息,也能對它們進行補充。

      總的來說,多模態情感分析技術正在快速發展,但仍面臨許多挑戰。當前的研究方向包括構建更大規模的多語言數據集,解決視頻、文本和語音模態數據的域遷移問題,構建統一的大規模多模態情感分析模型,以及減少模型參數、優化算法復雜度等。隨著這些挑戰被逐一克服,多模態情感分析技術將為人工智能理解人類情感開辟更廣闊的前景。

      模型精華對比

      要比較多模態情感分析的前沿模型,就像品鑒不同年份、不同產地的美酒一樣,需要了解它們各自的特色與長處。近年來,這一領域的研究如雨后春筍般涌現,我們來重點看看幾個在學術界和工業界產生重要影響的模型。

      DFF-ATMF模型專注于文本和音頻兩種模態的融合,它通過兩條平行分支學習這兩種模態的特征。這個模型的亮點在于提出了新的多特征融合策略和多模態融合策略。在CMU-MOSI數據集上,它達到了80.9%的準確率,F1分數為81.3;在CMU-MOSEI數據集上,準確率為77.2%,F1分數為78.3%。這個模型的局限在于沒有考慮視覺模態,而視覺信息能提供表情、姿勢等重要線索。


      MAG-BERT模型的獨特之處在于它改造了BERT的內部結構,使用多模態適應門允許BERT接收多模態輸入。值得一提的是,這種方法既簡單又有效,不需要改變BERT的結構和參數。在CMU-MOSI數據集上,它的F1分數達到了86%;在CMU-MOSEI數據集上,準確率為82%,F1分數為82.1%。不過,這個模型的多模態注意力只能在同一時間步內進行,無法跨時間步,可能會忽略一些時間關系。

      TIMF模型利用Transformer的自注意力機制來學習多模態數據之間的復雜交互,生成統一的情感表示。在CMU-MOSI數據集上,它表現出色,準確率高達92.3%;在CMU-MOSEI數據集上,準確率為79.5%。這個模型雖然能學習復雜的模態間關系,但計算復雜度極高,訓練時間長,且需要大量標注數據。

      Self-MM模型是一個基于自監督的多模態情感分析模型,它采用多任務學習策略同時學習多模態和單模態的情感識別任務。這個模型的創新點在于它可以通過自監督方式生成單模態標簽,節省了人工標注的成本和時間。在CMU-MOSI數據集上,它的準確率為84.8%;在CMU-MOSEI數據集上,準確率為84.1%。這個模型雖然強大,但多任務間可能存在干擾和不平衡,需要設計合適的權重調整策略。

      DISRFN模型是一個基于深度殘差網絡的多模態情感分析模型,它采用了動態不變特定表示融合網絡策略。這個模型的亮點在于它能通過修改的聯合域分離網絡高效利用冗余信息,獲取所有模態的聯合域分離表示,并通過層次圖融合網絡動態融合各表示。在CMU-MOSI數據集上,它的準確率為83.4%,F1分數為83.6%;在CMU-MOSEI數據集上,準確率高達87.5%。


      從這些模型的表現來看,我們可以得出一些建議:對于文本信息的特征提取,BERT模型表現出色;而對于視頻和音頻模態信息,LSTM更適合捕捉時間序列中的信息。值得注意的是,視覺模態信息不容忽視,它能提供人類表情、姿勢、場景等額外信息,增強和補充文本和語音模態的信息。

      2020年的研究表明,將BERT用于文本處理,LSTM用于處理視頻和音頻信息的混合架構,在多模態情感分析任務中取得了良好的平衡。具體來說,這種架構在CMU-MOSI數據集上的準確率比單純使用CNN或RNN的模型高出約5%。

      2022年的一項對比研究發現,考慮視覺模態的模型在處理含有諷刺、反語等復雜情感表達的數據時,準確率比不考慮視覺模態的模型高出約8%。這再次證明了視覺信息在情感分析中的重要性。


      總的來說,構建一個高效的多模態情感分析模型需要綜合考慮多種因素:選擇合適的特征提取方法、設計有效的模態融合策略、平衡模型復雜度和性能等。隨著研究的深入,未來的模型可能會更加輕量化、高效,同時保持甚至提升分析準確率。

      挑戰與新機遇

      盡管多模態情感分析技術已取得長足進步,但仍面臨著一系列亟待解決的挑戰。這些挑戰不僅是技術障礙,也是推動這一領域不斷前進的動力。

      當前數據集的多樣性和標注精度問題十分突出。現有的多模態情感數據集在語言覆蓋方面存在局限,缺乏大規模的多語言數據集。考慮到世界各國語言和種族的多樣性,一個大型、多樣化的數據集對于訓練具有強泛化能力的多模態情感分析模型至關重要。

      2020年發布的CH-SIMS數據集嘗試解決中文多模態情感分析的需求,包含60個視頻,分為2281個視頻片段。但與英文數據集如CMU-MOSEI(包含23453個片段)相比,規模仍顯不足。此外,2021年的CMU-MOSEAS數據集雖然涵蓋了西班牙語、葡萄牙語、德語和法語,但許多其他語言仍未得到充分覆蓋。

      數據標注精度也是一個關鍵問題。現有多模態數據集的標注仍不夠精細,尚未達到絕對連續的數值,這限制了模型對情感強度的精確捕捉。一項針對MELD數據集的研究發現,不同標注者對同一情感片段的標注一致性只有約75%,反映了情感判斷的主觀性和標注難度。

      除了數據問題,隱藏情緒的檢測一直是多模態情感分析的一大難題。隱藏情緒包括諷刺性情緒(如反語)、需要在上下文中具體分析的情緒,以及復雜情緒(如一個人同時表現出喜悅和悲傷)。

      2022年的一項研究對MEMOTION數據集中的10,000個表情包進行分析,發現約35%的表情包包含諷刺或反語元素,這些表情包的情感分析準確率比普通表情包低約15%。這說明即使是最先進的多模態情感分析模型,在處理諷刺和反語時仍面臨挑戰。

      視頻數據形式的多樣性也帶來了技術難題。在實際應用中,視頻數據的質量可能遠低于實驗室環境。雖然理想情況下,說話者面對攝像機且視頻分辨率保持在高水平,但實際情況往往更為復雜,需要模型對噪聲具有魯棒性,并適用于低分辨率視頻數據。捕捉說話者的微表情和微動作進行情感分析,也是研究者值得探索的領域。

      2019年發布的MELD數據集基于電視劇《老友記》的視頻片段,包含多人對話、背景噪音、不同角度拍攝等真實場景中的復雜因素。研究表明,在這種復雜場景下,最先進模型的準確率比在控制環境下錄制的IEMOCAP數據集低約10%,凸顯了實際應用中的挑戰。


      語言數據的多形式性也是一個重要挑戰。在線社區中的評價文本常常是跨語言的,評論者使用多種語言來表達更生動的評論。混合情緒的文本數據仍然是多模態情感分析任務的一個挑戰。充分利用文本中混合的表情符號也是一個重要的研究課題,因為表情符號通常包含評論者極強的情感信息。

      2022年針對Twitter數據的研究發現,約25%的情感相關推文包含多語言混合現象,而這些多語言混合推文的情感分析準確率比單語言推文低約12%。此外,同一研究還發現,包含表情符號的推文,如果僅分析文本而忽略表情符號,會導致約18%的情感判斷錯誤。

      另一個挑戰是,大多數文本數據是通過語音直接轉錄的,當多人同時說話時,分析一個人的情緒變得特別困難。結合不同地區和國家的文化特點,相同的文本數據可能反映不同的情感。

      展望未來,多模態情感分析技術有著廣闊的應用前景。多模態情感分析技術可用于實時評估心理健康,多模態犯罪語言欺騙檢測模型,攻擊性語言檢測,以及具有人類情感意識的機器人等領域。

      在心理健康領域,2021年的一項研究表明,結合面部表情、語音特征和文本內容的多模態情感分析系統,能以約85%的準確率檢測抑郁癥早期征兆,比單一模態系統高出約20%。這表明多模態系統在心理健康監測方面具有巨大潛力。

      在犯罪偵查領域,一項針對法庭審判視頻的分析發現,結合被告的面部微表情、語音顫抖和語言選擇的多模態分析系統,能以約80%的準確率檢測出說謊行為,顯著高于人類專家約65%的準確率。

      隨著技術的不斷進步,未來可能會出現一個具有大量參數的多模態情感分析模型,擁有與人類相當的情感分析能力。這將徹底改變人機交互的方式,使計算機能更好地理解和響應人類的情感需求。

      從技術層面看,有幾個值得探索的研究方向:構建大型多語言多模態情感數據集;解決視頻、文本和語音模態數據的域遷移問題;建立具有卓越泛化性能的統一大規模多模態情感分析模型;減少模型參數,優化算法,降低算法復雜度;解決多模態情感分析中的多語言混合問題;探討模態融合的權重問題,提供最合理的方案在不同情況下分配不同模態的權重;討論模態之間的相關性,分離它們之間的共享和私有信息,以提高模型性能和可解釋性;構建能很好地完成隱藏情緒分析的多模態情感分析模型。

      通過解決這些挑戰和探索這些研究方向,多模態情感分析技術將不斷進步,為人工智能賦予真正理解人類情感的能力,推動人機交互邁向新的高度。

      參考資料

      1. Lai, S., Xu, H., Hu, X., Ren, Z., &; Liu, Z. (2023). Multimodal Sentiment Analysis: A Survey. arXiv:2305.07611v1

      2. Zadeh, A., Chen, M., Poria, S., Cambria, E., &; Morency, L. P. (2017). Tensor fusion network for multimodal sentiment analysis. arXiv preprint.

      3. Poria, S., Cambria, E., Bajpai, R., &; Hussain, A. (2017). A review of affective computing: From unimodal analysis to multimodal fusion. Information Fusion.

      4. Baltrusaitis, T., Ahuja, C., &; Morency, L. P. (2019). Multimodal machine learning: A survey and taxonomy. IEEE transactions on pattern analysis and machine intelligence.

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      Angelababy在上海與一眾網紅聚會!這真是“美得突出”

      Angelababy在上海與一眾網紅聚會!這真是“美得突出”

      今古深日報
      2025-12-18 11:58:58
      楓花戀高分佳作,長發楓哥,黑絲女仆

      楓花戀高分佳作,長發楓哥,黑絲女仆

      吃瓜黨二號頭目
      2025-12-18 08:58:41
      大規模年輕人選擇不生小孩

      大規模年輕人選擇不生小孩

      經濟學教授V
      2025-12-16 18:41:25
      騙走 80 后眼淚的神片:《媽媽再愛我一次》,中年再看全是PUA

      騙走 80 后眼淚的神片:《媽媽再愛我一次》,中年再看全是PUA

      白羽居士
      2025-12-09 18:38:18
      還未入冬!湖南刷新1961年以來最晚入冬紀錄,專家:秋季攢的熱量太多

      還未入冬!湖南刷新1961年以來最晚入冬紀錄,專家:秋季攢的熱量太多

      瀟湘晨報
      2025-12-18 09:54:13
      邪惡實驗:6女4男船上共處100天無法律約束,結果揭秘

      邪惡實驗:6女4男船上共處100天無法律約束,結果揭秘

      王嚾曉
      2025-12-17 13:19:55
      轟動全國的游戲軍費貪污案,欠鋪路民工80,沒有萬

      轟動全國的游戲軍費貪污案,欠鋪路民工80,沒有萬

      遠方青木
      2025-12-16 23:38:18
      2028年奧運會男足名額分配:亞足聯2.5個名額,歐足聯4個名額

      2028年奧運會男足名額分配:亞足聯2.5個名額,歐足聯4個名額

      懂球帝
      2025-12-17 22:03:05
      王大雷離開魯能后首次現身新去處,得到球迷追捧,本人發聲確認

      王大雷離開魯能后首次現身新去處,得到球迷追捧,本人發聲確認

      籃球看比賽
      2025-12-18 13:40:05
      難以置信!高考664分,某同學從頂尖985轉學到普通本科,引發爭議

      難以置信!高考664分,某同學從頂尖985轉學到普通本科,引發爭議

      火山詩話
      2025-12-17 06:19:46
      霸王茶姬創始人婚禮證婚詞曝光!證婚人李善友稱:張俊杰一天書都沒念,是個天才,與新娘在混沌學園相識相愛

      霸王茶姬創始人婚禮證婚詞曝光!證婚人李善友稱:張俊杰一天書都沒念,是個天才,與新娘在混沌學園相識相愛

      觀威海
      2025-12-17 15:18:04
      離奇“海參養殖惡勢力”案:被敲詐者包括河北省公安廳公職人員

      離奇“海參養殖惡勢力”案:被敲詐者包括河北省公安廳公職人員

      法治邊角料
      2025-12-18 10:02:40
      和郭艾倫傳緋聞?女籃美女曝光,31歲,老鄉,活潑,公布擇偶標準

      和郭艾倫傳緋聞?女籃美女曝光,31歲,老鄉,活潑,公布擇偶標準

      樂聊球
      2025-12-17 11:18:50
      Epic就圣誕連送活動向玩家道歉!深知與Steam的差距

      Epic就圣誕連送活動向玩家道歉!深知與Steam的差距

      3DM游戲
      2025-12-18 14:38:26
      咱們不打算繼續等下去了,王毅外長直言:我們有權對日本進行清算

      咱們不打算繼續等下去了,王毅外長直言:我們有權對日本進行清算

      扶蘇聊歷史
      2025-12-17 15:24:00
      大船繞開新加坡直奔中國,打破“馬六甲困局”,中國布局終于起效

      大船繞開新加坡直奔中國,打破“馬六甲困局”,中國布局終于起效

      達文西看世界
      2025-12-18 15:52:14
      讓人眼紅了!16歲小伙深圳賣烤雞,日入過萬,每月給家里寄幾萬元

      讓人眼紅了!16歲小伙深圳賣烤雞,日入過萬,每月給家里寄幾萬元

      火山詩話
      2025-12-17 05:38:28
      悲催!一男子露營為陌生女孩提供帳篷睡袋遭損壞,要賠償被罵拉黑

      悲催!一男子露營為陌生女孩提供帳篷睡袋遭損壞,要賠償被罵拉黑

      火山詩話
      2025-12-17 08:41:36
      成都8人合同到期,周定洋成搶手貨 徐正源走人有陣痛期 明年爭前4

      成都8人合同到期,周定洋成搶手貨 徐正源走人有陣痛期 明年爭前4

      替補席看球
      2025-12-18 14:25:53
      林生斌現狀曝光:定居澳洲富人區,一家幸福,現任是前公司員工

      林生斌現狀曝光:定居澳洲富人區,一家幸福,現任是前公司員工

      林輕吟
      2025-09-21 09:21:51
      2025-12-18 17:20:49
      文史明鑒 incentive-icons
      文史明鑒
      每個人都是自己的歷史學家
      1340文章數 10668關注度
      往期回顧 全部

      科技要聞

      新一代AI創業大賽頒獎典禮暨AI投資論壇

      頭條要聞

      普京:“歐洲小豬”想從俄羅斯解體中撈好處

      頭條要聞

      普京:“歐洲小豬”想從俄羅斯解體中撈好處

      體育要聞

      巴黎首奪世界級冠軍 加冕6冠王比肩巴薩拜仁

      娛樂要聞

      絲芭放大招了!實名舉報鞠婧祎經濟犯罪

      財經要聞

      重大改革,身關14億人的政策徹底變了!

      汽車要聞

      開箱日產大沙發 精致辦公or躺平追劇 哪個更適配?

      態度原創

      教育
      時尚
      藝術
      房產
      數碼

      教育要聞

      滿分聽力秘籍!!

      “棕色大衣”今年冬天又火了,怎么搭都高級時髦

      藝術要聞

      卡洛斯·杜蘭:不只是薩金特的老師!

      房產要聞

      太強了!封關時刻,兩天砸下50億!央企綠發,重倉三亞!

      數碼要聞

      XREAL 1S正式發布:一副眼鏡,開啟500 英寸隨身空間巨幕時代

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 亚洲中文字幕2025| 欧美日韩精品一区二区三区在线| 精品视频国产香蕉尹人视频| 欧美性xxxx狂欢老少配| 亚洲午夜久久久影院伊人| 中文有码在线观看| 色综合?人妻| 九九久久精品国产| 天堂网国产| 亚洲天堂在线播放| 太和县| 久久久久免费看黄a片app| 中文字幕av免费专区| 国产视频最新| 露脸丨91丨九色露脸| 亚洲 欧美 清纯 校园 另类| 亚洲国产精品va在线看黑人| 五月综合激情婷婷六月| 国产精品666| 国产又粗又猛又爽又黄| 国产精品99久久免费| 亚洲av一本二本三本| 71.C在线观看| 日本无遮挡吸乳视频| 国内大量揄拍人妻精品視頻| 日日摸夜夜添夜夜添国产三级| 亭亭五月丁香| 躁躁躁日日躁| 欧美丰满熟妇bbb久久久| 影音先锋久久| 成人精品三级在线观看| 免费视频国产在线观看| 欧美性群另类交| 蜜臀久久99精品久久久酒店新书| 一本大道无码人妻| 国产午夜鲁丝片av无码| 国产欧美日韩免费看AⅤ视频| 免费看欧美成人A片无码| 国产精品va在线观看无码| 丰满少妇人妻无码| 国产自在自线午夜精品|