<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      SciencePedia:解壓科學的“暗物質”

      0
      分享至


      導語

      大多數科學資料會壓縮推理過程,僅呈現結論而省略支撐結論的推導鏈。由于缺乏明確的逐步論證,這種壓縮阻礙了驗證,而且坍縮建立概念間邏輯與因果關聯的路徑會抑制跨領域鏈接。本文提出一種可擴展框架,用于解壓縮科學推理過程,構建可驗證的長思維鏈(LCoT)知識庫,并將其投射為一個新興的百科全書 ——SciencePedia。我們的流程采用了一種目標驅動的還原論策略:一個由大概 200 門課程指導的蘇格拉底智能體,生成了約 300 萬個基于第一性原理的問題。為確保高可信度,多個獨立的求解器模型生成長思維鏈,隨后通過提示詞凈化和跨模型答案共識進行嚴格篩選,僅保留那些具有可驗證終點的推理鏈。這個經過驗證的語料庫為頭腦風暴搜索引擎提供支持,使引擎執行反向知識搜索 —— 檢索最終指向目標概念的多樣化、基于第一性原理的推導。進而,該引擎為柏拉圖合成器提供輸入,柏拉圖合成器將這些經過驗證的推理鏈敘述為連貫的文章。初始版 SciencePedia 包含約 20 萬個細粒度條目,涵蓋數學、物理、化學、生物、工程和計算機科學。在六個學科的評估中,與沒有檢索的同等提示基線相比,柏拉圖生成器基于檢索到的長思維鏈生成的文章具有更高的知識點密度和更低的事實錯誤率(由外部大型語言模型判定)。基于此可驗證的長思維鏈知識庫,這種以推理為核心的方法能夠實現大規模、可信的跨領域科學綜合,并為不斷擴展的百科全書奠定了基礎。

      關鍵詞:長思維鏈(Long Chain of Thought), 科學推理(Scientific Reasoning), 知識庫(Knowledge Base), 逆向知識搜索(Inverse Knowledge Search), 百科全書(Encyclopedia)

      Lynne丨作者

      彭晨丨審校


      論文題目:Inverse Knowledge Search over Verifiable Reasoning: Synthesizing a Scientific Encyclopedia from a Long Chains-of-Thought Knowledge Base 論文鏈接:https://arxiv.org/abs/2510.26854 發表時間:2025年11月7日 論文來源:arXiv SciencePedia網站鏈接:https://www.bohrium.com/sciencepedia

      被壓縮的“暗物質”:傳統知識體系的根本缺陷

      維基百科匯聚了幾乎所有領域的知識,但卻存在不同語言版本的質量參差不齊,學科壁壘難以打破等局限。這些問題看似獨立,實則源于人類主導的編纂這一方式的根本缺陷:推理過程的極端壓縮。為減輕時間和精力成本,從教科書到維基,人類構建的科學語料庫優先呈現結論,而非推理過程。而這些龐大而未記錄的推理網絡,正是人類知識的 “暗物質” 。這種“暗物質”的缺失導致了當前的知識體系有兩個關鍵問題。

      1. 知識變得難以導航和驗證;人們只能訴諸權威,而非透明、可審查的思維過程。

      2. 一旦把推導路徑壓縮殆盡,我們便切斷了學科內部以及學科之間的內在聯系,那些驅動創新的微妙跨學科紐帶也隨之喪失。

      要逆轉這種壓縮,將推理的“暗物質”外部化,需要一個遠超人類能力的知識生成與驗證的引擎。大語言模型(LLM)成為第一個可行的候選者。但若直接讓 LLM 提煉知識或撰寫百科,結果必然失敗——會重現 “重結論、輕推理” 的模式,繼承人類互聯網語料的 “暗物質盲視”;而且,LLM 存在“幻覺”(hallucinations)問題。

      故研究團隊提出了一套兩步走的解決方案:首先,系統性構建一個規模龐大、可驗證且高度互聯的長思維鏈(LCoT)知識庫,其核心是基于第一性原理的推導;其次,將這個 “解壓縮” 的知識庫投射為人類可探索的百科全書。這讓知識回歸 “推理本身”,而非僅僅是 “推理的結果”。

      LCoT 語料庫:為何能成為可靠的知識基石?

      研究團隊假定由現代 LLM 生成的長思維鏈語料庫,構成了一種與 LLM 預訓練數據(互聯網語料)截然不同的新型數據分布。這種獨特性與可靠性,源于兩大核心支柱。

      一、新穎性:推理的全新統計分布。

      LLM 的預訓練,本質上是讓模型對齊人類互聯網語料的分布。然而,這種語料具有強烈的“壓縮性”:它充斥著大量“系統 1”式的快速、直覺性結論,卻缺乏“系統 2”式的逐步推演。換句話說,對于一個輸入問題 Q,在訓練數據中幾乎找不到相應的推理鏈,這也導致基礎模型幾乎不具備生成 LCoT 的能力。

      但經過后訓練(post-training)后,局面發生了根本轉變。研究采用了 “基于可驗證獎勵的強化學習”(Reinforcement Learning from Verifiable Rewards, RLVR)范式 —— 這種方法不再讓模型模仿表面文本,而是優化其生成終點可被驗證的推理軌跡(比如讓模型計算一道物理題的最終數值、推導出一個確定的數學公式或匹配已知解)。這一過程解鎖了模型的長文本推理能力,讓經過 RLVR 訓練的模型能夠針對問題 Q 生成長篇、多步驟的 LCoT。最終,兩個模型的生成分布出現巨大差異:LLM 生成 LCoT 的概率,遠高于基礎模型趨近于零的水平。

      這種統計偏差,正是 LCoT 語料庫的新穎性所在。

      二、可靠性:因果與邏輯的固有一致性

      雖然新的分布并非完美,也會存在隨機誤差(即 “幻覺”),但是LCoT 的核心優勢在于可驗證性:這些推理軌跡的訓練目標是 “終點可機械驗證”的(如數值答案、符號公式),其有效性可以被外部評估。多個獨立的模型,幾乎不可能巧合地生成不同錯誤推理路徑、卻最終收斂到同一正確答案。因此,通過 “跨模型答案驗證”(Cross-Model Answer Validation)達成的共同結論,可以用來篩選因果與邏輯一致性。這一特性,讓 LCoT 語料庫不僅新穎,更能高度貼合科學的真實結構。

      LCoT 知識庫的構建:

      蘇格拉底智能體的 “還原論” 策略

      為了形成一個全面、互聯且基于第一性原理的知識庫,研究團隊構建了以“長思維鏈問答對”(LCoT-QA pairs)為基本知識單元的新框架。它貼合科學探究的本質(以問題為起點),為驗證提供了清晰框架(從問題到結論的推理鏈),讓龐大的知識庫變得可導航(問題作為復雜推導網絡的語義入口)。

      研究團隊基于還原論策略開發了 “蘇格拉底智能體”(Socratic agent),可以規?;?LCoT-QA 對,工作流程如圖 1 所示。


      圖1. 問題生成與交叉驗證的三階段流程。首先,規劃智能體(Planner) 依據一個知識單元生成高層次的“問題草圖”。其次,生成智能體(Generator) 將這些草圖擴展為答案可驗證的具體題目。最后,題目被提交給多個獨立的解題智能體(Solver),它們(不同 LLM)的答案經交叉驗證,以確保生成內容的正確性與可靠性。

      蘇格拉底智能體并非從公理出發 “正向推理”(這種方式的完整性難以保證),而是從高層知識點(即 “終點”)出發,讓模型從更基礎的原理中推導出該知識點。這種策略能系統性確保知識覆蓋的完整性,同時,智能體會要求模型從不同抽象層級(如本科、研究生水平)推導同一終點,使得模型清晰闡述不同科學理解層級間的關聯。

      為了讓 “終點” 的定義更全面,團隊開發了基于課程的支架式實現(curriculum-based scaffolding):首先手動整理了約 200 門本科與研究生課程,每門課程枚舉約 200 個核心主題;隨后,為每個主題自動生成約 100 個提示(prompts),這些提示分為兩類:還原論提示(What and Why),要求模型從指定第一性原理解釋概念或推導結果;應用提示(How),將理論與實際場景結合。

      知識生成后,更關鍵的是多維度驗證協議。第一步是提示詞凈化(Prompt Sanitization):在推理開始前,用獨立的 LLM 檢查生成的問題是否科學、合理,濾除約 5% 的有瑕疵問題;第二步是可驗證終點設計:提示詞生成時偏向答案可客觀驗證的問題(如符號/數值計算、代碼解決方案),讓正確與否有明確判斷標準;第三步是跨模型答案驗證:每個問題至少由兩個不同LLM處理,若最終答案存在分歧,整個問答對會丟棄。研究數據顯示,在物理問題樣本中,LLM的成功率從本科問題的約 70% 降至研究生問題的約 50%。

      頭腦風暴搜索引擎:

      讓知識搜索變成 “推理探索”

      當 LCoT 知識庫構建完成后,研究團隊進一步開發了用于知識合成與發現的核心工具——頭腦風暴搜索引擎(Brainstorm Search Engine)。

      對于傳統搜索引擎,用戶能查到 “某個概念是什么”,卻難以挖掘 “這個概念如何推導而來”。頭腦風暴搜索引擎直接以 LCoT 知識庫為操作對象 ,“推理過程” 本身就是核心內容。

      引擎的核心機制被定義為反向知識搜索(inverse knowledge search),用戶只需提供一個目標概念,引擎就能檢索出包含該概念的所有 LCoT 推導鏈。

      例如,若搜索 “瞬子(Instanton)”,傳統搜索可能僅返回其技術定義;而頭腦風暴搜索引擎會呈現多維度的推導鏈:它作為量子隧穿描述工具的核心作用、在宇宙學中描述霍金輻射的應用,甚至在純數學領域推動四維流形理解的突破性貢獻等等。

      柏拉圖智能體:

      讓合成內容 “有創意且無幻覺”

      頭腦風暴搜索引擎發現的新穎且可驗證的關聯,直接為 AI 科學寫作的 “幻覺” 問題提供了解決方案——基于該引擎構建的柏拉圖智能體(Plato agent),一個專注于結構化合成而非無約束生成的創意合成器(如圖 2)。


      圖2. 頭腦風暴搜索引擎與柏拉圖智能體架構。用戶向“頭腦風暴搜索引擎”提交查詢(例如一個目標知識點)。查詢擴展模塊將輸入轉化為關鍵詞,從“長鏈思維(LCoT)知識庫”中檢索相關的長鏈推導。這些推導代表科學推理的“暗物質”,隨后按其相關性與跨學科意義進行排序。排序后的長鏈推導為大模型綜合器(柏拉圖智能體)提供可驗證的“推理腳手架”。在用戶的初始查詢與可選風格指南的引導下,柏拉圖智能體將這些已驗證的推導綜合成一篇連貫、教學清晰的文章。該架構實現“逆向知識搜索”,將搜索轉變為發現過程,揭示科學概念的起源與相互關聯,并通過扎根于 LCoT 知識庫來抑制幻覺。

      柏拉圖智能體以 “跨領域推理支架” 為基礎 —— 合成內容的創意源于搜索過程中發現的 “經過驗證的驚喜關聯”;同時,大幅降低了 “幻覺” 風險。在柏拉圖智能體中,LLM 的角色從 “純生成者” 轉變為 “敘述者”,其核心任務是在已驗證的概念間搭建 “敘事橋梁”,而非創造新的概念。

      研究團隊在六個科學學科中,將柏拉圖智能體生成的文章(基于檢索到的 LCoT 支架)與 “無檢索的 LLM 基準模型”(使用相同提示但無 LCoT 上下文)進行對比。結果顯示(如圖 3),柏拉圖智能體生成的文章,在 “知識點密度” 上顯著更高,同時 “事實錯誤率” 降低了約 50% 。


      圖3. (a) 知識點密度對比:該圖比較了在相同主題集合下,兩種方法生成的文章中所包含的可學習、獨立知識點的數量。二者使用幾乎完全相同的提示詞,唯一差別在于是否提供已驗證的 LCoT 上下文。LLM 基線模型未獲得任何檢索到的 LCoT 上下文(空集),而 Plato 智能體則通過 Brainstorm 搜索引擎獲取 LCoT 語料來綜合文章。在所有被測試的科學領域中,Plato 智能體生成的文章知識點密度顯著更高,表明文中的綜合方法在深度與全面性上優于基線。(b) 事實錯誤率對比:該圖評估了兩種方法在幾乎相同提示詞下生成文章的事實可靠性(由 GPT-5 評定)。LLM 基線模型因未獲得任何 LCoT 上下文,出現高錯誤率,體現出模型幻覺問題。相比之下,Plato 智能體以檢索到的已驗證 LCoT 語料為依據進行綜合,在所有領域均實現顯著更低的錯誤率。這凸顯了文中方法在產出高可信度科學內容方面的有效性。

      SciencePedia:

      從長思維鏈中 “生長” 的科學百科

      由蘇格拉底智能體構建的可驗證 LCoT 知識庫,最終催生出了一項重要應用——SciencePedia,一部全面的、跨學科的STEM百科全書。其核心假設是:足夠龐大且多樣的 LCoT-QA 對集合(每個都包含從第一性原理出發的推理過程),會自然形成一個密集的知識網絡——這些連接并非預先定義的形式化圖譜,而是從推導內容中自然涌現。

      生成SciencePedia百科全書頁面的過程是一個確定性的工作流:利用基于頭腦風暴搜索引擎的柏拉圖智能體,將原始的長鏈思維問答對轉化為結構化的敘述。百科全書的結構源于蘇格拉底智能體知識生成階段定義的課程體系。每個關鍵詞都對應一個獨特的百科頁面,頁面包括“What & Why” 部分構成的 “原理與機制” 核心章節,“How” 部分形成的 “跨領域應用” 章節。

      與直接查詢 LLM 或依賴傳統百科相比,SciencePedia的知識點密度更高,可靠性更強,解釋深度更優,能系統性覆蓋跨領域關聯,也解決了傳統維基百科 “規模化” 與 “語言一致性” 的問題。

      為了驗證SciencePedia的跨學科關聯性,研究團隊還對其關鍵詞網絡進行了大規模分析,發現不同社區(學科領域)間存在大量非平凡連接,這為SciencePedia捕捉跨領域關聯的能力提供了直接實證(如圖 4)。


      圖4. 關鍵詞圖譜的層級結構。作者應用模塊度置信傳播算法對120,226個關鍵詞節點進行聚類。該過程識別出7,454個基礎社區,并形成了一個橫跨21個層級的層次結構。為展示該結構,節點在每個層級逐步粗化為聚類節點。左圖顯示了第3層的聚合結果,右圖顯示了第5層的聚合結果。圖表通過graph-tool軟件包生成,社區標題由大語言模型進行歸納總結。

      結語:

      從 “解壓縮” 知識到構建協作式知識生態

      這項研究的核心,是解決了現有知識體系的根本局限 ——“推理壓縮”。研究團隊通過構建基于第一性原理的 LCoT 知識庫、開發反向知識搜索的頭腦風暴搜索引擎、設計低幻覺的柏拉圖合成器,最終打造出 SciencePedia 這一 “涌現式” 科學百科。這套框架的價值,不僅在于生成了規模龐大的可靠知識,更在于它讓知識回歸 “推理驅動”,解鎖了被埋沒的跨領域 “暗物質”。

      不過,SciencePedia當前涵蓋數學、物理、化學、生物學、工程學與計算機科學,其內容以客觀事實與邏輯推理為主,暫缺科學史等人文相關信息;同時,知識邊界受限于基礎模型的訓練數據,無法覆蓋最新的科學前沿。未來,研究團隊計劃將 LCoT 方法應用于教科書、同行評議論文等其他高質量語料,以補充科學史內容、更新前沿研究,并將覆蓋范圍擴展到天文學、地理學、經濟學等其他自然科學領域,打造真正全面且動態的科學資源。

      從某種意義上說,SciencePedia 的誕生,不僅是一次技術突破,更是對 “知識本質” 的回歸 —— 它讓科學不再是孤立結論的堆砌,而是相互關聯、可追溯、可探索的推理網絡。這或許正是未來科學知識傳播與創新的核心方向:讓每個人都能觸達知識的 “暗物質”,讓跨領域的洞見不再被學科壁壘埋沒。

      大模型2.0讀書會

      o1模型代表大語言模型融合學習與推理的新范式。集智俱樂部聯合北京師范大學系統科學學院教授張江、Google DeepMind研究科學家馮熙棟、阿里巴巴強化學習研究員王維塤和中科院信工所張杰共同發起,本次讀書會將關注大模型推理范式的演進、基于搜索與蒙特卡洛樹的推理優化、基于強化學習的大模型優化、思維鏈方法與內化機制、自我改進與推理驗證。希望通過讀書會探索o1具體實現的技術路徑,幫助我們更好的理解機器推理和人工智能的本質。讀書會已完結,現在報名可加入社群并解鎖回放視頻權限。

      詳情請見:

      1.

      2.

      3.

      4.

      5.

      6.

      聲明:包含AI生成內容

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      浙江金融圈再起波瀾 中國銀行浙江省分行行長程軍被帶走調查

      浙江金融圈再起波瀾 中國銀行浙江省分行行長程軍被帶走調查

      科技金融在線
      2025-12-29 18:32:45
      笑死!原來這才是基層公務員真實的生活

      笑死!原來這才是基層公務員真實的生活

      夜深愛雜談
      2025-12-08 20:20:44
      泡泡瑪特開始五折甩賣,二手平臺上Labubu部分款式跌破原價,部分黃牛公開聲明“暫緩收購Labubu系列”

      泡泡瑪特開始五折甩賣,二手平臺上Labubu部分款式跌破原價,部分黃牛公開聲明“暫緩收購Labubu系列”

      極目新聞
      2025-12-29 19:54:13
      江蘇首富嚴昊:身價千億,迎娶著名女歌星,克林頓親自來出席婚禮

      江蘇首富嚴昊:身價千億,迎娶著名女歌星,克林頓親自來出席婚禮

      阿柒的訊
      2025-12-26 15:16:44
      譚詠麟32歲兒子近照曝光,眉宇透著英氣像母親,在加拿大任工程師

      譚詠麟32歲兒子近照曝光,眉宇透著英氣像母親,在加拿大任工程師

      鋒哥與八卦哥
      2025-12-30 14:45:14
      高盛 | 中國房價何時止跌

      高盛 | 中國房價何時止跌

      新浪財經
      2025-12-30 11:36:58
      壞消息傳來,要嚴查退休人員,“4類人”可能逃不掉

      壞消息傳來,要嚴查退休人員,“4類人”可能逃不掉

      巢客HOME
      2025-08-03 19:09:22
      40歲王麗坤淪落到拍短劇,老公被抓2年后,她人中變長,不漂亮了

      40歲王麗坤淪落到拍短劇,老公被抓2年后,她人中變長,不漂亮了

      阿雹娛樂
      2025-12-29 16:17:12
      苑舉正:統一要快!絕對要快!

      苑舉正:統一要快!絕對要快!

      看看新聞Knews
      2025-12-29 18:41:05
      濟南5名干部被通報!

      濟南5名干部被通報!

      萊蕪福禧今日信息
      2025-12-30 06:32:48
      結果出爐,連勝武獲勝,四藍委落敗,鄭麗文拋重磅,侯友宜尷尬

      結果出爐,連勝武獲勝,四藍委落敗,鄭麗文拋重磅,侯友宜尷尬

      說歷史的老牢
      2025-12-29 11:37:15
      痛心!36歲寶媽轉呼啦圈2分鐘倒地身亡,3歲兒子旁邊哭喊無回應

      痛心!36歲寶媽轉呼啦圈2分鐘倒地身亡,3歲兒子旁邊哭喊無回應

      行者聊官
      2025-12-29 08:46:32
      王光美拿到劉少奇追悼會名單后,直接劃掉幾個人,添上陳士榘名字

      王光美拿到劉少奇追悼會名單后,直接劃掉幾個人,添上陳士榘名字

      歷史龍元閣
      2025-12-29 13:00:08
      別再可憐李詠了!離世7年后醫生揭秘離世真相,難怪選擇葬身美國

      別再可憐李詠了!離世7年后醫生揭秘離世真相,難怪選擇葬身美國

      LULU生活家
      2025-12-29 18:30:47
      2塊錢一瓶的維生素B2,是高血脂的“克星”?可惜很多人都不知道

      2塊錢一瓶的維生素B2,是高血脂的“克星”?可惜很多人都不知道

      岐黃傳人孫大夫
      2025-12-29 09:37:33
      果然,出門在外“胡說八道”能省去很多麻煩,這些方法太管用了!

      果然,出門在外“胡說八道”能省去很多麻煩,這些方法太管用了!

      另子維愛讀史
      2025-12-12 20:08:38
      美國務院發火:46年沒受過這種氣,鄭麗文喊話大陸,一個時代結束

      美國務院發火:46年沒受過這種氣,鄭麗文喊話大陸,一個時代結束

      科普100克克
      2025-12-28 17:32:32
      鄭告蔣家后代:蔣介石逝哪葬哪,是對全體中國人民的最好安排!

      鄭告蔣家后代:蔣介石逝哪葬哪,是對全體中國人民的最好安排!

      扶蘇聊歷史
      2025-12-26 16:08:12
      1979年泰國的街頭,25歲的成龍和24歲的林青霞留下了珍貴的合照

      1979年泰國的街頭,25歲的成龍和24歲的林青霞留下了珍貴的合照

      動物奇奇怪怪
      2025-12-30 05:01:40
      無意之中和親戚談戀愛是啥體驗?網友:近親不能結婚,建議五代外

      無意之中和親戚談戀愛是啥體驗?網友:近親不能結婚,建議五代外

      解讀熱點事件
      2025-12-29 01:45:30
      2025-12-30 17:24:49
      集智俱樂部 incentive-icons
      集智俱樂部
      科普人工智能相關知識技能
      5576文章數 4661關注度
      往期回顧 全部

      科技要聞

      估值150億的智元,開始批量"制造"小獨角獸

      頭條要聞

      "退貨羽絨服口袋里現機票"引發爭議 買家遭網暴后喊冤

      頭條要聞

      "退貨羽絨服口袋里現機票"引發爭議 買家遭網暴后喊冤

      體育要聞

      這個59歲的胖子,還在表演“蝎子擺尾”

      娛樂要聞

      林俊杰官宣文案爭議!女方名字都不提

      財經要聞

      朱光耀:美關稅政策正使WTO名存實亡

      汽車要聞

      標配華為乾崑ADS 4 Pro 華境S明年上半年上市

      態度原創

      本地
      時尚
      旅游
      手機
      房產

      本地新聞

      即將過去的2025年,對重慶的影響竟然如此深遠

      她們冬天這樣穿,真的很美!

      旅游要聞

      跨年怎么玩?濟南多個景區放大招,儀式感拉滿

      手機要聞

      國內用戶自發眾籌TLCD手機:120Hz京東方LCD售2499元起

      房產要聞

      瘋了!2025海南拿地榜巨變:榜首狂砸80億,民企火力全開!

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 欧美精品无码| 亚洲日本高清一区二区三区| 国产亚洲精品久久久久丝瓜| 久久久精品久久久久久96 | 毛片无遮挡高清免费| 免费无码一区二区三区蜜桃大| 国产午夜片无码区在线播放| 亚洲乱码国产乱码精品精| 平江县| 亚洲中文字幕高清| 国产免费视频一区二区| 国产超碰人人爽人人做人人添| 无码中出人妻| 互助| jizz欧美| 人人妻人人澡人人爽| 国产精品高潮呻吟av久久动漫 | 国产无码久久| 秋霞二区| 国产精品爽爽久久久久久 | 人妻?综合?无码?另类| 国产一区二区亚洲精品| 亚洲色小说| 人妻在线网站| 余姚市| 五家渠市| 久草精品视频在线观看| 另类无码| 亚洲精品成人区在线观看| 人妻av中文系列| 亚洲va国产va天堂va久久| 亚洲高清中文字幕在线看不卡| 亚洲av中文| 望奎县| 五月婷婷激情第四季| 国产成人无码A区在线观| 亚洲1234区| 国产成人综合日韩亚洲| 日韩欧美猛交xxxxx无码| 麻豆精品久久久久久久99蜜桃| 91人人操|