人工智能時代的科研誠信
——中國科學院學部2025’科技倫理研討會會議綜述
譚健英1,2 劉慧暉2
李瑞2 王熙婷2
王振宇2
(1中國科學院大學公共政策與管理學院;2中國科學院學部科學規范與倫理研究支撐中心)
DOI:10.19524/j.cnki.10-1009/g3.2025.04.170
2025年9月26日,中國科學院學部在北京組織召開2025年度科技倫理研討會。會議以“人工智能時代的科研誠信”為主題,圍繞“人工智能時代科研不端行為的界定、特征及責任主體認定”“人工智能時代科研不端行為審查與監管的技術博弈”“人工智能在科研中的使用邊界與倫理紅線”“人工智能時代科研治理誠信及實務”四個議題展開研討,對人工智能時代的科研誠信展開了全方位、多角度、深層次的分析和討論,并就具體問題提出了對策建議。
![]()
參會人員合影
中國科學院學部科學道德建設委員會主任胡海巖院士在致辭中指出,以ChatGPT為代表的大語言模型相繼問世以來,人工智能在知識獲取、數據分析及學術寫作等領域得到廣泛應用,學習和研究效率顯著提升。但是人工智能的介入根本性地改變了學術活動的主體構成。這種“算法參與”的科研模式帶來了一系列新問題,包括貢獻歸屬難以明確、研究過程不夠透明、結論可解釋性下降等。此外,人工智能系統潛在的算法偏見及其生成虛假或誤導性信息的風險也不容忽視。他強調,科研誠信是科學事業的基石,面對人工智能帶來的新挑戰,我們要更加堅守誠信底線,通過協同治理營造良好的科研生態。
中國科學院學部科學道德建設委員會副主任梅宏院士在引導發言中指出,人工智能正在逐漸融入科研全過程,在顯著提升科研效率的同時也帶來風險。他通過案例分享,指出人工智能的科研誠信問題主要出現在兩個環節:一是成果的產出,二是成果的表達。他提出要建立健全主動披露和標注制度,建立涵蓋大模型開發者、創作者、使用者的標注責任機制,推進相關標準和規范的制定。
南京大學教授、中國科學院院士譚鐵牛從人工智能發展趨勢、帶來的科研誠信新挑戰和應對之策三個角度加以闡述。他認為,人工智能總體上還處于發展的初級階段,人工智能尚存在“多知、少智、無謀、缺情”等基礎性問題。在新挑戰方面,他通過對比人工智能生成內容和真實實驗數據,闡述了人工智能的“完美造假”,提出人工智能帶來的篡改偽造、成果歸屬、責任界定等系列挑戰。他指出,通過明確主體責任、制定各學科領域的人工智能使用規范、創新人工智能防偽檢測和溯源檢測技術、強化高校科研誠信教育培訓、加強國際合作等多種舉措,共同維護人工智能時代的科研誠信。
國家自然科學基金委員會原副主任韓宇認為,以人為主體的學術規范雖然效果較好,但無法適用于人機協同的人工智能時代。他指出,在新舊范式轉變過程中,人工智能在適應科學發展要求、責權合理分享、影響學者發展等維度仍存在問題。他認為,需合理構建人工智能時代的新范式,在人智和機智共存的階段,要堅持以人智為核心,堅持完善人工智能能力培訓,堅持批判性創新和包容韌性的學術規范引導,堅持馴化人工智能向善。
愛思唯爾(Elsevier)全球期刊中國區董事孫巖總經理回顧了愛思唯爾的數字化轉型歷程。數據顯示,全球人工智能主題文獻僅2024年已經達到近50萬篇。在這種背景下,期刊應該如何應對人工智能帶來的科研誠信問題?她認為,人工智能產生的學術不端行為可能發生在出版過程的各個環節,要“兩手抓”:一手抓技術與人才,一手抓標準與協作。開發一流的誠信檢查工具,培養科研誠信領域專業人才;制定面向作者、編輯、審稿人的生成式人工智能學術規范,并用于實踐,構建人工智能科研誠信新生態。
中國科學院自動化研究所宗成慶研究員重點闡述了大模型為科技規范和社會倫理帶來的挑戰。他提出,大模型帶來訓練數據真實性與合法性、數據開放與版權保護、人機責任認定等挑戰。在人工智能使用規范方面,他認為,要積極擁抱新技術。對于學生,應制定相應學術規范加以引導,合理運用人工智能技術;對于其他成人,沒有理由也沒有必要限制其使用人工智能工具。
中國科學院文獻情報中心馬娜副研究館員指出,科學研究的嚴謹性需要準確的知識庫、文獻庫、數據庫作為“智囊”。為確保人工智能時代期刊論文的高質量,Science等國際出版機構制定了出版規范。在數據方面,采用強制或建議作者提交研究數據,并開放共享的方式,推動科學研究的透明性、可信性;在署名方面,學術期刊應明確人工智能系統不能以作者身份出現,作者需對論文完全負責。
中國科學技術信息研究所科學計量與評價中心副主任楊代慶研究員圍繞學術論文中人工智能使用邊界標準化問題,重點介紹了《學術出版中AIGC使用邊界指南2.0》,從資料收集、論文撰寫、出版發表的各階段劃定了清晰的“紅黃藍線”標準,這是人工智能使用的有效實踐指導,有望走向國際化。
北京航空航天大學和鴻鵬副教授基于案例和調查研究數據,闡述了生成式人工智能的學術應用潛力,但也指出其帶來了難以認定的學術剽竊、隱蔽性的數據泄露、自增強的虛假信息等科研倫理問題。他認為,要走出人工智能誘發的學術倫理困境,應立足“從無到有、先有后優”的政策思路,對已有學術誠信政策做出調整,并出臺生成式人工智能學術使用指南。
主旨報告之后,專家圍繞四個議題進行了深入交流。在“人工智能時代科研不端行為的界定、特征及責任主體認定”方面,大家普遍認為人工智能的科研不端行為具有復雜、隱蔽、難識別的特點,容易引發科研誠信治理重構以及科研生態變化的問題。多數專家認為人應作為科研主體,并承擔主要責任。研究人員要全面審查人工智能生成內容,反對“圖片誤用”等推卸責任的行為。但是在科研誠信問題與人工智能的關系方面,專家存在分歧。部分專家認為,科研不端行為本質仍屬偽造、篡改、抄襲范疇,人工智能僅是引發治理重構的技術誘因;另一部分專家則認為,人工智能的介入使科研誠信問題產生了新屬性,需區分與人工智能相關的誠信問題和傳統誠信問題。
在“人工智能時代科研不端行為審查與監管的技術博弈”方面,專家一致認為,人工智能既可能成為不端行為的幫兇,也可能成為監督的利器,如何在攻與防的博弈中保持動態平衡,是科研誠信治理的重要問題。關鍵對策包括:一是“以技制技”,開發高級誠信審查工具,從技術層面引導人工智能的規范使用,實現“從內到外”的風險預防;二是強化特殊領域監管,尤其需加強對生命科學企業的倫理審查。
在“人工智能在科研中的使用邊界與倫理紅線”方面,專家提出需要明確三大核心紅線。一是責任歸屬紅線,即在數據生成、成果界定及引用標注等關鍵環節,必須始終由研究者承擔主體責任。二是能力替代紅線,需明確科研中諸如價值判斷、實驗設計及結果闡釋等核心環節,不應完全交由人工智能完成。三是主體規范紅線,科研共同體需制定統一的人工智能使用規范和標注機制。國家自然科學基金委員會提供了實踐標準,在進行科研不端行為調查處理中重點把握以下三點:申請人不允許使用人工智能生成申報材料;評審專家經批準的情況下可以使用人工智能評審;項目負責人合理披露研究中使用的人工智能。
在“人工智能時代科研誠信治理及實務”方面,專家普遍認可人工智能帶來的科研誠信的挑戰需要制度、實踐、教育協同推進。一是完善科研倫理制度體系,從軟法到硬法體系化分層分類、有針對性地采取措施。二是采取多方聯動組合的方式,建立群防群治的格局,整合科研機構、企業、出版機構等多元主體力量。三是實現全過程敏捷治理,不斷探索兼顧發展、安全、可信的治理路徑。
綜上,專家一致認為,人工智能時代科研不端行為呈現復雜、隱蔽的特征。人應該始終作為科研主體并且承擔首要責任,需明確劃定人工智能在科研應用中的倫理邊界與不同主體的行為規范,同時關注安全風險防控。人工智能時代的科研誠信治理需要制度、實踐、教育三方協同推進。審查監管需“以技制技”,同時加強企業倫理審查機制建設。
作者簡介
譚健英,中國科學院大學公共政策與管理學院博士研究生,中國科學院學部科學規范與倫理研究支撐中心研究助理。研究方向為科技人才、科技政策;
劉慧暉,中國科學院學部科學規范與倫理研究支撐中心創新副研究員。研究方向為科技治理;
李瑞,中國科學院學部科學規范與倫理研究支撐中心助理研究員。研究方向為國家創新體系、新興技術治理;
王熙婷,中國科學院學部科學規范與倫理研究支撐中心特別研究助理。研究方向為新興科技治理;
王振宇,中國科學院學部科學規范與倫理研究支撐中心執行主任。研究方向為人工智能科技倫理與治理、生命健康領域科技戰略咨詢、數智中醫。
通信作者
王振宇,郵箱地址:wangzhenyu@casisd.cn。
項目資助
中國科學院學部項目" '人工智能時代的科研誠信'科技倫理研討會"(5-XSB2025001)。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.