設(shè)置星標 關(guān)注,從此你的世界多點科學~
大家·科技前沿
MASTERS
姚思瓊
上海交通大學生物信息學與生物統(tǒng)計學系博士
上海交通大學轉(zhuǎn)化醫(yī)學研究院助理研究員
![]()
戴芳
上海交通大學生物信息學與生物統(tǒng)計學系博士
上海市第十人民醫(yī)院博士后
呂暉
上海交通大學生物信息學與生物統(tǒng)計學系主任、特聘教授
上海交通大學轉(zhuǎn)化醫(yī)學研究院數(shù)字醫(yī)學技術(shù)中心主任
![]()
醫(yī)學人工智能被寄予厚望,人們期待它能比醫(yī)生更快、更準確地識別疾病,為醫(yī)療決策提供強有力的支持。然而現(xiàn)實中,人工智能(AI)算法有時更像一個“書呆子”——在熟悉的題目上表現(xiàn)出色,一旦遇到超出認知范圍的情況,就會陷入困境。
這樣的例子并不少見。醫(yī)生審閱著X光片,AI判斷是骨折,可眼前的孩子卻活蹦亂跳,毫無異樣;急診室里,AI預(yù)測一位女性的心臟病風險極低,可她剛走出醫(yī)院,就因突發(fā)心肌梗死倒在街頭;做甲狀腺檢查時,AI報告一切正常,可幾個月后,那個被忽視的結(jié)節(jié)卻被確診為惡性腫瘤。
這些案例并不意味著醫(yī)學AI沒有價值,恰恰相反,它在很多場景極大地幫助了醫(yī)生提升診斷效率。例如:AI系統(tǒng)能夠快速并準確地識別腫瘤病灶位置,并判斷其性質(zhì),促進早期發(fā)現(xiàn)和精準干預(yù)。然而,當AI主要依賴已有數(shù)據(jù)進行學習時,它是否真的能夠理解個體疾病的固有差異?在面對不同年齡、性別或亞型時,它是否也能夠?qū)崿F(xiàn)同樣的精度以達到真正的公平?
醫(yī)學AI的發(fā)展充滿機遇,但也伴隨著挑戰(zhàn)。它如何更全面地學習?如何避免數(shù)據(jù)局限帶來的偏差和誤判?讓我們一起深入探討,揭開醫(yī)學AI在診斷公平性上的盲點,尋找更可靠、更包容的技術(shù)發(fā)展方向。
![]()
AI是如何發(fā)展及如何工作的?
AI早已從科幻走進現(xiàn)實,成為改變世界的重要技術(shù)。從符號邏輯推理的早期探索,到專家系統(tǒng)在特定領(lǐng)域的應(yīng)用,再到如今深度學習與大模型驅(qū)動的智能革命,AI的發(fā)展令人驚嘆。
什么是AI
本質(zhì)上,AI 通過計算機和算法模擬人類大腦的思考與決策能力,旨在創(chuàng)造能像人類一樣工作和反應(yīng)的智能機器。它通過學習海量數(shù)據(jù)、識別模式并做出決策,賦予機器智能,使其能在不同環(huán)境中高效執(zhí)行任務(wù)。近年來,深度學習和大數(shù)據(jù)的相關(guān)突破推動了 AI 的飛速發(fā)展,使其在多個領(lǐng)域展現(xiàn)出卓越應(yīng)用能力,例如以ChatGPT、Claude、Gemini和Deepseek為代表的大語言模型(LLM),已成為各行業(yè)的高效助手。
在日常辦公中,AI可以自動生成報告、總結(jié)文檔、撰寫新聞稿,幫助程序員編寫代碼、優(yōu)化算法。在教育領(lǐng)域,AI可以解答學生問題、提供個性化學習方案。在法律和金融行業(yè),它能高效分析合同、輔助法律文件撰寫、提供財務(wù)建議,極大地提高了生產(chǎn)力。在動畫制作方面,過去需要大量手繪或建模,而如今AI工具如Stable Diffusion、Midjourney可根據(jù)文字描述生成精美插畫,Runway AI甚至能生成短片。迪士尼、皮克斯等公司已將AI應(yīng)用于動畫特效,顯著加快制作流程。
自動駕駛是AI在現(xiàn)實世界中的重要應(yīng)用。特斯拉、Waymo、小鵬、蔚來等企業(yè)正加速開發(fā)AI驅(qū)動的自動駕駛系統(tǒng),通過攝像頭與激光雷達感知環(huán)境,結(jié)合深度學習模型實現(xiàn)自動加速、轉(zhuǎn)向等核心功能。目前,高級輔助駕駛功能已能在高速公路和部分城市道路中穩(wěn)定運行,雖然完全無人駕駛技術(shù)仍需突破,但AI已顯著提升出行的智能化與安全性。
在人形機器人領(lǐng)域,AI是“大腦”,機器人的機械結(jié)構(gòu)是“身體”。特斯拉的Optimus、波士頓動力的Atlas展示了AI驅(qū)動的機械系統(tǒng)能執(zhí)行搬運、裝配、送貨等任務(wù)。具備視覺、聽覺和語音理解能力的機器人,正逐步走進現(xiàn)實,有望成為未來家庭助手。
從辦公、創(chuàng)作到出行、生活,AI正在推動社會的深刻變革,提升效率與創(chuàng)造力,也加速科技進步。盡管仍面臨安全、倫理與公平性等挑戰(zhàn),但是AI的影響力將持續(xù)擴展,并深刻改變我們的生活方式。
AI在醫(yī)學中的優(yōu)勢:
精準、高效、減負與拓展
AI在醫(yī)學領(lǐng)域的應(yīng)用已日益廣泛,從醫(yī)學影像分析到個性化健康管理,再到新藥研發(fā),它正以前所未有的速度改變醫(yī)療行業(yè)。許多醫(yī)院已經(jīng)在使用AI進行乳腺鉬靶分析、心臟功能評估和肺癌篩查,盡管不可能全面代替醫(yī)生,但相關(guān)研發(fā)工作正在不斷推進。在新藥研發(fā)方面,AI通過精準的預(yù)測模型提高了藥物發(fā)現(xiàn)的成功率,縮短了研發(fā)周期,降低了成本,并提升了整體效率。同時,AI 還能整合血壓、心率、體溫、睡眠等健康數(shù)據(jù),實現(xiàn)個體化健康監(jiān)測和預(yù)后管理,使醫(yī)療決策更加精準和智能。
醫(yī)學AI的核心優(yōu)勢主要體現(xiàn)在精準與高效上。通過先進的圖像識別和深度學習技術(shù),AI可輔助醫(yī)生進行更加精確的診斷,例如識別腫瘤的良惡性、檢測骨折、輔助腸鏡檢查等,不僅提高了診斷的準確性,也節(jié)省了醫(yī)生的精力。同時,AI還能降低醫(yī)生的工作負擔,例如語音輸入系統(tǒng)可自動將醫(yī)生的診療記錄轉(zhuǎn)化為文字,減少書寫壓力,提高問診效率,并降低信息遺漏的風險。此外,遠程醫(yī)療的興起讓AI在醫(yī)療資源分配方面發(fā)揮了巨大作用,特別是在偏遠地區(qū),AI輔助的遠程會診和遠程手術(shù)大大降低了醫(yī)療成本,并增加了患者的就醫(yī)機會。
AI在醫(yī)療前沿的突破正推動知識發(fā)現(xiàn)、臨床知識深度挖掘與前瞻性試驗設(shè)計的革新。例如,AlphaFold通過深度學習預(yù)測蛋白質(zhì)結(jié)構(gòu),加速新藥靶點發(fā)現(xiàn);AI系統(tǒng)從電子健康記錄中精準識別患者亞群特征,優(yōu)化個性化治療方案;在臨床試驗中,AI優(yōu)化入組標準與樣本量設(shè)計,如太美智研醫(yī)藥的平臺已將試驗效率提升40%,顯著縮短研發(fā)周期并提升成功率。
AI的核心:學習與訓練
AI的能力并非憑空而來,而是依靠大規(guī)模數(shù)據(jù)和強大的計算能力訓練。它的本質(zhì)是模擬人類的學習過程,通過數(shù)學算法建立復(fù)雜的模式識別能力。以大語言模型(如ChatGPT和Deepseek)為例,它被喂入海量文本數(shù)據(jù),學習人類如何組織語言、表達觀點,并通過預(yù)測下一個最可能的單詞來生成連貫的對話。類似地,自動駕駛AI需要“閱讀”無數(shù)的視頻和傳感器數(shù)據(jù),理解道路規(guī)則,并在行駛過程中不斷優(yōu)化決策。
![]()
算法的天平:AI的隱性偏見
數(shù)據(jù)對于AI來說至關(guān)重要,它不僅是AI學習的基礎(chǔ),也是決定AI性能的關(guān)鍵因素。AI能否精準地識別模式、做出合理的推斷完全取決于它接受的數(shù)據(jù)是否豐富、多樣且質(zhì)量高。一個模型如果僅僅在有限的環(huán)境下訓練,將嚴重影響其應(yīng)用的泛化能力。例如自動駕駛AI只在晴天的高速公路上學習,那么當它遇到雨雪天氣、復(fù)雜路況或突發(fā)狀況時,可能會無法做出正確的判斷。許多AI研發(fā)機構(gòu)不斷收集新數(shù)據(jù)和迭代模型, 就是為了使其能在多樣化場景中保持高水平表現(xiàn)。
然而,數(shù)據(jù)不僅僅是AI的“養(yǎng)料”,它也帶來了挑戰(zhàn)。數(shù)據(jù)隱私、數(shù)據(jù)偏見以及數(shù)據(jù)質(zhì)量問題都是AI發(fā)展過程中必須面對的難題。因此,AI的發(fā)展不僅依賴于強大的算法和計算能力,更取決于高質(zhì)量、多樣化的數(shù)據(jù)支持。數(shù)據(jù)越豐富、越多樣,AI的學習能力就越強,預(yù)測的準確性也就越高。
![]()
現(xiàn)實生活中的AI:
智能,卻未必公平
AI的發(fā)展為社會帶來了巨大機遇,同時也引發(fā)諸多挑戰(zhàn)。
一方面,AI 通過提升效率和創(chuàng)造經(jīng)濟價值,廣泛應(yīng)用于體力勞動和復(fù)雜邏輯任務(wù),甚至在某些領(lǐng)域超越人類。
另一方面,它也導(dǎo)致大量重復(fù)性崗位被取代,重塑了勞動力市場結(jié)構(gòu),并進一步加劇了社會不平等,使部分群體面臨失業(yè)與邊緣化風險。
此外,AI 強大的決策能力也可能放大社會固有的偏見。由于算法依賴人類數(shù)據(jù)進行訓練,而這些數(shù)據(jù)本身可能帶有歧視。
例如:AI 在招聘、信貸、醫(yī)療等關(guān)鍵領(lǐng)域中常因數(shù)據(jù)偏見導(dǎo)致預(yù)測不公平,造成群體性差異對待,加劇社會階級的進一步分化。
在享受AI帶來便利的同時,如何防范其帶來的社會風險成為關(guān)鍵。盡管人們期望AI實現(xiàn)超越人類的智能,但現(xiàn)實表明,其運作邏輯深受人類設(shè)計所限,若缺乏監(jiān)管與倫理約束,AI反而可能加劇不公,使弱勢群體處境更艱難。
因此,AI在重塑社會結(jié)構(gòu)的過程中,公平性問題必須被優(yōu)先關(guān)注。歐美國家的相關(guān)經(jīng)驗與案例為我們提供了警示和借鑒:技術(shù)發(fā)展不應(yīng)以犧牲公平為代價。
案例一:AI在司法系統(tǒng)中的種族偏見
在美國,AI被用于預(yù)測罪犯再犯風險以輔助判刑。然而研究發(fā)現(xiàn),其在黑人被告中存在系統(tǒng)性高估風險的問題,反映出AI繼承了司法數(shù)據(jù)中的種族偏見。這種偏差可能導(dǎo)致黑人面臨更嚴重的司法結(jié)果,加劇社會不公。
案例二:AI進化帶來的隱性偏見與不平等
盡管AI大模型如ChatGPT優(yōu)化了公平性,但仍存在刻板印象,如將“護士”與女性、“工程師”與男性聯(lián)系,或在圖像識別中將廚房場景人物自動識別為女性。此外,AI在多語種環(huán)境下容易表現(xiàn)不均,英語回答準確率明顯高于其他語言,這強化了語言與地區(qū)間的技術(shù)不平等。新興市場因缺乏計算資源與數(shù)據(jù),也在全球AI競爭中處于弱勢地位,形成“強者愈強”的格局。
面對AI應(yīng)用中的種種不公平現(xiàn)象,我們必須回歸一個根本問題:什么是“公平”?公平并不是一個容易界定的概念,不同文化與社會背景對其理解各異,因此在討論AI的公平性之前,應(yīng)先厘清人類社會中的公平原則。
公平的直觀體現(xiàn)之一,是體育競技中的奧林匹克精神。體育比賽強調(diào)公平競爭,確保運動員能夠在相同的規(guī)則和條件下進行角逐,避免人為的不公平。現(xiàn)代社會學提出公平應(yīng)具備中立性,不論群體身份如何,都應(yīng)獲得相對平等的對待。
統(tǒng)計學中,群體公平與個體公平為衡量標準。群體公平主張各群體享有相近利益,類似“同一起跑線”;個體公平則強調(diào)能力相近者應(yīng)有相近機會,對弱勢群體應(yīng)給予更多支持。
在醫(yī)療領(lǐng)域,世界衛(wèi)生組織提出應(yīng)確保所有人公平獲得服務(wù),避免AI放大已有偏見,并縮小提供者與患者之間的權(quán)力差距。然而現(xiàn)實中,AI模型往往繼承了社會原有的不平等視角。例如,弱勢群體因缺乏保險或病歷記錄不完整,數(shù)據(jù)代表性不足,進而影響AI的判斷,造成診斷與治療建議的不公,加劇醫(yī)療資源的失衡。
這些不同的公平理念為我們理解AI公平性提供了多維視角。如果AI也要遵循公平原則,那么它應(yīng)該更傾向于機會公平、結(jié)果公平,還是補償公平? 這些問題需要進一步探討,并成為AI倫理和技術(shù)優(yōu)化的重要研究方向。
![]()
醫(yī)學AI的不公平現(xiàn)象及其帶來的問題
醫(yī)學AI在優(yōu)化資源利用和提高診斷精度的同時,也暴露出諸多公平性問題,尤其是在器官移植、心臟病診斷、藥物劑量預(yù)測以及跨區(qū)域疾病建模等關(guān)鍵醫(yī)療領(lǐng)域。這些問題往往源于數(shù)據(jù)不均衡、社會結(jié)構(gòu)性不公以及模型設(shè)計中的隱性偏見,從而可能加劇醫(yī)療資源分配的不公平性,影響特定群體的健康權(quán)益。
醫(yī)療資源分配不公,加劇健康不平等
澳大利亞曾開發(fā)出一款A(yù)I算法,用于優(yōu)化肝臟移植的匹配流程。傳統(tǒng)的“先到先得”規(guī)則雖然在程序上公平,但未能考慮患者病情的緊急程度。AI通過分析患者的年齡、疾病史、血型等因素來預(yù)測移植成功率,并優(yōu)化器官分配。
然而,研究發(fā)現(xiàn),該模型低估了某些高風險患者的緊迫性,并存在對亞洲患者不利的偏差,導(dǎo)致他們在移植排名中處于劣勢,如在移植名單中排名靠后,錯失最佳治療時機。這種情況會加劇醫(yī)療資源的不公平分配,使社會現(xiàn)有的健康差距進一步擴大。
同樣,在美國的器官移植系統(tǒng)中,黑人、西班牙裔和拉丁裔患者的等待名單比例明顯低于白人,反映出AI可能會在無意間繼續(xù)社會現(xiàn)有的不平等,從而影響醫(yī)療資源的合理分配。
誤診和錯誤治療,危害患者健康
AI在醫(yī)學影像分析中的種族偏差也十分明顯。例如,在主流的AI心臟分割模型中,對白人患者的診斷準確率高達 93%,但對黑人患者的準確率僅有 85%。這種差異往往源于訓練數(shù)據(jù)的不均衡,導(dǎo)致AI在面對某些群體時表現(xiàn)欠佳。
雖然數(shù)據(jù)的增加可以改善模型的整體準確性,但如果這些模型被用于醫(yī)療資源的分配,而非僅作為輔助診斷工具,那么少數(shù)族裔可能會因低準確率而被誤診,影響治療效果。對于依賴AI進行疾病篩查和風險預(yù)測的醫(yī)院而言,這種偏差可能直接影響患者的生存率,甚至增加醫(yī)療糾紛和法律責任。
弱勢群體的醫(yī)療可及性下降
在藥物劑量預(yù)測領(lǐng)域,AI也存在隱性偏見。
由于偏遠地區(qū)或經(jīng)濟條件較差的患者較少參與臨床試驗,導(dǎo)致AI主要基于健康人群的數(shù)據(jù)進行訓練,從而在預(yù)測特定人群的藥物反應(yīng)時出現(xiàn)誤差。這種數(shù)據(jù)不足可能導(dǎo)致AI推薦的劑量對某些群體不適用,甚至增加藥物副作用的風險。
此外,歐美建立的新冠肺炎預(yù)測體系也暴露出類似問題。基于美國人口數(shù)據(jù)訓練的AI在預(yù)測東南亞一些國家的疫情發(fā)展時準確率較低,說明AI在跨區(qū)域遷移時可能出現(xiàn)適用性下降的問題。
因此,在醫(yī)療AI應(yīng)用中,需要結(jié)合遷移學習等技術(shù),確保模型能夠適應(yīng)不同地區(qū)和人群,而非簡單地直接移植國外訓練的模型。
不公平的醫(yī)學AI不僅會影響個體患者的健康,還可能加劇社會不平等、破壞公眾信任,甚至在政策和保險層面引發(fā)深遠的社會影響。因此,在AI醫(yī)學應(yīng)用中,必須嚴格審查數(shù)據(jù)質(zhì)量、優(yōu)化算法公平性,并確保AI診斷和決策不會無意間加劇社會結(jié)構(gòu)性問題。
![]()
優(yōu)化醫(yī)學AI公平性:
挑戰(zhàn)與改進方向
要優(yōu)化AI的公平性,首要步驟是明確存在的不公平現(xiàn)象,深入分析其根源,進而制定有針對性的改進策略。以甲狀腺癌診斷為例,不公平現(xiàn)象主要來源于對罕見亞型的忽視。目前AI診斷系統(tǒng)大多基于常見亞型數(shù)據(jù)進行訓練,而罕見亞型由于數(shù)據(jù)稀缺,并未被充分研究和優(yōu)化,導(dǎo)致AI對這部分患者的預(yù)測效果較差。具體來看,不公平的來源包括以下兩個方面。
1)罕見亞型被忽視:罕見亞型/疾病的低發(fā)病率導(dǎo)致樣本收集受限,與常見亞型/疾病進行混合訓練時,容易存在預(yù)測差異,導(dǎo)致特定人群的診療不公平。
2)數(shù)據(jù)不均衡導(dǎo)致模型偏心:由于常見罕見亞型數(shù)據(jù)存在嚴重的不均衡性,導(dǎo)致模型訓練過程中更容易學習到常見數(shù)據(jù)特征分布規(guī)律,而忽略罕見數(shù)據(jù)樣本邊界,造成罕見亞型的識別能力不足,導(dǎo)致該類患者更容易被誤診或漏診。
要解決這一問題,應(yīng)從數(shù)據(jù)采集、模型訓練、評估與應(yīng)用等多個層面系統(tǒng)優(yōu)化。
首先,數(shù)據(jù)層面應(yīng)使用數(shù)學優(yōu)化或重采樣等技術(shù),使AI更關(guān)注罕見亞型患者,避免樣本不平衡造成的忽視。在數(shù)據(jù)收集過程中,也需去除社會、種族等人為因素干擾,僅基于生理特征構(gòu)建模型,防止引入種族或性別偏見。
其次,應(yīng)關(guān)注地區(qū)差異。在模型遷移應(yīng)用時,不同地區(qū)的醫(yī)療條件、疾病譜和患者特征可能存在較大差異,因此不能直接使用外部模型,而需結(jié)合本地臨床經(jīng)驗進行調(diào)整。類似地,性別偏差也是AI設(shè)計中的重點問題,模型訓練應(yīng)確保男女樣本數(shù)量大致均衡,從而提升對不同性別人群的診斷準確性。此外,對于老年人、殘疾人或偏遠地區(qū)人群,應(yīng)在數(shù)據(jù)采集中納入更豐富的樣本,使AI模型在訓練階段接觸更多元的人群,提高其在邊緣群體中的適應(yīng)性。
第三,時間偏差亦不容忽視。醫(yī)學知識、疾病譜和診療工具都在不斷更新,若AI模型不隨時間調(diào)整,可能導(dǎo)致預(yù)測失效。因此,AI系統(tǒng)需定期進行性能校準和參數(shù)更新,保持臨床可用性和準確性。
第四,解決AI公平性問題的核心在于將醫(yī)療專業(yè)知識、倫理考量與社會因素深度融入AI設(shè)計。盡管AI在部分任務(wù)上已超越人類,但其無法自主理解醫(yī)療決策中的人文復(fù)雜性與社會維度。因此,需組建由倫理學家、法律專家和社會學家組成的跨學科團隊,全程參與模型開發(fā)與評估,制定涵蓋公平性的綜合標準。這不僅能優(yōu)化技術(shù)性能,更能從法律與道德層面確保公平性,使AI在醫(yī)療應(yīng)用中既精準可靠又公正包容。唯有技術(shù)優(yōu)化與人文監(jiān)管的深度融合,才能實現(xiàn)醫(yī)學AI的公平可持續(xù)發(fā)展。
數(shù)據(jù)科學家:
優(yōu)化去偏機制,確保數(shù)據(jù)公平
需嚴格評估醫(yī)學數(shù)據(jù)的代表性,確保覆蓋不同性別、種族、年齡等多元人群,避免因樣本偏差導(dǎo)致模型對特定群體誤判;通過抽樣分析識別潛在偏見,并在訓練中實施去偏策略,優(yōu)化算法公平性,使AI在診斷中更可靠。
醫(yī)生:
理解AI機制,提高判斷能力
應(yīng)掌握AI基本原理,讓醫(yī)學教育早期融入AI實踐訓練,提升識別數(shù)據(jù)偏見與模型局限性的能力;在臨床中理性應(yīng)用AI工具,避免盲目依賴,結(jié)合專業(yè)判斷確保診療決策的精準與公平。
政府:
制定政策,推動公平AI發(fā)展
需牽頭制定AI倫理與公平性國家標準,推動建設(shè)涵蓋全人口特征的代表性醫(yī)學數(shù)據(jù)庫,設(shè)立專項基金支持去偏算法研發(fā),并加強國際協(xié)作建立全球統(tǒng)一的公平性評估框架,確保AI在醫(yī)療領(lǐng)域公平、安全、可持續(xù)發(fā)展。
監(jiān)管人員:
監(jiān)測AI影響,確保透明性
監(jiān)管機構(gòu)需通過技術(shù)監(jiān)管與長期監(jiān)測雙管齊下,強化AI應(yīng)用的合規(guī)性與公平性:
一方面應(yīng)提升對AI透明度、可解釋性的要求,推動 AI 診斷與決策過程公開化,破解“黑箱”困境以明確責任追溯路徑;另一方面要針對醫(yī)療、金融、就業(yè)等社會核心領(lǐng)域,要求AI模型在投入使用前通過嚴格公平性測試,從源頭防范技術(shù)無意間放大社會不平等的風險。
同時,需建立健全AI責任追溯機制,清晰劃分AI造成不公平或誤判時各方的責任,并提供有效的申訴與補救渠道;還應(yīng)借助獨立審查與數(shù)據(jù)分析,對AI在醫(yī)療、社會決策中的公平性開展長期監(jiān)測與持續(xù)評估,警惕新型技術(shù)偏見的出現(xiàn)。
法律層面的保障是AI公平應(yīng)用的重要支撐。司法機構(gòu)需完善法律框架,明確AI因偏見或誤判導(dǎo)致不公平對待時,開發(fā)者、使用者、管理者的法律責任;需制定專門的AI倫理法規(guī),禁止使用可能引發(fā)歧視或資源分配不公的算法,確保AI在關(guān)鍵領(lǐng)域的應(yīng)用符合公平性原則。此外,應(yīng)設(shè)立AI糾紛解決機制,為受AI影響的個人或群體提供法律援助,保障其合法權(quán)益;應(yīng)推動司法機構(gòu)與AI研究人員、社會學家、倫理學家開展跨學科合作,讓法律法規(guī)既能適應(yīng)AI技術(shù)的快速發(fā)展,又能構(gòu)建科學合理的監(jiān)管體系。
AI公平性問題的解決需多方協(xié)同,唯有凝聚監(jiān)管機構(gòu)、司法部門、技術(shù)研發(fā)者、社會研究者等各方力量,共同構(gòu)建公平的AI生態(tài),才能讓 AI 真正成為促進社會公平、優(yōu)化醫(yī)療資源分配的有力工具,而非加劇不平等的技術(shù)隱患。
-本文刊載于《世界科學》雜志2025年第9期“大家·科技前沿”欄目;文章根據(jù)筆者在上海市科學技術(shù)普及志愿者協(xié)會主辦的“海上科普講壇”上的報告撰寫而成-
![]()
《世界科學》雜志版在售中 歡迎訂閱
月刊定價
15元/期
全年訂閱價
180元
點擊左側(cè)圖片或以下方訂閱方式選購
方式一:
掃描二維碼,“雜志鋪”訂閱有折扣~
方式二:
全國各地郵局訂閱 郵發(fā)代號:4-263
方式三:
機構(gòu)訂閱,請撥打
021-53300839;
021-53300838
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.