![]()
2025年5月15日,由蘭德公司、史汀生中心和托尼·布萊爾全球變革研究所共同組織的“人工智能輔助政策制定項目”(AIPP)研討會在華盛頓特區(qū)舉辦。會議旨在回答一個核心問題:人工智能工具如何在政策制定的整個生命周期中發(fā)揮作用,并幫助應(yīng)對日益復(fù)雜的公共挑戰(zhàn)?研究結(jié)果揭示了人工智能工具在起草文案、數(shù)據(jù)分析、簡化語言等方面的巨大潛力,但也指出其在推理、長期規(guī)劃和倫理信任方面的局限性。啟元洞見編譯整理了其中的核心內(nèi)容,供讀者參考。
2025年5月15日,人工智能輔助政策制定項目(AIPP)在華盛頓特區(qū)舉辦了為期一天的研討會,重點討論人工智能工具在政策制定生命周期各個方面的作用。此次活動由蘭德公司(RAND)、史汀生中心(Stimson Center)和托尼·布萊爾全球變革研究所(Tony Blair Institute for Global Change)共同組織,匯集了來自政策研究、政策制定和技術(shù)等不同背景的56名與會者。
一、會議一:定義人工智能支持的政策
會議一通過梳理政策制定工作流程,界定了人工智能輔助政策制定的范疇。
(一)政策制定生命周期中還有哪些其他組成部分(或任務(wù)類別)?
早期政策活動,例如監(jiān)測媒體動態(tài)、收集官員聲明、識別新出現(xiàn)的問題,都有助于在正式?jīng)Q策開始前,塑造政策議程。與會者討論了與利益相關(guān)方互動相關(guān)的公眾輿論調(diào)查、情感追蹤等任務(wù),以及梳理關(guān)鍵參與者、提供培訓(xùn)、準備證詞以及在研究后征集反饋等其他任務(wù)。在分析類任務(wù)中,重點提到了成本效益分析、反事實分析、預(yù)算影響評分和歷史分析。此外,政策制定生命周期中的其他環(huán)節(jié)包括建立聯(lián)盟、就新政策開展宣傳和教育、通過議程設(shè)置來確定需要政策響應(yīng)的議題、以特定受眾易于理解的格式發(fā)布研究成果和報告等等。與會者也指出,政策制定過程通常是非線性且反復(fù)迭代的,這可能很難用線性的工作流程來概括。
(二)人工智能系統(tǒng)目前能夠承擔(dān)哪些決策任務(wù)?
目前人工智能工具已被用于起草備忘錄和立法文本、總結(jié)聽證會和研究文件、分析利益相關(guān)方的立場,以及簡化復(fù)雜或過于法律化的語言。人工智能還可以在不同格式間進行轉(zhuǎn)換,例如將要點轉(zhuǎn)換為立法文本,并生成格式化的內(nèi)容。大型語言模型可以支持構(gòu)思和頭腦風(fēng)暴,進行高頻次的試錯,并綜合處理大量的知識。一些系統(tǒng)能夠整合多場聽證會上的發(fā)言,并模擬回應(yīng)或反建議,以使立法獲得更廣泛的接受。人工智能還可以進行知識管理。然而,人工智能在推理質(zhì)量、優(yōu)先次序、識別薄弱證據(jù)、長期規(guī)劃、決策以及隱性知識以下方面仍存在局限性。人工智能在說服力方面具有優(yōu)勢,但也容易出現(xiàn)認知偏差,例如傾向于根據(jù)信息的數(shù)量而非相關(guān)性來判斷其重要性,這可能會壓制少數(shù)派的聲音。此外,人工智能無法預(yù)測決策的長期后果,也無法根據(jù)具體情境做出決策。
(三)哪些用戶可以利用人工智能工具進行決策?
可能將人工智能工具用于政策制定的用戶群體包括立法助理、監(jiān)管人員、政策研究員、初創(chuàng)企業(yè)創(chuàng)始人、倡導(dǎo)團體和政治候選人。未來人工智能的主要用戶將是工作人員和輔助人員,而不是決策者本人,因為他們需要審閱和處理大量文本及信息。與會者還探討了小型辦公室或社區(qū)組織等資源不足的機構(gòu)如何利用人工智能,來獲取那些以往只有資金雄厚的機構(gòu)才能使用的工具和見解。對于許多這類用戶來說,人工智能被視為提高生產(chǎn)力的工具,而非取代人力的工具。
(四)不同角色會遇到哪些適用機遇和挑戰(zhàn)?
與會者討論了許多機遇,包括讓日常或格式化任務(wù)實現(xiàn)自動化、加快起草和分析工作、促成新的利益相關(guān)方參與方式、讓高質(zhì)量分析得以普及,并可能加速利益相關(guān)方之間的反饋循環(huán),從而更快地實施政策。一些與會者討論了人工智能如何實現(xiàn)個性化,并通過找出共識立場或生成定制化、有說服力的內(nèi)容來幫助談判。不過,面向政策領(lǐng)域的與會者也指出了一些挑戰(zhàn),包括適用規(guī)則不明確、隱私和法律方面的顧慮、對產(chǎn)出結(jié)果的信任度不一,以及需要對人工智能模型進行長期維護和校準。此外,開發(fā)政府專用工具對公司來說缺乏足夠的經(jīng)濟吸引力,因為政府預(yù)算有限,而且相比商業(yè)應(yīng)用,其潛在客戶群要小得多,難以實現(xiàn)規(guī)模化盈利。
如果沒有重新培訓(xùn)或機構(gòu)支持,將人工智能整合到現(xiàn)有工作流程中會非常復(fù)雜,而且其在公共和私營部門的普及情況也大相徑庭。
二、會議二:人工智能的核心能力和系統(tǒng)要求
會議二探討了人工智能在政策制定中的現(xiàn)有和潛在應(yīng)用,重點討論了工具能力、近期自動化機會以及對數(shù)據(jù)和信息流的考量。
(一)目前在政策制定或相關(guān)工作流程中,使用了哪些人工智能工具?優(yōu)缺點是什么?
與會者們討論了人工智能工具如何日益融入政策制定工作流程,為從合規(guī)到研究規(guī)劃的各類任務(wù)提供支持。比如,人工智能可用于應(yīng)對出口管制、識別許可代碼,并作為定制化溝通的“傳聲筒”。內(nèi)置在常用應(yīng)用程序中的人工智能工具,其普及率遠高于那些獨立存在的工具,集成式人工智能工具具有優(yōu)勢。通用大型語言模型,能夠輔助進行背景研究、構(gòu)建文獻綜述和規(guī)劃項目工作流程。然而,由于隱私限制,輸入信息往往缺乏上下文,用戶對于幻覺(hallucinations)造成的錯誤也依然保持謹慎。
在政策研究環(huán)境中,通用人工智能工具能夠支持溝通、撰寫報告和網(wǎng)站開發(fā)等等,尤其是在缺乏專用工具的情況下。在慈善領(lǐng)域,由于其感知價值較低且難以捕捉隱性知識,人工智能的采納受到了限制。例如,政策制定者的公開立場往往不能完全代表他們的實際信念,而他們的行動也常常受到其心照不宣的信念所影響。與會者討論了項目經(jīng)理如何利用人工智能進行協(xié)作式知識創(chuàng)造和評估數(shù)據(jù)需求。一位與會者提到,英國等國政府使用諸如Consult和Redbox等工具來進行公眾參與和立法摘要。盡管有如此多的應(yīng)用,與會者仍指出其在可靠性、有效性、數(shù)據(jù)獲取、工具功能明確性以及使用授權(quán)方面的局限性。
(二)在工作流程中,哪些任務(wù)適合由人工智能來自動化?
與會者指出了政策制定工作流程中幾項特別適合人工智能自動化的任務(wù)。其中一個例子是對選民需求進行分類和處理。人工智能可以通過監(jiān)測背景變化、幫助追蹤新問題及長期存在的問題來支持這一過程。與會者們討論了在某些場景下,聊天機器人如何被探索用于替代傳統(tǒng)的選民通信,這也引發(fā)了一個問題:人工智能是否能以人類員工所應(yīng)有的判斷力和理解力做出回應(yīng)。
那些被描述為更具確定性和格式化的任務(wù),比如根據(jù)數(shù)據(jù)生成基礎(chǔ)可視化圖表,是很有希望實現(xiàn)自動化的目標。這類任務(wù)的自動化能讓員工將更少的時間花在初稿上,而將更多時間用于優(yōu)化和解讀。
(三)如何設(shè)計人工智能系統(tǒng),才能恰當(dāng)?shù)貦?quán)衡和整合人工生成數(shù)據(jù)和合成數(shù)據(jù)?
與會者指出了人工生成數(shù)據(jù)(通常雜亂無章、缺乏結(jié)構(gòu))和合成數(shù)據(jù)(更整潔但可能不完全可信)之間的權(quán)衡。
與會者還討論了用于訓(xùn)練人工智能模型的數(shù)據(jù)人口統(tǒng)計學(xué)特征會如何影響模型輸出:這些數(shù)據(jù)是否能代表選民群體,或者是否過度或不足代表了某些群體?這些差異引出了一個關(guān)鍵問題:在人工智能輔助的決策中,到底代表了誰的視角?
調(diào)查和監(jiān)測系統(tǒng)或許可以作為支持人工智能輔助決策的一種模式。這類系統(tǒng)收集大規(guī)模反饋,通常用于監(jiān)測對時事的反應(yīng)。與會者強調(diào)了在這些系統(tǒng)中進行人工校準的重要性,并指出即使是設(shè)計精良的模型,也需要人工監(jiān)督來確保數(shù)據(jù)得到正確的解讀。
(四)理想情況下,系統(tǒng)應(yīng)該在什么樣的信息環(huán)境中工作,并能跨環(huán)境運行?
與會者反思了跨組織、利益相關(guān)方和個人之間的數(shù)據(jù)訪問和共享問題。討論了人工智能系統(tǒng)需要在數(shù)據(jù)稀缺、數(shù)據(jù)收集成本高昂以及現(xiàn)有數(shù)據(jù)集存在缺口的環(huán)境中運行,強調(diào)從當(dāng)?shù)厣鐓^(qū)和專家那里收集數(shù)據(jù)所面臨的挑戰(zhàn)。他們指出,自動化可以協(xié)助完成低層次的外聯(lián)任務(wù),并生成正確的問題。與會者指出了有效利用人工智能的障礙,例如數(shù)據(jù)集來源中可能存在的偏見,以及在與非在線社區(qū)互動時作用有限。
(五)人工智能輔助政策制定還需要哪些新的能力?
現(xiàn)有的人工智能系統(tǒng)無法整合隱性知識或獲取非公開信息,因此必須設(shè)計方法來彌補這些局限性。人工智能在海量文本中搜索特定信息(例如查找先例)具有必要性。建議開發(fā)人工智能客戶關(guān)系管理(CRM)系統(tǒng),為議員辦公室進行個性化定制,幫助工作人員追蹤議員之間的關(guān)系。
政策制定者需要培養(yǎng)相關(guān)技能,尤其是在有效提示、確定適當(dāng)用例以及管理偏見和幻覺等方面。關(guān)于人工智能使用許可的政策尚不明確,制定明確的人工智能使用政策或許會有所幫助,特別是對于國會工作人員而言。
三、會議三:實施考量
會議三重點討論了人工智能政策工具的實施考量,研究了如何在應(yīng)對潛在風(fēng)險和意外后果的同時,確保其可信度和符合民主規(guī)范。
(一)我們?nèi)绾未_保人工智能政策工具值得信賴、符合民主規(guī)范并被大眾接受?
對人工智能政策工具的信任取決于其透明度、問責(zé)制以及是否符合最終用戶的需求。工具應(yīng)清晰地展示其得出結(jié)論的過程,包括推理邏輯和數(shù)據(jù)來源,以便政策制定者能夠理解輸出結(jié)果。
由于各州之間以及聯(lián)邦與州之間的法律法規(guī)差異很大,人工智能工具必須足夠靈活,以反映這種多樣性。與政策制定者、利益相關(guān)方和受影響的社區(qū)共同設(shè)計這些工具至關(guān)重要,這能確保工具反映現(xiàn)實世界的約束和價值觀。人工智能工具可以支持向更具迭代性、以成果為導(dǎo)向的立法模式轉(zhuǎn)變,從而使立法能夠根據(jù)實施后的反饋和指標更快地演進。
一些與會者認為,市場力量足以推動可信賴的工具取代那些可信度較低的工具。而另一些人則反駁道,可能需要政策干預(yù)來彌補消費者保護和集體問責(zé)方面的不足。
(二)將人工智能深度整合進政策制定流程,最大的潛在風(fēng)險或意外后果是什么?如何主動解決這些擔(dān)憂?
過度授權(quán)或會導(dǎo)致人的能動性被削弱。過度依賴人工智能可能會削弱民主治理所必需的批判性思維和判斷能力,使責(zé)任追溯變得更加困難,并減少新穎見解的產(chǎn)生。需要建立有效的反饋循環(huán),以確保模型始終立足于現(xiàn)實世界的具體情況。政策制定環(huán)境中的錯誤后果可能比其他環(huán)境更嚴重,因此在高風(fēng)險場景下部署的模型,需要達到比低風(fēng)險場景更高的性能水平。此外,人工智能可能會用低價值內(nèi)容淹沒政策制定過程,使得識別和采納高質(zhì)量見解變得更加困難。如果沒有過濾或信息優(yōu)先排序的機制,人工智能可能會增加決策空間的“噪音”。建議引入“摩擦”,例如增加驗證成本,以限制公共反饋流程中的垃圾信息或自動化提交。與會者還探討了對抗性輸入的風(fēng)險,個人或團體可能會故意操縱在線內(nèi)容,以影響未來的人工智能輸出,從而可能扭曲與政策相關(guān)的知識體系。在政策制定的某些方面,減少人工智能工具的整合反而會更好。
(三)如何構(gòu)建人工智能系統(tǒng),才能在不降低信任度或?qū)嵱眯缘那疤嵯拢行У叵蛘咧贫ㄕ邆鬟_不確定性程度?
人工智能系統(tǒng)傳達不確定性在技術(shù)上具有挑戰(zhàn)性,特別是在結(jié)構(gòu)化預(yù)測任務(wù)之外。當(dāng)模型持續(xù)做出具體預(yù)測時,校準或許是可行的,但許多政策制定應(yīng)用更具開放性。為了提高決策過程的透明度,有必要明確標示哪些輸出由人工智能生成,哪些來自人類貢獻者。此外,對人工智能的信任最終可能更多地取決于其過往記錄,而非最初的印象。
(四)大規(guī)模采納會帶來什么影響?
人工智能工具的大規(guī)模采納,可能會改變政策制定中現(xiàn)有的瓶頸,并增加產(chǎn)出、文檔和復(fù)雜性,從而促使政府進行相應(yīng)調(diào)整。與會者討論了參考多個模型以及建立更強大的評估生態(tài)系統(tǒng)的必要性。與會者提出包括認知能力下降、判斷力喪失、情感依賴、由于人工智能的說服能力而加劇的兩極分化,以及日益增長的能源需求等擔(dān)憂。此外,強調(diào)潛在的不平等獲取問題,即更富裕的機構(gòu)可能更有能力負擔(dān)高質(zhì)量的數(shù)據(jù)和模型。
(五)對于將執(zhí)行政策制定任務(wù)的人工智能系統(tǒng),需要防范哪些關(guān)鍵的失敗模式?
一個重要的擔(dān)憂是信息超載,人工智能工具可以生成大量內(nèi)容,而這些內(nèi)容可能會掩蓋有價值或高質(zhì)量的輸入。模型可能內(nèi)嵌了意識形態(tài)假設(shè),不加批判地接受人工智能輸出是一種潛在的失敗模式。與會者特別強調(diào)“奉承”的風(fēng)險,即模型會強化用戶的信念,而不是呈現(xiàn)多元化的觀點。人工智能工具的采納應(yīng)由具體的政策需求驅(qū)動而不是被炒作所左右,不應(yīng)在沒有明確目的的情況下部署。此外,建議開發(fā)具有領(lǐng)域特定“護欄”的專用人工智能系統(tǒng),因為通用模型可能缺乏必要的上下文或保障措施。最后,保持質(zhì)量控制并確保政策制定始終以公民為中心至關(guān)重要。
四、會議四:為人工智能輔助政策制定構(gòu)建技術(shù)路線圖
會議四探討了人工智能在政策制定中的技術(shù)路線圖,將現(xiàn)有的人工智能模型工具與具體的政策應(yīng)用進行匹配。
(一)市場圖譜:目前哪些人工智能工具可支持端到端的政策制定?
與會者概述了一個日益成熟的人工智能工具生態(tài)系統(tǒng),這些工具支持政策制定的不同階段。OpenAI、Claude、Gemini和Perplexity等通用l模型目前主要用于研究和起草工作。專用工具包括用于文獻綜述的Elicit、用于法律工作流程的Harvey,以及用于結(jié)構(gòu)化政策整合的Policy Synth。像Granola和Grain這類工具可協(xié)助記錄和總結(jié)會議內(nèi)容,而微軟Copilot則因其與現(xiàn)有工作流程的無縫集成而被廣泛采用。特定領(lǐng)域的舉措包括帶有XML注釋的法律、確定性語言(如Catala)和實驗性工具(如政策模擬器)。與會者表示,很少有工具能提供完整的端到端支持,但關(guān)鍵組件已經(jīng)就位。
(二)哪些是最需要首先開發(fā)的重點領(lǐng)域和能力?
質(zhì)量保證是一個關(guān)鍵焦點,包括提升模型輸出的可靠性、精確度和準確性。與會者強調(diào)“品味”的重要性,即系統(tǒng)識別有用信息來源和采用適合政策制定語境的寫作風(fēng)格的能力。人工智能工具應(yīng)能讓人們輕松追溯到支持結(jié)論的論據(jù)和證據(jù)。與會者還討論了如何促使和訓(xùn)練模型保持透明,包括評估偏見的必要性。為了鼓勵人工智能的采納,各機構(gòu)必須授權(quán)、培訓(xùn)并推廣員工使用人工智能工具。此外,可靠的用戶界面(UI)和用戶體驗(UX)非常重要,這能讓員工更容易學(xué)會有效使用這些工具。
(三)你希望看到哪些工具被開發(fā)或采納?
與會者表示有興趣為不同類型的用戶建立定制化工作流程,以生成政策摘要、談話要點和面向特定受眾的輸出內(nèi)容。他們特別強調(diào)能將會議記錄轉(zhuǎn)換為關(guān)系圖、客戶關(guān)系管理條目等結(jié)構(gòu)化格式工具,以及將復(fù)雜規(guī)則翻譯成通俗易懂語言工具的重要性。與會者還提出了用于識別參與者之間政策一致性的自動化分析工具,以及自動事實核查系統(tǒng)。他們還強調(diào)了能增強公眾參與度和透明度工具的重要性,并舉例提到了政策摘要平臺和模擬工具(如Concordia)。
(四)利益相關(guān)方如何開始部署或測試這些工具?
將人工智能系統(tǒng)部署到政策制定環(huán)境中面臨結(jié)構(gòu)性挑戰(zhàn),包括公司缺乏構(gòu)建和維護特定政策工具的經(jīng)濟激勵。面向政府市場或智庫的人工智能產(chǎn)品市場規(guī)模小,通常被認為不具經(jīng)濟吸引力。與會者建議,改造通用工具供政府使用可能比構(gòu)建定制解決方案更可行。為政府開發(fā)定制軟件被認為是資源密集型的工作。但也有人樂觀地認為,隨著軟件開發(fā)的持續(xù)進步,成本可能會隨時間降低,從而使開發(fā)更具針對性的工具變得更可行。此外,有必要建立可行的商業(yè)模式來證明開發(fā)這些工具的合理性,例如通過多年期合同、激勵機制設(shè)計以及供應(yīng)商和機構(gòu)之間建立結(jié)構(gòu)化關(guān)系。總而言之,僅靠傳統(tǒng)的市場力量可能不足以支持政策制定者所需的人工智能工具,可能需要其他的開發(fā)和部署模式。
(五)近期、中期和長期的成功衡量標準是什么?誰來驗證成功?
部分與會者認為,近期的成功指標是更快地完成常規(guī)工作流程、為員工節(jié)省時間,以及在同行經(jīng)驗的推動下更廣泛地采納人工智能工具。其他與會者認為,成功的標志是增加試驗,特別是針對低風(fēng)險決策的試驗。從中期來看,成功將包括減少利益相關(guān)方之間的迭代循環(huán)、提高預(yù)測提案反應(yīng)的能力,以及在危機期間增強響應(yīng)能力。未來的人工智能工具可能將支持更廣泛地探索政策選項空間,并更好地將法律、經(jīng)濟和公平因素整合到分析中。長期的成功衡量標準則側(cè)重于機構(gòu)和社會成果,如改善審議、加強談判以及能帶來更好社會結(jié)果的政策。與會者強調(diào)了關(guān)鍵目標,例如提高公眾參與度、減少盲點和增強對機構(gòu)的信任。與會者討論了由誰以及如何來驗證成功。他們建議在機構(gòu)內(nèi)部追蹤運營目標,如節(jié)省時間或加快政策文件的編制。對于更廣泛的社會影響,如提高對機構(gòu)的信任或改善政策成果,可能需要通過民意調(diào)查或宏觀研究來驗證。
五、結(jié)論
這場技術(shù)專家與政策專家之間的對話,探討了將人工智能融入民主治理的巨大前景和復(fù)雜挑戰(zhàn)。隨著政策制定者努力跟上日益復(fù)雜的世界和快速演變的全球挑戰(zhàn),傳統(tǒng)的政策制定流程在應(yīng)對需要實時分析和整合海量信息的問題時,正變得力不從心。與會者討論了人工智能工具如何能彌補這一差距,以及它們目前是如何為政策制定工作流程做出有意義的貢獻。
本次研討會中有幾個反復(fù)出現(xiàn)的主題:首先,在政策制定環(huán)境中有效部署人工智能存在結(jié)構(gòu)性障礙,包括不明確的人工智能使用政策、隱私顧慮以及機構(gòu)支持的缺失。其次,需界定人工智能自動化和人類監(jiān)督之間的恰當(dāng)界限。雖然存在許多適合自動化的任務(wù),如起草、整合選民反饋、生成面向特定受眾的輸出內(nèi)容等,但過度依賴人工智能可能會削弱對人工智能產(chǎn)出和民主問責(zé)制的批判性思考。在政策制定中持續(xù)需要人類判斷力,應(yīng)在人與人工智能之間建立有效反饋循環(huán)。最后,如何確保人工智能工具保持透明和可信。需要有透明的人工智能推理過程、明確區(qū)分人工智能和人類的貢獻,并與利益相關(guān)方和選民共同參與設(shè)計。總而言之,應(yīng)有策略地采納和開發(fā)人工智能工具,以強化政策制定流程并改善其成果。
免責(zé)聲明:本文轉(zhuǎn)自啟元洞見。文章內(nèi)容系原作者個人觀點,本公眾號編譯/轉(zhuǎn)載僅為分享、傳達不同觀點,如有任何異議,歡迎聯(lián)系我們!
轉(zhuǎn)自丨啟元洞見
研究所簡介
國際技術(shù)經(jīng)濟研究所(IITE)成立于1985年11月,是隸屬于國務(wù)院發(fā)展研究中心的非營利性研究機構(gòu),主要職能是研究我國經(jīng)濟、科技社會發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問題,跟蹤和分析世界科技、經(jīng)濟發(fā)展態(tài)勢,為中央和有關(guān)部委提供決策咨詢服務(wù)。“全球技術(shù)地圖”為國際技術(shù)經(jīng)濟研究所官方微信賬號,致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見。
地址:北京市海淀區(qū)小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.