【摘要】人工智能正深度嵌入全球網(wǎng)絡(luò)空間治理體系,以高效的數(shù)據(jù)處理和風(fēng)險識別能力重塑治理的主體結(jié)構(gòu)、方法流程與模式機(jī)制,有效提升治理效率。必須清醒地認(rèn)識到,人的作用在全球網(wǎng)絡(luò)空間治理中仍具有不可替代性,因為人工智能尚不具備規(guī)范判斷與制度設(shè)計能力,其透明性、倫理性與權(quán)責(zé)屬性仍依賴人類塑造。未來全球網(wǎng)絡(luò)空間治理將呈現(xiàn)人機(jī)協(xié)同趨勢,即技術(shù)負(fù)責(zé)初步識別與響應(yīng),人類完成價值設(shè)定、制度構(gòu)建并承擔(dān)最終責(zé)任。人機(jī)共治的關(guān)鍵在于通過結(jié)構(gòu)嵌套、規(guī)則共創(chuàng)與責(zé)任協(xié)同等機(jī)制,構(gòu)建開放、透明、可問責(zé)的全球網(wǎng)絡(luò)空間治理新范式。
【關(guān)鍵詞】人工智能 網(wǎng)絡(luò)空間治理 技術(shù)嵌入 人類主導(dǎo) 人機(jī)協(xié)同
【中圖分類號】D820/TP393 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.13.004
【作者簡介】蔡翠紅,復(fù)旦大學(xué)國際問題研究院、美國研究中心教授、博導(dǎo)。研究方向為網(wǎng)絡(luò)空間治理、數(shù)字治理、數(shù)字戰(zhàn)略、網(wǎng)絡(luò)政治與中美關(guān)系,主要著作有《全球網(wǎng)絡(luò)空間治理》《Cyber Politics in US-China Relations》《中美關(guān)系中的網(wǎng)絡(luò)政治研究》《網(wǎng)絡(luò)時代的政治發(fā)展研究》《美國國家信息安全戰(zhàn)略》《信息網(wǎng)絡(luò)與國際政治》等。
引言
在數(shù)字技術(shù)迅猛發(fā)展的當(dāng)下,全球網(wǎng)絡(luò)空間治理正面臨深刻的結(jié)構(gòu)性變革。全球網(wǎng)絡(luò)空間治理是指通過制定和實施政策、規(guī)則及技術(shù)標(biāo)準(zhǔn),協(xié)調(diào)各國政府、國際組織、私營部門和公眾等多方主體,共同管理和規(guī)范網(wǎng)絡(luò)空間,以維護(hù)其安全、穩(wěn)定與繁榮的活動。[1]以人工智能(Artificial Intelligence, AI)為代表的新興技術(shù),正從單一工具型手段演變?yōu)榍度胧街卫硪?,深度參與政策執(zhí)行、內(nèi)容監(jiān)管、風(fēng)險預(yù)警、數(shù)據(jù)管理等多個關(guān)鍵環(huán)節(jié)。這種變化不僅顯著提升了治理效率和響應(yīng)能力,而且給傳統(tǒng)治理邏輯、權(quán)力結(jié)構(gòu)與制度安排帶來前所未有的挑戰(zhàn)與重塑壓力。
人工智能之于網(wǎng)絡(luò)空間治理,不僅是一場技術(shù)革新,更是一種治理范式轉(zhuǎn)型,對于網(wǎng)絡(luò)空間治理而言是一把“雙刃劍”。[2]一方面,依托強(qiáng)大算力與可持續(xù)優(yōu)化的算法,人工智能在信息甄別、趨勢識別、行為監(jiān)測等方面具備獨(dú)特優(yōu)勢,推動治理從被動響應(yīng)走向主動預(yù)測,從集中管理走向去中心化協(xié)作;另一方面,人工智能技術(shù)治理應(yīng)用中的透明性缺失、倫理模糊、問責(zé)困難等問題,也引發(fā)了各界對治理正當(dāng)性與責(zé)任歸屬的深層憂慮。這意味著,我們正進(jìn)入一個技術(shù)推動與人的協(xié)調(diào)監(jiān)管并舉的人機(jī)共治新階段。然而,技術(shù)本身并不具備自治能力。治理本質(zhì)上是一種集合法律制度、社會共識與政治判斷于一體的復(fù)雜工程。在人工智能廣泛介入全球網(wǎng)絡(luò)空間治理實踐的同時,人類在價值設(shè)定、規(guī)則制定、道德判斷與多邊協(xié)商中的不可替代性愈加凸顯。從平臺內(nèi)容審查中的倫理分歧,到跨國數(shù)據(jù)流動中的主權(quán)博弈,從技術(shù)濫用引發(fā)的風(fēng)險糾錯,到未來治理機(jī)制的制度前瞻,人類始終是治理鏈條中的最終責(zé)任者與價值“守門人”。
因此,理解人工智能時代的網(wǎng)絡(luò)空間治理變革,不僅要關(guān)注技術(shù)賦能與效率提升,而且必須正視人類主導(dǎo)作用的持續(xù)必要性,并思考人機(jī)協(xié)同的新制度形態(tài)。本研究擬從技術(shù)嵌入、人類主導(dǎo)、人機(jī)協(xié)同三個維度出發(fā),系統(tǒng)探討全球網(wǎng)絡(luò)空間治理的結(jié)構(gòu)性轉(zhuǎn)型邏輯。首先,聚焦人工智能對網(wǎng)絡(luò)空間治理的結(jié)構(gòu)性變革,分析其在治理效率、主體結(jié)構(gòu)、流程機(jī)制與制度模式等方面的深度介入與重塑。其次,討論網(wǎng)絡(luò)空間治理中的人類不可替代性,強(qiáng)調(diào)在倫理判斷、規(guī)則設(shè)計、政治協(xié)調(diào)與公眾參與等關(guān)鍵領(lǐng)域,人工智能無法取代人類的規(guī)范性與判斷力。再次,展望邁向“人機(jī)協(xié)同共治”的網(wǎng)絡(luò)空間治理圖景,提出一種更具前瞻性的制度設(shè)想,即人類主導(dǎo)、人工智能輔助的人機(jī)協(xié)同機(jī)制。[3]通過上述分析,本文希望為理解人工智能驅(qū)動的全球網(wǎng)絡(luò)空間治理提供一套兼具結(jié)構(gòu)觀察與規(guī)范反思的理論框架,進(jìn)而為未來制度設(shè)計提供啟示與參考。
人工智能對全球網(wǎng)絡(luò)空間治理的嵌入
隨著人工智能技術(shù)的快速演進(jìn),全球網(wǎng)絡(luò)空間治理正經(jīng)歷深層次的結(jié)構(gòu)性轉(zhuǎn)型。人工智能不僅提升了治理效率,更在悄然重塑治理主體格局、操作流程與制度架構(gòu)。下面以效率、主體、過程、模式四個維度為線索,系統(tǒng)分析人工智能如何嵌入網(wǎng)絡(luò)治理體系,并揭示其在權(quán)力分布、制度路徑和治理邏輯等方面的重塑機(jī)制。
治理效率的躍升:從人工操作到智能驅(qū)動。人工智能技術(shù)的嵌入,顯著改變了網(wǎng)絡(luò)空間治理的效率邏輯。傳統(tǒng)治理依賴人工操作,在數(shù)據(jù)處理、內(nèi)容審核、安全防護(hù)等方面面臨人力成本高、響應(yīng)速度慢、覆蓋面有限等結(jié)構(gòu)性困境。人工智能的引入,使網(wǎng)絡(luò)空間治理從依賴人類的點(diǎn)狀響應(yīng),轉(zhuǎn)變?yōu)槿旌?、高速率、廣覆蓋的系統(tǒng)性機(jī)制,開啟了治理效率躍升的新階段。
在內(nèi)容治理方面,人工智能極大提升違規(guī)內(nèi)容的篩查和響應(yīng)速度。以Meta公司為例,其在2022年第四季度報告中指出,旗下平臺使用人工智能識別并處理約90%以上的仇恨言論和暴力內(nèi)容,且多數(shù)能在用戶舉報前實現(xiàn)系統(tǒng)捕捉。[4]YouTube與TikTok也廣泛使用圖像識別與語義分析技術(shù),在上傳初期對內(nèi)容進(jìn)行分類和處理。盡管人類仍需在復(fù)雜內(nèi)容判斷中參與復(fù)核,但人工智能顯著減輕了審核負(fù)擔(dān),提升了響應(yīng)速度。
在網(wǎng)絡(luò)安全領(lǐng)域,人工智能可提高對威脅的即時監(jiān)控與主動防御能力。例如,微軟的“Azure Sentinel”安全平臺利用自動化整合技術(shù)可在毫秒級別識別異常網(wǎng)絡(luò)行為并自動啟動防御機(jī)制。[5]該系統(tǒng)利用機(jī)器學(xué)習(xí)訓(xùn)練識別“零日攻擊”“釣魚郵件”等潛在威脅,有效提高了網(wǎng)絡(luò)防御的敏捷性。中國國家計算機(jī)網(wǎng)絡(luò)應(yīng)急技術(shù)處理協(xié)調(diào)中心(CNCERT)也在探索將人工智能算法引入國家級態(tài)勢感知平臺,實現(xiàn)關(guān)鍵基礎(chǔ)設(shè)施的風(fēng)險自動識別與響應(yīng)。
在數(shù)據(jù)治理方面,人工智能顯著增強(qiáng)數(shù)據(jù)融合與決策支持能力。新加坡的“Smart Nation Sensor Platform”集成了交通、環(huán)境、公共安全等多維數(shù)據(jù),輔助政府使用人工智能實時分析交通與城市運(yùn)行數(shù)據(jù),為城市管理提供支持。[6]人工智能作為治理效能提升的加速器,正推動全球網(wǎng)絡(luò)空間治理自動化、智能化并向前瞻治理演進(jìn)。
治理主體的轉(zhuǎn)型:從人類主導(dǎo)到人機(jī)共治。隨著人工智能深度嵌入全球網(wǎng)絡(luò)空間治理,傳統(tǒng)由人類主導(dǎo)的治理格局正經(jīng)歷著轉(zhuǎn)向“人機(jī)協(xié)同、多元共治”的重大變革。在新的治理體系中,人工智能不再只是被動執(zhí)行的技術(shù)工具,而成為具備輔助判斷、主動識別、風(fēng)險預(yù)警等能力的輔助治理主體。人工智能開始在數(shù)據(jù)分析、內(nèi)容篩查、風(fēng)險建模等前端環(huán)節(jié)發(fā)揮關(guān)鍵作用,提升治理系統(tǒng)的響應(yīng)效率與覆蓋能力,而政策制定、價值判斷與責(zé)任追究等規(guī)范性環(huán)節(jié)仍由人類主導(dǎo)完成。二者相輔相成,構(gòu)成“技術(shù)驅(qū)動—人類裁量”的復(fù)合型治理結(jié)構(gòu)。無論是在網(wǎng)絡(luò)安全領(lǐng)域,還是在平臺自我規(guī)制與技術(shù)倫理治理中,越來越多的實踐印證了這一協(xié)同治理模式的發(fā)展與落地。
全球網(wǎng)絡(luò)安全巨頭卡巴斯基旗下的卡巴斯基工業(yè)網(wǎng)絡(luò)安全(KICS)和異常檢測機(jī)器學(xué)習(xí)(MLAD)產(chǎn)品都使用人工智能算法來識別特定工業(yè)環(huán)境中的間接攻擊指標(biāo)和細(xì)微活動異常。[7]其托管檢測和響應(yīng)(MDR)平臺則采用基于人工智能的自動分析器,該分析器接收安全運(yùn)營中心團(tuán)隊收到的警報后能自動對警報內(nèi)容進(jìn)行處理。據(jù)統(tǒng)計,經(jīng)過訓(xùn)練和分析師評估后,MDR平臺能夠較為可靠地過濾錯誤警報,從而將減少安全運(yùn)營中心約25%的工作量。[8]這一實踐展示了人機(jī)協(xié)作在網(wǎng)絡(luò)安全治理中的有效性,即人工智能負(fù)責(zé)初步篩查和風(fēng)險標(biāo)注,人類專家進(jìn)行復(fù)審和決策,從而提升治理的效率、精度和可靠性,構(gòu)建起一個分工互補(bǔ)、責(zé)任清晰的協(xié)同治理模式。
人工智能不僅提升平臺內(nèi)部監(jiān)管的精度與覆蓋率,也賦予平臺更大的規(guī)制能力,重塑治理邊界。例如,阿里巴巴于2022年設(shè)立“科技倫理治理委員會”,并引入外部顧問機(jī)制,推動包括算法審查、風(fēng)險評估、數(shù)據(jù)隱私保護(hù)等在內(nèi)的技術(shù)治理框架。該委員會主導(dǎo)制定了“科技倫理六大準(zhǔn)則”,明確要求重要算法上線前需進(jìn)行倫理與合規(guī)評估,確保平臺在“可控、可信、安全”基礎(chǔ)上運(yùn)行治理機(jī)制。[9]這一實踐展示了阿里巴巴如何通過人工智能技術(shù)和內(nèi)部治理機(jī)制的完善,提升平臺治理能力,從而在商業(yè)組織基礎(chǔ)上承擔(dān)更多治理主體責(zé)任。
治理過程的重構(gòu):從線性流程到智能自動化。人工智能的介入,正在深刻重塑全球網(wǎng)絡(luò)空間治理的流程架構(gòu)。傳統(tǒng)治理模式通常遵循“問題發(fā)現(xiàn)—人工介入—響應(yīng)處理”的線性鏈條,嚴(yán)重依賴人力審批和多部門協(xié)同,導(dǎo)致流程遲滯、反饋滯后與資源浪費(fèi)等治理瓶頸。在傳統(tǒng)架構(gòu)下,內(nèi)容審核、風(fēng)險識別、違規(guī)處置等任務(wù)往往由不同部門各自為政,形成“治理孤島”。在人工智能介入的新治理范式中,平臺不再僅僅是承載治理任務(wù)的執(zhí)行載體,而是逐步演化為集感知、調(diào)度、決策于一體的智能中樞。人工智能對治理流程的重構(gòu),不僅提升治理效率,更促成從人工審批線性鏈向以平臺為中樞的并行自治范式轉(zhuǎn)變。
TikTok的廣告審核流程結(jié)合了自動化審核與人工復(fù)核,以提高審核效率和準(zhǔn)確性。廣告提交后,系統(tǒng)通常會在24小時內(nèi)完成初步審核。對于低風(fēng)險內(nèi)容,人工智能可自動批準(zhǔn),而高風(fēng)險或復(fù)雜內(nèi)容則交由人工復(fù)核處理。這種協(xié)同機(jī)制避免了資源浪費(fèi)與誤判過度,體現(xiàn)了人工智能在治理任務(wù)智能分流與并行處理方面的應(yīng)用價值。[10]
百度推出的內(nèi)容審核平臺,集成人工智能內(nèi)容審核系統(tǒng),實現(xiàn)多業(yè)務(wù)線的統(tǒng)一風(fēng)控調(diào)度。該平臺支持對圖像、文本、語音、視頻等多模態(tài)內(nèi)容進(jìn)行審核,具有審核模型精準(zhǔn)、審核維度豐富和規(guī)則配置靈活等特點(diǎn)。通過界面化選擇審核維度、個性化調(diào)整松緊度,自動檢測涉黃、涉恐、惡意推廣等違規(guī)內(nèi)容,降低業(yè)務(wù)違規(guī)風(fēng)險。這一實踐充分展示人工智能可推動以平臺為中樞的智能治理中臺建設(shè),整合原本分散的資源與模塊,提升內(nèi)容安全治理的效率與精準(zhǔn)度??梢哉J(rèn)為,百度內(nèi)容審核平臺在部分流程節(jié)點(diǎn)中實際上獲得了“自治執(zhí)行權(quán)”,成為流程中的代理治理者。管理員的職責(zé)從“執(zhí)行者”轉(zhuǎn)為“規(guī)則設(shè)計者”,人工智能負(fù)責(zé)持續(xù)運(yùn)作并自我學(xué)習(xí),形成智能化流程的微觀自治單元。[11]
治理模式的重塑:從靜態(tài)規(guī)制到動態(tài)適應(yīng)。人工智能的引入正在深刻重塑網(wǎng)絡(luò)空間的治理模式,不僅變革治理工具與流程,也重構(gòu)治理的根本邏輯。傳統(tǒng)的治理框架通常依賴于靜態(tài)、線性的規(guī)制設(shè)計,在應(yīng)對已知風(fēng)險方面尚可運(yùn)作,但面對快速演進(jìn)的技術(shù)生態(tài)與多元不確定的風(fēng)險情境,常常顯得滯后、低效、缺乏彈性。在這種背景下,人工智能憑借其高頻感知、多源整合和快速反饋等能力,正成為網(wǎng)絡(luò)空間治理系統(tǒng)動態(tài)調(diào)節(jié)的核心引擎。其不僅能在治理流程前端發(fā)揮實時監(jiān)測與識別功能,還可以嵌入制度設(shè)計后端,推動治理結(jié)構(gòu)實現(xiàn)“反饋—調(diào)整—再執(zhí)行”的循環(huán)更新機(jī)制;更進(jìn)一步,人工智能的獨(dú)特能力還使部分制度具備在監(jiān)管不確定情境下進(jìn)行政策試驗的可能。
傳統(tǒng)治理側(cè)重于對既成違規(guī)行為的事后處置,而人工智能則推動風(fēng)險識別和資源調(diào)度向前置部署轉(zhuǎn)型。例如,百度公司通過其安全態(tài)勢感知系統(tǒng),可針對全網(wǎng)文字、圖片、視頻、代碼等進(jìn)行智能建模和7×24小時實時監(jiān)控,對欺詐、違法、風(fēng)險等惡意網(wǎng)站及第三方瀏覽器、第三方APP、社交平臺、短信網(wǎng)址有害信息采取風(fēng)險標(biāo)注、攔截提示、搜索屏蔽等攔截措施,其治理邏輯轉(zhuǎn)變?yōu)?ldquo;事前監(jiān)控—事中攔截—事后追溯”,為用戶提供了更為完善的安全保障體系。[12]
面對不斷變化的技術(shù)生態(tài)和社會需求,人工智能助力構(gòu)建以反饋為核心的動態(tài)治理模式。例如,歐盟于2022年通過了《數(shù)字服務(wù)法案》(Digital Services Act, DSA),要求大型在線平臺建立動態(tài)風(fēng)險評估體系,持續(xù)依據(jù)算法反饋和輿情數(shù)據(jù),調(diào)整內(nèi)容審核機(jī)制、推薦邏輯和用戶提示方式,從而創(chuàng)建一個更安全的數(shù)字空間。[13]在技術(shù)尚未成熟、風(fēng)險尚不明確的生成式人工智能、元宇宙等新興領(lǐng)域,傳統(tǒng)規(guī)制模式可能導(dǎo)致監(jiān)管真空或創(chuàng)新受限。為兼顧探索與合規(guī),部分國家引入“治理沙盒”“彈性監(jiān)管”等柔性制度架構(gòu)。英國政府于2023年3月發(fā)布了《支持創(chuàng)新的人工智能監(jiān)管方式》(A pro-innovation approach to AI regulation)政策文件,提出基于原則的人工智能治理方法,強(qiáng)調(diào)在現(xiàn)有法律框架下對人工智能進(jìn)行監(jiān)管,并提出可信人工智能、監(jiān)管沙盒等舉措,以在防范潛在風(fēng)險的同時促進(jìn)產(chǎn)業(yè)發(fā)展。[14]
綜上所述,人工智能技術(shù)推動網(wǎng)絡(luò)空間治理從靜態(tài)規(guī)則走向動態(tài)彈性機(jī)制,從一次性部署走向持續(xù)調(diào)試,從封閉式制定走向開放式共建,為構(gòu)建適應(yīng)型、學(xué)習(xí)型全球網(wǎng)絡(luò)空間治理體系提供了關(guān)鍵支撐,也使全球網(wǎng)絡(luò)空間治理更具彈性與適應(yīng)力。但與此同時,人工智能技術(shù)應(yīng)用也帶來了新的制度難題:誰主導(dǎo)規(guī)則迭代?反饋數(shù)據(jù)是否公開透明?政策試驗失敗由誰負(fù)責(zé)?這些問題仍需人類在制度設(shè)定與監(jiān)督過程中行使終極裁量權(quán),發(fā)揮責(zé)任擔(dān)當(dāng)。
全球網(wǎng)絡(luò)空間治理中的人類不可替代性
在人工智能廣泛嵌入網(wǎng)絡(luò)空間治理的當(dāng)下,其在數(shù)據(jù)處理、風(fēng)險預(yù)測、內(nèi)容識別等領(lǐng)域展現(xiàn)出卓越效率。人工智能在發(fā)揮極大賦能增效作用的同時,也日益暴露出數(shù)字控制、權(quán)力剝奪、價值偏好偏差等消極影響,暗藏頗為危險的技治主義傾向。[15]治理本質(zhì)并非單純的技術(shù)工程,還關(guān)涉制度設(shè)定、權(quán)力協(xié)調(diào)與價值判斷。特別是在多主權(quán)并存、技術(shù)快速演化的全球網(wǎng)絡(luò)空間,人類在治理中的主導(dǎo)角色非但未被削弱,反而在制度建構(gòu)、倫理決策與國際協(xié)商等關(guān)鍵環(huán)節(jié)中更加不可替代。
制度設(shè)計中的人類規(guī)范判斷作用。人工智能的廣泛應(yīng)用正在重塑全球網(wǎng)絡(luò)空間治理的技術(shù)圖景。治理制度不僅是對運(yùn)行機(jī)制的設(shè)定,更是對社會價值、權(quán)力關(guān)系與規(guī)范邊界的系統(tǒng)構(gòu)造。在網(wǎng)絡(luò)空間這一跨文化、多主體、高變動性的場域中,制度設(shè)計遠(yuǎn)非技術(shù)性輸入輸出所能替代,必須由具備歷史意識、價值判斷與政治理性的主體親自把關(guān)與主導(dǎo)。人工智能雖擅長數(shù)據(jù)演繹與模式識別,卻難以處理涉及倫理爭議、文化沖突與社會期望的規(guī)范性問題,這些構(gòu)成了其難以逾越的認(rèn)知邊界。法律與政策等治理規(guī)范的制定,并非模型單獨(dú)推導(dǎo)出的技術(shù)解法,而更是一場社會協(xié)商與道德評估的集體實踐。
歐盟《人工智能法案》(Artificial Intelligence Act)體現(xiàn)了這種人類主導(dǎo)的制度判斷過程。自2021年其草案提出以來,歐洲議會、理事會與成員國歷經(jīng)多輪辯論,最終在2023年12月達(dá)成政治共識。立法過程中設(shè)立的人工智能倫理框架將所有人工智能系統(tǒng)應(yīng)用場景劃分為“不可接受”“高風(fēng)險”“有限風(fēng)險”“最低風(fēng)險”四類,并明確禁止用于社會信用評分、實時遠(yuǎn)程面部識別等“不可接受風(fēng)險”用途。這一制度構(gòu)造的背后,是圍繞“人類尊嚴(yán)”“基本權(quán)利”“民主穩(wěn)定”等核心價值展開的政治與法律協(xié)商,而非算法所能自主設(shè)定的技術(shù)邏輯。[16]
在我國,《中華人民共和國個人信息保護(hù)法》亦展現(xiàn)了在本土社會邏輯中對制度價值的多重考量。該法案于2021年正式施行,既參考了歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)中的部分經(jīng)驗,如數(shù)據(jù)最小化原則、跨境傳輸限制等,又根據(jù)中國國情強(qiáng)調(diào)了“國家安全”“社會穩(wěn)定”“政府作用”等理念。在跨境數(shù)據(jù)流動部分,該法規(guī)定“關(guān)鍵信息基礎(chǔ)設(shè)施運(yùn)營者”和處理個人信息量達(dá)到國家網(wǎng)信部門規(guī)定數(shù)量的“個人信息處理者”必須接受國家網(wǎng)信部門安全評估,體現(xiàn)出對國家主權(quán)與公共利益的制度性偏好。這些條款體現(xiàn)了集體主義文化、秩序?qū)蛐椭卫碛^念在制度設(shè)計中的深層嵌入。[17]
更具國際層面制度張力的是聯(lián)合國政府專家組(UNGGE)在網(wǎng)絡(luò)空間國際規(guī)則制定中的工作實踐。UNGGE多輪談判圍繞“國家主權(quán)是否適用于網(wǎng)絡(luò)空間”“武力使用是否涵蓋網(wǎng)絡(luò)攻擊”等問題展開激烈討論。美國堅持強(qiáng)調(diào)“自由開放的網(wǎng)絡(luò)空間”,反對“國家主權(quán)過度擴(kuò)張”;而俄羅斯與部分發(fā)展中國家主張國家政府在網(wǎng)絡(luò)空間治理中的作用,反對技術(shù)霸權(quán)。這些立場分歧反映出不同國家的戰(zhàn)略利益與治理觀念,其制度文本的最終形成依賴的是人類外交代表在談判、協(xié)商與利益妥協(xié)中的經(jīng)驗判斷和價值權(quán)衡,而這種互動難以由人工智能代理。[18]
人類始終在制度構(gòu)建的核心判斷中發(fā)揮著不可替代的作用。人工智能可在制度形成過程中提供輔助分析,但制度的合法性、正當(dāng)性與文化適應(yīng)性,必須源于人類社會的理性協(xié)商與規(guī)范共識。即便未來人工智能進(jìn)一步嵌入治理過程,也無法改變?nèi)祟愒谌蚓W(wǎng)絡(luò)空間治理中擁有制度主導(dǎo)權(quán)的核心邏輯。
價值沖突中的人類倫理判斷作用。在全球網(wǎng)絡(luò)空間治理實踐中,倫理判斷是無法由算法替代的關(guān)鍵環(huán)節(jié)。特別是在不同社會價值觀發(fā)生沖突時,只有人類才能憑借其倫理感知、社會共識與文化理解能力作出更具合法性與可接受性的決策。人工智能可以識別模式、執(zhí)行規(guī)則,但缺乏主動提出倫理問題、衡量文化后果與承擔(dān)社會責(zé)任的能力。諸如隱私保護(hù)與國家安全之間的張力、言論自由與社會穩(wěn)定的平衡、人權(quán)保障與內(nèi)容審查的界限,這些議題往往處于灰色地帶,難以依靠邏輯演算或統(tǒng)計模型得出唯一答案。
Meta(原Facebook)平臺的內(nèi)容審核機(jī)制充分揭示了該問題的復(fù)雜性。盡管該平臺部署了大規(guī)模人工智能系統(tǒng)以自動識別暴力、恐怖主義、仇恨言論等內(nèi)容,并可在用戶舉報前完成大部分初步篩查,但在處理政治異議、人權(quán)表達(dá)和宗教敏感內(nèi)容時,人工智能系統(tǒng)顯得力不從心。為應(yīng)對這一挑戰(zhàn),Meta于2020年正式設(shè)立“內(nèi)容監(jiān)督委員會”(Oversight Board),負(fù)責(zé)復(fù)審關(guān)鍵內(nèi)容爭議案件。該委員會強(qiáng)調(diào)審查標(biāo)準(zhǔn)需依據(jù)《世界人權(quán)宣言》與區(qū)域法律框架,明確了人工智能判斷之外,人類在政治表達(dá)與文化張力中的裁定責(zé)任。[19]
另一個體現(xiàn)倫理判斷主導(dǎo)技術(shù)決策的事件,是谷歌(Google)在“Project Maven”項目中的戰(zhàn)略退出。該項目由美國國防部于2017年啟動,旨在利用人工智能圖像識別技術(shù)提升無人機(jī)軍事偵察與目標(biāo)打擊的效率。谷歌在該項目中負(fù)責(zé)提供機(jī)器學(xué)習(xí)平臺工具,協(xié)助軍方進(jìn)行目標(biāo)識別。然而,自2018年起,谷歌內(nèi)部爆發(fā)大規(guī)模員工抗議,逾4000名員工聯(lián)名反對公司參與該項目,認(rèn)為這違反了公司“不從惡”("Don't be evil")的核心理念。在道德壓力與公眾爭議下,谷歌最終決定退出該項目,并在公開聲明中表示“人工智能必須服務(wù)于和平與人類價值,而非被濫用于武力控制”。這一事件清晰說明,即使在高科技公司內(nèi)部,倫理價值仍然是最終決策的主導(dǎo)因素,而非由技術(shù)理性決定。[20]
制度層面更為突出的案例是新西蘭政府在“基督城清真寺槍擊案”(2019)后發(fā)起的“基督城呼吁”(Christchurch Call)倡議。在該事件中,兇手通過社交平臺直播其行兇過程,震驚全球。事件之后,新西蘭聯(lián)合法國等歐盟國家與多家科技公司,共同呼吁建立全球互聯(lián)網(wǎng)內(nèi)容治理機(jī)制。該倡議明確提出:“應(yīng)在人類監(jiān)督下加強(qiáng)極端內(nèi)容的識別與處理,反對將此類工作完全外包給人工智能系統(tǒng)”,強(qiáng)調(diào)平臺責(zé)任、人類干預(yù)與跨國合作的制度性路徑,代表當(dāng)前國際社會對人工智能內(nèi)容治理邊界的基本共識。[21]
在涉及社會敏感議題的治理過程中,人工智能固然可以作為技術(shù)支持工具,但最終的倫理決策權(quán)必須由人類掌握。尤其在跨文化背景下,全球社會對“自由”“暴力”“安全”等概念的理解存在巨大差異,人工智能模型在此情境下往往無法提供廣泛認(rèn)可的方案,反而可能激化信任危機(jī)。因此,全球網(wǎng)絡(luò)空間治理中,人類在倫理判斷中的主導(dǎo)地位不可替代。
公眾參與中的人類民主組織作用。在全球網(wǎng)絡(luò)空間治理中,政策制定早已超出技術(shù)執(zhí)行的范疇,成為一項涉及多元價值沖突、利益平衡與制度正當(dāng)性的復(fù)雜政治工程。公眾是否以及如何被有效納入治理結(jié)構(gòu),不僅關(guān)乎程序正義,也決定了治理機(jī)制的合法性與可持續(xù)性。盡管人工智能在輿情識別、意見聚類與參與動員等方面展現(xiàn)出巨大潛力,但仍無法替代人類在公眾參與和公共協(xié)商中的核心作用。
首先,公眾參與而非簡單的技術(shù)采樣或數(shù)據(jù)建模,是民主政治的基石。2017年,美國聯(lián)邦通信委員會(FCC)就“網(wǎng)絡(luò)中立性”政策改革展開公共咨詢,收到了約2200萬條公眾評論。然而,事后調(diào)查發(fā)現(xiàn),其中近1800萬條評論為虛假提交,很多使用了偽造的身份信息。這揭示了在政策制定過程中,雖然人工智能可以輔助分析評論內(nèi)容,但對于評論的真實性驗證、代表性評估以及程序的公平性判斷,仍需依賴人類的制度裁定和監(jiān)督。[22]這一事件表明,治理合法性依賴的不是算法生成的統(tǒng)計概率,而是人類社會對過程正義的信任。
其次,在技術(shù)與民主并存的場域中,人工智能可作為“協(xié)助組織者”嵌入?yún)⑴c機(jī)制,但不具有決策主體地位。法國政府于2019年發(fā)起“全國大辯論”(Grand Débat National)項目,旨在回應(yīng)“黃背心”抗議,促進(jìn)全國性對話以化解社會沖突。[23]政府在全國范圍內(nèi)組織了超過1萬場線下集會,并結(jié)合人工智能技術(shù)對約200萬條在線提交的意見進(jìn)行文本分析與分類。數(shù)字化后的民意數(shù)據(jù)被委托給調(diào)查公司OpinionWay及其人工智能合作伙伴Qwam處理,他們通過人工智能工具識別民眾共識與爭議焦點(diǎn),輔助政府制定改革優(yōu)先事項。[24]然而,這一人工智能輔助機(jī)制始終以“意見歸納工具”而非“政策決策者”角色存在,最終的制度調(diào)整仍由總統(tǒng)與議會通過民主協(xié)商裁定。
再次,公眾參與在人權(quán)與道德議題中更具有不可替代性。英國在制定《在線安全法案》(Online Safety Bill)期間,廣泛征求民意、組織聽證會,并設(shè)立跨黨派監(jiān)督小組,以處理平臺責(zé)任、算法偏見與未成年人保護(hù)等復(fù)雜問題。該法案涉及“如何界定有害內(nèi)容”“平臺是否過度審查”“人工智能在內(nèi)容治理中的合法邊界”等多重倫理風(fēng)險。[25]盡管技術(shù)專家參與算法模型與風(fēng)險評級設(shè)計,但最終法律文本仍由議會通過,體現(xiàn)出人類在價值判斷、權(quán)力設(shè)計和制度運(yùn)行中的絕對主導(dǎo)地位。
人工智能可以在全球網(wǎng)絡(luò)空間治理中作為信息賦能的工具,擴(kuò)展參與范圍、優(yōu)化議題聚合、發(fā)現(xiàn)意見沖突,但規(guī)則設(shè)定、協(xié)商引導(dǎo)與責(zé)任歸屬的制度構(gòu)建仍需由人類主導(dǎo)完成。特別是在多元文化、價值觀沖突的全球網(wǎng)絡(luò)空間,公眾參與仍然不可替代。
跨境多方博弈中的人類協(xié)調(diào)作用。全球網(wǎng)絡(luò)空間治理不僅關(guān)涉技術(shù)部署,更深刻映射出國際體系中的主權(quán)沖突、權(quán)力再分配與制度競爭。在這一多極互動的場域中,治理不再是行政命令的線性輸出,而是一個充滿政治張力的“協(xié)商—妥協(xié)—再協(xié)商”過程。人工智能雖然可以提供數(shù)據(jù)支持、語言翻譯與風(fēng)險評估,但缺乏政治敏感性、文化理解力與妥協(xié)能力,無法勝任高風(fēng)險、多變量的跨境協(xié)調(diào)任務(wù)。
以TikTok與美國政府圍繞“數(shù)據(jù)主權(quán)”與“國家安全”問題的爭議為例,人類談判的作用在其中展現(xiàn)得尤為明顯。2019年,美國外國投資委員會(CFIUS)對字節(jié)跳動收購Musical.ly并將其整合為TikTok的交易展開了國家安全審查。盡管TikTok采取措施將美國用戶數(shù)據(jù)存儲在美國和新加坡,并退出香港市場以爭取美方信任,但CFIUS仍認(rèn)為TikTok構(gòu)成國家安全風(fēng)險,要求其剝離美國業(yè)務(wù),甚至將其封禁。[26]在這一過程中,關(guān)鍵決策并非基于事實理性,而是由美國國家安全委員會、法律顧問、企業(yè)高管等人類行為體根據(jù)所謂“邏輯”作出,更多是基于政治考量和無端猜測,目的是維護(hù)美國數(shù)字霸權(quán)。
歐盟與Meta(原Facebook)圍繞“跨境數(shù)據(jù)傳輸合法性”的法律沖突驗證了這一點(diǎn)。在“Schrems II”案中,歐洲法院于2020年裁定美國的監(jiān)控機(jī)制違反歐盟隱私權(quán)標(biāo)準(zhǔn),宣布《隱私盾協(xié)議》無效,直接影響了Meta等公司數(shù)據(jù)在歐美之間的自由流動。[27]盡管Meta使用人工智能協(xié)助分析法規(guī)適配性與合規(guī)風(fēng)險,但其應(yīng)對策略,包括數(shù)據(jù)本地化、協(xié)議談判、隱私政策修改等,均由法律顧問、數(shù)據(jù)保護(hù)官與歐盟監(jiān)管機(jī)構(gòu)共同主導(dǎo)完成。這類法律與政治高度交織的治理沖突,離不開人類在規(guī)范解釋、信任建構(gòu)與司法策略中的協(xié)調(diào)作用。
在更具制度性與全球性的場域,聯(lián)合國“互聯(lián)網(wǎng)治理論壇”(IGF)提供了一個高度人類主導(dǎo)的協(xié)商機(jī)制范式。自2006年設(shè)立以來,IGF匯聚了各國政府、技術(shù)組織、企業(yè)與公眾,圍繞數(shù)字主權(quán)、技術(shù)標(biāo)準(zhǔn)、互聯(lián)網(wǎng)資源分配等問題展開多輪討論。發(fā)展中國家持續(xù)要求改革現(xiàn)有治理結(jié)構(gòu),如擴(kuò)大其在互聯(lián)網(wǎng)名稱與數(shù)字地址分配機(jī)構(gòu)(ICANN)的影響力,而歐美國家則主張維持“多利益攸關(guān)方”機(jī)制的現(xiàn)狀。[28]人工智能雖可輔助完成文本分析、會議記錄與議程規(guī)劃,但在面臨地緣戰(zhàn)略分歧與制度訴求碰撞時,真正影響談判進(jìn)程的,是各方代表所展現(xiàn)的談判意志、歷史記憶與政治信仰。
全球網(wǎng)絡(luò)空間治理的本質(zhì)是多主權(quán)下的動態(tài)制度生成,其推進(jìn)邏輯根植于人類社會對規(guī)則、秩序與正義的長期協(xié)商。在這一過程中,人工智能可以提供輔助性信息、提升談判效率,但無法擔(dān)任政治意圖的表達(dá)者、妥協(xié)機(jī)制的建構(gòu)者與責(zé)任體系的承載者。因此,構(gòu)建可持續(xù)的全球網(wǎng)絡(luò)空間秩序,仍需依賴人類在跨境事務(wù)中發(fā)揮協(xié)調(diào)功能。
監(jiān)督與糾錯機(jī)制中的人類最終責(zé)任。在全球網(wǎng)絡(luò)空間治理中,人工智能系統(tǒng)被廣泛應(yīng)用于提升效率、擴(kuò)大覆蓋面、增強(qiáng)風(fēng)險預(yù)測能力,尤其在行政決策、內(nèi)容審查與資源分配等領(lǐng)域日益發(fā)揮核心作用。然而,越是深入推進(jìn)技術(shù)嵌入的自動化治理,人類作為制度監(jiān)督者與最終責(zé)任承擔(dān)者的角色就越顯關(guān)鍵。人工智能的判斷依據(jù)來自訓(xùn)練數(shù)據(jù)與模型邏輯,而這些基礎(chǔ)事項本身就可能包含偏見、盲區(qū)和邏輯缺陷。一旦人工智能作出錯誤決策,其帶來的后果不僅限于技術(shù)層面,更可能波及公民權(quán)利與制度公信力。因此,人類仍是治理責(zé)任鏈條中不可替代的“最終責(zé)任方”——人工智能所造成的偏誤,必須由人類識別、修復(fù)與追責(zé)。
澳大利亞的“Robodebt”案件是高度自動化治理失誤的典型案例。2016年,澳大利亞政府引入自動數(shù)據(jù)匹配系統(tǒng),以檢測社會福利欺詐。然而,該系統(tǒng)在缺乏人工復(fù)核的情況下,簡單對比稅務(wù)與福利數(shù)據(jù),自動判定大量低收入者涉嫌騙保,并下發(fā)追繳令。這一過程中超過50萬人受到影響,許多人陷入財務(wù)困境,甚至引發(fā)個體心理創(chuàng)傷和個別自殺事件。[29]2023年,澳大利亞皇家委員會裁定該系統(tǒng)“非法且缺乏基本正當(dāng)程序”,政府隨后公開道歉并啟動了賠償計劃。[30]該事件表明,人工智能可自動生成決策,卻無法承擔(dān)由此引發(fā)的制度責(zé)任與政治后果。
類似的情況也出現(xiàn)在英國簽證系統(tǒng)中。英國內(nèi)政部曾使用人工智能對申請人進(jìn)行自動化風(fēng)險評分,以加速審批流程。調(diào)查發(fā)現(xiàn),該系統(tǒng)以國籍、申請模式等敏感變量為特征,將特定國家的申請人標(biāo)記為高風(fēng)險,導(dǎo)致大量合法申請被無理由拒簽。[31]2020年,多個民權(quán)團(tuán)體起訴政府系統(tǒng)存在算法歧視,倫敦高等法院裁定其違反反歧視法,系統(tǒng)隨即被廢除。[32]此事件再次表明,算法“效率”不能凌駕于程序正義與反歧視原則之上,而人類必須作為最終監(jiān)管者介入與糾偏。
平臺領(lǐng)域亦存在類似困境。微軟于2016年推出的人工智能聊天機(jī)器人“Tay”,在上線不到24小時內(nèi)即因用戶操縱而開始發(fā)布種族主義、性別歧視和極端政治言論。微軟雖迅速下線系統(tǒng)并道歉,但事件暴露出平臺人工智能產(chǎn)品設(shè)計中缺少對價值防護(hù)機(jī)制的考量。[33]人工智能雖能生成內(nèi)容,但無法把握社會語境與倫理邊界,其生成邏輯不具備自主道德判斷能力,必須由人類制定限制、明確責(zé)任與建立動態(tài)干預(yù)機(jī)制。
上述三個案例雖涉及不同國家與治理領(lǐng)域,卻揭示出同一個本質(zhì)問題:人工智能是治理工具或輔助者而非問責(zé)主體。全球網(wǎng)絡(luò)空間治理的合法性、透明性與正義性,最終仍需依靠人類制度設(shè)計者與政治責(zé)任人來守護(hù)。因此,構(gòu)建有效的全球網(wǎng)絡(luò)空間治理體系,必須以“人類可監(jiān)督、可介入、可糾偏”為前提。治理的每一個環(huán)節(jié)都應(yīng)設(shè)有人類可觸達(dá)的“責(zé)任接口”,確保當(dāng)人工智能系統(tǒng)運(yùn)行失效時,能夠及時回歸人類干預(yù)機(jī)制,從而維護(hù)制度運(yùn)行的韌性與正當(dāng)性。
制度滯后與技術(shù)治理中的人類前瞻作用。在全球網(wǎng)絡(luò)空間治理中,技術(shù)的快速發(fā)展往往超前于制度的完善,形成制度滯后的現(xiàn)象。人工智能、元宇宙等新興技術(shù)的崛起,拓寬了人類社會的行為和價值邊界,但相應(yīng)的法律體系、治理機(jī)制和倫理規(guī)范卻未能同步更新,導(dǎo)致出現(xiàn)“制度真空”。這種滯后不僅源于政策工具的缺乏,更反映出人類對技術(shù)帶來的不確定性和潛在風(fēng)險的認(rèn)知不足。在此背景下,治理的關(guān)鍵在于“預(yù)見未知”——即人類主動識別新問題,預(yù)設(shè)制度框架,填補(bǔ)規(guī)則盲區(qū)。這種前瞻性功能需要判斷力、價值設(shè)定和政治洞察力,而這些正是當(dāng)前人工智能所不具備的。
一個典型的制度盲區(qū)是人工智能在內(nèi)容審核中的應(yīng)用。例如,YouTube等視頻平臺利用人工智能技術(shù)自動檢測并刪除涉嫌侵犯版權(quán)的內(nèi)容。然而,這些人工智能系統(tǒng)有時會錯誤地刪除合法內(nèi)容,或未能及時識別新的侵權(quán)形式,導(dǎo)致內(nèi)容創(chuàng)作者和權(quán)力持有者之間的爭議。這反映了在內(nèi)容審核領(lǐng)域,單純依賴人工智能可能導(dǎo)致過度刪除或漏判,需要人類制定前瞻性的審核標(biāo)準(zhǔn)和糾錯機(jī)制,以平衡版權(quán)保護(hù)與言論自由。[34]因為人工智能無法提出“什么是可接受行為”或“虛假信息應(yīng)如何界定和治理”等問題,這類判斷超出模式學(xué)習(xí)范疇,需人類憑借經(jīng)驗、倫理與社會洞察作出。
類似前瞻性機(jī)制也體現(xiàn)在國家監(jiān)管層面。英國政府2023年發(fā)布的《人工智能監(jiān)管白皮書》明確拒絕“一刀切”式立法,而主張“輕觸監(jiān)管”(light-touch regulation)與“部門自適應(yīng)”(sector-specific flexibility)相結(jié)合的模式。該文件強(qiáng)調(diào),人工智能作為尚未完全成型的通用技術(shù),應(yīng)在治理上保留“實驗空間”,由各行業(yè)根據(jù)風(fēng)險特征與成熟度進(jìn)行規(guī)則試點(diǎn)。[35]這背后體現(xiàn)的是一種政治判斷:人工智能的治理邊界不能由人工智能自身設(shè)定,而需人類制度設(shè)計者在風(fēng)險外溢前構(gòu)建緩沖帶,主動設(shè)定規(guī)則演化節(jié)奏。
在全球治理層面,制度前瞻性尤為關(guān)鍵。世界經(jīng)濟(jì)論壇(World Economic Forum)于2022年啟動了“定義和構(gòu)建元宇宙”倡議,旨在構(gòu)建元宇宙的治理框架。這份報告探討了元數(shù)據(jù)身份,倡導(dǎo)采用安全、包容和注重隱私的方法。報告強(qiáng)調(diào),需要以平等和無障礙為基礎(chǔ)構(gòu)建元宇宙,強(qiáng)調(diào)負(fù)責(zé)任的數(shù)據(jù)實踐和包容性設(shè)計,體現(xiàn)了人類在預(yù)設(shè)未來治理規(guī)范方面的制度努力。[36]該文件的產(chǎn)生并非技術(shù)專家閉門造車,而是由來自全球各地的150多位專家通過多輪磋商達(dá)成。這一過程本質(zhì)上是人類通過政治、文化與價值對話共同“預(yù)設(shè)未來治理規(guī)范”的制度努力。
無論是在企業(yè)平臺設(shè)定內(nèi)容邊界,還是國家層面制定行業(yè)規(guī)范,抑或在國際社會達(dá)成治理共識,制度前瞻性的邏輯始終是人類主動識別風(fēng)險、提出規(guī)范,并創(chuàng)造性地設(shè)定邊界。人工智能可以優(yōu)化執(zhí)行路徑,但無法承擔(dān)制度開創(chuàng)的職責(zé)。制度前瞻性不是對現(xiàn)有規(guī)則的泛化延伸,而是對全新問題作出結(jié)構(gòu)性響應(yīng)。“制度前瞻”,正是人類能力的制度化表達(dá),是確保技術(shù)發(fā)展不脫離價值軌道的關(guān)鍵保障。
邁向“人機(jī)協(xié)同共治”的全球網(wǎng)絡(luò)空間治理
前面內(nèi)容揭示了人工智能如何在效率、流程與結(jié)構(gòu)層面重塑全球網(wǎng)絡(luò)空間治理體系,以及人類在價值判斷、制度設(shè)定與風(fēng)險監(jiān)督中的不可替代性。這一雙重動力交匯的關(guān)鍵問題是:在人工智能時代的全球網(wǎng)絡(luò)空間治理中,如何推動人類與人工智能的有效協(xié)作?如何避免“替代幻想”與“人類依賴”的雙重極端?下面將從理念、結(jié)構(gòu)、制度與風(fēng)險四個維度,探討人機(jī)協(xié)同治理的內(nèi)在邏輯與實現(xiàn)路徑。
從任務(wù)分工到角色互補(bǔ):人機(jī)協(xié)同的治理理念。在全球網(wǎng)絡(luò)空間治理的早期階段,人工智能多被視為“自動化工具”,承擔(dān)信息篩查、風(fēng)險識別和流程管理等標(biāo)準(zhǔn)化任務(wù),治理權(quán)力與責(zé)任依然集中在人類決策者手中。但隨著深度學(xué)習(xí)、多模態(tài)分析等技術(shù)突破,人工智能開始具備在政策建議、內(nèi)容風(fēng)險評估、趨勢預(yù)測等方面的主動性能力,推動治理理念從“人控人工智能”的線性分工向“人機(jī)共治”的角色互補(bǔ)演化。這一轉(zhuǎn)變不僅涉及技術(shù)能力的提升,更反映出治理責(zé)任結(jié)構(gòu)與認(rèn)知體系的系統(tǒng)重構(gòu)。
從認(rèn)知結(jié)構(gòu)上看,人工智能擅長處理大規(guī)模、跨平臺數(shù)據(jù),在識別虛假信息擴(kuò)散路徑、仇恨言論聚集區(qū)域等方面展現(xiàn)出高效性。例如,Meta表示其內(nèi)容審核人工智能系統(tǒng)近幾年對一般類別違規(guī)內(nèi)容的主動檢測率達(dá)到90%以上,顯示了人工智能在內(nèi)容審核中的重要作用。[37]然而,人工智能在理解文化語境、隱喻含義和歷史背景等復(fù)雜信息方面存在局限性。同一句話在不同文化中可能具有完全不同的含義或敏感度,這種細(xì)微差別仍需人類參與者的經(jīng)驗和倫理直覺來判斷。因此,“人機(jī)協(xié)同”需結(jié)合人工智能的高效數(shù)據(jù)處理能力和人類的深度理解與價值判斷,實現(xiàn)優(yōu)勢互補(bǔ)。
在全球網(wǎng)絡(luò)空間治理中,人工智能與人類的協(xié)同合作已成為提升內(nèi)容審核效率和準(zhǔn)確性的關(guān)鍵策略。傳統(tǒng)上,人工智能被視為中立的工具,其錯誤通常由系統(tǒng)設(shè)計者或操作者承擔(dān)責(zé)任。然而,在“人機(jī)共治”的框架下,人工智能不再僅僅是執(zhí)行流程中的一環(huán),而是成為治理鏈條的重要組成部分。這要求建立制度,納入人工智能推理與人類判斷的協(xié)作機(jī)制,實現(xiàn)“動態(tài)授權(quán)+審慎監(jiān)督”的組合模式。還以Meta為例,該公司在內(nèi)容審核中采用了人類與人工智能協(xié)同的策略。人工智能系統(tǒng)首先對內(nèi)容進(jìn)行初步篩選,識別潛在的違規(guī)內(nèi)容。隨后,人類審核員對人工智能標(biāo)記的內(nèi)容進(jìn)行復(fù)核,以確保決策的準(zhǔn)確性和上下文理解。[38]這種協(xié)作模式結(jié)合了人工智能的高效處理能力和人類的復(fù)雜判斷力,提高了內(nèi)容審核的質(zhì)量和效率。
此外,研究人員也在探索人機(jī)協(xié)作的新方法。例如,一項研究提出了“條件委派”(conditional delegation)的概念,即人類制定規(guī)則,指定在哪些情況下信任人工智能的判斷,在哪些情況下需要人類介入。[39]這種方法在內(nèi)容審核領(lǐng)域展開實驗,結(jié)果表明,通過人機(jī)協(xié)作,結(jié)合人工智能的高效處理能力和人類的復(fù)雜判斷力,可以同時提高決策的準(zhǔn)確性和效率。這些實踐顯示,“人機(jī)共治”并非職責(zé)替代,而是以優(yōu)勢互補(bǔ)為基礎(chǔ)、以人類價值判斷為核心的新型治理結(jié)構(gòu)。
從平臺調(diào)度到結(jié)構(gòu)嵌套:治理主體的組織協(xié)同。隨著數(shù)字平臺逐漸成為網(wǎng)絡(luò)空間的基礎(chǔ)設(shè)施,其調(diào)度能力也逐步轉(zhuǎn)化為全球網(wǎng)絡(luò)空間治理體系中的核心依托。從內(nèi)容審核到數(shù)據(jù)監(jiān)管,從賬號治理到信息披露,平臺承擔(dān)的治理職能不斷拓展。然而,這種治理機(jī)制雖顯著提高了響應(yīng)效率,卻引發(fā)了對治理權(quán)力過度集中、“技術(shù)公司即監(jiān)管者”的正當(dāng)性質(zhì)疑。人工智能賦予平臺更強(qiáng)大的決策與執(zhí)行力,使其能通過算法系統(tǒng)調(diào)控內(nèi)容排序、識別風(fēng)險行為、預(yù)測輿情波動。然而,當(dāng)治理決策開始影響公共利益、觸及基本權(quán)利時,僅靠企業(yè)內(nèi)部流程無法保障治理的透明度與正當(dāng)性。因此,需要引入外部力量與公共制度,實現(xiàn)權(quán)力的嵌套分布與功能協(xié)調(diào)。
Meta(原Facebook)設(shè)立的“監(jiān)督委員會”(Oversight Board)便是典型的結(jié)構(gòu)嵌套機(jī)制實踐。作為一家技術(shù)平臺公司,Meta通過此機(jī)制引入獨(dú)立第三方機(jī)構(gòu)來對其內(nèi)容管控決策進(jìn)行再審查。監(jiān)督委員會由前國際法院法官、人權(quán)專家、學(xué)者及媒體代表組成,獨(dú)立處理平臺標(biāo)記為爭議性或具有廣泛社會影響的內(nèi)容案件,具備有限但實質(zhì)的“準(zhǔn)司法”功能。委員會有權(quán)推翻平臺的初始決定,并提出政策建議,而Meta則承諾對所有裁定予以公開回應(yīng)。[40]這種“平臺決策—外部復(fù)核—政策反饋”的結(jié)構(gòu)設(shè)計,使平臺內(nèi)部審核機(jī)制與外部社會監(jiān)督形成嵌套協(xié)同,有效緩解了平臺公司“既當(dāng)運(yùn)動員又當(dāng)裁判員”的合法性困境。
新加坡的“可信數(shù)據(jù)共享框架”(Trusted Data Sharing Framework)展示了政府與平臺之間協(xié)作治理的數(shù)據(jù)嵌套模式。該框架由新加坡資訊通信媒體發(fā)展局(IMDA)牽頭,于2020年正式發(fā)布,旨在建立一種可持續(xù)、透明、受信任的數(shù)據(jù)交換環(huán)境。平臺需在其技術(shù)架構(gòu)中集成政府設(shè)定的監(jiān)控API模塊,實時報告數(shù)據(jù)流轉(zhuǎn)情況,政府則基于人工智能模型對數(shù)據(jù)活動進(jìn)行風(fēng)險評估與合規(guī)監(jiān)測,并對平臺的數(shù)據(jù)使用行為進(jìn)行認(rèn)證與審計。該框架還通過責(zé)任共擔(dān)機(jī)制明確平臺在數(shù)據(jù)濫用、違規(guī)收集數(shù)據(jù)時的問責(zé)路徑,捍衛(wèi)數(shù)據(jù)治理中的權(quán)力邊界與協(xié)調(diào)機(jī)制。[41]
相較于傳統(tǒng)平臺自律模式,結(jié)構(gòu)嵌套治理的優(yōu)勢在于制度性分權(quán)與程序性監(jiān)督。平臺的“執(zhí)行效率”、政府的“合規(guī)把關(guān)”、公眾的“外部監(jiān)督”、人工智能系統(tǒng)的“技術(shù)中樞”得以整合為一個多元分工、動態(tài)互動的治理生態(tài)系統(tǒng)。這種模式既能保障治理效率,又能在程序正義、權(quán)力約束與多元代表性之間取得相對平衡。
從規(guī)制統(tǒng)一到協(xié)商調(diào)優(yōu):規(guī)則共創(chuàng)的實踐機(jī)制。在網(wǎng)絡(luò)空間治理中,傳統(tǒng)模式通常由政府或平臺單方面制定規(guī)則,通過法律或服務(wù)條款約束用戶行為。然而,隨著技術(shù)的快速發(fā)展和文化的多元化,這種“規(guī)制統(tǒng)一”模式逐漸暴露出合法性不足、響應(yīng)滯后和治理僵化等問題。平臺規(guī)則難以涵蓋復(fù)雜語境下的價值沖突,政府立法往往滯后于技術(shù)更新迭代,用戶也缺乏實際參與的渠道。這些挑戰(zhàn)推動全球網(wǎng)絡(luò)空間治理從“規(guī)制統(tǒng)一”向“協(xié)商調(diào)優(yōu)”轉(zhuǎn)變,即將規(guī)則視為可反饋、可演化的共創(chuàng)機(jī)制。
“協(xié)商調(diào)優(yōu)”指的是規(guī)則制定不再是一成不變的文本,而是在多方參與的基礎(chǔ)上,通過持續(xù)反饋和動態(tài)修正不斷完善的治理過程。人工智能技術(shù)在其中發(fā)揮了關(guān)鍵作用:一方面,人工智能通過對用戶行為、輿論變化和風(fēng)險態(tài)勢的實時分析,提供高頻率、結(jié)構(gòu)化的治理反饋;另一方面,這些數(shù)據(jù)又能反哺規(guī)則優(yōu)化,形成“數(shù)據(jù)—規(guī)則—反饋”的閉環(huán)系統(tǒng),塑造出“可學(xué)習(xí)”的治理結(jié)構(gòu)。
以美國社交新聞和網(wǎng)絡(luò)社區(qū)公司Reddit為例,其社區(qū)管理機(jī)制允許用戶依據(jù)設(shè)定條件上報爭議內(nèi)容,后臺人工智能系統(tǒng)據(jù)此評估風(fēng)險等級并提出處理建議,最終由社區(qū)管理員與用戶代表共同決定是否執(zhí)行操作。[42]這一“算法+協(xié)商”結(jié)構(gòu)既增強(qiáng)了社區(qū)自律,又避免了平臺獨(dú)斷,為社群賦予了規(guī)則演繹空間。
另一個案例是美國眾議院于2022年頒布的《算法問責(zé)法案》(Algorithmic Accountability Act of 2022),要求使用自動化決策系統(tǒng)的企業(yè)研究并報告這些系統(tǒng)對消費(fèi)者的影響,包括是否存在偏見或歧視性決策。[43]該法案推動形成企業(yè)、監(jiān)管機(jī)構(gòu)和公眾之間的協(xié)商機(jī)制,確保算法決策的透明度和公平性。值得強(qiáng)調(diào)的是,協(xié)商調(diào)優(yōu)并不意味著規(guī)則松動或治理弱化,而是將動態(tài)反饋和協(xié)商調(diào)優(yōu)嵌入規(guī)范生成中,從而提升規(guī)則適應(yīng)力與治理包容性。
從算法執(zhí)行到責(zé)任共擔(dān):治理責(zé)任的協(xié)同分布。傳統(tǒng)治理中,責(zé)任集中在人類治理主體上,而人工智能系統(tǒng)的引入打破了這一清晰歸屬邏輯。若治理偏差、技術(shù)誤判等問題出現(xiàn),僅將責(zé)任推給“算法”或“平臺”既不具備倫理正當(dāng)性,也難滿足公共治理的法律要求。因此,全球網(wǎng)絡(luò)空間治理正在轉(zhuǎn)向多方主體責(zé)任共擔(dān)的制度階段,形成覆蓋平臺、政府、開發(fā)者與公眾的責(zé)任協(xié)同體系。
首先,平臺企業(yè)作為系統(tǒng)設(shè)計與運(yùn)營的核心主體,必須承擔(dān)首要責(zé)任。無論是內(nèi)容審核還是風(fēng)控系統(tǒng),平臺對其人工智能模型的邏輯、邊界與偏差風(fēng)險負(fù)有直接責(zé)任。在2023年,IBM發(fā)布了《信任和透明度原則》(IBM's Principles for Trust and Transparency),明確提出平臺企業(yè)在開發(fā)和部署人工智能系統(tǒng)時必須承擔(dān)首要責(zé)任,特別是在模型的透明性、公平性和問責(zé)機(jī)制方面。IBM強(qiáng)調(diào),企業(yè)在設(shè)計人工智能系統(tǒng)時應(yīng)對其邏輯、邊界和潛在偏差進(jìn)行全面評估,并對系統(tǒng)可能帶來的社會影響負(fù)責(zé)。[44]
其次,政府監(jiān)管機(jī)構(gòu)需履行制度框架責(zé)任。他們不僅制定治理底線,還必須對人工智能系統(tǒng)執(zhí)行審查、風(fēng)險預(yù)警與糾錯監(jiān)督。2024年正式生效的歐盟《人工智能法案》(AI Act)將資格審核、司法協(xié)助等領(lǐng)域納入“高風(fēng)險人工智能”分類,要求企業(yè)進(jìn)行事前評估與事后問責(zé),保障公眾利益。[45]該法案明確政府需構(gòu)建“算法問責(zé)鏈”,降低“黑箱治理”帶來的影響。
再次,算法開發(fā)者與模型訓(xùn)練人員應(yīng)承擔(dān)源頭責(zé)任,確保人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)和建模邏輯的公正性和準(zhǔn)確性。2020年,荷蘭稅務(wù)機(jī)關(guān)人工智能系統(tǒng)在識別社會福利欺詐時,因算法存在偏見,錯誤處罰了數(shù)千個少數(shù)族裔家庭,造成嚴(yán)重后果,最終導(dǎo)致政府高層集體辭職。[46]該事件揭示了開發(fā)階段對數(shù)據(jù)偏誤與建模邏輯把控不足造成的嚴(yán)重后果,推動多國出臺了“模型文檔留存”“可解釋性標(biāo)準(zhǔn)”等技術(shù)責(zé)任規(guī)范。
此外,用戶與公眾也需在全球網(wǎng)絡(luò)空間治理中扮演“反饋責(zé)任者”角色。在日益復(fù)雜的網(wǎng)絡(luò)空間中,人工智能系統(tǒng)的判斷雖能提高效率,但其所依賴的算法邏輯、訓(xùn)練數(shù)據(jù)與規(guī)則設(shè)定往往難以覆蓋所有社會語境,極易產(chǎn)生偏差、遺漏或誤導(dǎo)。在這種背景下,公眾作為規(guī)則接受者和實際使用者,往往最早察覺算法運(yùn)行中的異常與隱患。許多治理失效的早期信號,都來自用戶的日常體驗與個體反饋。正是公眾的主動投訴、集體抗議與社會輿論的推動,促使平臺與監(jiān)管機(jī)構(gòu)及時調(diào)整策略,彌補(bǔ)制度短板。以YouTube為例,其曾因推薦算法引導(dǎo)用戶觀看極端內(nèi)容而遭批評,最終通過調(diào)整推薦機(jī)制并開放部分評估數(shù)據(jù),加強(qiáng)了平臺治理的透明度與公眾監(jiān)督的可行性。[47]這些舉措體現(xiàn)出一個重要趨勢,即公眾反饋不僅是治理效果的測量標(biāo)尺,更是治理機(jī)制自我糾偏、自我進(jìn)化的重要動力源。
平臺設(shè)計者、政府監(jiān)管者、技術(shù)開發(fā)者與用戶群體共同構(gòu)建責(zé)任鏈條,使“人機(jī)共治”不僅體現(xiàn)在操作層面,也落實在價值判斷與權(quán)責(zé)分配之中。只有當(dāng)責(zé)任不再空懸,人機(jī)協(xié)同治理才能實現(xiàn)合法性、透明性與可持續(xù)性的動態(tài)平衡。
結(jié)語
人工智能正以前所未有的深度嵌入全球網(wǎng)絡(luò)空間治理體系。憑借強(qiáng)大的數(shù)據(jù)處理能力、模式識別技術(shù)與即時響應(yīng)速度,人工智能在內(nèi)容審核、數(shù)據(jù)監(jiān)管、智能合約等領(lǐng)域大幅提升了治理執(zhí)行力與適應(yīng)性,推動治理機(jī)制從人工驅(qū)動向智能驅(qū)動演化。然而,治理不僅關(guān)乎效率,更關(guān)乎規(guī)范設(shè)定、價值判斷與責(zé)任歸屬。這一張力正是人工智能參與全球網(wǎng)絡(luò)空間治理面臨的核心困境:其可以優(yōu)化路徑,卻難以判斷方向;可以支持響應(yīng),卻難以解決沖突;可以執(zhí)行操作,卻無法承擔(dān)責(zé)任。
因此,全球網(wǎng)絡(luò)空間治理的本質(zhì)從未脫離政治與制度的核心屬性。人工智能賦能不應(yīng)被誤解為人類角色的讓渡,而應(yīng)視為治理邏輯、責(zé)任結(jié)構(gòu)與價值共識的重構(gòu)契機(jī)。技術(shù)能力的提升,對治理者提出了更高要求:如何引導(dǎo)人工智能服務(wù)公共利益、限定邊界、保障糾錯機(jī)制——這些問題的答案將決定全球網(wǎng)絡(luò)空間治理秩序的穩(wěn)定與韌性。
未來的全球網(wǎng)絡(luò)空間治理需警惕兩個極端:一是“技術(shù)決定論”或“技治主義”,盲目推崇人工智能主導(dǎo)治理,忽視制度設(shè)定與價值約束;[48]二是“技術(shù)恐懼論”,因風(fēng)險憂慮而拒絕技術(shù)介入,錯失變革式發(fā)展契機(jī)。[49]真正前瞻性的路徑,是構(gòu)建人類主導(dǎo)、人工智能輔助的人機(jī)協(xié)同治理體系:重大規(guī)范與價值判斷由人類協(xié)商決定;人工智能專注于執(zhí)行操作與初步識別,人類則負(fù)責(zé)監(jiān)督與復(fù)審,形成責(zé)任閉環(huán);任何治理失誤最終仍由人類承擔(dān)制度責(zé)任。
總之,人機(jī)協(xié)同治理不僅意味著治理工具升級,更是治理哲學(xué)與制度倫理的再定義。問題不在于人工智能能做什么,而在于人類應(yīng)讓人工智能做什么;不在于人工智能能否取代人類,而在于人類如何智慧地引導(dǎo)和規(guī)范人工智能。唯有在人類價值主導(dǎo)的治理框架下,我們才能在高度數(shù)字化的時代,實現(xiàn)效率與正義、自動化與人本治理的動態(tài)平衡。人工智能不應(yīng)是治理的終點(diǎn),而應(yīng)成為制度進(jìn)化的新起點(diǎn),推動我們重新定義權(quán)力結(jié)構(gòu)、責(zé)任邊界與治理價值的未來。
(本文系國家社會科學(xué)基金重大項目“健全網(wǎng)絡(luò)綜合治理體系研究”的階段性成果,項目編號:23ZDA086)
注釋
[1]全球網(wǎng)絡(luò)空間治理的相關(guān)具體內(nèi)容可參見蔡翠紅:《全球網(wǎng)絡(luò)空間治理》,上海:復(fù)旦大學(xué)出版社,2024年。
[2]M. Taddeo; T. McCutcheon and L. Floridi, "Trusting Artificial Intelligence in Cybersecurity Is a Double-Edged Sword," Nature Machine Intelligence, 2019, 1(12).
[3]詹海寶、孫江、郭夢圓:《基于人機(jī)協(xié)同的網(wǎng)絡(luò)文化安全治理新模式》,《傳媒》,2023年第15期;劉銳、劉芾:《短視頻內(nèi)容生態(tài)的人機(jī)協(xié)同治理網(wǎng)絡(luò)分析》,《青年記者》,2024 年第12期;謝耘耕、李丹珉:《從經(jīng)驗決策到人機(jī)協(xié)同:輿情決策模式的變革研究》,《新媒體與社會》,2021年第1期。
[4]Meta, "Integrity and Transparency Reports: Q4 2022," 23 February 2023, https://about.fb.com/news/2023/02/metas-integrity-and-transparency-reports-q4-2022/.
[5]Microsoft, "What Is Microsoft Sentinel?" 22 May 2024, https://learn.microsoft.com/en-us/azure/sentinel/overview.
[6]G. Deep and J. Verma, "Embracing the Future: AI and ML Transforming Urban Environments in Smart Cities," Journal of Artificial Intelligence, 2023, 5(57).
[7]Kaspersky, "Kaspersky Overview: Our Values, Business, Solutions and Services," 19 December 2024, https://media.kasperskycontenthub.com/wp-content/uploads/sites/100/2024/12/19085748/Kaspersky_Overview_Q4-2024.pdf.
[8]Kaspersky, "AI in Cybersecurity Automation," 17 October 2024, https://usa.kaspersky.com/blog/ai-role-in-cybersecurity-automation/30612/?srsltid=AfmBOopn_Da6v4M7_krpmC_elC4Hvf6RfMDRcTG_1sOdqembLnj1uCx8.
[9]阿里研究院:《“做好”科技,做“好科技”》,2022年10月18日,http://www.aliresearch.com/ch/information/informationdetails?articleCode=390673563344048128&type=%E6%96%B0%E9%97%BB&organName=。
[10]TikTok for Business, "Ensuring Creative Integrity in the Age of Generative AI," 21 November 2024, https://ads.tiktok.com/business/en-US/blog/creative-integrity-generative-ai?redirected=1.
[11]百度AI開放平臺:《內(nèi)容審核平臺》,https://ai.baidu.com/solution/censoring。
[12]《百度用AI對抗AI濫用:可識別70余種詐騙套路》,2021年9月28日,https://m.huanqiu.com/article/44xDDSIKZfR。
[13]European Commission, "The Digital Services Act: Ensuring a Safe and Accountable Online Environment," 27 October 2022, https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_en.
[14]Department for Science, Innovation & Technology, "A Pro-Innovation Approach to AI Regulation," 3 August 2023, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper.
[15][48]鄔曉燕:《數(shù)字治理中的技治主義:困境、根源與突破》,《云南社會科學(xué)》,2024 年第6期。
[16]European Commission, "European Approach to Artificial Intelligence," 18 February 2025, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence.
[17]《中華人民共和國個人信息保護(hù)法》,2021年8月20日,https://www.gov.cn/xinwen/2021-08/20/content_5632486.htm。
[18]UN Secretary-General, "Developments in the Field of Information and Telecommunications in the Context of International Security, and Advancing Responsible State Behaviour in the Use of Information and Communications Technologies: Report of the Secretary-General," 8 June 2022, https://digitallibrary.un.org/record/3982519?ln=en&v=pdf.
[19]Oversight Board, "Improving How Meta Treats People and Communities Around the World," https://www.oversightboard.com/.
[20]D. Wakabayashi and S. Shane, "Google Will Not Renew Pentagon Contract That Upset Employees," 1 June 2018, https://www.nytimes.com/2018/06/01/technology/google-pentagon-project-maven.html.
[21]New Zealand Government, "The Christchurch Call Commitments," 15 May 2019, https://www.christchurchcall.org/the-christchurch-call-commitments/.
[22]L. James, "Attorney General James Issues Report Detailing Millions of Fake Comments, Revealing Secret Campaign to Influence FCC's 2017 Repeal of Net Neutrality Rules," 6 May 2021, https://ag.ny.gov/press-release/2021/attorney-general-james-issues-report-detailing-millions-fake-comments-revealing.
[23]G. Wetherall-Gruji, "The Lost Contributions to France's Great Debate: Lessons From the Grievances Five Years on," 21 March 2024, https://democracy-technologies.org/participation/lost-contributions-to-great-debate/.
[24]A. Bouverot, "Great National Debate: Artificial Intelligence at the Service of Collective Intelligence?" 12 April 2019, https://www.institutmontaigne.org/en/expressions/great-national-debate-artificial-intelligence-service-collective-intelligence.
[25]UK Parliament, "Preparedness for Online Safety Regulation," 21 February 2024, https://publications.parliament.uk/pa/cm5804/cmselect/cmpubacc/73/report.html.
[26]W. Reinsch; P. Saumell; I. Frymoyer and J. Caporal, "TikTok Is Running Out of Time: Understanding the CFIUS Decision and Its Implications," 2 September 2020, https://www.csis.org/analysis/tiktok-running-out-time-understanding-cfius-decision-and-its-implications?utm_source.
[27]The CJEU Judgment in the Schrems II Case, "The Court of Justice Invalidates Decision 2016/1250 on the Adequacy of the Protection Provided by the EU-US Data Protection Shield," 16 July 2020, https://curia.europa.eu/jcms/upload/docs/application/pdf/2020-07/cp200091en.pdf.
[28]UNESCO, "2022 Internet Governance Forum Stakeholders Champion the Value of Inclusive Digital Internet Governance," 10 January 2023, https://www.unesco.org/en/articles/2022-internet-governance-forum-stakeholders-champion-value-inclusive-digital-internet-governance.
[29]F. Mao, "Robodebt: Illegal Australian Welfare Hunt Drove People to Despair," 7 July 2023, https://www.bbc.com/news/world-australia-66130105.
[30]Robodebt Royal Commission, "Overview of Final Report," 19 February 2024, https://www.apra.gov.au/sites/default/files/2024-02/Robodebt%20Royal%20Commision%20-%20Overview%20of%20Final%20Report.pdf.
[31]H. McDonald, "AI System for Granting UK Visas Is Biased, Rights Groups Claim," 29 October 2019, https://www.theguardian.com/uk-news/2019/oct/29/ai-system-for-granting-uk-visas-is-biased-rights-groups-claim.
[32]BBC, "Home Office Drops Racist Algorithm from Visa Decisions," 4 August 2020, https://www.bbc.com/news/technology-53650758.
[33]P. Lee, "Learning From Tay's Introduction," 25 March 2016, https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/.
[34]C. Broughan, "A Washing Machine Chime & Copyright Fraud on YouTube," 31 July 2024, https://marksgray.com/intellectual-property/a-washing-machine-chime-copyright-fraud-on-youtube/.
[35]O. Yaros; R. Randall et al., "UK Government Response to AI Regulation Consultation," 5 March 2024, https://www.mayerbrown.com/en/insights/publications/2024/03/uk-government-response-to-ai-regulation-consultation.
[36]World Economic Forum, "Metaverse Identity: Defining the Self in a Blended Reality," 13 March 2024, https://www3.weforum.org/docs/WEF_Metaverse_Identity_Defining_the_Self_in_a_Blended_Reality_2024.pdf.
[37]Meta Transparency Center, "How Technology Detects Violations," 18 October 2023, https://transparency.meta.com/en-us/enforcement/detecting-violations/technology-detects-violations/.
[38]Meta, "Here's How We're Using AI to Help Detect Misinformation," 19 November 2020, https://ai.meta.com/blog/heres-how-were-using-ai-to-help-detect-misinformation/.
[39]ACM SIGCHI, "Human-AI Collaboration via Conditional Delegation: A Case Study of Content Moderation," 3 April 2022, https://www.youtube.com/watch?v=4W2ed8C9LYM.
[40]Oversight Board, "Improving How Meta Treats People and Communities Around the World," https://www.oversightboard.com/.
[41]Infocomm Media Development Authority, "About the Trusted Data Sharing Framework," 1 July 2024, https://www.imda.gov.sg/how-we-can-help/data-innovation/trusted-data-sharing-framework.
[42]Reddit Inc., "Reddit Transparency Report: January to June 2023," https://redditinc.com/policies/2023-h1-transparency-report.
[43]J. Mökander; P. Juneja1 et al., "The US Algorithmic Accountability Act of 2022 vs. the EU Artificial Intelligence Act: What Can They Learn from Each Other?" Minds and Machines, 2022, 32.
[44]IBM, "IBM's Principles for Trust and Transparency," 30 May 2018, https://www.ibm.com/policy/trust-transparency.
[45]European Commission, "Artificial Intelligence-Questions and Answers," 1 August 2024, https://ec.europa.eu/commission/presscorner/detail/en/qanda_21_1683.
[46]M. Heikkilä, "Dutch Scandal Serves as a Warning for Europe over Risks of Using Algorithms," 29 March 2022, https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/.
[47]M. Ledwich and A. Zaitsev, "Algorithmic Extremism: Examining YouTube's Rabbit Hole of Radicalization," 24 December 2019, https://arxiv.org/abs/1912.11211.
[49]王斌、孔燕:《技術(shù)恐懼的演變規(guī)律分析》,《東北大學(xué)學(xué)報(社會科學(xué)版)》,2023年第4期。
Cyberspace Governance in the Age of Artificial Intelligence:
Technological Embedding, Human Primacy, and Human-AI Collaboration
Cai Cuihong
Abstract: Artificial Intelligence is becoming deeply embedded into the global cyberspace governance architecture. With its capacity for high-efficiency data processing and risk detection, AI is transforming key dimensions of governance—ranging from operational effectiveness and actor configurations to procedural dynamics and institutional design. It is essential to recognize that human agency remains indispensable. AI lacks the capacity for normative reasoning and institutional foresight; its legitimacy, transparency, and accountability still hinge on human stewardship. This article argues that the future of global cyberspace governance will be defined by a model of human-AI collaboration: AI systems will provide preliminary detection and response, while humans will retain responsibility for value formulation, rulemaking, and ultimate accountability. The key to such collaborative governance lies in establishing a new paradigm for global cyberspace governance—one that is open, transparent, and accountable—through mechanisms such as structural embedding, co-creation of rules, and shared responsibility.
Keywords: Artificial Intelligence, cyberspace governance, technological embedding, human primacy, human-AI collaboration
責(zé) 編∕桂 琰 美 編∕梁麗琛
