黄色毛片子-黄色美女免费网站-黄色美女网站-黄色美女网站免费-亚洲 国产 图片-亚洲 [12p]

網站首頁 | 網站地圖

大國新村
首頁 > 理論前沿 > 深度原創 > 正文

人工智能武器化的發展趨勢及治理策略

【摘要】人工智能武器化是新一輪軍事變革的必然趨勢,近年來的局部戰爭沖突進一步刺激相關國家推進人工智能武器化戰略部署,搶占未來戰爭制高點。人工智能武器化的潛在風險不容忽視,將可能加劇軍備競賽,打破戰略平衡;賦能作戰流程,加大沖突風險;提升問責難度,增加附帶傷亡;降低擴散門檻,導致誤用濫用。對此,應加強國際間戰略溝通,確保各國在人工智能軍事應用上的共識與協作;推進法律法規建設的對話與協調,以形成統一規范的法律框架;加強人工智能倫理約束,確保技術發展符合道德標準;積極參與全球安全治理合作,共同維護國際社會的和平與穩定。

【關鍵詞】人工智能 軍事應用 安全風險 安全治理 【中圖分類號】F113 【文獻標識碼】A

人工智能武器化,是將人工智能相關技術、平臺與服務應用到軍事領域,使其成為賦能軍事行動的重要驅動力量,進而提升軍事行動的效率、精準度和自主性。隨著人工智能技術在軍事領域的廣泛應用,各主要大國和軍事強國紛紛加大戰略與資源投入,加快研發應用步伐。近年來頻發的地區戰爭沖突也進一步刺激了人工智能的戰場運用,并深刻形塑戰爭形態以及軍事變革的未來走向。

不容忽視的是,人工智能作為一類快速發展中的技術,其本身由于內在技術的不成熟、場景匹配的不準確、支持條件的不完備,可能存在潛在風險,而由于人為的誤用、濫用甚至惡意使用,也容易給軍事領域乃至國際安全領域帶來多種風險挑戰。認真貫徹落實習近平總書記提出的全球安全倡議,必須直面世界范圍內人工智能武器化的發展趨勢,深入分析人工智能武器化應用可能帶來的安全風險,并思考科學可行的治理思路與舉措。

當前人工智能武器化的發展趨勢

近年來,人工智能在軍事領域的應用,正在從根本上重塑未來戰爭形態、改變未來作戰體系,影響軍事變革的未來走向。主要軍事大國已將人工智能視為改變未來戰爭規則的顛覆性關鍵技術,紛紛挹注大量資源,推進人工智能武器的研發與應用。

? 人工智能武器化是軍事變革的必然趨勢。

隨著科學技術的飛速發展,軍事變革的必要性與緊迫性愈發凸顯。人工智能通過模擬人類的思維過程,延展人類的腦力與體力,可實現信息快速處理、分析和決策,可研發日益復雜的無人化武器系統平臺,從而為軍事行動提供前所未有的智能化支持。

一是為軍事情報偵察與分析提供智能支持。傳統的情報偵察方式受到人力和時間等多重因素制約,難以有效應對大規模、高速度和高復雜度的情報處理需求。人工智能技術的引入,為情報偵察領域帶來革新和突破。在軍事基礎設施中,應用人工智能技術,可構建智能監測系統,提供高精度實時的情報感知服務。在情報偵察領域,人工智能技術具備對多個“信息流”進行實時處理的能力,從而極大地提高分析效率。①通過使用深度學習等技術工具,還可以“透過現象看本質”,挖掘出各類碎片化情報信息中的深層脈絡與因果聯系,將海量碎片化數據快速轉變為可以利用的情報,從而提升情報分析的質效。

二是為作戰指揮與決策提供數據支持。人工智能在戰場態勢感知方面為作戰指揮和軍事決策提供有力支持。②其優勢在于能夠進行數據挖掘、數據融合以及預測分析等關鍵任務。在信息化智能化戰爭中,戰場環境瞬息萬變,情報信息量龐大,要求決策響應迅速且準確。因此,先進的計算機系統就成為協助指揮人員管理情報數據、進行敵情判斷、提出作戰方案建議以及擬制計劃與命令的重要工具。以美軍為例,美國雷神技術公司(Raytheon Technologies Corporation)研制的ISTAR(情報、監視、目標識別和跟蹤)系統,涵蓋了情報采集、監視、目標識別及跟蹤功能,可匯聚來自衛星、艦船、飛機及地面站等多元信息源的數據,并對其進行深度分析與處理。這不僅顯著提高了指揮官獲取信息的速度,而且可借助智能分析系統提供數據支持,使決策更加快速、高效和精準。

三是為無人作戰系統提供重要支撐。無人作戰系統是一種無需人類直接操縱,便可獨立完成軍事任務的新型武器裝備系統,主要包括智能化無人作戰平臺、智能化彈藥和智能化作戰指揮控制系統等組成部分,具備顯著的自主性和智能化特征。無人作戰系統,作為引領未來戰爭形態變革的技術裝備,已成為國家間軍事競爭的重要籌碼。該系統通過運用自主導航、目標識別、路徑規劃等關鍵技術,實現了不同戰場環境及作戰空間的適應能力。借助深度學習、強化學習等先進算法,無人作戰系統能夠獨立完成導航任務,并實現精準打擊目標。這種系統的設計理念是“平臺無人,系統有人”,其本質是對有人作戰系統的智能化延伸。例如,美國國防部高級研究計劃局(DARPA)研發的“MQM-57獵鷹者”無人機,就采用了先進的人工智能技術,具備高度自主的目標識別和追蹤功能。

四是為軍事后勤與裝備保障提供技術支持。在信息化戰爭的背景下,戰爭進程加快、機動性提升、作戰消耗顯著增加。傳統的“超量預儲”保障模式已無法適應現代戰場快速變化的需求,因此,對作戰部隊進行適時、適地、適需、適量的快速精確后裝保障提出了更高的要求。人工智能作為一種具有溢出帶動和交叉融合特性的技術,與物聯網、大數據、云計算等前沿技術相互融合,使得人工智能知識群、技術群和產業群全面滲透到軍事后裝領域,顯著提升了后勤裝備保障能力。

? 主要國家紛紛布局人工智能軍事應用。

為增強在人工智能領域的全球競爭力,美國、俄羅斯、日本等主要大國加緊對人工智能軍事應用的戰略布局。首先,通過更新和調整人工智能領域的頂層戰略規劃,為未來的發展提供明確指導;其次,針對未來戰爭需求,加快人工智能技術與軍事領域的深度融合,推動裝備系統的智能化、自主化和無人化發展;此外,積極創新作戰概念,以驅動作戰力量創新,進而提升作戰效能和競爭優勢。

一是制定戰略規劃。基于技術霸權追求軍事霸權、政治霸權、經濟霸權的戰略偏執,美國正加快自身軍事智能化進程。2023年11月,美國國防部發布《數據、分析與人工智能采用戰略》,旨在擴展整個國防部體系的先進能力,以獲得持久的軍事決策優勢。俄軍頒布被稱為“3.0版本”的《2024年至2033年俄羅斯武器裝備發展綱要》,旨在為未來10年武器裝備發展提供指導,綱要強調繼續推進核武器和常規武器建設,并重點研究人工智能和機器人技術、高超音速武器和其他基于新物理原理的打擊兵器。

二是研發先進裝備系統。美軍自2005年開始每隔幾年都會發布一版“無人系統路線圖”,以展望并設計空中、地面、水面/水下等各領域無人系統平臺,貫通研發—生產—測試—訓練—作戰—保障等無人化武器裝備發展鏈路。目前,世界上已有70多個國家可以研發無人化系統平臺,各種類型的無人機、無人車、無人船(艇)、無人潛航器如雨后春筍般不斷出現。2024年7月15日,美軍參聯會前主席馬克·米利接受《美國防務新聞》采訪時稱,到2039年,三分之一的美軍部隊將由機器人組成。俄軍研發的平臺-M作戰機器人、“柳葉刀”自殺式無人機和S70“獵人”重型無人機等,已投入實戰檢驗。

三是創新未來作戰概念。作戰概念是對未來戰爭樣式與作戰方式進行的前瞻性研究,往往可牽引新的作戰力量編組及武器裝備跨越發展。美軍近年來先后提出“分布式殺傷”“多域戰”“馬賽克戰”等作戰概念,試圖引領軍事變革的發展方向。以“馬賽克戰”為例,該作戰概念將各種傳感器、通信網絡、指揮控制系統、武器平臺等視為“馬賽克碎片”,這些“碎片”單元在人工智能技術賦能支持下,通過網絡信息系統可動態鏈接、自主規劃、協同組合,從而形成一個按需集成、極具彈性、靈活機動的殺傷網。2022年3月,美國國防部發布《聯合全域指揮控制(JADC2)戰略實施計劃》,該計劃旨在將多域作戰向全域作戰概念拓展,將各軍種傳感器連接到一個統一“物聯網”中,利用人工智能算法幫助改善作戰指揮決策。③

? 戰爭沖突刺激人工智能武器化進程。

近年來,利比亞沖突、納卡沖突、烏克蘭危機、哈以沖突等局部沖突不斷,進一步刺激了人工智能武器化的發展進程。

在利比亞沖突中,交戰雙方采用多種型號無人機執行偵察和作戰任務。據聯合國利比亞問題專家小組發布的報告指出,土耳其制造的“卡古-2”(Kargu-2)無人機2020年在利比亞執行了“追捕并遠程交戰”行動,可自主攻擊撤退中的敵方士兵。這一事件標志著致命性自主武器系統在實戰中的首次運用。如美國學者扎卡里·卡倫伯恩所述,若有人在此類自主攻擊中不幸喪生,這極有可能是歷史上首個已知的人工智能自主武器被用于殺戮的例子。在2020年納卡沖突中,阿塞拜疆運用土耳其生產的“旗手”TB2無人機編隊和以色列生產的“哈洛普”無人機成功突破了亞美尼亞防空系統,掌握了戰場制空權和主動權。④ 阿塞拜疆軍隊無人機作戰的顯著成效,在很大程度上源于亞美尼亞軍隊的“輕敵”心態,對無人機在現代戰爭中的重要性和威脅性認識不足。其次,從進攻策略的角度來看,阿塞拜疆軍隊在無人機戰法上進行了大膽的創新。他們靈活運用察打一體無人機和巡飛彈等先進裝備,不僅提升了作戰效率,也大大增強了戰斗的突然性和致命性。⑤

在2022年爆發的烏克蘭危機中,俄羅斯和烏克蘭都廣泛使用軍用級和商用無人機執行偵察監視、火炮瞄準和打擊任務。烏克蘭軍隊通過使用“旗手”TB2無人機以及美國援助的“彈簧刀”系列自殺式無人機,實施精確打擊和高效殺傷,成為令世界矚目的“戰場殺手”。在哈以沖突中,以色列軍方被指控使用名為“薰衣草”(Lavender)的人工智能系統來識別并鎖定加沙境內的轟炸目標,曾將多達3.7萬名加沙巴勒斯坦人標記為“武裝分子”嫌疑對象,并將其認定為可直接“暗殺”的目標,以軍行動引發了國際社會廣泛關注和譴責。⑥

人工智能武器化帶來的安全風險

從自動化指揮系統到智能無人作戰平臺,再到網絡防御中的智能決策系統,人工智能技術在軍事領域的應用正變得愈發普遍,已成為現代戰爭不可或缺的一部分。然而,人工智能武器化的趨勢下,其誤用、濫用甚至惡意使用,也將給國際安全帶來不可忽視的風險挑戰。

? 加劇軍備競賽,打破戰略平衡。

在信息化智能化時代,人工智能所具有的顛覆性潛力讓軍事大國都難以抗拒,紛紛聚焦人工智能軍事能力的開發和運用,唯恐在這一領域落后而喪失戰略機遇。深化人工智能軍事應用,則能夠以更低成本、更高效率的方式獲得“非對稱優勢”。

一是各國紛紛搶抓“先行者優勢”。當一個國家在智能武器系統開發領域取得技術領先地位時,意味著該國具備更高級的人工智能和相關應用能力,使其在武器系統開發、控制和應急響應等方面具有先發優勢。這種優勢包括更高的自主性、智能化程度和自適應能力,從而增加了該國的軍事實力和戰略競爭優勢。與此同時,先行者的軍事優勢可能會成為競爭對手的安全威脅,導致各國在先進技術的軍事應用上呈現出你爭我趕的態勢。⑦ 2023年8月,美國國防部副部長凱瑟琳·希克斯宣布了“復制者計劃”(Replicator initiative),該倡議力求在不到兩年的時間內在印太地區部署數千個“自主武器系統”。⑧

二是各國人工智能軍備建設的不透明性可能加劇軍備競賽。這主要有兩個方面的原因:一是人工智能技術是一種可用于設計多種應用的“使能技術”,這意味著人工智能軍事應用具體情況核查難度較高,難以像核武器可以通過對鈾、離心機以及武器和運載系統的監測來判斷一個國家是否在進行核武器的開發或部署。半自主、完全自主武器系統之間的差別主要是由于計算機軟件算法不同導致的,很難通過物理核查手段來對各國的條約執行情況進行核查。二是各國為了保持己方的戰略優勢,往往對先進技術的軍事應用相關細節采取保密措施,從而使對手無法探知其戰略意圖。在當前國際環境中,這種不透明性不僅僅加劇了軍備競賽,更為未來沖突升級埋下了伏筆。

三是各國戰略意圖的不確定性也會加劇軍備競賽。人工智能對于戰略穩定、核威懾和戰爭升級的影響,很大程度上取決于他國對于其能力的感知,而非其實質能力。正如美國學者托馬斯·謝林指出,國際關系常常具有風險競爭的特征,更多的是對勇氣而不是武力的考驗,主要對手之間的關系是由哪一方最終愿意投入更大的力量,或者使之看起來即將投入更大的力量來決定的。⑨ 一個行為體對于他者能力的感知,無論真假,都會在很大程度上影響軍備競賽進程。如果一個國家大力發展智能武器系統,競爭對手在不確定對方意圖的情況下,會對競爭對手的軍備能力及發展軍備的意圖產生猜忌,往往采取對等措施,即通過發展軍備來滿足自身安全需求。正是這種意圖的模糊性刺激了技術積累,加劇武器部署的不穩定性,最終導致惡性循環。

? 賦能作戰流程,加大沖突風險。

在大數據和人工智能技術賦能下,傳統作戰流程將實現智能化再造,即由“態勢感知—指揮決策—攻防協同—綜合保障”向“全域態勢智能認知—人機一體混合決策—有人/無人自主協同—主動按需精準保障”轉變。然而,作戰流程的智能化再造雖然提高了作戰的效率和精確性,但也提升了沖突和誤判的風險。

一是以“機器速度”爆發的戰爭將增加倉促行動的風險。人工智能武器系統在精確度和反應速度上表現出強大的能力,使得未來戰爭將以“機器速度”爆發。⑩ 但戰爭速度過快也將升高沖突風險。在導彈防御、自主武器系統和網絡空間等重視自主性以及反應速度的領域,更快的反應速度將帶來巨大的戰略優勢,同時也極大地壓縮了防御方對軍事行動作出反應的時間窗口,導致作戰指揮員和決策者置身于巨大的“時間壓力”之下,加劇了“倉促行動”的風險,并增加了危機意外升級的可能性。

二是依賴系統自主性可能增加壓力下的誤判幾率。美國國防部認為,“高度自主化的人工智能系統,能夠根據任務參數的動態變化,自主選擇并執行相應操作,高效實現人類預設的目標。自主性的增加不僅大幅減少了對人力的依賴,提高了整體操作效率,更被國防規劃者視為保持戰術領先、確保戰場優勢的關鍵要素。”? 然而,由于人類指揮官無法作出足夠快的反應,可能逐漸將控制權下放給自主系統,增加誤判幾率。2003年3月,美國“愛國者”導彈系統曾錯誤地將友軍的“龍卷風”戰斗機標記為反輻射導彈,指揮人員在只有幾秒鐘反應時間的壓力狀態下,選擇發射導彈,造成了兩名飛行員的死亡。?

三是削弱了危機終止機制的有效性。冷戰時期,美蘇主導構建了一系列限制性措施來遏制危機的升級,避免其演化為大規模的核戰爭。在這些措施中,人類扮演著至關重要的“監督者”角色,在可能出現風險失控時,能夠在充足的時間內啟動終止措施,避免大規模人道主義災難發生。但是,隨著人工智能系統運算能力的提升及其與機器學習的深度融合,作戰響應變得更為迅捷、精確和具有破壞性,人類對于危機的終止干預機制將可能被削弱。

? 戰爭問責困難,增加附帶傷亡。

人工智能武器系統使得戰爭責任更難界定。在傳統作戰模式下,由人類控制武器系統,一旦造成失誤或危機,人類操作員或者操作系統的研發者將承擔相應的責任。人工智能技術本身弱化了人類的能動性和控制能力,致使技術性行為的責任歸屬變得模糊不清。

一是人工智能“黑箱”問題。盡管人工智能在處理和分析數據方面有著顯著優勢,但是其內部運行規律和因果邏輯卻常常難以被人類理解和解釋,這使得程序員難以對錯誤算法進行糾偏除誤,這一問題常常被稱為算法模型的“黑箱”。一旦人工智能武器系統產生安全危害,“算法黑箱”可能成為相關責任方推卸責任的合理化借口,追責者只能面臨泛化的卸責與推諉,并將責任矛頭指向人工智能武器系統。在實踐中,如果無法理解并解釋人工智能的決策過程,可能會引發一系列的問題,如決策失誤、信任危機、信息濫用等。

二是軍事行動中人機責任劃分問題。當人工智能系統出現故障或者決策失誤時,是否應將其視為一種獨立的實體來承擔責任?或者,是否應該將其視為一種工具,由人類操作者承擔全部或部分責任?這種責任劃分的復雜性不僅在于技術層面,更在于倫理和法律層面。一方面,人工智能系統雖然能夠自主決策,但其決策過程仍然受到人類預設的程序和算法限制,因此其責任不能完全獨立于人類。另一方面,人工智能系統在某些情況下可能會超越人類的預設范圍,作出獨立的決策,此時其責任又該如何界定,也成為軍控領域的難題。

三是人與人工智能武器系統的決策權分配問題。按照機器自主權限的不同,人工智能系統能夠以半自主、有監督式自主以及完全自主三種決策與控制方式執行任務。在半自主系統中,行動的決策權由人類掌控;在有監督式自主行動中,人類實施監督并在必要時干預;在完全自主行動中,人類不參與行動過程。隨著人工智能軍事應用程度的逐漸加深,人在作戰系統中的角色正經歷由傳統的“人在回路內”模式逐步向“人在回路上”轉變,人類從系統內部的直接操控者演化為系統外部的監督者。然而,這一轉變也引發了新的問題。如何確保人工智能武器系統在獨立運作時仍能遵循人類倫理和價值觀,這是當前人工智能武器研發領域面臨的重大挑戰。

? 降低擴散門檻,導致誤用濫用。

傳統的戰略競爭通常涉及大規模的武器系統研發和采購,需要大量資金和技術支持。人工智能技術成熟擴散后,具有易獲取且價格低廉等優勢,即便是中小國家也可能具備開發先進智能武器系統的能力。當前,軍用人工智能領域的戰略競爭主要集中在美俄等軍事大國之間。但長遠來看,人工智能技術的擴散將擴大戰略競爭的范圍,對現有的戰略平衡構成破壞性威脅。一旦掌握人工智能技術的較小規模國家擁有相對較強的競爭力,這些國家在面臨大國威脅時發起對抗的意愿可能就會增強。

一是人工智能有助于發展一些輕便靈巧的作戰手段,從而鼓勵一些中小國家或者非國家行為體利用其開展小型的、機會主義的軍事冒險,以更低廉的成本和更豐富的途徑來達到其戰略目地。二是人工智能的快速發展使得網絡戰、電子戰等新型戰爭形態日益凸顯。在競爭激烈的戰場環境中,惡意的第三方行為體可以通過操縱信息來影響軍事規劃和戰略威懾,導致局勢升級。在2022年爆發的烏克蘭危機中,就有眾多網絡虛假信息傳播混淆視聽。三是人工智能技術的廣泛應用還降低了戰略透明度。傳統的軍事戰略往往依賴于大量的情報收集、分析和預測,而在人工智能技術的輔助下,作戰計劃和決策過程變得更加復雜和難以預測。這種不透明性可能導致誤解和誤判,從而增加了沖突升級的風險。

人工智能武器化安全風險的治理路徑

為確保人工智能安全發展,避免其武器化帶來的潛在危害,應加強國際間的治理戰略溝通,尋求各國在人工智能軍事應用方面的共識與協作;推進法律法規對話協調,以形成統一規范的法律框架;加強人工智能倫理的約束,確保技術發展符合道德標準;積極參與全球安全治理合作,共同維護國際社會的和平與穩定。

? 高度重視國際層面戰略溝通。

人工智能治理是一個全球性問題,需要各國通力合作,共同解決。在國際舞臺上,各國利益交融與利益沖突并存,因此,通過有效的溝通渠道來處理全球性問題成為維護世界和平與發展的關鍵。

一方面,要準確把握人工智能國際治理挑戰。既要把握各國對人工智能武器化發展的共識,也要密切關注各國在人工智能武器化應用安全治理方面的政策差異,通過協商合作,使相關倡議與聯合國議程相協調,從而有效防止人工智能在軍事上的濫用,推動人工智能用于和平目的。

另一方面,推動各國政府通過官方或半官方對話,達成相關協議,建立戰略互信。相較于政府層面的“1軌對話”,“1.5軌對話”指的是政府官員與民間人士共同參與的對話,而“2軌對話”則是由學者、退休官員等進行的民間非官方形式的對話。這兩種對話形式具有更高的靈活性,是政府間官方對話的重要補充和輔助手段。通過多樣化的對話交流方式,官方和民間人士可以廣泛磋商軍備控制的可能實現路徑,分享經驗和專業知識,以避免軍備競賽的升級和緊張局勢的惡化。這些對話機制將為各國提供持續的溝通與合作平臺,有助于增進相互理解、加強戰略互信,共同應對人工智能軍事化應用帶來的挑戰。

? 科學制定人工智能法律和倫理規約。

人工智能技術本身并無對錯善惡之分,但對于人工智能的設計、研發、制造、使用、運行以及維護確有善惡意圖之別。人工智能武器化引發了廣泛的倫理關注。國際法框架下,自主武器系統是否能夠在復雜戰場上精準區分戰斗人員與平民?此外,若人工智能武器系統導致非預期的傷害,其責任歸屬如何界定?將關乎生死的決策權交付于機器,這一做法是否符合道德倫理標準?這些擔憂凸顯了加強人工智能倫理約束的必要性。

一方面,要堅持倫理先行,從技術源頭上融入“智能向善”的理念。在人工智能軍事系統的設計過程中,將以人為本、智能向善等價值觀內嵌于系統中。其目的是從源頭上杜絕人工智能可能引發的濫殺濫傷行為,控制其過度殺傷力,防范意外毀傷的發生,從而將人工智能武器系統所帶來的毀傷程度限制在盡可能小的范圍內。目前,國內外已有近百家機構或政府部門發布各類人工智能倫理原則文件,學術界和產業界亦就人工智能基本倫理原則達成共識。2022年,中國向聯合國遞交的《關于加強人工智能倫理治理的立場文件》為全球人工智能倫理監管的發展提供了重要參考。文件明確強調,應通過制度建設、風險管控、協同共治等多方面的措施來推進人工智能倫理監管。

另一方面,要完善相關法律法規,明確人工智能主體的權責邊界。制定嚴格的技術審核標準,確保人工智能系統的安全性和可靠性。在人工智能系統上線前進行全面的測試,確保其不會對人類生活和社會秩序造成負面影響。明確開發者、使用者、維護者等各方在人工智能系統全生命周期中的法律責任,以及建立相應的追責機制。

? 務實參與人工智能安全治理國際合作。

人工智能軍事應用所帶來的戰略風險,更加凸顯出國際安全務實合作的重要性。建議重點從三個方面著手:

一是推動制定人工智能在軍事領域的運用準則。制定人工智能軍事應用的行為準則,是各國規范人工智能軍事應用的重要責任,也是推動國際共識和遵守國際法規的必要舉措。中國政府2021年向聯合國《特定常規武器公約》大會提交了《中國關于規范人工智能軍事應用的立場文件》,2023年發布《全球人工智能治理倡議》,這些都為完善規范人工智能軍事應用的行為準則提供了建設性參考。

二是建立適用的監管框架。人工智能軍民兩用性使其涉及眾多利益攸關方,一些非國家行為體如非政府組織、技術社群、科技企業在人工智能全球治理進程中的作用將更加突出,成為人工智能軍事應用監管框架建設的重要力量。各國可采取的技術監管措施包括:明確人工智能技術的使用范圍、責任主體和違規處罰措施;加強技術研發,提高技術的安全性和可控性;建立監管機制,對技術的研發和應用進行全程監管,及時發現和解決問題。

三是共同研發人工智能安全防范技術和解決方案。鼓勵將政府間和軍隊間的雙邊或多邊談判納入軍用人工智能應用的對話選項,就軍用人工智能安全防范技術、操作規程及實踐經驗廣泛交流,推動相關風險管理技術標準和使用規范的分享借鑒,為人工智能軍事化背景下的國際安全互信機制不斷注入新的穩定因素。

(作者為國防科技大學國防科技戰略研究智庫主任、研究員,博導;國防科技大學外國語學院碩士研究生劉胡君對本文亦有貢獻)

【注釋】

①Katz B. Analytic edge: Leveraging emerging technologies to transform intelligence analysis [R]. Washington D.C.: Center for Strategic and International Studies, 2020.

②Paul McLeary. Pentagon’s Big AI Program, Maven, Already Hunts Data in Middle East, Africa[N]. Breaking Defense, May 1, 2018.

③唐新華:《美國綜合威懾戰略中的技術互操作性》,《太平洋學報》, 2022年第12期,第15-25頁。

④Robyn Dixon. Azerbaijan’s Drones Owned the Battlefield in Nagorno-Karabakh—and Showed Future of Warfare[N]. The Washington Post, November 11, 2020.

⑤朱啟超、陳曦、龍坤:《無人機作戰與納卡沖突》,《中國國際戰略評論》,2020年第2期,第167-183頁。

⑥The Verge Report: Israel used AI to identify bombing targets in Gaza [EB/OL].[2024-04-05]. https://www.theverge.com/2024/4/4/24120352/israel-lavender-artificial-intelligence-gaza-ai#:~:text.

⑦羅易煊、李彬:《軍用人工智能競爭中的先行者優勢》,《國際政治科學》, 2022第3期,第1-33頁。

⑧U.S. Department of Defense. Deputy Secretary of Defense Kathleen Hicks Keynote Address: The Urgency to Innovate (As Delivered) [EB/OL]. [2023-08-28]. https://www.defense.gov/News/Speeches/Speech/Article/3507156/deputy-secretary-of-defense-kathleen-hicks-keynote-address-the-urgency-to-innov/.

⑨[美]托馬斯·謝林著,毛瑞鵬譯:《軍備及其影響》,上海:上海人民出版社,2017年,第81頁。

⑩Rautenbach P. Keeping Humans in the Loop is Not Enough to Make AI Safe for Nuclear Weapons[EB/OL], https://thebulletin.org/2023/02/keeping-humans-in-the-loop-is-not-enough-to-make-ai-safe-for-nuclear-weapons/,2023-02-16/2024-01-09.

?Mayer M. The new killer drones: understanding the strategic implications of next-generation unmanned combat aerial vehicles[J], International Affairs, 2015,91(04):771.

?[美]保羅·沙瑞爾著,朱啟超、王姝、龍坤譯:《無人軍隊:自主武器與未來戰爭》,北京:世界知識出版社,2019年,第153-156頁。

責編/谷漩 美編/王夢雅

聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

[責任編輯:謝帥]
主站蜘蛛池模板: 青草视频国产 | 国产一级二级在线观看 | 91精品国产福利在线观看 | 国产激情在线视频 | 欧美人人做人人爽人人喊 | 日本一区二区三区四区公司 | 直接观看黄网站免费视频 | 视频一二三区 | 午夜精品在线 | 91精品视频在线免费观看 | 亚洲综合在线网 | 国产日韩一区二区三区 | 日本高清色惰www在线视频 | 国产精品久久国产精麻豆99网站 | 国产一区曰韩二区欧美三区 | 亚洲视频一区二区三区 | 日韩 在线视频精品 | 国产成人精品亚洲日本在线 | 黄网站在线观看视频 | 精品视频在线观看一区二区三区 | 夜夜操伊人 | 一二三四视频在线社区7 | 爱婷婷网站在线观看 | 性欧美zoz0另类xxxx | 久久综合狠狠综合久久 | 亚洲二区视频 | 日本韩国欧美在线 | 色哟哟在线观看视频高清大全 | 伊人75| 免费在线看黄 | 亚洲一区二区三区深夜天堂 | 91久久亚洲最新一本 | 激情视频网 | 91热成人精品国产免费 | 国产成人精品实拍在线 | 九九精品在线 | 六月丁香婷婷激情国产 | 久久久一区二区三区 | 免费国产一级特黄久久 | 欧美综合网站 | 免费91最新地址永久入口 |