【看中國2025年5月13日訊】(看中國記者楊天資綜合報導)人工智能(AI)武器已從科幻概念走入現實戰場,各國代表今(13)日在紐約聯合國開會商討對策,重啟監管這類武器的行動,試圖規範日益強大並已在多場衝突中應用的AI武器系統。專家警告,若不加以有效控制,AI恐引發新型軍備競賽及嚴重的問責問題。
人工智能(AI)武器發展迅速 聯合國討論監管
路透社5月13日報導,自主武器系統和AI輔助武器系統已在烏克蘭戰爭、加沙戰爭發揮愈來愈重要的作用。全球多國逐漸增加國防支出,也勢必會進一步促進這些正在快速發展的AI軍事技術。
人工智能(AI)武器核心在於無須人類直接干預即可自主攻擊目標。這引發了兩大核心憂慮:軍備競賽與問責真空。
首先,軍備競賽風險加劇。AI被視為繼火藥、核武後的第3次軍事革命。主要軍事大國在AI武器領域的突破,將迫使他國加速研發,形成基於「安全困境」的惡性競爭。這不僅推高全球軍費,也可能因AI武器降低己方傷亡的特性,誘使決策者更輕易發動衝突。
其次,問責困境難解。若AI武器誤傷平民或攻擊受保護目標,責任歸屬將極其複雜:程式設計師、指揮官、製造商,還是AI本身?
然而,建立這類技術發展和運用的全球規範,其進展卻跟不上腳步。具有國際約束力的標準實際上也仍未訂出。
自2014年以來,特定傳統武器公約(CCW)參與國在瑞士日內瓦開會討論是否要禁止不需人類實質控制即可完全自主運作的武器系統,並監管其他的自主武器。
聯合國秘書長古特瑞斯(Antonio Guterres)定下2026年的期限,要各國針對AI武器運用制訂明確規範。
國際特赦組織(Amnesty International)表示,許多國家支持具有約束力的全球框架,但美國、俄羅斯、中國和印度偏好採用國家層級的指導方針或現有國際法來規範自主武器。
AI軍備競賽白熱化 「殺手機器人」恐失控
在烏克蘭戰場,俄烏雙方廣泛使用具AI輔助功能的無人機,進行偵察、監視及精確打擊。部份系統能自主識別追蹤目標,甚至在通信受擾時執行攻擊。AI在處理戰場數據、優化攻擊路線及無人機「蜂群」協同作戰方面展現潛力。
在加沙衝突中,以色列據報使用AI系統輔助識別軍事目標及武裝份子。儘管以方強調人類最終決策,但AI在目標篩選和建議中的作用,及其對決策速度和規模的影響,已引發對「有意義人類控制」的質疑。AI能快速處理海量情報,推薦打擊目標,改變了傳統作戰節奏。
此外,自殺式無人機在多地衝突中頻繁出現,其搭載的AI能力不斷增強,自主化程度日益提高。
這些實例表明,AI正提升戰爭決策速度、潛在攻擊精度,並推動無人化、智能化作戰趨勢,同時也帶來倫理、法律的嚴峻挑戰。
面對AI武器發展,國際監管進展緩慢。聯合國《特定常規武器公約》(CCW)下的「致命性自主武器系統政府專家組」(GGE on LAWS)是主要討論平台,但未達成具法律約束力的條約。
- 定義分歧:對「致命性自主武器系統」及「有意義的人類控制」缺乏統一、可操作的定義。
- 驗證困難:AI技術的軍民兩用性及算法「黑箱」問題,使透明度和監督機制難以建立。
- 技術迭代迅速:立法談判速度遠跟不上技術發展。
聯合國的討論關乎人類未來戰爭形態、倫理邊界和全球安全。AI武器的潛力與風險並存。若無有效全球治理框架,其後果難料。
奧地利外交部武器管制部門負責人克蒙特(Alexander Kmentt)說:必須儘快改變這種狀況。他接受路透社訪問時說:「真的快沒時間了,必須儘快設置防範措施,避免一些最知名專家所示警的惡夢情境成真。」