除了純粹的道德問題以外,還有其他令人擔憂的問題。殺手機器人會降低戰爭中的人員成本,爆發沖突的可能性是否會因此提高?如何阻止這類系統的擴散?當它們出問題的時候誰來負責?
在一個哲學研討會上,反對殺手機器人的道德理由已是足夠明顯。問題在於,你越是近距離地觀察它們在戰爭硝煙中可能的用處,就越難分辨出道德的界限。(有限自主的)機器人已經被用於戰場上,應用在拆彈、排雷和反導系統等。它們的應用範圍還將大為擴大。
據新美國安全中心(Center for a New American Security)估測,到2018年,全球範圍內在軍用機器人方面的支出將達到每年75億美元。相比之下,該機構預測用於商業和工業機器人的支出將為430億美元。這家位於華盛頓的智庫支持進一步利用這類系統,主張它們能夠顯著提高“作戰人員取得凌駕對手的絕對性優勢的能力”。
軍工界用其最愛使用的置身事外的論調,對機器人不同的自主等級進行了區分。第一類被稱為“人在環中”(humans-in-the-loop),包括被美軍和其他軍隊廣泛使用的“捕食者”無人機。即使一架無人機或許能夠識別目標,還是需要一個人類來按下攻擊按鈕。就像電影《天空之眼》(Eye in the Sky)生動地體現出來的,這類決策可能會給人帶來道德上的痛苦,你需要在打擊關鍵目標和造成平民傷亡的風險之間進行權衡。
(來源:經融報) |