引發重大倫理問題
當然,這些都引發了許多倫理問題。科技公司是否應該開發公然違背“不傷害”原則的人工智能工具?
以帕蘭蒂爾公司為例,這家公司曾因開發間諜工具而飽受批評。烏克蘭部署人工智能增強型監控所使用的許多方法都與該公司有關。
不難想象,戰場提供了一個可以進行研發而不會受到過多道德監督或審查的場所。在未來的某個時候,這項技術是否有可能被部署到戰區之外?忽視這種威脅似乎是愚蠢之舉。
一個重要的問題是:讓機器作出殺戮決策在道德上是否說得通?例如,烏克蘭的人工智能機槍技術可以識別敵方目標,但仍需人類操作員授權才能開火。然而情況會一直如此嗎?
過度強調人工智能和技術在戰爭中的作用也是有風險的。雖然它們確實可以為宣傳提供素材,也許還能引起敵人的恐懼,但我們不應忘記,絕大多數戰鬥和殺戮仍是由人類完成的。
將俄烏衝突描繪成主要由機器人和軟件進行的戰爭,淡化戰爭所帶來的恐怖和危險,這可能會讓人用“技術洗白”的方式掩蓋戰爭的殘酷性。
|