除了圖像,聲音也會有同樣的問題,只要修改了一個語音片段,人工智能就可能修改成完全不同的語音指令。
無需隱身,也能抓住攻擊者
不過,在不久前召開的國際學習表征會議(ICLR)上,美國伊利諾伊大學香檳分校的計算機科學家拿出了一種對抗攻擊的方法。
他們編寫的算法可以轉錄完整的音頻以及單個片段。如果單個片段轉錄出來和完整音頻中的對應部分不完全匹配,那麼算法會立即用一面小紅旗做出標記,表明音頻樣本可能已遭攻擊。
在攻擊測試中,面對幾種不同類型的修改,該算法幾乎都檢測到了異常情況。此外,即使攻擊者已經了解到有防禦系統的存在,大多數情況下還是會被抓住。
這套算法擁有令人驚訝的穩定性。谷歌大腦團隊的科學家尼古拉斯·卡林尼評價稱,其最具吸引力之處在於它的“簡單”。另有與會專家認為,隨著對抗性攻擊越來越常見,谷歌助手、亞馬遜和蘋果等服務,都應當應用這種防禦系統。
然而,攻擊和防禦之間,注定是一場持久的“貓鼠遊戲”。卡林尼表示:“我毫不懷疑有人已經在研究如何攻擊這種防禦系統了。”
提前演練,對攻擊免疫
|