中評社北京4月13日電/據香港文匯網報導,人工智能(AI)技術近年迅速發展,有不法之徒用作詐騙,甚至只需錄得某人的3秒原聲,就能精準複製其聲音。美國全國廣播公司(NBC)報導亞利桑那州發生一宗AI仿聲騙案,一名母親聽聞“被綁架的女兒”求救,險被騙走大筆金錢,警方呼籲民眾小心,避免上當。
報案人德斯特凡諾表示,她早前接到一個陌生電話,當中傳出她15歲女兒的聲音,我聽到女兒說“媽媽!”然後她在哭泣。我問“發生什麼事?”她說“媽媽,我遇到麻煩了”。德斯特凡諾此時聽到一名男人說“把頭往後仰,躺下”,頓時感到非常恐懼。
德斯特凡諾憶述,該名陌生男子在電話中警告她,“你女兒在我這裡,你敢打電話報警或通知任何人,我便會迷暈她,把她帶到墨西哥。”電話中還傳來似乎是女兒微弱呼救聲和哭聲,說“媽媽,拜託救救我,救我”。陌生男子隨即勒索贖金,最初要求100萬美元(約785萬港元),但德斯特凡諾稱沒有足夠現金,對方便減至5萬美元(約39萬港元)。
肯定電話中是女兒聲音
警覺的德斯特凡諾一邊讓陌生男子繼續說話,一邊聯絡丈夫,很快便確認女兒安然無恙,“我的女兒還在問發生什麼事,我便隨即掛斷騙徒的電話。”但德斯特凡諾確認電話中是女兒的聲音,完全沒有懷疑。
AI只需3秒原聲便能複製
亞利桑那州立大學AI資訊教授坎巴姆帕蒂表示,AI深度學習技術飛躍進步,只需獲得某人3秒原聲,就能複製出一模一樣的聲音。坎巴姆帕蒂憂慮AI深度學習技術幾乎不受法律監管,“我認為它可應用於好的方面,但肯定也有令人擔憂的用途。”
聯邦調查局(FBI)鳳凰城辦公室官員梅奧表示,使用語音複製技術的騙徒經常在社媒尋找受害人,呼籲民眾不要公開個人資料,“若接到詐騙電話,要設法放慢速度,問對方關於身邊人的細節。如果對方說不出背景細節,你很快就會發現這是騙局。”
|