|
(來源:網絡今日視點) |
中評社北京7月3日電/醫療手術、無人駕駛、圍棋對弈、隨手可用的翻譯……近十年來,人工智能(AI)取得了巨大進步。而這,要得益於人工神經網絡的發展。
這一神經網絡的模式,效仿的是我們人類的大腦,在大規模應用時,也被稱為深度學習,其能夠自己發現數據的模式,而無需明確指令。
深度學習雖然可以在大數據訓練中學到正確的工作方法,卻也很容易受到惡意干擾。攻擊者們通常會通過輸入惡意數據來欺騙深度學習模型,導致其出現嚴重故障。
面對惡意算法欺騙,人工智能如何反擊?英國《自然》網絡版日前的報道稱,現在,計算機科學家正在多方尋找對策,以便讓人工智能更安全。
AI:我因“學習”而受傷
“學習”,是人工智能的核心,也是使計算機具有智能的根本途徑。
深度學習的主旨,是讓計算機去模擬或實現人類的學習行為,以獲取新的知識或技能,並重新組織已有的知識結構,使之不斷改善自身的性能。
但同時,深度學習算法的不可預測性,使其需要不斷挖掘。
對於家庭和個人手機來說,虛擬智能化助理的應用越普遍,惡意攻擊就越可能隨時發生。有些信息眼看、耳聽都沒有問題,卻能“暗藏殺機”——隱藏著劫持設備的指令。
舉例來說,人工智能“看”圖像的模式,和人類的肉眼大不一樣。通過微妙改變圖像的某些部分,再輸入後的圖片即使肉眼看來一模一樣,計算機看起來卻大不相同。這就叫對抗性示例。 |