中評社香港5月12日電/人工智能系統是否會欺騙人類,一直是各方都關心的問題。近期美國麻省理工學院一個研究團隊稱,部分人工智能系統已經學會如何欺騙人類,其中包括部分號稱已被訓練成樂於助人和誠實的系統。該研究成果發表在美國細胞出版社旗下的《模式》雜誌上。
文章第一作者、美國麻省理工學院人工智能安全領域博士後彼得·帕克和他的同事們分析了一些文獻,重點關注了人工智能系統傳播虛假信息的方式——通過習得性欺騙,它們系統地學會了“操縱”他人。
新華社報導,研究人員發現的最引人注目的人工智能系統欺騙例子是元宇宙平台公司的“西塞羅”人工智能系統,它被設計在一個虛擬外交戰略遊戲中作為人類玩家的對手。儘管元宇宙平台公司聲稱,“西塞羅”人工智能系統“在很大程度上是誠實和樂於助人的”,並且在玩遊戲時“從不故意背刺”它的人類盟友,但該公司發表的論文數據顯示,該系統並沒有公平地玩遊戲。
“我們發現元宇宙平台公司的人工智能系統已經成為欺騙大師。”帕克說,“雖然元宇宙平台公司成功訓練其人工智能系統在遊戲中獲勝——‘西塞羅’人工智能系統在玩家排行榜中排名前10%——但沒能訓練它誠實地獲勝。”
其他人工智能系統則具有在撲克遊戲中虛張聲勢的能力,或在戰略遊戲“星際爭霸2”中為了擊敗對手而假裝攻擊的能力,以及為了在談判遊戲中佔上風而歪曲偏好的能力等。
研究人員表示,雖然人工智能系統在遊戲中作弊似乎是無害的,但它可能會導致“欺騙性人工智能能力的突破”,並在未來演變成更高級的人工智能欺騙形式。
帕克說:“我們需要盡可能多的時間,為未來人工智能產品和開源模型可能出現的更高級欺騙做好準備。我們建議將欺騙性人工智能系統歸類為高風險系統。” |