中評社北京3月15日電/在2015年的一次網絡問答中,霍金指出人工智能可能會成長到非常強大的程度,甚至可能在完全無意的情況下毀滅人類。
新浪科技訊 北京時間3月15日消息,據國外媒體報道,斯蒂芬·霍金近日警告稱,技術的發展需要得到控制,以阻止其毀滅人類。在此之前,這位世界知名的物理學家就曾警告過人工智能的危險。他認為,人類必須找到一種方法,在重大破壞造成之前迅速發現所面臨的威脅。
“從文明開始之時,侵略就一直是很有用處,因為它有著絕對的生存優勢,”霍金說,“通過達爾文式的演化過程,侵略性深深根植於我們的基因之中。然而,如今的技術發展已經加快到了某種程度,使這種侵略性可能會以核戰爭或生物戰爭的形式毀滅人類。我們需要用邏輯和理性來控制這種與生俱來的本能。”
不過,霍金也表示,儘管人類面臨著各種各樣的問題,但依然有希望存活下去,而這需要我們所有人都一起努力。“我們需要更快地認識這些威脅,並在它們失去控制之前採取行動。這可能意味著需要建立某種形式的世界政府,”霍金說道。
世界政府可能也會產生各種各樣的問題。“(世界政府)可能會變成一種暴政,”霍金說,“所有這些聽起來似乎是在說人類已經在劫難逃,但我是一個樂觀主義者。我認為人類將奮起應對這些挑戰。”
在2015年的一次網絡問答中,霍金指出人工智能可能會成長到非常強大的程度,甚至可能在完全無意的情況下毀滅人類。“人工智能的真正威脅並不在於它們的惡意,而是它們所具有的能力,”霍金說,“一個超級聰明的人工智能在完成目標時具有極強的能力,而一旦這些目標與我們人類不一致,那我們就有麻煩了。”
他繼續說道:“你可能並不是一個討厭螞蟻的人,但也會無意中踩死螞蟻,而如果你負責一個水力發電的綠色能源項目,項目所在的區域內也可能會有許多螞蟻巢穴被水淹沒,對螞蟻來說就非常不幸。我們要避免人類處於這些螞蟻的境地。”
特斯拉公司的首席執行官伊隆·馬斯克也提出了類似的觀點,他曾警告稱,人工智能的發展必須受到控制。“隨著時間推移,我認為我們可能會看到生物智能和數字智能出現更加密切的融合,”馬斯克說道。他還提出,人類在未來可能會與機器實現結合,以跟上人工智能的發展步伐。
(來源:新浪科技) |