中評社北京8月3日電/在公眾對人工智能(AI)、隱私和數據使用的擔憂日益加劇之際,計算機學家Brent Hecht提出了一個有爭議的提議:計算機學界應該改變其同行評議程序,以確保研究人員在論文中披露其成果存在的任何潛在社會負面影響,否則就會面臨被拒稿的風險。
Hecht現為未來計算機科學院(FCA)主席,該學院由一群計算機領域的年輕領導者構成,他們在今年3月得出了這項提議。Hecht說,如果不採取這些措施,計算機學家就會盲目地開發產品而不考慮其影響,這一領域將會面臨像石油和煙草行業一樣的風險,歷史對該行業的評判將會不利。
FCA是美國紐約計算機協會(ACM)的一部分,這是世界上最大的科學計算協會。該協會也在作出改變以鼓勵研究人員考慮社會影響:7月17日,它發布了最新版的倫理規範(上一次修訂是在1992年)。該規範呼籲研究人員警惕其工作會如何影響社會,逐步採取措施保護隱私,不斷重新評估隨著時間發展其影響會發生改變的技術,比如基於機器學習的技術。
現在伊利諾伊州西北大學工作的Hecht近日在接受採訪時談到了該群體建議的裨益。Hecht表示,當一個同行評審員收到遞交給一本期刊或一個會議的論文時,他們會被要求評估其學術嚴謹性。“我們認為,這應該包括作者對相關影響的認識的學術嚴謹性。”他說,“這個想法並不是要預測未來,而是基於該文本資料分析該技術潛在的負面效應,或是意想不到的使用結果。”
“這聽起來似乎沒有多麼重要。”Hecht說,“但因為同行評審員是所有學術領域計算機科學研究的把關者,因此我們討論的是把關者是如何打開大門的。”
來源:《中國科學報》
|