多措並舉推動人工智能倫理審查落到實處
人工智能領域的倫理審查是一項新事物,要求科技活動的承擔者、倫理委員會委員和工作人員、參與復核的專家和其他工作人員等參與《審查辦法》實施的人員認真學習、深刻理解《審查辦法》及其他相關政策規定,掌握背景知識,不斷在實踐中提高倫理審查的能力。
首先,要提高參與《審查辦法》實施的人員對人工智能的認識水平。當前,人們對於人工智能的認識仍存在不少誤區,不少人錯誤地認為人工智能與人類智能是本質相同的,只是程度不同而已,為此認為對人的管理、教育方法也適用於人工智能。這種誤解、誤判會嚴重地干擾人工智能治理。“人工智能之父”麥卡錫等人首次使用了“人工智能”一詞,並明確指出,“AI的大部分工作是研究世界對智能提出的問題,而不是研究人或動物。AI研究者可以使用人沒有或人不能使用的方法,即使這些方法主要涉及計算”。由此可見,在人工智能倫理審查中務必根據數據、模型、算法、平台等AI技術要素的實際特性,作出客觀的判斷,而不能混淆人工智能與人類智能。
其次,根據倫理審查的人才現狀和工作需要,亟須加強科技倫理審查人才隊伍的培養,以滿足現階段的迫切需要。要從更長期的需要出發,加大力度,通過學校教育、進修培訓等方式,培養一大批科技倫理治理的專業人才。
再次,落實《審查辦法》必須從全局觀點出發,清單管理是重中之重,應根據人工智能研究和應用的發展情況和治理需要,對清單進行及時調整,並就調整內容及時發布相關說明和實施指導。另外,有條件的地區、行業和單位,應加快啟動倫理審查工作,及時總結經驗教訓,發揮示範和引領作用。還需加強《審查辦法》實施過程中相關經驗的信息共享,以提高全國範圍內倫理審查的效率和效能。
最後,針對滯後性挑戰和人工智能的特點,建議開設一個新的研究方向——人工智能可控性研究。以往的研究主要針對工程可靠性,而對人工智能來說,這是遠遠不夠的,有必要從基礎理論、模型、算法、數據、平台等各個角度,對人工智能的可控性展開全面研究。同時,需要積極探索人工智能在相關領域的倫理效應和潛在風險,增強我國對人工智能等科技活動的風險預測和防範能力。
(作者系中國人工智能學會人工智能倫理與治理工委會主任) |