中評社北京7月13日電/作為新一輪科技革命和產業變革的重要驅動力量,人工智能正在深刻影響社會生活、改變發展格局。同時,人工智能如同一把“雙刃劍”,如果應用不當,就可能帶來隱私洩露的倫理風險。如何在人工智能應用中兼顧隱私保護,確保安全、可靠、可控,是一項亟須關注的倫理課題。
人工智能應用存在隱私洩露的倫理風險。人工智能應用需要以海量的個人信息數據作支撐。數據是人工智能的基礎,正是由於大數據的使用、算力的提高和算法的突破,人工智能才能快速發展、廣泛應用,並呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等新特征。人工智能越是“智能”,就越需要獲取、存儲、分析更多的個人信息數據。可以說,海量信息數據是人工智能迭代升級不可缺少的“食糧”。獲取和處理海量信息數據,不可避免會涉及個人隱私保護這一重要倫理問題。今天,各類數據信息采集無時不有、無處不在,幾乎每個人都被置於數字化空間之中,個人隱私極易以數據的形式被存儲、複制、傳播,如個人身份信息數據、網絡行為軌跡數據以及對數據處理分析形成的偏好信息、預測信息等。可以預見,在不遠的未來,越來越多的人工智能產品將走進千家萬戶,在給人們生活帶來便利的同時,也會輕易獲取更多有關個人隱私的數據信息。借助獲取的數據信息,基於日益強大的數據整合、處理能力,人工智能技術可以為用戶精准“畫像”,而其中就潛藏著不容忽視的隱私洩露風險。如果人工智能應用得不到合理管控,人類將被置於隱私“裸奔”的尷尬境地,從而產生嚴重的倫理風險。
人工智能應用與隱私保護並非不可兼得。儘管人工智能應用在一定程度上存在隱私洩露的風險,但這並不意味著它與隱私保護之間是絕對對立的關係。一方面,人工智能應用決不能以隱私洩露為代價。隱私權不容侵犯,它既是公民的基本權利,也是社會文明進步的顯著標誌。有效保護隱私有利於人們維護人格尊嚴、保持心情舒暢,有利於促進人的全面發展。人工智能技術無論如何發展、發展到什麼程度,歸根結底都是為了輔助人、服務人,為使用者提供便利,而不能成為肆意損害人格權利、惡意洩露個人隱私的工具。這是人工智能應用必須堅守的底線,否則人工智能技術就會失去價值,也難以走遠。另一方面,不能因為存在隱私洩露的倫理風險,就延緩甚至放棄人工智能應用。目前,人工智能應用得到世界主要國家的高度重視,被認為是科技創新的下一個“超級風口”,具有溢出帶動性很強的“頭雁”效應。在一定程度上講,誰把握住了人工智能技術,誰就把握住了未來。加快發展新一代人工智能技術,是我國發展必須牢牢抓住的寶貴機遇。我們既要有效防範倫理風險,又要加快人工智能技術發展。事實上,人工智能應用與個人隱私保護之間並不是非此即彼的關係,完全可以通過多種手段從倫理層面對人工智能應用加以正確引導,將隱私洩露的風險降至最低。作為一種新興技術,人工智能本身並無善惡、對錯之分,關鍵在於使用者能否在符合倫理規範的前提下對其進行正當應用。隱私洩露現象是人工智能應用不當導致的,從深層看則大多是利益驅動的結果。所以,不能將隱私洩露簡單歸為技術層面的問題,也不能簡單歸咎於人工智能。
在推進人工智能應用中加強隱私保護。習近平同志強調,要加強人工智能發展的潛在風險研判和防範,維護人民利益和國家安全,確保人工智能安全、可靠、可控。在人工智能應用中加強隱私保護,需要加強人工智能應用的風險研判和防範,綜合運用技術創新、倫理規範、法律制度等手段方式,防止其“野蠻生長”,確保在符合倫理規範的前提下實現人工智能健康發展。在技術層面,要加快研發和應用隱私保護的安全技術,可將用戶隱私保護需求嵌入人工智能系統設計中,讓最大限度保護隱私成為系統的默認規則。在倫理層面,要探索和確立保護個人隱私的原則。2019年6月17日,我國新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,要求人工智能發展應尊重和保護個人隱私,充分保障個人的知情權和選擇權。人工智能從業人員要樹立社會主義核心價值觀,加強自律,規範技術應用的標準、流程、方法,最大限度尊重和保護個人隱私。在法律層面,應加快制定加強隱私保護的法規制度。當前,我國隱私保護法律體系還不能完全適應人工智能發展需求,應在相關法律法規中進一步強化隱私權保護,並在條件成熟時制定針對人工智能應用中保護公民隱私的法律條文細則,充分保障公民在人工智能應用中的知情權和選擇權,嚴格規範人工智能應用中個人信息的收集、存儲、處理、使用等程序,反對竊取、篡改、洩露和其他非法收集利用個人信息的行為。
來源:人民日報 作者:楊明(南京藝術學院教授、江蘇省倫理學會執行會長)
|