深度合成技術的應用,破壞了肖像與主體的同一性。一方面,面部形象的主人有權拒絕將其面部移轉至他人身體形象中;另一方面,身體形象的主人亦應有權利拒絕其身體形象被冠以他人之面目,這均是由肖像權的絕對性、專屬性、排他性等權利特征所決定的。與此同時,“換臉”等深度合成技術需要獲取大量人臉圖像中的特征數據信息,包括五官、表情等內容,而人臉信息屬於個人信息保護法予以特殊保護的生物識別信息。法律對於人臉識別信息等緊密依附於身體、直接體現個人身體特征和行為特征,對人身具有直接指向性的敏感個人信息予以特別保護。據此,深度合成服務提供者提供人臉等生物識別信息編輯功能時,必須具有特定的目的和充分的必要性,采取嚴格保護措施,并取得被編輯的個人信息主體的單獨授權。
需要指出的是,技術中立并不意味著價值中立,特別是開發、應用者的價值中立,更不等於深度合成的參與者不應當受到來自法律的規制、道德倫理的約束。算法的獨特性質,如不透明性、歧視性和歸責困難的特征確需法律對其進行特殊規制。概而言之,應當在場景化思維下著重把握算法設計、算法應用和救濟三個階段。在算法設計時,建立評估備案制度,并將技術倫理和道德倫理嵌入算法開發、設計,使算法開發、設計時就兼備人情與法理。在算法應用時,提高算法的透明度,刺破算法籠罩的神秘面紗,并充分保護個人信息、數據權益。在救濟階段,應構建、強化算法問責機制,使算法問責過程兼具救濟與懲戒。 |