提供者有記錄保存義務。在人工智能系統投放市場或者投入使用之日起的10年內,提供者應保存技術資料、質量管理系統相關文件等以備檢查。依照與用戶的協議或法律規定由其控制高危人工智能系統自動生成的日志的,則提供者有義務保存上述日志。保存期限根據高危人工智能系統的預期使用目的、歐盟或成員國的法律規定予以確定。在投放市場或投入使用前,提供者應依法向歐盟委員會在成員國協助下設立的歐盟數據庫申請登記。歐盟數據庫應只包含根據本條例收集和處理信息所必要的個人數據。這些信息應包括負責註冊系統的以及有權代表供應商的自然人的姓名和聯繫方式。倘若提供者認為或有理由認為其投放市場或投入使用的高風險人工智能系統不符合規定,應立即採取必要的糾正措施,酌情撤回或召回。他們應告知有關高風險人工智能系統的經銷商,並在適用時告知授權代表和進口商。
4.人工智能發展違法必究
一旦草案獲得批准,成員國應根據相關規定和條件制定相應罰則,採取必要措施確保這些規定得到適當和有效的執行。所規定的處罰應是有效的、相稱的和教育性的,並應特別考慮到小規模提供者和初創公司的利益和經濟生存能力。
草案規定,提供者違反有害的人工智能禁止性規定和數據治理義務的,可以處以最高3000萬歐元的罰款或全球年營業額的6%(以較高者為准);高風險人工智能系統的使用違反其他規定的,可以處以最高2000萬歐元或營業額的4%的罰款;向成員國主管機構提供不正確、不完整或具有誤導性的信息,將被處以最高1000萬歐元或營業額2%的罰款。
草案規定,歐盟機構、機關違反有關禁止性人工智能和數據治理義務規定的,可以處以最高50萬歐元的行政罰款;違反其他規定的,可以處最高25萬歐元的罰款。
草案試圖在促進人工智能的發展和利用與歐盟價值觀和基本權利保障之間尋找平衡:首先,其對人工智能採取了較確切的定義並對禁止的和高風險人工智能系統作了詳細的規定,課予提供者較大的義務,並對包括歐盟機構、機關在內的義務主體設定了高額的罰款,可以在較大程度上確保人工智能的發展和利用不至於嚴重損害歐盟價值觀和基本權利;其二,前述規定同時也構成了對歐盟和成員國的限制,非有授權其不得干預和限制人工智能的發展和利用,並要求在適用相關罰則時,應考慮小規模提供者和初創公司的利益和經濟生存能力,這為人工智能的發展預留了一定空間;同時,為保護重要的公共利益和個人權利,草案對公權力機關,尤其是執法機關使用的人工智能系統預留了較多空間,並對訴諸禁止的人工智能系統的例外情形作了規定,這可以確保公權力職能的實現。
|