2020年3月13日,加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)考量人工智慧(Artificial Intelligence, AI)已迅速被用於個人資料的大量處理與分析,透過AI進行與個人有關的決策或預測,可能伴隨著隱私、偏見與歧視風險。然而目前加拿大個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)就AI的規範仍有諸多不完備的地方,加拿大隱私專員辦公室提出以下方案,並歡迎各界提供相關意見:
- 明確定義AI,並針對AI制定特別規範
- 在法律中採用以權利為基礎的方法(rights-based approach)
- 賦予個人拒絕自動決策的權利,個人有權拒絕僅基於自動化處理的決定
- 當個人與自動化處理程序互動,或成為其客體情形時,賦予個人請求說明的權利,並提高自動化處理程序的透明度
- 要求在個人資料處理的所有階段(包含蒐集),適用從設計著手隱私保護與人權保護(Privacy by Design and Human Rights by Design)。
- 要求確實有效遵循目的特定與資料最小化原則(purpose specification and data minimization principles)
- 當實際上無法取得有效同意時,提供其他處理的合法事由與隱私保護解決方案
- 建立靈活運用去識別化的資料之規範,同時確保加強措施以防止再識別化。
- 要求組織確保資料與演算法的可追溯性(traceability),包含在AI系統生命週期內所產生的資料集(datasets)、流程(processes)與決策(decisions)等相關事項
- 對AI處理的開發與實施要求可證明(demonstrable)的問責機制
- 法律授權加拿大隱私專員辦公室向違反法律的組織發布具有拘束力的命令與裁罰
對「加拿大隱私專員辦公室提出AI監管方案」的一則回應
迴響已關閉。