挪威資料保護主管機關推出監理沙盒,協助人工智慧的開發

挪威資料保護主管機關Datatilsynet日前宣布政府已提撥300萬克朗以啟動監理沙盒(Regulatory Sandbox),為人工智慧(Artificial Intelligence, AI)開發提出良好的解決方案。挪威並不是第一個提出類似構想的國家,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於去年便針對資料保護設置監理沙盒,目前已有十家組織參與該監理沙盒試驗階段。而印度最近所提出個人資料保護法修法草案也明文將監理沙盒納入其中,希望針對人工智慧等新興科技設立一個監理沙盒,以鼓勵人工智慧、機器學習(Machine-learning)或其他符合公共利益之新興科技的創新。

什麼是監理沙盒?

對於希望在政府監督下嘗試新產品,技術和服務的組織而言,監理沙盒是一個安全的測試環境。組織可以透過監理沙盒對相關法律規定有更多的瞭解,而主管機關也將對創新科技的技術有更多的認識,而可以輕鬆得識別風險或其他問題。

監理沙盒的目的?

挪威資料保護主管機關表示,監理沙盒總體目標是促進道德和負責任的人工智慧創新。人工智慧開發與實施的成功關鍵,取決於社會大眾對於系統的安全性、公平性與對個人資料的正確處理具有信心。儘管可能很多人認為隱私與創新是互斥的概念,然而恰恰相反,缺乏嚴格的隱私保護才會阻礙創新的腳步。因此,依照隱私保護法規開發人工智慧系統將有助於大眾對於該技術的信心。

監理沙盒中會發生什麼?

組織可以在監理沙盒框架內,接受挪威資料保護主管機關的指導以開發創新服務,監理沙盒不會賦予組織就資料保護法規的豁免,但能夠於項目開發階段中豁免相關執法措施。

監理沙盒將會開放予利用個人資料開發創新產品與服務的企業,且必須證明其產品與服務具有公共利益。

挪威資料保護主管機關表示,企業透過參與監理沙盒,將可以瞭解隱私法規要求,協助企業縮短從開發、測試到實際於市場運行的時間,同時參與監理沙盒的企業也會作為範例,藉此幫助其他開發類似產品或服務的公司。

我國資料保護監理沙盒芻議

我國目前於金融科技發展與創新實驗條例與無人載具科技創新實驗條例的監理沙盒中,雖然對於資訊安全措施與個人資料保護等面向有相關規定,然而考量未來所面臨到個人資料創新利用的產業恐怕不會只侷限於金融科技或無人載具的創新,因此我國未來或許可考慮一個全面的資料保護監理沙盒,作為平衡產業創新與隱私保護的工具。

※歡迎按讚、追蹤還有分享喵喵科技法律隨筆的粉絲團!

※你可能會對這些文章有興趣
1.揭開黑箱,說清楚講明白—可解釋性AI人工智慧
2.不如換AI當法官試試看?
3.投資個資保護的價值?
4.加拿大隱私專員辦公室提出AI監管方案
5.紐約SHIELD ACT

揭開黑箱,說清楚講明白—可解釋性AI人工智慧

自人工智慧(Artificial Intelligence, AI)這個名詞出現以來,其前景總是讓人著迷,不須要人類自己動手,AI就能代替人類解決問題。然而,AI是如何決策,他的思路為何,就像一個黑箱,人類似乎只能得知結果卻無法知悉理由,如果一個AI人資專員通知你未被錄取、未獲晉升或是被解雇,他是否能夠提供一個可以信服的理由呢?近日台大亦表示已打造可解釋性人工智慧(Explainable AI, XAI),聲稱可以解釋AI結果產生的原因,以提升人類對於AI的信賴度。

然而,所謂的可解釋性AI到底須要解釋些什麼?2020年5月20日,英國資訊委員辦公室(Information Commissioner’s Office, ICO)與圖靈研究所(Alan Turing Institute, Turing)便基於英國政府2018年4月的人工智慧領域協議(AI Sector Deal)的承諾發布「解釋AI決策(Explaining decisions made with AI )」的指引。

AI與相關法律

該指引提到,AI往往涉及個人資料的利用,例如將大量個人資料用於訓練與測試AI模型、AI運作時也會蒐集大量個人資料並透過模型進行決策,甚至其作成與個人有關的決策,即使僅僅是預測或推論,仍然也可能屬於個人資料,而有英國資料保護法(DPA 2018)與歐盟一般資料保護規則(GDPR)的適用。

GDPR甚至賦予個人知悉權(第13條與第14條)、近用權(第15條)、反對權(第21條)、於自動化決策時得要求人為介入的權利(第22條)以及課予組織必須進行資料保護影響評估(Data protection impact assessments, DPIAs)的義務,同時組織還必須遵循GDPR所謂的公平性(Fairness)、透明性(Transparency)與問責性(Accountability)等原則。

另外組織在使用AI進行決策,也必須確保過程中符合英國平等法(Equality Act 2010),避免關於年齡、身心障礙、性別、婚姻、懷孕與產假、種族、宗教信仰、性別與性傾向等的歧視、騷擾或傷害,我國類似法律則規定於就業服務法與性別工作平等法等法令內。

關於AI的解釋

指引內表示,所謂解釋,依照劍橋詞典是指「某人給出明確或易於理解的細節或原因。」在關於AI的解釋,主要可分為「過程導向(process-based)」與「結果導向(outcome-based)」的解釋。在過程導向的解釋,主要是證明在整個AI設計與使用過程中均遵循良好的治理流程與最佳實施指引,而結果導向的解釋則是澄清特定決策的結果,以用易懂的方式解釋演算法所產生結果背後的原因,其關於AI的解釋項目與背後原理原則大略可整理如下。

透明(Be transparent)

  • 基本原理(Rationale)
    1. 模型產生結果背後的邏輯與理由。
    2. 哪些輸入特徵(input features)、參數(parameters)與相關性(correlations)對模型的計算結果扮演重要因素,以及如何產生影響。
    3. 如何以易於理解的原因說明模型輸出所依據的技術原理,使受影響的個人或其代理人進行合理評估。
    4. 如何將統計結果應用於對個人決策的特定情形。
  • 資料(Data)
    1. 使用哪些資料來訓練模型。
    2. 使用的資料來源。
    3. 如何確保所使用資料的品質。

可問責(Be accountable)

  • 責任(Responsibility)
    1. 在AI設計到部署的每個階段,由何人負責。
    2. 有何問責機制。
    3. 如何於項目中,讓設計與實施過程可追溯(traceable)與可審核( auditable)。

考量情境(Consider context)

考量AI使用的場景、情境與潛在的影響,以提供合適的解釋與說明。以AI招募輔助系統(AI-assisted recruitment)為例,組織可能須要優先考慮AI基本原理與責任的解釋,向個人告知該招募決策的負責人以及作出決策的理由,同時考量人資與招募的情境,偏見與歧視將是主要關注的議題與潛在影響,因此組織須要向個人說明AI系統所涉及的風險以及組織如何減輕該等風險,使個人瞭解其是否受到公平對待以及該決定是否合理。

對於影響的反思(Reflect on impacts)

  • 公平(Fairness)
    1. AI系統的輸出是否具有歧視性影響。
    2. 是否已將防止歧視與減輕偏見的目標充分落實於系統的設計與實施中。
    3. 是否將決定結果的公平性標準納入系統中,並事先向個人說明這些標準。
    4. 該模型是否已防止歧視性損害(discriminatory harm)。
  • 安全與性能(Safety and performance)
    1. 在運行時,AI系統是否安全且技術上可持續運作。
    2. 系統的操作完整性(operational integrity)是否值得公眾信任。
    3. 是否使用足以確保其安全、準確、可靠與健全的方式設計、驗證與確認模型。
    4. 是否已採取足夠措施以確保系統遇到出乎意料的變化、異常與干擾時能可靠得依照設計者的預期運作。
  • 衝擊影響(Impact)
    • 從AI模型的設計到開始部署與結束使用,是否已經充分考量對個人與社會大眾福祉的影響。

該指引內強調,落實AI決策解釋將為組織帶來法令遵循、信任、內部治理等好處,同時也會使個人與社會大眾瞭解AI的使用,促進AI作成更好的結果,並使人類社會得以蓬勃發展。

※你可能還會對這些文章有興趣:
1.不如換AI當法官試試看?
2.加拿大隱私專員辦公室提出AI監管方案
3.投資個資保護的價值?

不如換AI當法官試試看?

每當社會對重大案件不滿的時候,例如最近的殺警案件,網路上便會浮現一種聲音,何不讓人工智慧(Artificial Intelligence, AI)來審判案件呢?一定會更公平,世界也會更美好吧?

在國外,儘管愛沙尼亞(Estonia)僅有132萬的人口,然而作為全球數位化程度最高的國家,其致力於提升政府的數位化程度,透過科技改善政府效能。愛沙尼亞的司法部(the Estonian Ministry of Justice)要求該國資料長(Chief data officer)Ott Velsberg及其團隊打造「機器人法官(robot judge)」,預計將用於處理低於8,000歐元(約新台幣26萬元)小額金錢紛爭,藉此減少法官與書記官的積案。根據外媒指出,由該機器人法官所作成的裁判將具法律拘束力,但仍然可以向人類法官提起上訴。

除了愛沙尼亞,中國大陸美國等各國家都開始嘗試將AI運用於司法系統,然而由AI當法官,是否會作出符合「民意」的判決呢?

以我國司法院殺人案件量刑資訊系統為例,其所查詢的判決資料僅有民國91年度至104年度,如果勾選「刑法第271條第1項殺人罪」、「犯罪方法:刺殺」、「犯罪工具:刀械、銳器類」與「被害人數:成年人 1 人」等量刑因子,將可查詢到199筆資料,其中有141件有期徒刑(平均刑度為13年5月)、50件無期徒刑與8件死刑。

如果再另外勾選「行為人與被害人關係:殺害員警或其他執行公權力之人」,則僅剩下1件無期徒刑,倘再繼續勾選「加重減輕:刑法第 19 條第 2 項精神障礙或心智缺陷之減刑」(該量刑資訊系統並未有刑法第19條第1項的選項可勾選),則無前例可循。

而司法院在107年12月21日所公布的「量刑趨勢建議系統」,宣稱「該系統將量刑資訊系統中之判決資料,透過統計迴歸方法,分析各種犯罪之刑度,及各種量刑因子對於刑度之影響力大小,並邀集審、檢、辯、學、相關政府機關及民間組織,組成焦點團體,深度討論藉由分析判決所得之量刑因子及影響力大小,予以適度修正調整,作成量刑趨勢建議系統。」。如果透過該量刑趨勢建議系統,針對刑法第271條第1項 殺人既遂罪,勾選其中所有的加重事由為「是」,其餘減輕事由均為「否」的話,則建議刑度為「有期徒刑20年」,如此結果是否會是社會所期待的公平與正義?

目前AI的系統,是基於機器判讀過往判決資料學習而來,如果在沒有資料可以參考的時候,AI該如何判斷?而在資料庫內有141件有期徒刑、50件無期徒刑與8件死刑的情形下,AI又該如何判斷?當AI作不出符合社會期待的判決,又該如何?

未來AI或許會足夠聰明到可以取代人類,然而以目前來說,如果將AI運用於司法判決,AI的演算法是由人類工程師所撰寫,AI所學習的判決資料是由人類法官所作成,AI判決的法律依據也是由人類所選出的立法者所立法,讓AI當法官所作成的判決,是否真的能夠符合社會的期待的公平正義,未來仍然值得觀察其發展。

然而,如果將法官依照法律作成的判決比喻為AI依照演算法與程式碼運行所得出的結果,當認為程式結果有問題的時候,除了審視AI是否出了問題外,是否還要由工程師檢視其背後演算法與程式碼的bug呢?

※延伸閱讀
1.精神疾病與刑法第19條是脫罪免死金牌?
2.加拿大隱私專員辦公室提出AI監管方案

華盛頓州州長簽署臉部辨識法案

華盛頓州(Washington state)州長Jay Inslee於今(2020)年3月31日簽署一項臉部辨識法案(ENGROSSED SUBSTITUTE SENATE BILL 6280, AN ACT Relating to the use of facial recognition services.)。

該法旨在針對建立臉部辨識(facial recognition)的透明度與問責機制,要求州與地方政府機關(state and local government agencies)在保障公民自由權利的前提下使用臉部辨識服務,以保障公眾權利。

法案重點

  • 該法要求州與地方政府機關使用或打算開發(develop)、採購(procure)或使用(use)臉部辨識服務時,必須向議會等立法機關(legislative authority)提交意向通知,說明使用的目的與技術。
  • 在開發、採購與使用臉部辨識服務前,州與地方政府機關必須作成問責報告(accountability report),並應於報告內說明該臉部辨識服務的名稱、廠商與版本、資料處理過程、資料管理政策(data management policy)與潛在衝擊等事項,且須定期更新與向立法機關報告。
  • 州與地方政府機關針對個人使用臉部辨識系統以作成具法律效力或類似決定(例如導致提供或拒絕金融、借貸服務、居住、保險、教育註冊、刑事司法、就業機會、健保、取得民生必需品或其他影響個人基本權利)時,必須確保該決定經過有意義的人工審查(meaningful human review)。
  • 州與地方政府機關原則不得利用臉部辨識服務進行持續性監視(ongoing surveillance)、實時或類似實時辨識(real-time or near real-time identification)、持續性追蹤(persistent tracking)。

而州長Jay Inslee也考量預算資金等疑義,針對該法第10條成立相關工作小組部分行使否決權(Veto),要求議會針對預算等項目進行評估,使該工作小組能發揮其應有功能。

加拿大隱私專員辦公室提出AI監管方案

2020年3月13日,加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)考量人工智慧(Artificial Intelligence, AI)已迅速被用於個人資料的大量處理與分析,透過AI進行與個人有關的決策或預測,可能伴隨著隱私、偏見與歧視風險。然而目前加拿大個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)就AI的規範仍有諸多不完備的地方,加拿大隱私專員辦公室提出以下方案,並歡迎各界提供相關意見:

  1. 明確定義AI,並針對AI制定特別規範
  2. 在法律中採用以權利為基礎的方法(rights-based approach)
  3. 賦予個人拒絕自動決策的權利,個人有權拒絕僅基於自動化處理的決定
  4. 當個人與自動化處理程序互動,或成為其客體情形時,賦予個人請求說明的權利,並提高自動化處理程序的透明度
  5. 要求在個人資料處理的所有階段(包含蒐集),適用從設計著手隱私保護與人權保護(Privacy by Design and Human Rights by Design)。
  6. 要求確實有效遵循目的特定與資料最小化原則(purpose specification and data minimization principles)
  7. 當實際上無法取得有效同意時,提供其他處理的合法事由與隱私保護解決方案
  8. 建立靈活運用去識別化的資料之規範,同時確保加強措施以防止再識別化。
  9. 要求組織確保資料與演算法的可追溯性(traceability),包含在AI系統生命週期內所產生的資料集(datasets)、流程(processes)與決策(decisions)等相關事項
  10. 對AI處理的開發與實施要求可證明(demonstrable)的問責機制
  11. 法律授權加拿大隱私專員辦公室向違反法律的組織發布具有拘束力的命令與裁罰