CNIL對遭受憑證填充攻擊的資料控制者與資料處理者處以225,000歐元罰款

法國資料保護主管機關CNIL(Commission Nationale de l’Informatique et des Libertés, CNIL)於2021年1月27日分別對某資料控制者(Data Controller)及其資料處理者(Data Processor)2間公司分別處以150,000歐元與75,000歐元(共225,000歐元,約新臺幣756萬元)的罰款,理由是因為其未能採取充分的適當安全措施,導致資料控制者所經營網站的客戶個人資料遭受憑證填充攻擊(credential stuffing attacks),以致於資料外洩。

在2018年6月至2020年1月期間,CNIL收到數十份與網站相關的個人資料外洩通報,CNIL指出該網站遭受到無數次的憑證填充攻擊。

憑證填充攻擊,攻擊者通常使用因為資料洩漏而遭公布在網路上的帳號密碼,並藉由機器人以自動化方式嘗試登入網路服務。假設使用者經常在不同的網路服務中使用相同的帳號與密碼,則攻擊者使用憑證填充攻擊,嘗試與網路服務進行大量連接,身份驗證成功後,攻擊者將可以查看與帳戶相關的資訊。

CNIL表示,攻擊者因此取得該網站會員姓名、電子郵件地址、出生日期、會員卡的餘額以及與訂單相關的資訊。CNIL認為該兩間公司未能履行歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第32條規定的保護客戶個人資料安全義務。

儘管公司開發一種工具用偵測與組織來自機器人的攻擊,但是該工具的開發距離第一次攻擊長達1年的時間。CNIL認為,公司在防止攻擊與減輕衝擊部分,本來可以考慮採取其他更適當的措施,例如:(1)限制網站上每個IP地址允許的存取數量,可以有助於減緩攻擊發生的速度;(2)使用驗證使用者身份機制。 CNIL強調,資料控制者必須決定安全措施的實施,並向資料處理者說明,同時資料處理者也必須尋求最適切的解決方案,將其提供給資料控制者,以確保個人資料保護的落實。

※歡迎加入喵喵科技法律隨筆,持續接收科技法律的新知!

※你可能會對這些文章有興趣
1.揭開黑箱,說清楚講明白—可解釋性AI人工智慧
2.如何落實GDPR法遵?英國ICO發布問責制框架
3.歐盟法院SCHREMS II案與常見問答
4.個資外洩,該怎麼辦?
5.愛爾蘭資料保護委員會強調處理兒童資料的14個基本原則

關於語音助理的幾件事,CNIL的語音助理白皮書告訴你

不論是Apple HomePod還是Google Nest Audio,語音助理在智慧家庭中的角色越來越重要,不管是想要知道天氣、行事曆或是播放音樂,只要動口不動手,優秀的語音助理都能替你完成。然而,語音助理也會知道你的一切相關資訊。

法國個人資料保護主管機關「國家資訊自由委員會(Commission Nationale de l’Informatique et des Libertés, CNIL)」在2020年12月16日發布語音助理(voice assistants)白皮書「On the record」,指出由於語音助理在智慧手機、汽車甚至是冰箱等產品已經成為一種必需品,為了探求語音助理所涉及的倫理、技術與法律議題,CNIL透過與眾多研究人員與專家的合作,發表了該份白皮書。

該份白皮書旨在為設計師(designers)、應用程式開發人員(application developers)、整合人員(integrators)與期望推出語音助理的組織提供領先的隱私保護實踐指引,強調聲音是屬於個人的生物特徵(biometric characteristic of individuals),因此語音助理的設計必須符合透明性與安全性,以符合歐盟一般資料保護規則(General Data Protection Regulation, GDPR)與保護個人隱私。白皮書還提供使用者如何實施良好安全措施的建議,例如確保資料傳輸的機密性,或保護可能與這些設備互動的兒童。

對於語音助理的使用者,CNIL強調除了喚醒的條件與資訊、可用的服務、安全措施等條件的選擇之外,最重要的是認識到這些設備所伴隨的挑戰,使用者應該注意下列五點事項:

一、確保交流的機密性

※選擇使用的設備

1.與進行遠距資料處理(remote processing)的設備相比,優先使用進行本機資料處理(local data processing)的設備。

2.選擇配備物理式麥克風靜音的設備。

3.選擇透過手動按壓啟動而非透過喚醒詞來啟動的設備,這將會讓使用者對於啟動時間有更多控制。否則,請優先考慮啟動與結束時會發出訊號的設備,並於設定語音助理時啟動該功能。

※關於設備的使用

1.如果你不想讓別人聽到你的對話,在設備允許的情形下,關閉基於改善產品對你的互動進行分析的功能。

2.如果你不想分享技術資料,關閉基於改善產品對你的互動進行分析的功能。

3.如果你不想被語音助理聽到,可以將其關閉或靜音。

4.通知第三方(訪客、家事清潔人員)關於對話錄音的潛在風險,或關閉/靜音設備的麥克風。

5.相對的,如果你待在一個有語音助理的地點,如果你不想被錄音,可以要求擁有者關閉設備/拔掉插頭。

6.當嵌入專用設備時,請將語音助理放在顯眼且對所有人可見的位置。

7.定期檢查使用者帳戶中記錄資料的歷史紀錄,並刪除機敏資料。

二、個人資料將被用來營利

1.留意你在裝置前所說的內容可能會被用來建立關於你的廣告資料。

2.選擇不需要建立帳戶即可使用的設備。

3.如果功能允許,選擇使用「私密瀏覽」模式。

4.考量共享個人資料與敏感性的隱私風險後,再連結到真正有用的助理服務。

5.定期檢查哪些服務與助理連結,並禁用很少或沒有使用的服務。

6.如有任何疑問可以與服務專線聯繫,必要時也可以與主管機關聯繫(即CNIL)。

三、留意沒有螢幕的設備

1.除了透過語音介面進行裝置管理與資料刪除,選擇也能透過螢幕或使用者帳戶進行的設備。

2.定期檢視助理的儀表板以及根據需要自定義其功能,例如選擇使用的預設搜尋引擎或資料來源。

3.可以使用語音助理功能來設定關於本章節內容的小訣竅提醒。

四、監督兒童使用

1.以明確得指導方式說明語音助理的工作方式並示範簡單的設置(例如關閉按鈕)。

2.避免將設備放置在兒童專用區域(臥室、遊戲室等)。

3.監督兒童與設備的互動,當兒童使用設備時,留在房間裡陪伴他使用,當兒童不使用設備時,將其關閉。

4.確保預設情形下,將裝備設置為過濾兒童資料。

5.如果裝備記錄了歷史紀錄,則以尊重兒童隱私的方式查閱相關統計情形與過去的互動情況。

6.定期刪除歷史記錄。

五、預防駭客入侵的風險

1.避免使用無法識別或無法輕鬆識別其來源、設計者、控制者等的設備。

2.謹慎選擇可以由語音助理控制的服務,並避免那些有風險的服務(開門、上鎖或開車)。

3.謹慎安裝與存取合法的應用程式,駭客可以建立惡意軟體來蒐集使用者資料(帳戶、信用卡號碼、密碼、地址或聯繫方式等)。

4.如果設備允許,則透過雙因素身份驗證(例如透過電子郵件或簡訊發送驗證碼)來設置設備或某些敏感應用程式的安全性。

5.仔細選擇與你帳戶相關服務(電子郵件、日曆、銀行帳戶、電話等)的啟動。

6.保護語音助理連接到的網路(尤其是Wi-Fi)。

※歡迎加入喵喵科技法律隨筆,持續接收科技法律的新知!

※你可能會對這些文章有興趣
1.揭開黑箱,說清楚講明白—可解釋性AI人工智慧
2.如何落實GDPR法遵?英國ICO發布問責制框架
3.歐盟法院SCHREMS II案與常見問答
4.個資外洩,該怎麼辦?
5.愛爾蘭資料保護委員會強調處理兒童資料的14個基本原則

愛爾蘭資料保護委員會強調處理兒童資料的14個基本原則

愛爾蘭資料保護委員會(Ireland’s Data Protection Commission)於2020年12月制定針對兒童資料處理方法的基礎概念(Fundamentals for a Child-Oriented Approach to Data Processing)」草案文件,其中納入專門針對兒童的資料保護解釋原則與建議措施,這些原則與措施將提供對於兒童的保護水準,使兒童免於資料處理風險所帶來的影響,該份草案文件的公開諮詢程序至2021年3月31日止,任何人都可以向愛爾蘭資料保護委員會提供相關意見與評論。

值得注意的是,愛爾蘭資料保護委員會也直接向兒童諮詢相關意見,兒童們紛紛提出他們對於資料保護的各種看法,愛爾蘭資料保護委員會也特別於該份文件內呈現出來。

在愛爾蘭,兒童的定義是指未滿18歲的人,與聯合國兒童權利公約(UN Convention on the Rights of the Child, UNCRC)的定義相同,而愛爾蘭資料保護委員會確立組織應遵循的14個基本原則,組織在處理個人資料時應注意對於兒童的保護,為兒童們提供一個比目前更安全、更合適以及更尊重隱私的網路環境,讓孩子們盡情得玩耍、互動、學習與創造。以下是該文件所列出的14個基本原則:

1.一定程度的保護(FLOOR OF PROTECTION)

線上服務提供者(Online service providers)應對所有使用者提供一定程度的保護,除非其採取風險導向的方法(risk-based approach)來驗證使用者的年齡,以將基本原則中所規定的保護措施應用於所有處理兒童資料的行為。

2.明確同意(CLEAR-CUT CONSENT)

當兒童同意處理其資料時,必須是明確、知情且自由得陳述,或給予明確同意。

3.零干擾(ZERO INTERFERENCE)

線上服務提供者處理兒童資料時,應確保追求合法利益的同時,不會對兒童的最佳利益造成干擾、衝突或負面影響。

4.瞭解受眾(KNOW YOUR AUDIENCE)

線上服務提供者應採取措施來識別其使用者,並確保針對兒童或可能被兒童所接觸的服務已制定針對兒童的資料保護措施。

5.每個情景的資訊(INFORMATION IN EVERY INSTANCE)

兒童有權獲得有關處理其自身個人資料的資訊,即便是由父母所代理同意處理的個人資料。

6.針對兒童的透明性(CHILD-ORIENTED TRANSPARENCY)

必須以簡潔、透明、可理解與可接觸的方式提供有關如何使用個人資料的隱私資訊,並應使用兒童易於理解且適合兒童年齡的語言。

7.讓兒童自主行使權利(LET CHILDREN HAVE THEIR SAY)

兒童本身即是資料主體,在任何年齡都擁有與其個人資料有關的權利。愛爾蘭資料保護委員會認為,只有兒童有能力,且符合他們的最佳利益,兒童可以隨時行使這些權利。

8.同意不會改變兒童的本質(CONSENT DOESN’T CHANGE CHILDHOOD)

從兒童或父母/監護人所取得的同意不應作為將所有年齡的兒童當作成年人對待的理由。

9.平台責任(YOUR PLATFORM, YOUR RESPONSIBILITY)

透過數位與線上技術提供或出售服務而獲得收入的公司,對於兒童的權利和自由可能會構成特殊的風險,如果此類公司使用年齡驗證或依靠父母同意進行資料處理,則愛爾蘭資料保護委員會期望公司在關於年齡驗證以及父母同意的驗證方面能夠更加努力。

10.不要拒絕兒童使用者或剝奪其使用體驗(DON’T SHUT OUT CHILD USERS OR DOWNGRADE THEIR EXPERIENCE)

如果公司所提供是提供針對兒童或可能被兒童所接觸的服務,公司不能透過將兒童拒於門外或剝奪使用體驗來繞過公司所應負擔的義務。

11.最小使用者年齡並非藉口(MINIMUM USER AGES AREN’T AN EXCUSE)

設置提供服務的使用者最小年齡不會取代組織遵守歐盟一般資料保護規則(General Data Protection Regulation, GDPR)的資料控制者與對未成年人保護等相關義務。

12.禁止剖繪(PROHIBITION ON PROFILING)

考量兒童的特殊脆弱性(particular vulnerability)與對行為廣告的敏感性(susceptibility to behavioural advertising),因此線上服務提供者不得基於行銷/廣告的目的對於兒童進行剖繪(profile)或針對兒童使用自動化決策(automated decision making),或以其他方式利用其個人資料,除非能夠清楚得說明「如何」以及「為什麼」這樣做符合兒童的最佳利益。

13.實施資料衝擊影響評估(DO A DPIA)

線上服務提供者應進行資料保護衝擊影響評估(Data Protection Impact Assessments, DPIA),以最大程度得降低其服務的資料保護風險,尤其是因為處理個人資料所對於兒童造成的特定風險。兒童的最佳利益原則必須是資料衝擊影響評估的關鍵標準,並且當兩者利益間發生衝突時,兒童的最佳利益必須優於組織的商業利益。

14.融入制度(BAKE IT IN)

定期處理兒童個人資料的線上服務提供者應根據「從設計與預設階段著手資料保護」原則,使其具有一貫的高標準資料保護程度,並將其融入於服務之中。

※歡迎加入喵喵科技法律隨筆,持續接收科技法律的新知!

※你可能會對這些文章有興趣
1.揭開黑箱,說清楚講明白—可解釋性AI人工智慧
2.如何落實GDPR法遵?英國ICO發布問責制框架
3.歐盟法院SCHREMS II案與常見問答
4.個資外洩,該怎麼辦?
5.投資個資保護的價值?

人工智慧與個人資料保護

隨著人工智慧(Artificial Intelligence, AI)技術的進步,AI在零售業、銀行與醫療等各領域都有了驚人的應用,推動了AI技術與資料利用等方面的創新,然而使用AI的組織仍然須持續面對挑戰,例如AI是解決問題的正確方式嗎?AI會產生什麼樣的道德問題?我們如何確定AI的使用是合法的?

儘管AI提供了一個能夠顯著改善社會的機會,然而AI的使用往往也會帶來風險(從AI系統帶來的安全風險到歧視與偏見的風險),而對於組織來說,如何評估AI的使用對資料保護的法令遵循性將會是一大挑戰。

英國個資保護主管機關ICO(Information Commissioner’s Office)於今(2020)年7月30日發布人工智慧與資料保護指引(Guidance on AI and data protection)」,提供設計、架構與實施AI系統的法令遵循路線圖,其內容約略分為以下幾個面向。

AI的問責與治理

在運用得當的情形下,AI將使組織更具效率與創新。但是,AI也對個人的權利與自由以及組織的法令遵循挑戰帶來巨大的風險。

與其他處理個人資料的技術相同,相同的資料保護概念也適用於AI的使用。資料保護法中,透過風險導向的方法要求組織在特定情形下遵守義務並採取適當措施,因此在法令遵循面必須包含評估個人權利和自由的風險,並進而識別、管理和減輕這些風險。

AI系統的合法性、公平性與透明性

首先,AI系統的開發與部署往往涉及針對不同目的以不同方式處理個人資料,組織必須分解每個不同處理操作,並為每個操作確定目的和適當的合法依據,以便遵守合法性原則。

其次,當組織使用AI系統來推斷個人的資料,則為了使處理過程更加公平,組織應確保1.該系統在統計上足夠準確,並且避免歧視,以及2.考慮個人合理期望的影響。

例如用於預測貸款還款率的AI系統在以下情況可能會被認為違反公平原則:
1.作出經常被證明是錯誤的預測。
2.導致群體間(例如男人與女人間)結果的差異,且無法證明是為實現合法目標的適當手段。
3.以個人無法合理預期的方式利用個人資料。

最後,組織需要透明得瞭解如何在AI系統中處理個人資料,以遵守透明性原則。(可以參考揭開黑箱,說清楚講明白—可解釋性AI人工智慧

AI系統的安全性

使用AI處理個人資料對於風險有著重要的影響,因此組織需要仔細評估與管理這些風險。然而,實際上並不存在一種「萬能的」安全方法,組織應針對不同個人資料處理所產生的風險等級與類別,分別採取適當的安全措施。

指引內也提到兩大適用AI模型的隱私攻擊種類,「模型反轉(model inversion)」與「成員推斷(membership inference)」,組織應該檢視自身的風險管理實踐情形,以確保個人資料在AI的使用環境中是安全的。

AI系統的資料最小化

資料最小化原則要求組織確定實現目標所需最小數量的個人資料,並且僅處理該個人資料(GDPR第5條第1項第c款參照)。AI系統通常需要大量資料,乍看之下彷彿難以符合資料最小化原則,然而資料最小化原則並不意謂著「不處理任何個人資料」或「處理大量資料就會違法」,關鍵的地方在於,組織是否僅處理其所需要的個人資料。

AI系統與個人權利

依據資料保護法,當事人對於其個人資料有許多相關權利,無論在AI系統的開發或是部署的生命週期各階段中,均有當事人權利的適用,組織應予以重視,例如以下情形:

  1. 訓練資料(training data)。
  2. 用於預測的資料及預測本身的結果。
  3. AI的模型內。

例如零售業者打算以過去的交易資料來預測消費者行為,需要大量的客戶交易資料集來訓練模型。而在將客戶交易資料轉換用於訓練統計模型的訓練資料時,儘管訓練資料已經較難連結到特定的個人,然而如果其仍然能單獨或與組織可能要處理的其他資料(即使不能與客戶的名字相連結)共同「挑選(single out)」相關的個人,此部分仍有資料保護法的適用,而組織應於當事人行使其權利行使時,將此部分納入考量。

※歡迎加入喵喵科技法律隨筆,持續接收科技法律的新知!

※你可能會對這些文章有興趣
1.揭開黑箱,說清楚講明白—可解釋性AI人工智慧
2.如何落實GDPR法遵?英國ICO發布問責制框架
3.歐盟法院SCHREMS II案與常見問答
4.個資外洩,該怎麼辦?
5.投資個資保護的價值?

挪威資料保護主管機關推出監理沙盒,協助人工智慧的開發

挪威資料保護主管機關Datatilsynet日前宣布政府已提撥300萬克朗以啟動監理沙盒(Regulatory Sandbox),為人工智慧(Artificial Intelligence, AI)開發提出良好的解決方案。挪威並不是第一個提出類似構想的國家,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於去年便針對資料保護設置監理沙盒,目前已有十家組織參與該監理沙盒試驗階段。而印度最近所提出個人資料保護法修法草案也明文將監理沙盒納入其中,希望針對人工智慧等新興科技設立一個監理沙盒,以鼓勵人工智慧、機器學習(Machine-learning)或其他符合公共利益之新興科技的創新。

什麼是監理沙盒?

對於希望在政府監督下嘗試新產品,技術和服務的組織而言,監理沙盒是一個安全的測試環境。組織可以透過監理沙盒對相關法律規定有更多的瞭解,而主管機關也將對創新科技的技術有更多的認識,而可以輕鬆得識別風險或其他問題。

監理沙盒的目的?

挪威資料保護主管機關表示,監理沙盒總體目標是促進道德和負責任的人工智慧創新。人工智慧開發與實施的成功關鍵,取決於社會大眾對於系統的安全性、公平性與對個人資料的正確處理具有信心。儘管可能很多人認為隱私與創新是互斥的概念,然而恰恰相反,缺乏嚴格的隱私保護才會阻礙創新的腳步。因此,依照隱私保護法規開發人工智慧系統將有助於大眾對於該技術的信心。

監理沙盒中會發生什麼?

組織可以在監理沙盒框架內,接受挪威資料保護主管機關的指導以開發創新服務,監理沙盒不會賦予組織就資料保護法規的豁免,但能夠於項目開發階段中豁免相關執法措施。

監理沙盒將會開放予利用個人資料開發創新產品與服務的企業,且必須證明其產品與服務具有公共利益。

挪威資料保護主管機關表示,企業透過參與監理沙盒,將可以瞭解隱私法規要求,協助企業縮短從開發、測試到實際於市場運行的時間,同時參與監理沙盒的企業也會作為範例,藉此幫助其他開發類似產品或服務的公司。

我國資料保護監理沙盒芻議

我國目前於金融科技發展與創新實驗條例與無人載具科技創新實驗條例的監理沙盒中,雖然對於資訊安全措施與個人資料保護等面向有相關規定,然而考量未來所面臨到個人資料創新利用的產業恐怕不會只侷限於金融科技或無人載具的創新,因此我國未來或許可考慮一個全面的資料保護監理沙盒,作為平衡產業創新與隱私保護的工具。

※歡迎按讚、追蹤還有分享喵喵科技法律隨筆的粉絲團!

※你可能會對這些文章有興趣
1.揭開黑箱,說清楚講明白—可解釋性AI人工智慧
2.不如換AI當法官試試看?
3.投資個資保護的價值?
4.加拿大隱私專員辦公室提出AI監管方案
5.紐約SHIELD ACT

揭開黑箱,說清楚講明白—可解釋性AI人工智慧

自人工智慧(Artificial Intelligence, AI)這個名詞出現以來,其前景總是讓人著迷,不須要人類自己動手,AI就能代替人類解決問題。然而,AI是如何決策,他的思路為何,就像一個黑箱,人類似乎只能得知結果卻無法知悉理由,如果一個AI人資專員通知你未被錄取、未獲晉升或是被解雇,他是否能夠提供一個可以信服的理由呢?近日台大亦表示已打造可解釋性人工智慧(Explainable AI, XAI),聲稱可以解釋AI結果產生的原因,以提升人類對於AI的信賴度。

然而,所謂的可解釋性AI到底須要解釋些什麼?2020年5月20日,英國資訊委員辦公室(Information Commissioner’s Office, ICO)與圖靈研究所(Alan Turing Institute, Turing)便基於英國政府2018年4月的人工智慧領域協議(AI Sector Deal)的承諾發布「解釋AI決策(Explaining decisions made with AI )」的指引。

AI與相關法律

該指引提到,AI往往涉及個人資料的利用,例如將大量個人資料用於訓練與測試AI模型、AI運作時也會蒐集大量個人資料並透過模型進行決策,甚至其作成與個人有關的決策,即使僅僅是預測或推論,仍然也可能屬於個人資料,而有英國資料保護法(DPA 2018)與歐盟一般資料保護規則(GDPR)的適用。

GDPR甚至賦予個人知悉權(第13條與第14條)、近用權(第15條)、反對權(第21條)、於自動化決策時得要求人為介入的權利(第22條)以及課予組織必須進行資料保護影響評估(Data protection impact assessments, DPIAs)的義務,同時組織還必須遵循GDPR所謂的公平性(Fairness)、透明性(Transparency)與問責性(Accountability)等原則。

另外組織在使用AI進行決策,也必須確保過程中符合英國平等法(Equality Act 2010),避免關於年齡、身心障礙、性別、婚姻、懷孕與產假、種族、宗教信仰、性別與性傾向等的歧視、騷擾或傷害,我國類似法律則規定於就業服務法與性別工作平等法等法令內。

關於AI的解釋

指引內表示,所謂解釋,依照劍橋詞典是指「某人給出明確或易於理解的細節或原因。」在關於AI的解釋,主要可分為「過程導向(process-based)」與「結果導向(outcome-based)」的解釋。在過程導向的解釋,主要是證明在整個AI設計與使用過程中均遵循良好的治理流程與最佳實施指引,而結果導向的解釋則是澄清特定決策的結果,以用易懂的方式解釋演算法所產生結果背後的原因,其關於AI的解釋項目與背後原理原則大略可整理如下。

透明(Be transparent)

  • 基本原理(Rationale)
    1. 模型產生結果背後的邏輯與理由。
    2. 哪些輸入特徵(input features)、參數(parameters)與相關性(correlations)對模型的計算結果扮演重要因素,以及如何產生影響。
    3. 如何以易於理解的原因說明模型輸出所依據的技術原理,使受影響的個人或其代理人進行合理評估。
    4. 如何將統計結果應用於對個人決策的特定情形。
  • 資料(Data)
    1. 使用哪些資料來訓練模型。
    2. 使用的資料來源。
    3. 如何確保所使用資料的品質。

可問責(Be accountable)

  • 責任(Responsibility)
    1. 在AI設計到部署的每個階段,由何人負責。
    2. 有何問責機制。
    3. 如何於項目中,讓設計與實施過程可追溯(traceable)與可審核( auditable)。

考量情境(Consider context)

考量AI使用的場景、情境與潛在的影響,以提供合適的解釋與說明。以AI招募輔助系統(AI-assisted recruitment)為例,組織可能須要優先考慮AI基本原理與責任的解釋,向個人告知該招募決策的負責人以及作出決策的理由,同時考量人資與招募的情境,偏見與歧視將是主要關注的議題與潛在影響,因此組織須要向個人說明AI系統所涉及的風險以及組織如何減輕該等風險,使個人瞭解其是否受到公平對待以及該決定是否合理。

對於影響的反思(Reflect on impacts)

  • 公平(Fairness)
    1. AI系統的輸出是否具有歧視性影響。
    2. 是否已將防止歧視與減輕偏見的目標充分落實於系統的設計與實施中。
    3. 是否將決定結果的公平性標準納入系統中,並事先向個人說明這些標準。
    4. 該模型是否已防止歧視性損害(discriminatory harm)。
  • 安全與性能(Safety and performance)
    1. 在運行時,AI系統是否安全且技術上可持續運作。
    2. 系統的操作完整性(operational integrity)是否值得公眾信任。
    3. 是否使用足以確保其安全、準確、可靠與健全的方式設計、驗證與確認模型。
    4. 是否已採取足夠措施以確保系統遇到出乎意料的變化、異常與干擾時能可靠得依照設計者的預期運作。
  • 衝擊影響(Impact)
    • 從AI模型的設計到開始部署與結束使用,是否已經充分考量對個人與社會大眾福祉的影響。

該指引內強調,落實AI決策解釋將為組織帶來法令遵循、信任、內部治理等好處,同時也會使個人與社會大眾瞭解AI的使用,促進AI作成更好的結果,並使人類社會得以蓬勃發展。

※你可能還會對這些文章有興趣:
1.不如換AI當法官試試看?
2.加拿大隱私專員辦公室提出AI監管方案
3.投資個資保護的價值?

不如換AI當法官試試看?

每當社會對重大案件不滿的時候,例如最近的殺警案件,網路上便會浮現一種聲音,何不讓人工智慧(Artificial Intelligence, AI)來審判案件呢?一定會更公平,世界也會更美好吧?

在國外,儘管愛沙尼亞(Estonia)僅有132萬的人口,然而作為全球數位化程度最高的國家,其致力於提升政府的數位化程度,透過科技改善政府效能。愛沙尼亞的司法部(the Estonian Ministry of Justice)要求該國資料長(Chief data officer)Ott Velsberg及其團隊打造「機器人法官(robot judge)」,預計將用於處理低於8,000歐元(約新台幣26萬元)小額金錢紛爭,藉此減少法官與書記官的積案。根據外媒指出,由該機器人法官所作成的裁判將具法律拘束力,但仍然可以向人類法官提起上訴。

除了愛沙尼亞,中國大陸美國等各國家都開始嘗試將AI運用於司法系統,然而由AI當法官,是否會作出符合「民意」的判決呢?

以我國司法院殺人案件量刑資訊系統為例,其所查詢的判決資料僅有民國91年度至104年度,如果勾選「刑法第271條第1項殺人罪」、「犯罪方法:刺殺」、「犯罪工具:刀械、銳器類」與「被害人數:成年人 1 人」等量刑因子,將可查詢到199筆資料,其中有141件有期徒刑(平均刑度為13年5月)、50件無期徒刑與8件死刑。

如果再另外勾選「行為人與被害人關係:殺害員警或其他執行公權力之人」,則僅剩下1件無期徒刑,倘再繼續勾選「加重減輕:刑法第 19 條第 2 項精神障礙或心智缺陷之減刑」(該量刑資訊系統並未有刑法第19條第1項的選項可勾選),則無前例可循。

而司法院在107年12月21日所公布的「量刑趨勢建議系統」,宣稱「該系統將量刑資訊系統中之判決資料,透過統計迴歸方法,分析各種犯罪之刑度,及各種量刑因子對於刑度之影響力大小,並邀集審、檢、辯、學、相關政府機關及民間組織,組成焦點團體,深度討論藉由分析判決所得之量刑因子及影響力大小,予以適度修正調整,作成量刑趨勢建議系統。」。如果透過該量刑趨勢建議系統,針對刑法第271條第1項 殺人既遂罪,勾選其中所有的加重事由為「是」,其餘減輕事由均為「否」的話,則建議刑度為「有期徒刑20年」,如此結果是否會是社會所期待的公平與正義?

目前AI的系統,是基於機器判讀過往判決資料學習而來,如果在沒有資料可以參考的時候,AI該如何判斷?而在資料庫內有141件有期徒刑、50件無期徒刑與8件死刑的情形下,AI又該如何判斷?當AI作不出符合社會期待的判決,又該如何?

未來AI或許會足夠聰明到可以取代人類,然而以目前來說,如果將AI運用於司法判決,AI的演算法是由人類工程師所撰寫,AI所學習的判決資料是由人類法官所作成,AI判決的法律依據也是由人類所選出的立法者所立法,讓AI當法官所作成的判決,是否真的能夠符合社會的期待的公平正義,未來仍然值得觀察其發展。

然而,如果將法官依照法律作成的判決比喻為AI依照演算法與程式碼運行所得出的結果,當認為程式結果有問題的時候,除了審視AI是否出了問題外,是否還要由工程師檢視其背後演算法與程式碼的bug呢?

※延伸閱讀
1.精神疾病與刑法第19條是脫罪免死金牌?
2.加拿大隱私專員辦公室提出AI監管方案

加拿大隱私專員辦公室提出AI監管方案

2020年3月13日,加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)考量人工智慧(Artificial Intelligence, AI)已迅速被用於個人資料的大量處理與分析,透過AI進行與個人有關的決策或預測,可能伴隨著隱私、偏見與歧視風險。然而目前加拿大個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)就AI的規範仍有諸多不完備的地方,加拿大隱私專員辦公室提出以下方案,並歡迎各界提供相關意見:

  1. 明確定義AI,並針對AI制定特別規範
  2. 在法律中採用以權利為基礎的方法(rights-based approach)
  3. 賦予個人拒絕自動決策的權利,個人有權拒絕僅基於自動化處理的決定
  4. 當個人與自動化處理程序互動,或成為其客體情形時,賦予個人請求說明的權利,並提高自動化處理程序的透明度
  5. 要求在個人資料處理的所有階段(包含蒐集),適用從設計著手隱私保護與人權保護(Privacy by Design and Human Rights by Design)。
  6. 要求確實有效遵循目的特定與資料最小化原則(purpose specification and data minimization principles)
  7. 當實際上無法取得有效同意時,提供其他處理的合法事由與隱私保護解決方案
  8. 建立靈活運用去識別化的資料之規範,同時確保加強措施以防止再識別化。
  9. 要求組織確保資料與演算法的可追溯性(traceability),包含在AI系統生命週期內所產生的資料集(datasets)、流程(processes)與決策(decisions)等相關事項
  10. 對AI處理的開發與實施要求可證明(demonstrable)的問責機制
  11. 法律授權加拿大隱私專員辦公室向違反法律的組織發布具有拘束力的命令與裁罰