資料保護:當量子計算遇見後量子密碼系統

量子計算(Quantum Computing )可以對科學發展帶來巨大的好處,但研究人員同時也認為,一旦發展起來,將可能破壞現在使用的加密技術,危及對於資料的保護。

什麼是量子計算

量子力學為當今的電腦處理資訊的方法開拓出另外一條道路,傳統電腦以位元儲存與處理資訊,1個位元的狀態可以是1或0,但兩者不會同時存在。而量子計算中所使用的是量子位元(quantum bits, or qubits),由於量子的疊加現象,量子位元可以既是1也是0,也可以是兩者之間的任何值。

舉例來說,在兩個位元情形,傳統電腦上每個位元會儲存1或0,組合起來可以有4個可能值(00、01、10與11),然而1次只能儲存其中一個值。而對於量子位元,每個量子位元可以是1、0或兩者,因此可以同時表示前述4個值。如果有3個量子位元,就可以表示8個值(2的3次方),有4個量子位元就可以表示16個值(2的4次方),以此類推。由於量子計算不僅可以對確定的值進行運算,還可以同時對所有可能的疊加進行運算,所以在特定的任務中,量子計算比傳統2進位計算方式具有效率。

對於資料保護的衝擊

量子計算對於資料保護產生重大衝擊的原因很多,原因之一是破解密碼的能力。量子計算可能會破壞現今許多傳統的加密技術,進而嚴重影響IT的安全性,幾乎所有需要安全性、隱私或信任的系統都會受到影響。

對於非對稱式密碼系統的影響

非對稱式密碼系統(asymmetric encryption),又稱為公開金鑰密碼系統(Public-key cryptography),是透過兩個金鑰(公鑰與私鑰)進行加解密。RSA演算法(Rivest-Sharmir-Adleman algorithm)即是屬於非對稱式密碼系統,通常用於在網路發送敏感資料的情形,RSA演算法允許公鑰和私鑰對資訊進行加密,因此可以確保資訊的機密性與真實性。

由於非對稱式密碼系統是奠基於傳統電腦難以解開的數學難題(例如對極大整數進行質因數分解,想像一下10961是由哪2個質數相乘?),需要透過結合公鑰與私鑰才能順利解開。

以RSA-768為例,其表示如下:1230186684530117755130494958384962720772853569595334792197322452151726400507263657518745202199786469389956474942774063845925192557326303453731548268507917026122142913461670429214311602221240479274737794080665351419597459856902143413
= 33478071698956898786044169848212690817704794983713768568912431388982883793878002287614711652531743087737814467999489×
36746043666799590428244633799627952632279158164343087642676032283815739666511279233373417143396810270092798736308917

然而量子計算強大的計算能力,將可能危及到現在的非對稱式密碼系統,攻擊者可以在不事先知道私鑰的情形下進行解密,進而影響到數位簽章(digital signatures)、線上購物與網路銀行等所必須的網路協定,例如HTTPS (TLS)。以我國為例,自然人憑證即是透過RSA加密來確認使用者身份。

對於對稱式密碼系統的影響

量子計算同時也會對於對稱式密碼系統(symmetric cryptography)造成影響(例如Advanced Encryption Standard, AES),透過Grover演算法(Grover’s algorithm)進行暴力破解,可以將破解難度減少到其平方根,因此AES128的強度將降低到2的64次方,AES256的強度則會降低為2的128次方。

後量子密碼系統

根據美國國家標準暨技術研究院(US National Institute of Standards and Technology, NIST)的報告,量子計算將對現行常用的加密演算法造成重大影響(如下表),因此便需要及早準備一個能夠對抗量子計算的密碼系統。

加密演算法類型目的來自大型量子電腦的衝擊
AES對稱加密需要更大的金鑰長度
SHA-2, SHA-3雜湊函數需要更多的輸出
RSA公鑰簽章,金鑰交換不再安全
ECDSA, ECDH
(橢圓曲線加密, elliptic curve cryptography)
公鑰簽章,金鑰交換不再安全
DSA(Finite Field Cryptography)公鑰簽章,金鑰交換不再安全
量子電腦對常用加密演算法的衝擊

後量子密碼系統(Post-quantum cryptography)是指透過使用量子電腦無法比其他電腦更有效求解的數學運算,達到其安全性不受量子電腦影響的密碼學。然而後量子密碼系統同時也會需要更大的運算資源進行加解密、對數位簽章進行簽名驗證,並且需要更多的網路資源來交換更長的金鑰與憑證。

儘管依目前的理解,在可預測的未來,量子電腦不會立即構成威脅,然而由於這樣的不可預測性,同時也會帶來IT的安全風險。因此NIST便開始徵求、評估與標準化後量子加密的標準,目前已有7個演算法進入決選,未來將從裡面選出對抗量子電腦的方法。

參考資料
1.EUROPEAN DATA PROTECTION SUPERVISOR〔EDPS〕, TechDispatch #2/2020: Quantum Computing and Cryptography, https://edps.europa.eu/data-protection/our-work/publications/techdispatch/techdispatch-22020-quantum-computing-and_en.
2.Microsoft, 〈了解量子計算〉, https://docs.microsoft.com/zh-tw/quantum/overview/understanding-quantum-computing
3.研之有物, 〈量子電腦到底有多霸氣?即將引爆終極密碼戰?!〉, https://research.sinica.edu.tw/chung-kai-min-quantum-computer-cryptography/
4.Lane Wagner, Is AES-256 Quantum Resistant?, https://medium.com/@wagslane/is-aes-256-quantum-resistant-d3f776163672.
5.余至浩, 〈【臺灣資安大會直擊】為對抗量子電腦攻擊手法,後量子加密PQC演算法有望變成未來全球加密與數位簽章新標準〉, iThome, https://www.ithome.com.tw/news/139334
6.NIST, NIST’s Post-Quantum Cryptography Program Enters ‘Selection Round’, https://www.nist.gov/news-events/news/2020/07/nists-post-quantum-cryptography-program-enters-selection-round.
7.Lily Chen (NIST), Stephen Jordan (NIST), Yi-Kai Liu (NIST), Dustin Moody (NIST), Rene Peralta (NIST), Ray Perlner (NIST), Daniel Smith-Tone (NIST), Report on Post-Quantum Cryptography, https://csrc.nist.gov/publications/detail/nistir/8105/final.

※歡迎來喵喵科技法律隨筆的粉絲團按讚、追蹤還有分享!

※你可能會對這些文章有興趣
1.個資外洩,該怎麼辦?
2.當個資外洩發生時,企業是否可以向系統商求償?
3.投資個資保護的價值?
4.挪威資料保護主管機關推出監理沙盒,協助人工智慧的開發
5.歐盟法院SCHREMS II案與常見問答

揭開黑箱,說清楚講明白—可解釋性AI人工智慧

自人工智慧(Artificial Intelligence, AI)這個名詞出現以來,其前景總是讓人著迷,不須要人類自己動手,AI就能代替人類解決問題。然而,AI是如何決策,他的思路為何,就像一個黑箱,人類似乎只能得知結果卻無法知悉理由,如果一個AI人資專員通知你未被錄取、未獲晉升或是被解雇,他是否能夠提供一個可以信服的理由呢?近日台大亦表示已打造可解釋性人工智慧(Explainable AI, XAI),聲稱可以解釋AI結果產生的原因,以提升人類對於AI的信賴度。

然而,所謂的可解釋性AI到底須要解釋些什麼?2020年5月20日,英國資訊委員辦公室(Information Commissioner’s Office, ICO)與圖靈研究所(Alan Turing Institute, Turing)便基於英國政府2018年4月的人工智慧領域協議(AI Sector Deal)的承諾發布「解釋AI決策(Explaining decisions made with AI )」的指引。

AI與相關法律

該指引提到,AI往往涉及個人資料的利用,例如將大量個人資料用於訓練與測試AI模型、AI運作時也會蒐集大量個人資料並透過模型進行決策,甚至其作成與個人有關的決策,即使僅僅是預測或推論,仍然也可能屬於個人資料,而有英國資料保護法(DPA 2018)與歐盟一般資料保護規則(GDPR)的適用。

GDPR甚至賦予個人知悉權(第13條與第14條)、近用權(第15條)、反對權(第21條)、於自動化決策時得要求人為介入的權利(第22條)以及課予組織必須進行資料保護影響評估(Data protection impact assessments, DPIAs)的義務,同時組織還必須遵循GDPR所謂的公平性(Fairness)、透明性(Transparency)與問責性(Accountability)等原則。

另外組織在使用AI進行決策,也必須確保過程中符合英國平等法(Equality Act 2010),避免關於年齡、身心障礙、性別、婚姻、懷孕與產假、種族、宗教信仰、性別與性傾向等的歧視、騷擾或傷害,我國類似法律則規定於就業服務法與性別工作平等法等法令內。

關於AI的解釋

指引內表示,所謂解釋,依照劍橋詞典是指「某人給出明確或易於理解的細節或原因。」在關於AI的解釋,主要可分為「過程導向(process-based)」與「結果導向(outcome-based)」的解釋。在過程導向的解釋,主要是證明在整個AI設計與使用過程中均遵循良好的治理流程與最佳實施指引,而結果導向的解釋則是澄清特定決策的結果,以用易懂的方式解釋演算法所產生結果背後的原因,其關於AI的解釋項目與背後原理原則大略可整理如下。

透明(Be transparent)

  • 基本原理(Rationale)
    1. 模型產生結果背後的邏輯與理由。
    2. 哪些輸入特徵(input features)、參數(parameters)與相關性(correlations)對模型的計算結果扮演重要因素,以及如何產生影響。
    3. 如何以易於理解的原因說明模型輸出所依據的技術原理,使受影響的個人或其代理人進行合理評估。
    4. 如何將統計結果應用於對個人決策的特定情形。
  • 資料(Data)
    1. 使用哪些資料來訓練模型。
    2. 使用的資料來源。
    3. 如何確保所使用資料的品質。

可問責(Be accountable)

  • 責任(Responsibility)
    1. 在AI設計到部署的每個階段,由何人負責。
    2. 有何問責機制。
    3. 如何於項目中,讓設計與實施過程可追溯(traceable)與可審核( auditable)。

考量情境(Consider context)

考量AI使用的場景、情境與潛在的影響,以提供合適的解釋與說明。以AI招募輔助系統(AI-assisted recruitment)為例,組織可能須要優先考慮AI基本原理與責任的解釋,向個人告知該招募決策的負責人以及作出決策的理由,同時考量人資與招募的情境,偏見與歧視將是主要關注的議題與潛在影響,因此組織須要向個人說明AI系統所涉及的風險以及組織如何減輕該等風險,使個人瞭解其是否受到公平對待以及該決定是否合理。

對於影響的反思(Reflect on impacts)

  • 公平(Fairness)
    1. AI系統的輸出是否具有歧視性影響。
    2. 是否已將防止歧視與減輕偏見的目標充分落實於系統的設計與實施中。
    3. 是否將決定結果的公平性標準納入系統中,並事先向個人說明這些標準。
    4. 該模型是否已防止歧視性損害(discriminatory harm)。
  • 安全與性能(Safety and performance)
    1. 在運行時,AI系統是否安全且技術上可持續運作。
    2. 系統的操作完整性(operational integrity)是否值得公眾信任。
    3. 是否使用足以確保其安全、準確、可靠與健全的方式設計、驗證與確認模型。
    4. 是否已採取足夠措施以確保系統遇到出乎意料的變化、異常與干擾時能可靠得依照設計者的預期運作。
  • 衝擊影響(Impact)
    • 從AI模型的設計到開始部署與結束使用,是否已經充分考量對個人與社會大眾福祉的影響。

該指引內強調,落實AI決策解釋將為組織帶來法令遵循、信任、內部治理等好處,同時也會使個人與社會大眾瞭解AI的使用,促進AI作成更好的結果,並使人類社會得以蓬勃發展。

※你可能還會對這些文章有興趣:
1.不如換AI當法官試試看?
2.加拿大隱私專員辦公室提出AI監管方案
3.投資個資保護的價值?

不如換AI當法官試試看?

每當社會對重大案件不滿的時候,例如最近的殺警案件,網路上便會浮現一種聲音,何不讓人工智慧(Artificial Intelligence, AI)來審判案件呢?一定會更公平,世界也會更美好吧?

在國外,儘管愛沙尼亞(Estonia)僅有132萬的人口,然而作為全球數位化程度最高的國家,其致力於提升政府的數位化程度,透過科技改善政府效能。愛沙尼亞的司法部(the Estonian Ministry of Justice)要求該國資料長(Chief data officer)Ott Velsberg及其團隊打造「機器人法官(robot judge)」,預計將用於處理低於8,000歐元(約新台幣26萬元)小額金錢紛爭,藉此減少法官與書記官的積案。根據外媒指出,由該機器人法官所作成的裁判將具法律拘束力,但仍然可以向人類法官提起上訴。

除了愛沙尼亞,中國大陸美國等各國家都開始嘗試將AI運用於司法系統,然而由AI當法官,是否會作出符合「民意」的判決呢?

以我國司法院殺人案件量刑資訊系統為例,其所查詢的判決資料僅有民國91年度至104年度,如果勾選「刑法第271條第1項殺人罪」、「犯罪方法:刺殺」、「犯罪工具:刀械、銳器類」與「被害人數:成年人 1 人」等量刑因子,將可查詢到199筆資料,其中有141件有期徒刑(平均刑度為13年5月)、50件無期徒刑與8件死刑。

如果再另外勾選「行為人與被害人關係:殺害員警或其他執行公權力之人」,則僅剩下1件無期徒刑,倘再繼續勾選「加重減輕:刑法第 19 條第 2 項精神障礙或心智缺陷之減刑」(該量刑資訊系統並未有刑法第19條第1項的選項可勾選),則無前例可循。

而司法院在107年12月21日所公布的「量刑趨勢建議系統」,宣稱「該系統將量刑資訊系統中之判決資料,透過統計迴歸方法,分析各種犯罪之刑度,及各種量刑因子對於刑度之影響力大小,並邀集審、檢、辯、學、相關政府機關及民間組織,組成焦點團體,深度討論藉由分析判決所得之量刑因子及影響力大小,予以適度修正調整,作成量刑趨勢建議系統。」。如果透過該量刑趨勢建議系統,針對刑法第271條第1項 殺人既遂罪,勾選其中所有的加重事由為「是」,其餘減輕事由均為「否」的話,則建議刑度為「有期徒刑20年」,如此結果是否會是社會所期待的公平與正義?

目前AI的系統,是基於機器判讀過往判決資料學習而來,如果在沒有資料可以參考的時候,AI該如何判斷?而在資料庫內有141件有期徒刑、50件無期徒刑與8件死刑的情形下,AI又該如何判斷?當AI作不出符合社會期待的判決,又該如何?

未來AI或許會足夠聰明到可以取代人類,然而以目前來說,如果將AI運用於司法判決,AI的演算法是由人類工程師所撰寫,AI所學習的判決資料是由人類法官所作成,AI判決的法律依據也是由人類所選出的立法者所立法,讓AI當法官所作成的判決,是否真的能夠符合社會的期待的公平正義,未來仍然值得觀察其發展。

然而,如果將法官依照法律作成的判決比喻為AI依照演算法與程式碼運行所得出的結果,當認為程式結果有問題的時候,除了審視AI是否出了問題外,是否還要由工程師檢視其背後演算法與程式碼的bug呢?

※延伸閱讀
1.精神疾病與刑法第19條是脫罪免死金牌?
2.加拿大隱私專員辦公室提出AI監管方案

華盛頓州州長簽署臉部辨識法案

華盛頓州(Washington state)州長Jay Inslee於今(2020)年3月31日簽署一項臉部辨識法案(ENGROSSED SUBSTITUTE SENATE BILL 6280, AN ACT Relating to the use of facial recognition services.)。

該法旨在針對建立臉部辨識(facial recognition)的透明度與問責機制,要求州與地方政府機關(state and local government agencies)在保障公民自由權利的前提下使用臉部辨識服務,以保障公眾權利。

法案重點

  • 該法要求州與地方政府機關使用或打算開發(develop)、採購(procure)或使用(use)臉部辨識服務時,必須向議會等立法機關(legislative authority)提交意向通知,說明使用的目的與技術。
  • 在開發、採購與使用臉部辨識服務前,州與地方政府機關必須作成問責報告(accountability report),並應於報告內說明該臉部辨識服務的名稱、廠商與版本、資料處理過程、資料管理政策(data management policy)與潛在衝擊等事項,且須定期更新與向立法機關報告。
  • 州與地方政府機關針對個人使用臉部辨識系統以作成具法律效力或類似決定(例如導致提供或拒絕金融、借貸服務、居住、保險、教育註冊、刑事司法、就業機會、健保、取得民生必需品或其他影響個人基本權利)時,必須確保該決定經過有意義的人工審查(meaningful human review)。
  • 州與地方政府機關原則不得利用臉部辨識服務進行持續性監視(ongoing surveillance)、實時或類似實時辨識(real-time or near real-time identification)、持續性追蹤(persistent tracking)。

而州長Jay Inslee也考量預算資金等疑義,針對該法第10條成立相關工作小組部分行使否決權(Veto),要求議會針對預算等項目進行評估,使該工作小組能發揮其應有功能。

加拿大隱私專員辦公室提出AI監管方案

2020年3月13日,加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)考量人工智慧(Artificial Intelligence, AI)已迅速被用於個人資料的大量處理與分析,透過AI進行與個人有關的決策或預測,可能伴隨著隱私、偏見與歧視風險。然而目前加拿大個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)就AI的規範仍有諸多不完備的地方,加拿大隱私專員辦公室提出以下方案,並歡迎各界提供相關意見:

  1. 明確定義AI,並針對AI制定特別規範
  2. 在法律中採用以權利為基礎的方法(rights-based approach)
  3. 賦予個人拒絕自動決策的權利,個人有權拒絕僅基於自動化處理的決定
  4. 當個人與自動化處理程序互動,或成為其客體情形時,賦予個人請求說明的權利,並提高自動化處理程序的透明度
  5. 要求在個人資料處理的所有階段(包含蒐集),適用從設計著手隱私保護與人權保護(Privacy by Design and Human Rights by Design)。
  6. 要求確實有效遵循目的特定與資料最小化原則(purpose specification and data minimization principles)
  7. 當實際上無法取得有效同意時,提供其他處理的合法事由與隱私保護解決方案
  8. 建立靈活運用去識別化的資料之規範,同時確保加強措施以防止再識別化。
  9. 要求組織確保資料與演算法的可追溯性(traceability),包含在AI系統生命週期內所產生的資料集(datasets)、流程(processes)與決策(decisions)等相關事項
  10. 對AI處理的開發與實施要求可證明(demonstrable)的問責機制
  11. 法律授權加拿大隱私專員辦公室向違反法律的組織發布具有拘束力的命令與裁罰