自人工智慧(Artificial Intelligence, AI)這個名詞出現以來,其前景總是讓人著迷,不須要人類自己動手,AI就能代替人類解決問題。然而,AI是如何決策,他的思路為何,就像一個黑箱,人類似乎只能得知結果卻無法知悉理由,如果一個AI人資專員通知你未被錄取、未獲晉升或是被解雇,他是否能夠提供一個可以信服的理由呢?近日台大亦表示已打造可解釋性人工智慧(Explainable AI, XAI),聲稱可以解釋AI結果產生的原因,以提升人類對於AI的信賴度。
然而,所謂的可解釋性AI到底須要解釋些什麼?2020年5月20日,英國資訊委員辦公室(Information Commissioner’s Office, ICO)與圖靈研究所(Alan Turing Institute, Turing)便基於英國政府2018年4月的人工智慧領域協議(AI Sector Deal)的承諾發布「解釋AI決策(Explaining decisions made with AI )」的指引。

AI與相關法律
該指引提到,AI往往涉及個人資料的利用,例如將大量個人資料用於訓練與測試AI模型、AI運作時也會蒐集大量個人資料並透過模型進行決策,甚至其作成與個人有關的決策,即使僅僅是預測或推論,仍然也可能屬於個人資料,而有英國資料保護法(DPA 2018)與歐盟一般資料保護規則(GDPR)的適用。
GDPR甚至賦予個人知悉權(第13條與第14條)、近用權(第15條)、反對權(第21條)、於自動化決策時得要求人為介入的權利(第22條)以及課予組織必須進行資料保護影響評估(Data protection impact assessments, DPIAs)的義務,同時組織還必須遵循GDPR所謂的公平性(Fairness)、透明性(Transparency)與問責性(Accountability)等原則。
另外組織在使用AI進行決策,也必須確保過程中符合英國平等法(Equality Act 2010),避免關於年齡、身心障礙、性別、婚姻、懷孕與產假、種族、宗教信仰、性別與性傾向等的歧視、騷擾或傷害,我國類似法律則規定於就業服務法與性別工作平等法等法令內。
關於AI的解釋
指引內表示,所謂解釋,依照劍橋詞典是指「某人給出明確或易於理解的細節或原因。」在關於AI的解釋,主要可分為「過程導向(process-based)」與「結果導向(outcome-based)」的解釋。在過程導向的解釋,主要是證明在整個AI設計與使用過程中均遵循良好的治理流程與最佳實施指引,而結果導向的解釋則是澄清特定決策的結果,以用易懂的方式解釋演算法所產生結果背後的原因,其關於AI的解釋項目與背後原理原則大略可整理如下。
透明(Be transparent)
- 基本原理(Rationale)
- 模型產生結果背後的邏輯與理由。
- 哪些輸入特徵(input features)、參數(parameters)與相關性(correlations)對模型的計算結果扮演重要因素,以及如何產生影響。
- 如何以易於理解的原因說明模型輸出所依據的技術原理,使受影響的個人或其代理人進行合理評估。
- 如何將統計結果應用於對個人決策的特定情形。
- 資料(Data)
- 使用哪些資料來訓練模型。
- 使用的資料來源。
- 如何確保所使用資料的品質。
可問責(Be accountable)
- 責任(Responsibility)
- 在AI設計到部署的每個階段,由何人負責。
- 有何問責機制。
- 如何於項目中,讓設計與實施過程可追溯(traceable)與可審核( auditable)。
考量情境(Consider context)
考量AI使用的場景、情境與潛在的影響,以提供合適的解釋與說明。以AI招募輔助系統(AI-assisted recruitment)為例,組織可能須要優先考慮AI基本原理與責任的解釋,向個人告知該招募決策的負責人以及作出決策的理由,同時考量人資與招募的情境,偏見與歧視將是主要關注的議題與潛在影響,因此組織須要向個人說明AI系統所涉及的風險以及組織如何減輕該等風險,使個人瞭解其是否受到公平對待以及該決定是否合理。
對於影響的反思(Reflect on impacts)
- 公平(Fairness)
- AI系統的輸出是否具有歧視性影響。
- 是否已將防止歧視與減輕偏見的目標充分落實於系統的設計與實施中。
- 是否將決定結果的公平性標準納入系統中,並事先向個人說明這些標準。
- 該模型是否已防止歧視性損害(discriminatory harm)。
- 安全與性能(Safety and performance)
- 在運行時,AI系統是否安全且技術上可持續運作。
- 系統的操作完整性(operational integrity)是否值得公眾信任。
- 是否使用足以確保其安全、準確、可靠與健全的方式設計、驗證與確認模型。
- 是否已採取足夠措施以確保系統遇到出乎意料的變化、異常與干擾時能可靠得依照設計者的預期運作。
- 衝擊影響(Impact)
- 從AI模型的設計到開始部署與結束使用,是否已經充分考量對個人與社會大眾福祉的影響。
該指引內強調,落實AI決策解釋將為組織帶來法令遵循、信任、內部治理等好處,同時也會使個人與社會大眾瞭解AI的使用,促進AI作成更好的結果,並使人類社會得以蓬勃發展。
※你可能還會對這些文章有興趣:
1.不如換AI當法官試試看?
2.加拿大隱私專員辦公室提出AI監管方案
3.投資個資保護的價值?
對「揭開黑箱,說清楚講明白—可解釋性AI人工智慧」的一則回應