不如換AI當法官試試看?

每當社會對重大案件不滿的時候,例如最近的殺警案件,網路上便會浮現一種聲音,何不讓人工智慧(Artificial Intelligence, AI)來審判案件呢?一定會更公平,世界也會更美好吧?

在國外,儘管愛沙尼亞(Estonia)僅有132萬的人口,然而作為全球數位化程度最高的國家,其致力於提升政府的數位化程度,透過科技改善政府效能。愛沙尼亞的司法部(the Estonian Ministry of Justice)要求該國資料長(Chief data officer)Ott Velsberg及其團隊打造「機器人法官(robot judge)」,預計將用於處理低於8,000歐元(約新台幣26萬元)小額金錢紛爭,藉此減少法官與書記官的積案。根據外媒指出,由該機器人法官所作成的裁判將具法律拘束力,但仍然可以向人類法官提起上訴。

除了愛沙尼亞,中國大陸美國等各國家都開始嘗試將AI運用於司法系統,然而由AI當法官,是否會作出符合「民意」的判決呢?

以我國司法院殺人案件量刑資訊系統為例,其所查詢的判決資料僅有民國91年度至104年度,如果勾選「刑法第271條第1項殺人罪」、「犯罪方法:刺殺」、「犯罪工具:刀械、銳器類」與「被害人數:成年人 1 人」等量刑因子,將可查詢到199筆資料,其中有141件有期徒刑(平均刑度為13年5月)、50件無期徒刑與8件死刑。

如果再另外勾選「行為人與被害人關係:殺害員警或其他執行公權力之人」,則僅剩下1件無期徒刑,倘再繼續勾選「加重減輕:刑法第 19 條第 2 項精神障礙或心智缺陷之減刑」(該量刑資訊系統並未有刑法第19條第1項的選項可勾選),則無前例可循。

而司法院在107年12月21日所公布的「量刑趨勢建議系統」,宣稱「該系統將量刑資訊系統中之判決資料,透過統計迴歸方法,分析各種犯罪之刑度,及各種量刑因子對於刑度之影響力大小,並邀集審、檢、辯、學、相關政府機關及民間組織,組成焦點團體,深度討論藉由分析判決所得之量刑因子及影響力大小,予以適度修正調整,作成量刑趨勢建議系統。」。如果透過該量刑趨勢建議系統,針對刑法第271條第1項 殺人既遂罪,勾選其中所有的加重事由為「是」,其餘減輕事由均為「否」的話,則建議刑度為「有期徒刑20年」,如此結果是否會是社會所期待的公平與正義?

目前AI的系統,是基於機器判讀過往判決資料學習而來,如果在沒有資料可以參考的時候,AI該如何判斷?而在資料庫內有141件有期徒刑、50件無期徒刑與8件死刑的情形下,AI又該如何判斷?當AI作不出符合社會期待的判決,又該如何?

未來AI或許會足夠聰明到可以取代人類,然而以目前來說,如果將AI運用於司法判決,AI的演算法是由人類工程師所撰寫,AI所學習的判決資料是由人類法官所作成,AI判決的法律依據也是由人類所選出的立法者所立法,讓AI當法官所作成的判決,是否真的能夠符合社會的期待的公平正義,未來仍然值得觀察其發展。

然而,如果將法官依照法律作成的判決比喻為AI依照演算法與程式碼運行所得出的結果,當認為程式結果有問題的時候,除了審視AI是否出了問題外,是否還要由工程師檢視其背後演算法與程式碼的bug呢?

※延伸閱讀
1.精神疾病與刑法第19條是脫罪免死金牌?
2.加拿大隱私專員辦公室提出AI監管方案

加拿大隱私專員辦公室提出AI監管方案

2020年3月13日,加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)考量人工智慧(Artificial Intelligence, AI)已迅速被用於個人資料的大量處理與分析,透過AI進行與個人有關的決策或預測,可能伴隨著隱私、偏見與歧視風險。然而目前加拿大個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)就AI的規範仍有諸多不完備的地方,加拿大隱私專員辦公室提出以下方案,並歡迎各界提供相關意見:

  1. 明確定義AI,並針對AI制定特別規範
  2. 在法律中採用以權利為基礎的方法(rights-based approach)
  3. 賦予個人拒絕自動決策的權利,個人有權拒絕僅基於自動化處理的決定
  4. 當個人與自動化處理程序互動,或成為其客體情形時,賦予個人請求說明的權利,並提高自動化處理程序的透明度
  5. 要求在個人資料處理的所有階段(包含蒐集),適用從設計著手隱私保護與人權保護(Privacy by Design and Human Rights by Design)。
  6. 要求確實有效遵循目的特定與資料最小化原則(purpose specification and data minimization principles)
  7. 當實際上無法取得有效同意時,提供其他處理的合法事由與隱私保護解決方案
  8. 建立靈活運用去識別化的資料之規範,同時確保加強措施以防止再識別化。
  9. 要求組織確保資料與演算法的可追溯性(traceability),包含在AI系統生命週期內所產生的資料集(datasets)、流程(processes)與決策(decisions)等相關事項
  10. 對AI處理的開發與實施要求可證明(demonstrable)的問責機制
  11. 法律授權加拿大隱私專員辦公室向違反法律的組織發布具有拘束力的命令與裁罰