Offcanvas
2018.07.24 Thomas Macaulay  |  Techworld

전세계 법원은 소프트웨어를 사용해 위험을 평가하고 판결에 도움을 받으며 알고리즘을 실험하고 있다. 비평가들은 시스템 투명성이 부족하고 인간의 편견을 증폭시킬 수 있다고 우려하지만 알고리즘이 좀더 공정하고 효율적일 수 있다고 주장하고 있다. 엘리엇 애쉬 교수는 이 주제를 연구 중이며 시스템 개발 방법 계획을 수립했다.



2017년 8월, 미국 오하이오주 클리브랜드의 한 법정에서는 허큘리스 셰퍼드 주니어가 코카인 소지 죄목으로 체포되어 재판을 기다리고 있었다.

이날 사건을 맡은 판사는 판결을 내리는 데 도움을 줄 리스크 평가 소프트웨어를 동반한 채 법정에 등장했다. 이 소프트웨어는 사건 파일을 분석해 기소된 사람의 미래 행동을 예측할 수 있다. 셰퍼드는 저위험군 피고인으로 분류돼 재판 전 석방에 적합하다는 판결을 받았다. 그는 그날 밤 석방되어 다음 날 아침 멀쩡하게 등교할 수 있었다.

미국뿐 아니라 세계 여러 나라의 법정에서 이와 유사한 자동화 의사 결정 시스템의 도움을 받아 판결이 내려지고 있지만, 모든 알고리즘이 다 공정한 판결을 보장하는 것은 아니다.

2016년 프로퍼블리카(ProPublica)의 조사 결과에 따르면 컴퍼스(Compas)라는 이름의 유명 리스크 평가 툴은 백인보다 흑인을 잠재적 범죄자로 잘못 분류할 확률이 2배가량 높았다.

이처럼 법정의 판결에 이용되는 소프트웨어가 결함을 가지고 있다는 사실은 경종을 울리기에 충분하지만, 사실 따지고 보면 인간 판사가 가지고 있는 편견이나 한계에 비할 바는 아닐 것이다.

워릭대학교 경제학 부교수인 엘리엇 애쉬 교수는 인간 판사들이 가지는 충동적 성향과 편향적 관점이 훨씬 더 심각하다고 말했다. 애쉬는 현대 사법 체계의 분석을 통해 다수의 판결에서 발견되는 임의적 성격을 지적했다.

미국의 경우 망명 신청자가 망명을 허가받을 가능성은 그 날 판사가 누구냐에 따라 크게 2배 가까이 차이가 난다. 뉴어크에서는 어떤 판사에게 판결을 받는가에 따라 망명 신청 허용 가능성이 10%에서 90%로 급등할 수도 있다.

작게는 유색 인종만 더 자주 길에서 검문을 당하는 것부터 크게는 더 높은 형량을 받게 되는 것까지, 소수 인종에 대한 차별적인 판결을 보여 주는 사례는 너무 많아 셀 수 없을 정도다.

심지어는 그 날 판사가 아침을 잘 먹었는지 여부가 판결에 영향을 주기도 한다. 이스라엘 법정에서 1,000건가량의 판례를 살펴본 어느 상호 심사 연구 결과에 따르면 판사들은 아침 시간이나 점심 직후에 훨씬 더 너그러운 판결을 내리는 것으로 나타났다.

콜럼비아대학 연구팀 일원인 조너던 리바브는 <가디언(Guardian)지>와의 인터뷰에서 “맨 처음 재판을 받는 3명은 그 날 맨 마지막으로 재판을 받는 3명보다 2~6배가량 석방될 확률이 높았다”고 설명했다.

따라서 알고리즘으로 판사를 대체할 수 있다면 일시적 기분 변화나 개인적 편견, 편향을 완전히 제거한 채 증거만을 기반한 객관적 판결을 내릴 수 있게 될 것이다.
 


애쉬는 소셜 마켓 재단(Social Market Foundation)의 싱크탱크 헤드쿼터 연설에서 “그렇다면 우리는 판사와 배심원, 그리고 EXEcute 파일 중 누구를 믿고 의지해야 할 것인가?”라고 물었다.

자동화된 판결
자동화 판결의 원리는 사실 매우 간단하다. 머신러닝 알고리즘에게 법률과 예전 판례들을 학습시켜 유, 무죄를 가늠할 수 있는 가장 효율적 요인들을 익히게 만드는 것이다.

새로운 사건이 법원에 접수되면 사건의 증거 파일이 기계가 읽을 수 있는 데이터로 변형되고, 시스템은 이를 분석하여 판결을 내리게 된다.

행정상의 목적으로 수집한, 공개 데이터만을 사용해서 판사의 판결 내용을 정확하게 예측하는 것이 가능하다는 결정적이고 확실한 증거도 있다.

애쉬는 미국의 파산 관련 판례 중 67%, 대법원 판례 중 70%, 그리고 평범한 기소 결정의 88%를 정확하게 예측한 연구 결과들을 제시했다.

이 수치들은 완전한 판결 자동화를 주장하기에는 조금 부족할 수도 있다. 하지만 예측을 목적으로 수집한 데이터까지 포함한다면 정확도는 이보다 훨씬 올라갈 것이다. 100%에는 도달하지 못할지 몰라도, 최소한 인간 판사보다는 일관된 판결을 내릴 것이다.

애쉬는 “100%가 아니라 해도 판결이 자동화된다면 적어도 판사가 누구냐에 따라, 혹은 점심을 먹었는지 아닌지에 따라 판결이나 형량이 달라지는 일은 없을 것이다”고 말했다.

 

CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.