전세계 법원은 소프트웨어를 사용해 위험을 평가하고 판결에 도움을 받으며 알고리즘을 실험하고 있다. 비평가들은 시스템 투명성이 부족하고 인간의 편견을 증폭시킬 수 있다고 우려하지만 알고리즘이 좀더 공정하고 효율적일 수 있다고 주장하고 있다. 엘리엇 애쉬 교수는 이 주제를 연구 중이며 시스템 개발 방법 계획을 수립했다.
2017년 8월, 미국 오하이오주 클리브랜드의 한 법정에서는 허큘리스 셰퍼드 주니어가 코카인 소지 죄목으로 체포되어 재판을 기다리고 있었다.
이날 사건을 맡은 판사는 판결을 내리는 데 도움을 줄 리스크 평가 소프트웨어를 동반한 채 법정에 등장했다. 이 소프트웨어는 사건 파일을 분석해 기소된 사람의 미래 행동을 예측할 수 있다. 셰퍼드는 저위험군 피고인으로 분류돼 재판 전 석방에 적합하다는 판결을 받았다. 그는 그날 밤 석방되어 다음 날 아침 멀쩡하게 등교할 수 있었다.
미국뿐 아니라 세계 여러 나라의 법정에서 이와 유사한 자동화 의사 결정 시스템의 도움을 받아 판결이 내려지고 있지만, 모든 알고리즘이 다 공정한 판결을 보장하는 것은 아니다.
2016년 프로퍼블리카(ProPublica)의 조사 결과에 따르면 컴퍼스(Compas)라는 이름의 유명 리스크 평가 툴은 백인보다 흑인을 잠재적 범죄자로 잘못 분류할 확률이 2배가량 높았다.
이처럼 법정의 판결에 이용되는 소프트웨어가 결함을 가지고 있다는 사실은 경종을 울리기에 충분하지만, 사실 따지고 보면 인간 판사가 가지고 있는 편견이나 한계에 비할 바는 아닐 것이다.
워릭대학교 경제학 부교수인 엘리엇 애쉬 교수는 인간 판사들이 가지는 충동적 성향과 편향적 관점이 훨씬 더 심각하다고 말했다. 애쉬는 현대 사법 체계의 분석을 통해 다수의 판결에서 발견되는 임의적 성격을 지적했다.
미국의 경우 망명 신청자가 망명을 허가받을 가능성은 그 날 판사가 누구냐에 따라 크게 2배 가까이 차이가 난다. 뉴어크에서는 어떤 판사에게 판결을 받는가에 따라 망명 신청 허용 가능성이 10%에서 90%로 급등할 수도 있다.
작게는 유색 인종만 더 자주 길에서 검문을 당하는 것부터 크게는 더 높은 형량을 받게 되는 것까지, 소수 인종에 대한 차별적인 판결을 보여 주는 사례는 너무 많아 셀 수 없을 정도다.
심지어는 그 날 판사가 아침을 잘 먹었는지 여부가 판결에 영향을 주기도 한다. 이스라엘 법정에서 1,000건가량의 판례를 살펴본 어느 상호 심사 연구 결과에 따르면 판사들은 아침 시간이나 점심 직후에 훨씬 더 너그러운 판결을 내리는 것으로 나타났다.
콜럼비아대학 연구팀 일원인 조너던 리바브는 <가디언(Guardian)지>와의 인터뷰에서 “맨 처음 재판을 받는 3명은 그 날 맨 마지막으로 재판을 받는 3명보다 2~6배가량 석방될 확률이 높았다”고 설명했다.
따라서 알고리즘으로 판사를 대체할 수 있다면 일시적 기분 변화나 개인적 편견, 편향을 완전히 제거한 채 증거만을 기반한 객관적 판결을 내릴 수 있게 될 것이다.