2019.12.20

"안면인식 AI 대부분 편향"··· 美 정부기관, 189개 알고리즘 조사 보고서 발간

편집부 | CIO KR
대다수의 안면인식 알고리즘이 인구통계학적 편향을 보이는 것으로 밝혀졌다. 미 정부기관이 무려 189개의 안면인식 알고리즘을 조사해 도출한 결과다. 경찰 수사, 공항 검색 등 광범위한 분야에 안면인식이 도입되고 있는 시점에서 경종을 울릴 수 있는 계기로 풀이된다. 

미국 국립표준기술연구소(NIST)는 성별·연령·인종에 따라 안면인식 알고리즘의 정확도가 어떻게 달라지는지를 조사한 보고서를 19일 발표했다.
 
ⓒGetty Images

NIST는 미국 국무부, 국토안보부, FBI 등에서 수집한 총 1,827만 개의 얼굴 사진 데이터를 기반으로 총 189개의 안면인식 알고리즘을 평가했다. 여기에는 인텔, 마이크로소프트, 파나소닉 등 주요 기업들의 안면인식 알고리즘도 포함됐다.

단 최근 일부 미국 경찰에서 사용 중인 것으로 알려져 논란이 불거진 아마존의 안면인식 알고리즘 레코그니션(Rekognition)은 포함되지 않았다. NIST에 따르면 아마존은 연구용 알고리즘을 제출하지 않았다.

이번 조사는 안면인식 애플리케이션에서 흔히 사용하는 두 가지 기능을 중심으로 진행했다. 첫 번째는 동일 인물의 다른 사진을 두고 같은 사람인지를 판단하는 일대일 비교(one-to-one)이다. 두 번째는 데이터베이스와 사진 속 인물을 비교해 등록된 사람인지를 판별하는 일대다 비교(one-to-many)이다. 예를 들면 범죄자 얼굴 데이터베이스에 혐의자가 있는지 확인하는 것이다.

보고서에 따르면 남성보다 여성에서 긍정 오류(false positive; 대상의 신원을 잘못 파악하는 것) 비율이 2~5배가량 높았다. 또한, 노년층과 유년층이 다른 연령대에 비해 긍정 오류 비율이 높았다. 

특히 인종에서 그 차이가 두드러졌다고 보고서는 밝혔다. 일대일 비교에서 아시아인과 아프리카계 미국인, 북미 원주민의 긍정 오류 비율이 백인보다 더 높았다. 알고리즘에 따라 적게는 10배에서 많게는 100배 이상 차이가 난 것으로 드러났다. 

일대다 비교에서는 아프리카계 미국인 여성의 긍정 오류 비율이 높은 것으로 나타났다. 특히 일대다 비교의 긍정 오류 결과는 무고한 사람에게 혐의를 씌울 여지가 있어 큰 문제가 될 수 있다고 연구진 측은 말했다. 

예외도 존재했다. 아시아 국가에서 개발된 일부 안면인식 알고리즘은 아시아인과 백인 간의 일대일 비교에서 긍정 오류 비율이 상대적으로 적은 것으로 나타났다. 연구진은 이 같은 결과를 두고 좀 더 다양한 데이터가 공정한 결과를 가져올 수 있다는 신호로 풀이했다.

NIST 컴퓨터 과학자이자 연구 저자인 패트릭 그로서는 "안면인식 알고리즘에서 인구통계학적 격차가 있음을 보여주는 실증적인 증거를 찾았다. 어떤 이유로 격차가 발생하는지는 알 수 없지만, 이번 연구는 이러한 알고리즘이 적절하게 사용되고 있는 것인지 혹은 어떤 규제를 마련해야 하는지 등에 대해 정책 책임자나 개발자들이 생각해볼 거리를 제공한다"라고 전했다.

미국 시민자유연맹(ACLU)의 선임 정책 분석가인 제이 스탠리는 "한 번의 오류로 인해 항공기를 놓치는 것은 물론 감시 대상이 되거나 잘못된 체포를 당할 수도 있다"라며 안면인식 도입을 제고할 이유를 다시 한번 환기했다. 더불어 그는 "정부 부처 연구진이 안면인식 기술의 결함과 편향을 규명했다는 점에서 의의가 있다"라고 워싱턴 포스트, CNN 등의 외신 인터뷰에서 말했다. ciokr@idg.co.kr



2019.12.20

"안면인식 AI 대부분 편향"··· 美 정부기관, 189개 알고리즘 조사 보고서 발간

편집부 | CIO KR
대다수의 안면인식 알고리즘이 인구통계학적 편향을 보이는 것으로 밝혀졌다. 미 정부기관이 무려 189개의 안면인식 알고리즘을 조사해 도출한 결과다. 경찰 수사, 공항 검색 등 광범위한 분야에 안면인식이 도입되고 있는 시점에서 경종을 울릴 수 있는 계기로 풀이된다. 

미국 국립표준기술연구소(NIST)는 성별·연령·인종에 따라 안면인식 알고리즘의 정확도가 어떻게 달라지는지를 조사한 보고서를 19일 발표했다.
 
ⓒGetty Images

NIST는 미국 국무부, 국토안보부, FBI 등에서 수집한 총 1,827만 개의 얼굴 사진 데이터를 기반으로 총 189개의 안면인식 알고리즘을 평가했다. 여기에는 인텔, 마이크로소프트, 파나소닉 등 주요 기업들의 안면인식 알고리즘도 포함됐다.

단 최근 일부 미국 경찰에서 사용 중인 것으로 알려져 논란이 불거진 아마존의 안면인식 알고리즘 레코그니션(Rekognition)은 포함되지 않았다. NIST에 따르면 아마존은 연구용 알고리즘을 제출하지 않았다.

이번 조사는 안면인식 애플리케이션에서 흔히 사용하는 두 가지 기능을 중심으로 진행했다. 첫 번째는 동일 인물의 다른 사진을 두고 같은 사람인지를 판단하는 일대일 비교(one-to-one)이다. 두 번째는 데이터베이스와 사진 속 인물을 비교해 등록된 사람인지를 판별하는 일대다 비교(one-to-many)이다. 예를 들면 범죄자 얼굴 데이터베이스에 혐의자가 있는지 확인하는 것이다.

보고서에 따르면 남성보다 여성에서 긍정 오류(false positive; 대상의 신원을 잘못 파악하는 것) 비율이 2~5배가량 높았다. 또한, 노년층과 유년층이 다른 연령대에 비해 긍정 오류 비율이 높았다. 

특히 인종에서 그 차이가 두드러졌다고 보고서는 밝혔다. 일대일 비교에서 아시아인과 아프리카계 미국인, 북미 원주민의 긍정 오류 비율이 백인보다 더 높았다. 알고리즘에 따라 적게는 10배에서 많게는 100배 이상 차이가 난 것으로 드러났다. 

일대다 비교에서는 아프리카계 미국인 여성의 긍정 오류 비율이 높은 것으로 나타났다. 특히 일대다 비교의 긍정 오류 결과는 무고한 사람에게 혐의를 씌울 여지가 있어 큰 문제가 될 수 있다고 연구진 측은 말했다. 

예외도 존재했다. 아시아 국가에서 개발된 일부 안면인식 알고리즘은 아시아인과 백인 간의 일대일 비교에서 긍정 오류 비율이 상대적으로 적은 것으로 나타났다. 연구진은 이 같은 결과를 두고 좀 더 다양한 데이터가 공정한 결과를 가져올 수 있다는 신호로 풀이했다.

NIST 컴퓨터 과학자이자 연구 저자인 패트릭 그로서는 "안면인식 알고리즘에서 인구통계학적 격차가 있음을 보여주는 실증적인 증거를 찾았다. 어떤 이유로 격차가 발생하는지는 알 수 없지만, 이번 연구는 이러한 알고리즘이 적절하게 사용되고 있는 것인지 혹은 어떤 규제를 마련해야 하는지 등에 대해 정책 책임자나 개발자들이 생각해볼 거리를 제공한다"라고 전했다.

미국 시민자유연맹(ACLU)의 선임 정책 분석가인 제이 스탠리는 "한 번의 오류로 인해 항공기를 놓치는 것은 물론 감시 대상이 되거나 잘못된 체포를 당할 수도 있다"라며 안면인식 도입을 제고할 이유를 다시 한번 환기했다. 더불어 그는 "정부 부처 연구진이 안면인식 기술의 결함과 편향을 규명했다는 점에서 의의가 있다"라고 워싱턴 포스트, CNN 등의 외신 인터뷰에서 말했다. ciokr@idg.co.kr

X