Offcanvas

AI / HR / 로봇|자동화 / 이직|채용 / 인문학|교양

채용에서의 AI 활용, 아직은 갈 길 먼 이유

2021.10.27 Sarah K. White  |  CIO
이력서를 분석하고 지원자를 선별하기 위해 자동화된 평가, 디지털 면접, 데이터 애널리틱스에 주목하는 기업이 늘고 있다. 이 과정에서 인공지능의 사용이 증가하기도 했다. 그러나 IT의 과제 중 하나로 다양성, 형평성 및 포용성(DEI)이 대두되고 있는 가운데, 서툰 AI 활용이 도움이 되기보다는 해를 끼칠 수 있다는 주장이 제기되고 있다.

IEEE 펠로우이자 뉴욕대학교 텐던 공과대학 학장 겸 윌리엄 R 버클리 교수인 젤레나 코바체비치는 “편향은 대개 데이터에서 비롯된다. 데이터 집합이나 결정에 참고할 만한 요소가 없다면, 당연히 지원자를 제대로 찾아내서 평가하지 못할 것”이라고 말했다.

채용에 AI를 사용하는 데 있어 특히 큰 문제는 채용 시스템을 구축하는 기반이 되는 과거 데이터가 궁극적으로 고유한 편견을 가질 수 있다는 점이다. 과거 데이터 세트가 충분히 풍부하지 않다면, AI 채용 도구는 십수 년 전에 존재했던 편견을 갖게 될 가능성이 매우 높다. 그러나 효과적으로 사용한다면, AI는 더 효율적이고 공정한 채용 과정을 만드는데 도움을 줄 수 있기도 하다.
 
Image Credit : Getty Images Bank


AI에서 편견의 위험성
AI 알고리즘은 일반적으로 과거 데이터에 기반하여 훈련되기 때문에 편향성이 문제시되곤 한다. 데이터 과학에서 편향은 학습 알고리즘의 잘못된 가정으로부터 발생하는 오류라고 정의된다. 현재 환경을 반영하지 않는 데이터로 알고리즘을 교육하면 잘못된 결과가 도출될 것이다. 따라서, 특히 IT와 같이 역사적으로 다양성 문제가 있었던 산업에서 과거 고용 데이터로 알고리즘을 교육하는 것은 큰 실수가 될 수 있다.

전자개인정보센터(Electronic Privacy Information Center, EPIC)의 AI 및 인권 펠로우인 벤 윈터스는 “AI 소프트웨어가 본질적으로 편향되지 않았거나 편향된 영향을 끼치지 않는다는 것을 보증하는 것은 정말 어려운 일이다. 이 점을 방지하기 위해 취할 수 있는 조치들이 있기는 하지만 "많은 시스템이 인종과 장애에 따라 편향된 효과를 갖는 것으로 나타나곤 한다”라고 말했다.

데이터 세트에 주목할 만한 다양성이 없다면, 대표성이 부족한 그룹에 대해 제대로 평가하고 예측하는 것은 불가능하다. 미래의 모든 후보들을 과거의 원형과 비교할 것이다고 코바체비치는 지적했다.

그녀는 “만약 기업이 과거 ‘아이비리그 학교’ 출신들만 채용했다면, 덜 알려진 학교 출신의 지원자가 어떤 성적을 낼지 사실 알지 못한다”라고 말했다.

BMC 소프트웨어에서 기업의 사회적 책임, 다양성, 형평성 및 포용성을 책임지고 있는 웬디 렌트쉴러는 AI가 채용 과정에 가져올 수 있는 잠재적인 부정적 요소를 우려하는 인물이다. 그녀는 AI 채용 도구를 개발하려 했던 아마존의 시도를 대표적인 사례로 언급했다. 그 알고리즘이 여성을 차별한다는 이유로 아마존은 해당 프로젝트를 중단해야만 했다.

렌트쉴러는 “거대한 소프트웨어 회사조차 이 일을 제대로 할 수 없었던 것이다”라고 말했다.

AI의 차별 
가능한 한 윤리적으로 채용 과정에서 AI를 사용하고 과장된 광고의 희생양이 되지 않도록 하는 것은 기업에 달려있다. 민주주의 기술 센터의 직원 프라이버시 선임 정책 자문가인 매튜 쉬어러는 인사부는 보통 비용센터로 치부되기 때문에 리더들은 때때로 비용 절감을 도울 수 있는 자동화 기술을 도입하기를 원한다고 설명했다. 

그러나 이러한 열망으로 인해 기업들은 자신들이 사용하고 있는 소프트웨어의 잠재적인 부정적 측면을 간과하게 될 수도 있다는 지적이다. 쉬어러는 또한 AI 채용 소프트웨어 업체들의 주장 중 상당수가 완전히 거짓은 아니더라도 과대 포장된 경우가 많다고 강조했다.

그는 “특히 사람들의 표정, 목소리 톤, 성격을 측정하는 모든 것을 분석한다고 주장하는 도구들이 있다. 이는 허튼소리다”라고 말했다.

예컨대, 화상 면접에서 지원자의 목소리 톤, 표정, 기타 성격을 측정할 수 있다고 주장하는 도구는 기껏해야 “문화적으로 얼마나 ‘정상적인’ 사람인지를 측정하는 것”이며, 이는 궁극적으로 장애가 있는 지원자나 여타 비전형적인 지원자를 배제할 수 있다고 그는 설명했다. 

그리고 렌트쉴러가 지적했듯이, BIPOC(Black, Indigenous and People of Color), 여성, 그리고 장애인 지원자들은 면접에서 ‘코드 전환’(code switching)이라는 행동이 보이는 경향을 가진다. 과소 대표되는 그룹들이 주류에 속한 다른 사람들을 더 편안하게 해주기 위해 그들이 말하고, 보이고, 행동하는 방식을 조정하는 양태를 의미한다. 이 경우, AI 시스템은 그것을 알아차리고 그들의 행동을 진실하지 않거나 정직하지 못한 것으로 잘못 식별할 수 있다.

AI 채용의 규제 
AI는 비교적 신기술이기 때문에 개인정보 보호 및 거래 관행에 관련된 법률 및 정책에 관해서 감독을 거의 받지 않는다. 그러나 몇몇 분쟁이 이미 나타나고 있는 중이다. 

추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.