2021.04.07

"AI 기반 감정인식, 한계 있다" 캠브리지 연구진 

강옥주 | CIO KR
인간의 감정까지 읽어내는 AI 기반 얼굴인식 기술이 관심을 끌고 있다. 하지만 전문가들은 컴퓨터에서 사람의 감정을 이해하는 건 한계가 있다고 지적한다. 캠브리지 대학교 알렉사 하게티 박사가 이끄는 연구팀에서 선보인 '이모지파이 프로젝트(Emojify)'는 그 이유를 제시한다. 
 
ⓒAlexa Hagerty 

이모지파이 프로젝트는 두 가지 브라우저 웹 게임으로 구성돼 있다. 가짜 미소 게임(Fake Smile Game)과 윙크/깜빡임 게임(Wink/Blink Game)이다. 

가짜 미소 게임에서는 사용자에게 컴퓨터 웹 캠을 보면서 '행복, 슬픔, 두려움, 놀라움, 혐오감, 분노'라는 6가지 감정을 표현해보라고 요청한다. 미소를 짓거나 찡그리며 게임을 하다 보면 자연스레 소프트웨어를 속이기 쉽다는 사실을 알게 된다. 미소만 지으면 감정인식 소프트웨어가 행복하다고 판단하기 때문이다. 

이와 유사하게 윙크/깜빡임 게임에서는 웹 캠을 보면서 윙크와 눈 깜빡임을 해보라고 요청한다. 하지만 기계는 윙크와 눈 깜빡임을 구분하지 못한다. AI 시스템은 눈을 뜨고 감는 건 추적할 수 있지만 상황에 맞는 행동을 이해하거나 그 의미를 이해할 순 없다는 게 연구진의 설명이다.
  
하게티 박사는 더 버지와의 인터뷰에서 "이러한 기술의 전제는 얼굴과 내면의 감정이 예측 가능한 방식으로 상호 연관돼 있다는 것이다"라면서, "이를테면 웃으면 행복하고 눈살을 찌푸리면 화가 난다고 본다. 하지만 사람의 감정은 얼굴 움직임만으로 쉽게 추론할 수 없다"라고 전했다. 

이러한 한계에도 불구하고 AI 기반 감정인식 기술은 갈수록 보편화되고 있다. 보도에 따르면 기업들은 이런 시스템을 사용해 구직자의 직무 적합성을 평가하거나(예: 하이어뷰(HireVue) 등), 테러리스트가 될 수 있는 사람을 찾거나(예: 페셉션(Faception) 등) 또는 트럭 운전사가 졸린지 아니면 졸고 있는지 파악할 수 있다고 말한다. 애플에서도 2016년 얼굴 사진을 스캔해 감정을 읽는 기술을 보유한 스타트업을 인수한 바 있다. 

연구진에 따르면 물론 사람이 직접 감정을 읽는다고 해도 실수를 하긴 하지만 이 일을 기계에 넘기는 건 문제가 많다. 우선, AI 시스템은 사람처럼 다양한 사회적 단서를 읽을 수 없다. 윙크/깜빡임 게임이 대표적인 사례다. 또 인종적 편향 문제도 존재한다. 예를 들면 이러한 프로그램들에서 흑인 남성의 얼굴을 식별할 때 백인 남성의 얼굴보다 부정적인 감정을 나타내는 것으로 평가하는 경우가 많다고 한다.  

하게티 박사는 "감정인식 시스템에 대해 과학 기술에서 사회적 영향까지 살펴볼 수 있는 대화의 장을 열고자 한다"라면서, "이러한 기술 그리고 개발 및 사용에 관한 대중의 이해와 참여를 촉진하는 게 목표"라고 밝혔다.


ciokr@idg.co.kr 



2021.04.07

"AI 기반 감정인식, 한계 있다" 캠브리지 연구진 

강옥주 | CIO KR
인간의 감정까지 읽어내는 AI 기반 얼굴인식 기술이 관심을 끌고 있다. 하지만 전문가들은 컴퓨터에서 사람의 감정을 이해하는 건 한계가 있다고 지적한다. 캠브리지 대학교 알렉사 하게티 박사가 이끄는 연구팀에서 선보인 '이모지파이 프로젝트(Emojify)'는 그 이유를 제시한다. 
 
ⓒAlexa Hagerty 

이모지파이 프로젝트는 두 가지 브라우저 웹 게임으로 구성돼 있다. 가짜 미소 게임(Fake Smile Game)과 윙크/깜빡임 게임(Wink/Blink Game)이다. 

가짜 미소 게임에서는 사용자에게 컴퓨터 웹 캠을 보면서 '행복, 슬픔, 두려움, 놀라움, 혐오감, 분노'라는 6가지 감정을 표현해보라고 요청한다. 미소를 짓거나 찡그리며 게임을 하다 보면 자연스레 소프트웨어를 속이기 쉽다는 사실을 알게 된다. 미소만 지으면 감정인식 소프트웨어가 행복하다고 판단하기 때문이다. 

이와 유사하게 윙크/깜빡임 게임에서는 웹 캠을 보면서 윙크와 눈 깜빡임을 해보라고 요청한다. 하지만 기계는 윙크와 눈 깜빡임을 구분하지 못한다. AI 시스템은 눈을 뜨고 감는 건 추적할 수 있지만 상황에 맞는 행동을 이해하거나 그 의미를 이해할 순 없다는 게 연구진의 설명이다.
  
하게티 박사는 더 버지와의 인터뷰에서 "이러한 기술의 전제는 얼굴과 내면의 감정이 예측 가능한 방식으로 상호 연관돼 있다는 것이다"라면서, "이를테면 웃으면 행복하고 눈살을 찌푸리면 화가 난다고 본다. 하지만 사람의 감정은 얼굴 움직임만으로 쉽게 추론할 수 없다"라고 전했다. 

이러한 한계에도 불구하고 AI 기반 감정인식 기술은 갈수록 보편화되고 있다. 보도에 따르면 기업들은 이런 시스템을 사용해 구직자의 직무 적합성을 평가하거나(예: 하이어뷰(HireVue) 등), 테러리스트가 될 수 있는 사람을 찾거나(예: 페셉션(Faception) 등) 또는 트럭 운전사가 졸린지 아니면 졸고 있는지 파악할 수 있다고 말한다. 애플에서도 2016년 얼굴 사진을 스캔해 감정을 읽는 기술을 보유한 스타트업을 인수한 바 있다. 

연구진에 따르면 물론 사람이 직접 감정을 읽는다고 해도 실수를 하긴 하지만 이 일을 기계에 넘기는 건 문제가 많다. 우선, AI 시스템은 사람처럼 다양한 사회적 단서를 읽을 수 없다. 윙크/깜빡임 게임이 대표적인 사례다. 또 인종적 편향 문제도 존재한다. 예를 들면 이러한 프로그램들에서 흑인 남성의 얼굴을 식별할 때 백인 남성의 얼굴보다 부정적인 감정을 나타내는 것으로 평가하는 경우가 많다고 한다.  

하게티 박사는 "감정인식 시스템에 대해 과학 기술에서 사회적 영향까지 살펴볼 수 있는 대화의 장을 열고자 한다"라면서, "이러한 기술 그리고 개발 및 사용에 관한 대중의 이해와 참여를 촉진하는 게 목표"라고 밝혔다.


ciokr@idg.co.kr 

X