Offcanvas

AI / 머신러닝|딥러닝 / 신기술|미래

인공지능의 새 국면, ‘감정인식 AI’··· 의미와 과제는?

2022.07.26 Mike Elgan  |  Computerworld
인공지능(AI) 도구는 이제 사람들이 행복한지, 슬픈지, 화났는지를 파악하려고 한다. 

‘인공감성지능(Artificial Emotional Intelligence; AEI)’이라고 하는 것이 있다. 이는 사람의 감정 상태를 이해할 수 있는 인공지능이다. AI가 사람의 감정 상태를 감지할 수 있을까? 더 중요하게는, 그렇게 해야 할까?

대부분의 감정인식 AI는 ‘기본 정서 이론’에 기초하는데, 이는 사람들이 일반적으로 6가지 내적 감정 상태(행복, 놀라움, 두려움, 혐오, 분노, 슬픔)를 느끼고, 이러한 상태를 표정, 신체 언어, 억양으로 전달한다는 개념이다.

팬데믹 이후 원격근무 환경에서 영업 사원은 화상통화로 영업을 하면서 사람들의 감정을 읽는 데 어려움을 겪고 있다. 이때 상대편의 감정을 소프트웨어가 전달하면 좋지 않을까?

실제로 유니포어(Uniphore)와 사이빌(Sybill) 등이 이를 개발하고 있다. 예를 들면 유니포어의 ‘영업용 Q(Q for Sales)’ 애플리케이션은 비디오로 비언어적 신호와 신체 언어를, 오디오로 억양과 기타 데이터를 처리하여 ‘감정 스코어보드’를 생성한다.
 
ⓒGetty Images Bank

컴퓨터를 통해 인간관계 맺기  
줌(Zoom)은 이 아이디어에 관심을 보였다. 지난 4월 줌은 화상회의 이후 호스트에게 녹취록과 ‘감정 분석’을 제공하는 ‘영업용 줌 IQ(Zoom IQ for Sales)’ 평가판을 선보인 바 있는데, 가혹한 비판을 받았다.

어떤 사람들은 감정을 읽는 데 AI의 도움을 받는다는 아이디어를 좋아하는 반면, 다른 사람들은 감정 상태가 기계로 판단 및 전달되는 것을 싫어한다. 감정인식 AI 도구를 사용해야 하는지는 많은 업계와 일반 대중이 해결해야 할 중요한 문제다.

이를테면 채용은 감정인식 AI의 이점을 누릴 수 있는 영역이다. 면접관은 (이를 사용해) 진실성, 성실성, 동기 등을 이해할 수 있다. HR 팀과 및 채용 관리자는 입사 열정과 학습 의지에 따라 지원자의 순위를 매길 수 있을 것이다. 정부와 법 집행기관에서도 감정인식 AI에 대한 요구가 높아지고 있다. 국경 순찰 요원과 국토안보부 관리는 밀수업자와 사기꾼을 잡을 수 있는 기술을 원한다. 법 집행기관은 감정인식 AI를 심문 도구로 보고 있다.

감정인식 AI는 고객 서비스, 광고 평가, 심지어 안전 운전에도 응용할 수 있다. 일상적인 비즈니스 애플리케이션에 등장해 통화 및 비즈니스 회의에서 타인의 감정을 전달하거나, 직장에서 지속적인 정신건강 상담을 제공하는 것은 시간문제일 뿐이다.

감정인식 AI가 사람들을 화나게 하는 이유  
불행하게도 감정인식의 ‘과학’은 여전히 사이비 과학이다. 때때로 ‘감성 컴퓨팅’이라고도 하는 감정인식 AI의 실질적인 문제는 간단하다. 사람들의 감정을 읽기가 쉽지 않다는 점이다. 그 웃음은 행복의 결과인가? 아니면 당황의 결과인가? 찌푸린 눈살은 내면의 감정에서 오는 것일까? 아니면 아이러니함을 표현한 것일까? 혹은 농담으로 만들어진 것일까?

다른 사람의 감정 상태를 이해하기 위해 AI를 활용하는 것은 잘못된 이해를 쉽게 초래할 수 있다. 채용이나 법 집행 등에 적용될 때 AI는 득보다 실이 많을 수 있다.

사람들이 일상적으로 특히 비즈니스 회의나 영업 회의에서 감정 상태를 숨기는 것도 사실이다. AI는 표정을 감지할 순 있지만 그 뒤에 있는 생각과 감정을 감지하진 못한다. 사업가가 웃으며 고개를 끄덕이거나 공감하듯 얼굴을 찌푸리는 것은 사회적 상호작용에 적합하기 때문이지, 진심을 드러내기 위해서는 아니다.

반대로 사람들은 연기파 배우로 빙의해 감정을 가장해서 취직하거나 국토안보부에 거짓말을 할 수 있다. 즉, 감정인식 AI가 적용되고 있다는 사실이 기술을 가지고 놀기 위한 비뚤어진 동기를 만들어낸다.

이는 감정인식 AI에 관한 가장 큰 고민으로 이어진다. 이를 비즈니스에서 활용하는 것이 윤리적인가? 사람들은 감정이 AI에 의해 읽히고 판단되길 원하는가?

예를 들어 영업 회의에 참석하는 사람들은 일반적으로 감정을 통제하길 원한다. 미소를 지으면 신난 것처럼 보이고 제품, 서비스 또는 이니셔티브에 대해 기쁘고 흥분된다고 말한다면 진짜 그런 것처럼, 개인의 허락 없이 (개인이) 의도한 커뮤니케이션을 우회해 진심을 알아내지 않길 바란다. 영업 사원은 잠재 고객이 전달하려는 감정을 읽어야지, 드러내지 않으려는 감정을 읽어서는 안 된다. 

감정인식 AI가 어떻게 작동하는지 이해하면 할수록 이는 프라이버시 문제처럼 보인다. 사람들은 사적인 감정을 가질 권리가 있다. 그리고 이는 마이크로소프트가 윤리적인 감정인식 AI 분야의 선두 주자로 부상하는 이유이기도 하다. 

마이크로소프트의 ‘올바른’ 방법 
상당히 발전된 감정인식 기술을 개발했던 마이크로소프트는 (이 회사의) AI 윤리 정책을 개편하면서 관련 서비스를 중단했다. 이를테면 ‘애저 페이스(Azure Face)’라고 하는 도구는 얼굴 인식을 바탕으로 성별, 나이 등을 추정할 수 있었다.

마이크로소프트의 최고 윤리적 AI 책임자 나타샤 크램튼은 공식 블로그에서 “회사 안팎의 전문가들은 ▲‘감정’의 정의에 관한 과학적 합의의 부재, ▲사용 사례/지역/인구 통계 전반에 걸쳐 추론을 일반화하는 방법의 어려움, ▲이와 관련해 높아진 프라이버시 우려를 강조했다”라고 밝혔다.

단, 시각 장애가 있는 사용자를 위해 접근성 앱(‘Seeing AI’)에서는 감정인식 기술을 계속 사용할 계획이라고 마이크로소프트는 전했다. 이는 올바른 선택이다. 시각 장애인이나 자폐증이 있는 사람은 다른 사람의 감정과 반응을 읽는 데 어려움을 겪는다. 따라서 이 영역에서 AI를 사용하는 것은 이 기술을 제대로 활용하는 사례라고 할 수 있다. 

윤리적인 감정인식 AI를 주도하는 기업이 마이크로소프트만 있는 건 아니다. 예를 들면 AI 나우 인스티튜트(AI Now Institute)와 브루킹스 인스티튜트(Brookings Institution)는 감정인식 AI의 빈번한 사용을 금지하자고 주장한다. 아울러 25곳 이상의 단체는 줌이 화상회의 소프트웨어에 감정인식 기술을 사용하려는 계획을 중단하라고 요구했다. 물론 몇몇 소프트웨어 기업들은 이러한 도구를 사용하는 쪽으로 나아가고 있으며, 이를 통해 고객을 찾고 있다. 

대부분의 경우 그리고 현재로서는 감정인식 AI 도구의 사용은 잘못된 길로 나아갈 수도 있지만 관련된 모든 사람이 동의하는 한 대부분 무해하다. 하지만 기술이 발전하고 표정 해석 및 신체 언어 판독 기술이 마음 읽기와 거짓말 탐지에 적용되기 시작하면 비즈니스, 정부, 사회에 심각한 영향을 미칠 수 있다.

간과할 수 없는 또 다른 문제가 있다. 감성 컴퓨팅 분야에서도 사람들의 감정을 시뮬레이션할 수 있는 ‘대화 AI’를 개발하려고 한다. 여기서 문제는 현실감을 위해 약간의 감정 시뮬레이션이 필요하지만 너무 많이 사용된다면 사용자는 AI가 의식이 있거나 지각이 있다고 믿는 착각을 할 수 있다는 점이다. 사실 그러한 믿음은 이미 대규모로 발생하고 있다.

이 모든 것은 AI의 진화 그리고 (이에 따른) 기술과의 관계에서 새로운 국면의 일부다. 감정인식 AI가 무수한 문제를 해결할 수 있다는 사실을 배우는 한편, 새로운 문제를 만들 수 있다는 사실도 알게 될 것이다. 

* Mike Elgan은 기술 및 기술 문화에 대해 저술하는 전문 기고가다. ciokr@idg.co.kr
 
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.