2018.07.10

칼럼 | 기업, 감정 그리고 '공감 경제'의 시대

Mike Elgan | Computerworld
기업들이 감성을 찾고 있다. 기업 컴퓨팅의 사용자 환경이 점차 사용자의 감정 상태 또는 기분을 감지할 뿐 아니라 사용자와 소통할 때 감정을 시뮬레이션하도록 바뀌고 있다.



지난 1월 공개된 가트너의 보고서를 보면 4년 이내에 기기가 사용자의 가족보다 사용자의 감정 상태를 더 잘 파악할 것으로 전망했다. 딥 러닝(Deep Learning)을 통해 행복, 놀람, 분노, 슬픔, 공포, 역겨움, 경외감, 증오 등 20가지 이상의 더욱 미묘한 감정을 판단한다(심리학자들은 사람에게 27가지의 감정이 있다고 말한다). 실제로 오하이오대(University of Ohio)는 사진 속 표정을 분석해 21가지 감정을 인식하는 프로그램을 개발했다. 이 대학 연구원들은 자신의 시스템이 인간보다 감정을 더 잘 인지한다고 주장한다.

공감이 비즈니스를 강화한다
기업에 감정 인터페이스가 필요한 이유는 다양하다. 첫 번째, 공감이 비즈니스를 강화한다. '공감 경제(empathy economy)'는 인간의 감정을 감지해 시뮬레이션하는 AI가 생성하는 재정적 또는 비즈니스적 가치다. 이는 고객 서비스, 가상 비서, 로봇 공학, 공장 안전, 의료, 운송 등을 혁신하는 원동력이기도 하다.

프로스트 & 설리반(Frost & Sullivan)의 코지토(Cogito) 설문조사 결과를 보면, 응답자의 93%가 고객 서비스 상호작용이 기업에 대한 인식에 영향을 끼친다고 답했다. 또한, 공감은 양질의 상호작용에 있어서 핵심 요소 중 하나인 것으로 나타났다. 코지토의 AI 소프트웨어는 MIT의 HDL(Human Dynamics Lab) 행동 과학 연구에 기초하고 있으며 고객의 감정 상태를 분석해 콜센터 직원에게 즉각적인 피드백을 제공함으로써, 고객과 더 쉽게 공감할 수 있도록 돕는다. 이런 종류의 기술을 통해 콜센터 직원은 엄청난 공감 능력을 얻게 되어 기업에 대한 인식을 크게 개선할 수 있다.

어펙티바(Affectiva), 리얼아이즈(Realeyes) 등의 기업은 웹캠을 이용해 표정과 (얼굴 피부의 맥박을 감지해) 심장 박동을 추적하는 클라우드 기반 솔루션을 제공한다. 이들 솔루션은 시장 조사에 유용하게 사용할 수 있을 것이다. 소비자가 광고를 볼 때 광고 속 이미지나 표현에 대한 고객의 느낌을 즉각 간파할 수 있다. 일부 의료 기업은 통화자가 말로는 표현하지 않더라도 자동화된 콜센터가 통화자의 우울증 또는 통증을 감지할 방법을 찾고 있다.

일본의 오므론 오토메이션(Omron Automation)이 개발해 지난 1월 CES에서 시연한 포르페우스(Forpheus)라는 로봇은 탁구를 할 수 있는데, 그 탁구 기술 중에는 보디랭귀지를 읽어 인간 상대방의 기분과 기술 수준을 파악하는 능력이 포함돼 있다. 이 로봇의 핵심은 탁구가 아니라 인간과 "조화를 이루어" 협력하는 산업용 기계의 생산성과 안전성을 높이는 것이다. 예를 들어, 산업용 로봇은 공장 노동자의 보디랭귀지를 판독해 사람이 이동할 수 있는 방식과 위치를 예측할 수 있다.

치한 테크놀로지(Qihan Technology)의 산봇(Sanbot), 소프트뱅크 로보틱스(SoftBank Robotics)의 페퍼(Pepper), 혼다(Honda)의 3E-A18 같은 로봇은 사람에게 일반적인 도움을 제공하기 위해 존재하며, 특히 공항, 쇼핑몰, 호텔 등지에서 이동형 안내소 기능을 한다. 이들은 인간의 감정을 이해하고 모방해 제시된 질문에 더 만족스러운 답변을 제공하도록 개발됐다. 이 로봇들은 보디랭귀지, 음성 패턴, 표정 등을 읽어 사용자가 느끼는 감정이나 혼란스러움 여부를 파악할 수 있다.

감정 감지의 또 다른 주된 적용 분야는 자동차와 트럭이다. 대시보드, 좌석, 안전벨트 등에 있는 생체인식 센서와 카메라를 사용해 운전자가 스트레스가 심하거나 운전을 할 수 없을 정도로 피곤한지 알 수 있다. 감정 감지 자동차는 사고를 줄이고 보험료를 낮출 수 있다. 실제로 포드(Ford)는 EU와 협력해 이런 시스템을 개발하고 있다. 감정 감지는 단순히 사진이나 동영상을 분석하는 것이 아니다. IBM의 왓슨(Watson)은 글로 표현된 의사소통에서 감정과 비꼼까지도 감지하는 '톤 애널라이저(Tone Analyzer)' 기능이 있다.

기업에서 감정 AI를 위한 애플리케이션이 사용되고 있지만 대중은 우선 소비자 및 공공 부문에서 이를 접하게 된다. 페이스북(Facebook)은 최근 '감정 감지 셀카 필터'로 특허를 받았다. 핵심은 사진에서 감지된 감정에 따라 셀카를 위한 적절한 효과를 자동 선택하는 것이다. 예를 들어, 슬퍼 보이는 사람이 있으면 만화 같은 눈물 필터가 기본 적용된다. 행복해 보이는 사람은 '행복한 판다(Happy Panda)' 필터가 적용된다. 네버마인드(Nevermind)라는 비디오 게임은 생체피드백을 이용해 플레이어의 기분을 감지하고 이에 따라 난이도를 조절한다. 플레이어가 두려워할 수록 더 어려워진다(어펙티바의 기술을 사용한다).

이런 적용이 사소하기는 하지만 대중이 감정을 감지하는 소프트웨어에 대한 아이디어에 적응하는데 도움이 된다.
영국에서는 정부가 소셜 미디어 게시물과 댓글에서 감지된 감정에 기초해 대중의 뜻을 감지하기 위해 플라잉바이너리(FlyingBinary)와 엠레이즈(Emrays)가 개발한 G클라우드 10(G-Cloud 10)이라는 서비스를 사용하고 있다.

또한 중국에 있는 사람들은 학교에서 감정 AI와 처음 맞닥뜨릴 수 있다. 지난 3월, 중국의 한 학교는 모든 학생의 감정 상태를 모니터링하기 위해 AI를 사용하는 교실에 카메라를 추가했다. 이 시스템은 출석을 확인하고 매 순간 아이들의 행동을 추적하며, 심지어 학생이 얼마나 산만한지에 대해서도 등급을 매긴다(오웰(Orwell)의 '페이스크라임(Facecrime)'의 한 버전이다). 그들은 실제로 집중해야 할 뿐 아니라 집중하고 있는 것처럼 보여야 한다.


의사소통을 위해 감정이 필요하다
이처럼 감정과 공감은 다양한 측면에서 비즈니스를 강화한다. 그러나 더 중요한 이유는 따로 있다. 즉 감정은 의사소통을 위해 필요하다. AI와 로봇은 기계이지만 사람은 아니다. 말하는 내용이 인간 의사소통의 전부라는 생각하기 쉽지만 사실, 인간은 단어, 억양, 표정, 손짓, 몸짓으로 소통한다. 이 때문에 이메일은 기본적으로 잘못된 의사소통의 가능성이 있다. 말로 할 수 없는 힌트가 없다면 의도한 의미의 대부분을 잃게 된다.

컴퓨팅 역사를 뒤돌아보면 컴퓨터가 더 강력해지면서 기계와 사용자 사이의 상호작용 질을 높이기 위해 컴퓨터가 더욱 적극적으로 활용되도록 적용되는 트렌드가 뚜렷하다. 예전에는 "인터페이스"가 스위치, 펀치 카드, 테이프였다. 인간은 컴퓨터의 2진수 언어를 배우기 위해 노력해야 했다. 그 이후로 명령줄, GUI, 음성 인터페이스가 등장했다. 각 단계로 발전할 때마다 기계는 인간의 인터페이스를 더 용이하게 하기 위해 노력하고 있다.

문제는 오늘날의 음성 인터페이스가 말로 할 수 없는 힌트가 아니라 단어만을 다루기 때문에 만족스럽지 못하다는 점이다. 예를 들어, 가상 비서와 대화할 때 구어가 텍스트로 변환되어 분석되는데, 미래에는 텍스트와 억양을 함께 처리해 의미와 맥락을 파악하게 될 것이다.

감정 AI의 가장 강력한 이점은 인간/기계 상호작용에 점차 음성 및 비음성 의사소통이 수반돼 양측의 이해를 높일 것이라는 점이다. 가장 흥미로운 감정 감지 및 시뮬레이션의 사용 사례를 일상적인 가상 비서다. 시리(Siri), 구글 어시스턴트(Google Assistant), 알렉사(Alexa), 코타나(Cortana)의 미래 버전은 사용자의 감정에 기초해 상호작용을 다르게 해석할 것이다.

아이폰X에는 카메라 시스템과 페이스ID 기능이 들어가 있다. 필자는 이를 스마트폰을 이용한 고품질 감정 감지의 문을 연 것으로 본다. 이제 산업 전체가 공감형 휴대전화를 빠르게 개발하고 있다. 예를 들어 중국 최고의 스마트폰 제조사인 화웨이는 사용자의 감정을 감지하는 AI로 (현재 1억 1,000만 명의 사용자를 확보한) 기존의 가상 비서를 업데이트하고 있다. 애플, 아마존, 구글, 삼성 등의 모든 주요 가상 비서 제조사가 AI 기반 감정 센서 및 시뮬레이터와의 음성 상호작용을 열정적으로 개선하고 있다.

결론은 감정 기계가 더 좋은 성과를 낸다는 것이다. 이러한 개선은 수 백 가지 방법으로 이뤄지며, 특히 비즈니스에 필요한 사람과 시스템 사이의 상호작용을 향상한다는 것이 중요하다. ciokr@idg.co.kr 
2018.07.10

칼럼 | 기업, 감정 그리고 '공감 경제'의 시대

Mike Elgan | Computerworld
기업들이 감성을 찾고 있다. 기업 컴퓨팅의 사용자 환경이 점차 사용자의 감정 상태 또는 기분을 감지할 뿐 아니라 사용자와 소통할 때 감정을 시뮬레이션하도록 바뀌고 있다.



지난 1월 공개된 가트너의 보고서를 보면 4년 이내에 기기가 사용자의 가족보다 사용자의 감정 상태를 더 잘 파악할 것으로 전망했다. 딥 러닝(Deep Learning)을 통해 행복, 놀람, 분노, 슬픔, 공포, 역겨움, 경외감, 증오 등 20가지 이상의 더욱 미묘한 감정을 판단한다(심리학자들은 사람에게 27가지의 감정이 있다고 말한다). 실제로 오하이오대(University of Ohio)는 사진 속 표정을 분석해 21가지 감정을 인식하는 프로그램을 개발했다. 이 대학 연구원들은 자신의 시스템이 인간보다 감정을 더 잘 인지한다고 주장한다.

공감이 비즈니스를 강화한다
기업에 감정 인터페이스가 필요한 이유는 다양하다. 첫 번째, 공감이 비즈니스를 강화한다. '공감 경제(empathy economy)'는 인간의 감정을 감지해 시뮬레이션하는 AI가 생성하는 재정적 또는 비즈니스적 가치다. 이는 고객 서비스, 가상 비서, 로봇 공학, 공장 안전, 의료, 운송 등을 혁신하는 원동력이기도 하다.

프로스트 & 설리반(Frost & Sullivan)의 코지토(Cogito) 설문조사 결과를 보면, 응답자의 93%가 고객 서비스 상호작용이 기업에 대한 인식에 영향을 끼친다고 답했다. 또한, 공감은 양질의 상호작용에 있어서 핵심 요소 중 하나인 것으로 나타났다. 코지토의 AI 소프트웨어는 MIT의 HDL(Human Dynamics Lab) 행동 과학 연구에 기초하고 있으며 고객의 감정 상태를 분석해 콜센터 직원에게 즉각적인 피드백을 제공함으로써, 고객과 더 쉽게 공감할 수 있도록 돕는다. 이런 종류의 기술을 통해 콜센터 직원은 엄청난 공감 능력을 얻게 되어 기업에 대한 인식을 크게 개선할 수 있다.

어펙티바(Affectiva), 리얼아이즈(Realeyes) 등의 기업은 웹캠을 이용해 표정과 (얼굴 피부의 맥박을 감지해) 심장 박동을 추적하는 클라우드 기반 솔루션을 제공한다. 이들 솔루션은 시장 조사에 유용하게 사용할 수 있을 것이다. 소비자가 광고를 볼 때 광고 속 이미지나 표현에 대한 고객의 느낌을 즉각 간파할 수 있다. 일부 의료 기업은 통화자가 말로는 표현하지 않더라도 자동화된 콜센터가 통화자의 우울증 또는 통증을 감지할 방법을 찾고 있다.

일본의 오므론 오토메이션(Omron Automation)이 개발해 지난 1월 CES에서 시연한 포르페우스(Forpheus)라는 로봇은 탁구를 할 수 있는데, 그 탁구 기술 중에는 보디랭귀지를 읽어 인간 상대방의 기분과 기술 수준을 파악하는 능력이 포함돼 있다. 이 로봇의 핵심은 탁구가 아니라 인간과 "조화를 이루어" 협력하는 산업용 기계의 생산성과 안전성을 높이는 것이다. 예를 들어, 산업용 로봇은 공장 노동자의 보디랭귀지를 판독해 사람이 이동할 수 있는 방식과 위치를 예측할 수 있다.

치한 테크놀로지(Qihan Technology)의 산봇(Sanbot), 소프트뱅크 로보틱스(SoftBank Robotics)의 페퍼(Pepper), 혼다(Honda)의 3E-A18 같은 로봇은 사람에게 일반적인 도움을 제공하기 위해 존재하며, 특히 공항, 쇼핑몰, 호텔 등지에서 이동형 안내소 기능을 한다. 이들은 인간의 감정을 이해하고 모방해 제시된 질문에 더 만족스러운 답변을 제공하도록 개발됐다. 이 로봇들은 보디랭귀지, 음성 패턴, 표정 등을 읽어 사용자가 느끼는 감정이나 혼란스러움 여부를 파악할 수 있다.

감정 감지의 또 다른 주된 적용 분야는 자동차와 트럭이다. 대시보드, 좌석, 안전벨트 등에 있는 생체인식 센서와 카메라를 사용해 운전자가 스트레스가 심하거나 운전을 할 수 없을 정도로 피곤한지 알 수 있다. 감정 감지 자동차는 사고를 줄이고 보험료를 낮출 수 있다. 실제로 포드(Ford)는 EU와 협력해 이런 시스템을 개발하고 있다. 감정 감지는 단순히 사진이나 동영상을 분석하는 것이 아니다. IBM의 왓슨(Watson)은 글로 표현된 의사소통에서 감정과 비꼼까지도 감지하는 '톤 애널라이저(Tone Analyzer)' 기능이 있다.

기업에서 감정 AI를 위한 애플리케이션이 사용되고 있지만 대중은 우선 소비자 및 공공 부문에서 이를 접하게 된다. 페이스북(Facebook)은 최근 '감정 감지 셀카 필터'로 특허를 받았다. 핵심은 사진에서 감지된 감정에 따라 셀카를 위한 적절한 효과를 자동 선택하는 것이다. 예를 들어, 슬퍼 보이는 사람이 있으면 만화 같은 눈물 필터가 기본 적용된다. 행복해 보이는 사람은 '행복한 판다(Happy Panda)' 필터가 적용된다. 네버마인드(Nevermind)라는 비디오 게임은 생체피드백을 이용해 플레이어의 기분을 감지하고 이에 따라 난이도를 조절한다. 플레이어가 두려워할 수록 더 어려워진다(어펙티바의 기술을 사용한다).

이런 적용이 사소하기는 하지만 대중이 감정을 감지하는 소프트웨어에 대한 아이디어에 적응하는데 도움이 된다.
영국에서는 정부가 소셜 미디어 게시물과 댓글에서 감지된 감정에 기초해 대중의 뜻을 감지하기 위해 플라잉바이너리(FlyingBinary)와 엠레이즈(Emrays)가 개발한 G클라우드 10(G-Cloud 10)이라는 서비스를 사용하고 있다.

또한 중국에 있는 사람들은 학교에서 감정 AI와 처음 맞닥뜨릴 수 있다. 지난 3월, 중국의 한 학교는 모든 학생의 감정 상태를 모니터링하기 위해 AI를 사용하는 교실에 카메라를 추가했다. 이 시스템은 출석을 확인하고 매 순간 아이들의 행동을 추적하며, 심지어 학생이 얼마나 산만한지에 대해서도 등급을 매긴다(오웰(Orwell)의 '페이스크라임(Facecrime)'의 한 버전이다). 그들은 실제로 집중해야 할 뿐 아니라 집중하고 있는 것처럼 보여야 한다.


의사소통을 위해 감정이 필요하다
이처럼 감정과 공감은 다양한 측면에서 비즈니스를 강화한다. 그러나 더 중요한 이유는 따로 있다. 즉 감정은 의사소통을 위해 필요하다. AI와 로봇은 기계이지만 사람은 아니다. 말하는 내용이 인간 의사소통의 전부라는 생각하기 쉽지만 사실, 인간은 단어, 억양, 표정, 손짓, 몸짓으로 소통한다. 이 때문에 이메일은 기본적으로 잘못된 의사소통의 가능성이 있다. 말로 할 수 없는 힌트가 없다면 의도한 의미의 대부분을 잃게 된다.

컴퓨팅 역사를 뒤돌아보면 컴퓨터가 더 강력해지면서 기계와 사용자 사이의 상호작용 질을 높이기 위해 컴퓨터가 더욱 적극적으로 활용되도록 적용되는 트렌드가 뚜렷하다. 예전에는 "인터페이스"가 스위치, 펀치 카드, 테이프였다. 인간은 컴퓨터의 2진수 언어를 배우기 위해 노력해야 했다. 그 이후로 명령줄, GUI, 음성 인터페이스가 등장했다. 각 단계로 발전할 때마다 기계는 인간의 인터페이스를 더 용이하게 하기 위해 노력하고 있다.

문제는 오늘날의 음성 인터페이스가 말로 할 수 없는 힌트가 아니라 단어만을 다루기 때문에 만족스럽지 못하다는 점이다. 예를 들어, 가상 비서와 대화할 때 구어가 텍스트로 변환되어 분석되는데, 미래에는 텍스트와 억양을 함께 처리해 의미와 맥락을 파악하게 될 것이다.

감정 AI의 가장 강력한 이점은 인간/기계 상호작용에 점차 음성 및 비음성 의사소통이 수반돼 양측의 이해를 높일 것이라는 점이다. 가장 흥미로운 감정 감지 및 시뮬레이션의 사용 사례를 일상적인 가상 비서다. 시리(Siri), 구글 어시스턴트(Google Assistant), 알렉사(Alexa), 코타나(Cortana)의 미래 버전은 사용자의 감정에 기초해 상호작용을 다르게 해석할 것이다.

아이폰X에는 카메라 시스템과 페이스ID 기능이 들어가 있다. 필자는 이를 스마트폰을 이용한 고품질 감정 감지의 문을 연 것으로 본다. 이제 산업 전체가 공감형 휴대전화를 빠르게 개발하고 있다. 예를 들어 중국 최고의 스마트폰 제조사인 화웨이는 사용자의 감정을 감지하는 AI로 (현재 1억 1,000만 명의 사용자를 확보한) 기존의 가상 비서를 업데이트하고 있다. 애플, 아마존, 구글, 삼성 등의 모든 주요 가상 비서 제조사가 AI 기반 감정 센서 및 시뮬레이터와의 음성 상호작용을 열정적으로 개선하고 있다.

결론은 감정 기계가 더 좋은 성과를 낸다는 것이다. 이러한 개선은 수 백 가지 방법으로 이뤄지며, 특히 비즈니스에 필요한 사람과 시스템 사이의 상호작용을 향상한다는 것이 중요하다. ciokr@idg.co.kr 
X