2017.10.10

이재용 칼럼 | 정서심리학에서 인공지능까지

이재용 | CIO KR
폴 에크먼(Paul Ekman) 박사는 뉴기니아와 아프리카 원주민등 20여개 문명의 인간 표정 연구를 통하여 인류 공통 감정이 얼굴에 어떻게 나타나는 지를 밝혀냄으로써 정서심리학의 발전에 크게 기여했다. 이번 컬럼에서는 인간의 정서가 행동으로 나타나는 과정이 인공지능과 연계되어 우리의 삶을 어떻게 변화할 것인 지에 대하여 이야기하기로 한다.

정서(emotion)란, 인지(cognition)과 느낌(feeling), 행동(behavior) 간의 관계다. 인간의 정서는 밖으로 향하는 일종의 운동으로, 심적 에너지들이 밖으로 드러나 표현되는 것이다. 즉 공포, 놀람, 슬픔, 분노. 행복과 같은 감정이 뇌의 신호에 의해서 형성돼 표출되는 양태를 의미한다.

우리 내부에서의 감정 생성은 4단계의 과정을 거친다. 출현(presentation)-유도(trigger)-실행(execution)-감정상태(emotional state)에 머무름이다. 이중에서 실행(execution) 단계에서 기분을 좌지우지하는 도파민이나 세레토닌 등의 호르몬이 분비되고, 시상하부, 전뇌기저부, 뇌간이 이 과정에 작용하여 얼굴 근육의 변화로 표정이 바뀌게 된다.

에크먼 박사의 안면 움직임 부호화 시스템(FACS · Facial Action Coding System)은 인간의 얼굴의 표정을 숫자와 알파벳을 이용하여 나타내는 방법으로 얼굴 표정의 움직임을 부호화 한 것이다. 인간의 얼굴은 43개 근육으로 되어 있으며 만들 수 있는 표정의 수는 1만 가지가 넘는다. 이러한 연구들에 힘입어 인간 심연에서 느끼는 감정을 연구하는 정서심리학이 크게 발전했다.

이 연구는 학문적으로 크게 인정받아 오늘날 수사 분야에서 활용되고 있다.. 미국의 911 사태 이후에는 공항에서 활용되는 위험 인물 자동 판별 프로그램(SPOT) 등으로 다양하게 발전했다.

한편으로는 컴퓨터 기술자들에 의해서 발전된 패턴 매칭(pattern matching)이 안면 인식 프로그램에 적용되어 발전했다. 그 결과 홍체인식이나 신분증명 카드를 대신할 뿐만 아니라, 사진 판독, 보안, 감시, 신분증명 등의 다양한 보안시스템과 연계됐다. 이러한 안면 인식 기술은 안면 움직임 부호화 시스템과 인공지능이 결합되어 인간이 읽어 낼 수 없는 얼굴 미세 순간(micro expression)을 측정하는 수준으로 발전하고 있다.

얼굴 인식 인공지능
딥러닝(Deep Learning)은 인간의 뇌가 패턴을 인식하는 방식을 모사한 CNN(Convolution Neural Network)이라는 알고리즘을 사용한다. 이와 관련해 2017년 2월 국내 연구진이 발표한 CNNP(Convolution Neural Network Processor)에 주목할 만하다. 이는 0.6mW(밀리와트)의 적은 전력을 소모하면서도 CNN을 구동하는 프로세서다. 알파고 인공지능 알고리즘에서 사용되는 CNN의 2차원 계산을 1차원 계산으로 바꿔 외부의 메모리나 통신망을 통하지 않고 직접 계산 결과를 서로 주고 받을 수 있도록 한 것이 특징이다.

이 프로세서는 얼굴 인식에서 97%의 정확도를 보이고 있다. 2017년 6월에는 이 기술이 이용된 <K-Eye>가 발표됐다. 이 제품을 휴대폰에 연결하면 다가오는 상대방의 이름, 나이 등 정보를 자연스럽게 확인할 수 있다.


(그림 1) KAIST의 Key eye 시스템 (출처 : KAIST 홈페이지)

이렇듯 외부와의 연결 없이 얼굴 인식 기능이 구현되면 얼굴인식 시스템과 정서인식시스템이 또 다른 변화를 맞이하게 된다. 예를 들어 얼굴을 인식한 냉장고가 취향에 맞게 음식을 추천하며, TV는 즐겨보는 프로그램을 선택하여 주는 등이다. 인공지능 얼굴인식이 일상 생활에서의 맞춤형 서비스로 이어지는 셈이다.

순기능과 역기능
2017년 8월 영국 케임브리지대 연구팀은 개인의 고유한 얼굴 윤곽을 결정짓는 14개의 특징점(key points)을 인식해 모자, 안경, 스카프, 수염으로 얼굴을 가린 범죄자들을 인식할 수 있는 인공지능 기술을 개발했다. 이 시스템은 공적 목적으로 범죄자를 골라내는 순기능적 역할을 가질 수 있다.

그러나 역기능 사례도 이미 나타났다. 2017년 9월에는 미국의 스탠퍼드대 연구팀이 동성애자와 이성애자의 얼굴의 미묘한 차이를 인식하여 70~80%의 인식률로 <동성애자를 판별하는 인공지능 프로그램>을 개발했다. 이 기술은 현재 ‘성 소수자 인권단체’와 갈등을 빚고 있다. 매우 은밀한 개인적 영역인 성적 취향을 얼굴만으로 판별할 가능성을 시사하기 때문이다.

인간의 얼굴은 건강, 성격 등의 다양한 정보를 제공한다. 이미 페이스북의 ‘라이크’ 성향을 통해 빅 5(Big 5) 모델에 근거한 성격을 분석하는 성격인식프로그램이 개발돼 있다. 단순히 얼굴인식, 정서인식에서 벗어나 다른 기술과 융합된다면 정치적 성향, 학업능력 등을 판별하는 정확성이 한층 고조될 수 있다. 얼굴인식 기술과 정서인식기술 그리고 소셜 미디어 기술이 융합됨으로써 우리에 삶에 큰 영향을 미치는 시대가 다가오고 있는 것이다.

정서 및 안면 인식과 얼굴인식 기술들이 인공지능과 만났을 때의 문제점


(그림 2) 정서의 두 차원 (출처 : 심리학 입문 2판 시스마프레스 p260 : 재구성)

우리의 정서는 한번에 하나의 감정과 연결되어 있지 않다. (그림2)에서 보이는 것과 같이 우리의 정서는 긍정과 부정의 감정들을 느끼는 좌표들이 다르며 두개의 축 사이에서 서로 인접한 감정들이 상호작용을 한다. 더욱이 부정적 감정과 긍정적 감정을 모두 느끼는 순간이 많은데, 한 순간 하나의 정서에 몰입함으로써 겉으로 드러나는 하나의 감정만을 인식하게 된다.

순간의 대표 감정만을 판별할 수 밖에 없는 현재의 정서+행동기반의 인공지능 판별은 인간이 느끼는 전체 감정을 반영하지 못하여 결국 부정확하고 부분적 처리로 이어 질 수 밖에 없게 된다. 즉, 의식화가 바로 가능한 감정만을 측정하게 된다는 한계가 있으며, 이로 인해 이것의 활용에 대하여 신중해야 한다는 지적들이 나오는 배경이다.

아실로마 인공지능 원칙에서 바라보는 안면 및 정서 프로그램
즉 원자력을 인간에게 위험하게 작동하지 않도록 관리하듯이 정서 및 안면 인식 인공지능도 관리되어야 할 필요성이 제기된다. 그렇다면 어떻게 하면 좋을까? 답을 2017년 1월 미국 캘리포니아의 아실로마에서 열린 AI 컨퍼런스에서 미국 비영리연구단체인 FLI(Future of Life Institute)가 천명한 23개 원칙에서 찾아 보자. 아실로마 원칙은 연구이슈 5개항, 윤리와 가치 13개항, 장기이슈 5개항으로 구분되어 있다. 안면 및 정서 인식 인공지능 프로그램을 윤리와 가치 원칙을 적용하여 보자.

모든 안면 및 정서 인식 시스템은 인간의 인권과 관련된 일이므로 8번에 해당하는 사법 투명성을 확보하여 개인의 정서와 안면인식정보가 공적 영역에서 보호 받을 수 있도록 제도적 장치 속에서 개발될 수 있도록 해야 할 것이다.

9번항의 책임성으로 보면, 대부분의 안면 및 정서 인식 시스템이 오용 및 도덕적 영향력 문제에 대한 문제를 고려하지 못하고 만들어지고 있다. 따라서 연구는 계속진행하되 적용 범위에 대한 사회적 합의를 이끌어 내도록 하여야 할 것이다.

특히, 인간의 성적 선호도의 구분이 가능한 시스템은 그의 적용, 구현에 심리학적 요소의 함정이 있다. 즉, 인간의 발달단계에서 청소년기에 일시적으로 나타나는 동성애적 태도의 경우조차 동성애로 낙인 찍는 낙인 효과(labeling Effect)의 위험성이 존재하는 것이다.

이는 11번항의 인간의 가치문제에 크게 위배된다. 인간의 자유와 문화적 다양성의 이상에 적합하지 않도록 설계되고 운용되고 있지는 않은지 감독과 제재가 필요할 것이다. 12번항의 프라이버시 문제로 이어진다. 현재까지 개발된 안면 및 정서 인식 인공지능 프로그램이 측정한 개인정보를 활용하였다는 것을 각 개인에게 통보했다는 말을 듣지 못했다. 따라서, 공적시스템에서 사용한 개인의 정서 및 안면 인식 정보를 개인에게 어떻게 통지할 지에 대한 대안 및 방법을 마련해야 할 것이다. 개인에게 일일이 통보할 수 없다면 국민 개개인은 언제든지 공적시스템에서 자신의 안면 정보가 어찌 수집되고 관리되는지 확인할 수 있는 시스템을 마련하는 것도 한 방법일 것이다.

14번항은 공동의 이익 부분이다. 영국 케임브리지대 연구팀은 얼굴을 가린 범죄자들을 인식하는 연구의 경우는 공동의 안녕이라는 이익에 부합하는 것으로써 개발을 지원하고 활용하여야 할 것이다.

이제까지 살펴본 아실로마의 원칙의 적용에서 몇 가지 검토를 통하여 어떻게 대응할 것이 좋은지에 대한 방향을 찾을 수 있을 것이다. 이것이 인공지능발 4차 산업혁명의 지능정보화 사회가 몰고올 사회적 변혁에 대비해야 하는 방법 중에 하나가 될 것이다.

* 한서대학교에 근무하는 이재용 교수는 4차산업혁명 카운셀러로써 IT 조직심리학, 심리정보과학의 연구, 강연 및 소통교육을 하고 있다. 4차 산업혁명의 지향점을 인간심리요소의 4가지 컴퓨팅 개념화 파라다임으로 설명하는 컴퓨터공학자이자 심리정보학자이다. 특정 프로젝트나 제품, 연구가 4차 산업혁명의 지향점 중 어떤 위치에 해당하는지를 확인해 볼 수 있는 <특이점 지도>를 만들기 위해 노력하고 있다. ciokr@idg.co.kr 
2017.10.10

이재용 칼럼 | 정서심리학에서 인공지능까지

이재용 | CIO KR
폴 에크먼(Paul Ekman) 박사는 뉴기니아와 아프리카 원주민등 20여개 문명의 인간 표정 연구를 통하여 인류 공통 감정이 얼굴에 어떻게 나타나는 지를 밝혀냄으로써 정서심리학의 발전에 크게 기여했다. 이번 컬럼에서는 인간의 정서가 행동으로 나타나는 과정이 인공지능과 연계되어 우리의 삶을 어떻게 변화할 것인 지에 대하여 이야기하기로 한다.

정서(emotion)란, 인지(cognition)과 느낌(feeling), 행동(behavior) 간의 관계다. 인간의 정서는 밖으로 향하는 일종의 운동으로, 심적 에너지들이 밖으로 드러나 표현되는 것이다. 즉 공포, 놀람, 슬픔, 분노. 행복과 같은 감정이 뇌의 신호에 의해서 형성돼 표출되는 양태를 의미한다.

우리 내부에서의 감정 생성은 4단계의 과정을 거친다. 출현(presentation)-유도(trigger)-실행(execution)-감정상태(emotional state)에 머무름이다. 이중에서 실행(execution) 단계에서 기분을 좌지우지하는 도파민이나 세레토닌 등의 호르몬이 분비되고, 시상하부, 전뇌기저부, 뇌간이 이 과정에 작용하여 얼굴 근육의 변화로 표정이 바뀌게 된다.

에크먼 박사의 안면 움직임 부호화 시스템(FACS · Facial Action Coding System)은 인간의 얼굴의 표정을 숫자와 알파벳을 이용하여 나타내는 방법으로 얼굴 표정의 움직임을 부호화 한 것이다. 인간의 얼굴은 43개 근육으로 되어 있으며 만들 수 있는 표정의 수는 1만 가지가 넘는다. 이러한 연구들에 힘입어 인간 심연에서 느끼는 감정을 연구하는 정서심리학이 크게 발전했다.

이 연구는 학문적으로 크게 인정받아 오늘날 수사 분야에서 활용되고 있다.. 미국의 911 사태 이후에는 공항에서 활용되는 위험 인물 자동 판별 프로그램(SPOT) 등으로 다양하게 발전했다.

한편으로는 컴퓨터 기술자들에 의해서 발전된 패턴 매칭(pattern matching)이 안면 인식 프로그램에 적용되어 발전했다. 그 결과 홍체인식이나 신분증명 카드를 대신할 뿐만 아니라, 사진 판독, 보안, 감시, 신분증명 등의 다양한 보안시스템과 연계됐다. 이러한 안면 인식 기술은 안면 움직임 부호화 시스템과 인공지능이 결합되어 인간이 읽어 낼 수 없는 얼굴 미세 순간(micro expression)을 측정하는 수준으로 발전하고 있다.

얼굴 인식 인공지능
딥러닝(Deep Learning)은 인간의 뇌가 패턴을 인식하는 방식을 모사한 CNN(Convolution Neural Network)이라는 알고리즘을 사용한다. 이와 관련해 2017년 2월 국내 연구진이 발표한 CNNP(Convolution Neural Network Processor)에 주목할 만하다. 이는 0.6mW(밀리와트)의 적은 전력을 소모하면서도 CNN을 구동하는 프로세서다. 알파고 인공지능 알고리즘에서 사용되는 CNN의 2차원 계산을 1차원 계산으로 바꿔 외부의 메모리나 통신망을 통하지 않고 직접 계산 결과를 서로 주고 받을 수 있도록 한 것이 특징이다.

이 프로세서는 얼굴 인식에서 97%의 정확도를 보이고 있다. 2017년 6월에는 이 기술이 이용된 <K-Eye>가 발표됐다. 이 제품을 휴대폰에 연결하면 다가오는 상대방의 이름, 나이 등 정보를 자연스럽게 확인할 수 있다.


(그림 1) KAIST의 Key eye 시스템 (출처 : KAIST 홈페이지)

이렇듯 외부와의 연결 없이 얼굴 인식 기능이 구현되면 얼굴인식 시스템과 정서인식시스템이 또 다른 변화를 맞이하게 된다. 예를 들어 얼굴을 인식한 냉장고가 취향에 맞게 음식을 추천하며, TV는 즐겨보는 프로그램을 선택하여 주는 등이다. 인공지능 얼굴인식이 일상 생활에서의 맞춤형 서비스로 이어지는 셈이다.

순기능과 역기능
2017년 8월 영국 케임브리지대 연구팀은 개인의 고유한 얼굴 윤곽을 결정짓는 14개의 특징점(key points)을 인식해 모자, 안경, 스카프, 수염으로 얼굴을 가린 범죄자들을 인식할 수 있는 인공지능 기술을 개발했다. 이 시스템은 공적 목적으로 범죄자를 골라내는 순기능적 역할을 가질 수 있다.

그러나 역기능 사례도 이미 나타났다. 2017년 9월에는 미국의 스탠퍼드대 연구팀이 동성애자와 이성애자의 얼굴의 미묘한 차이를 인식하여 70~80%의 인식률로 <동성애자를 판별하는 인공지능 프로그램>을 개발했다. 이 기술은 현재 ‘성 소수자 인권단체’와 갈등을 빚고 있다. 매우 은밀한 개인적 영역인 성적 취향을 얼굴만으로 판별할 가능성을 시사하기 때문이다.

인간의 얼굴은 건강, 성격 등의 다양한 정보를 제공한다. 이미 페이스북의 ‘라이크’ 성향을 통해 빅 5(Big 5) 모델에 근거한 성격을 분석하는 성격인식프로그램이 개발돼 있다. 단순히 얼굴인식, 정서인식에서 벗어나 다른 기술과 융합된다면 정치적 성향, 학업능력 등을 판별하는 정확성이 한층 고조될 수 있다. 얼굴인식 기술과 정서인식기술 그리고 소셜 미디어 기술이 융합됨으로써 우리에 삶에 큰 영향을 미치는 시대가 다가오고 있는 것이다.

정서 및 안면 인식과 얼굴인식 기술들이 인공지능과 만났을 때의 문제점


(그림 2) 정서의 두 차원 (출처 : 심리학 입문 2판 시스마프레스 p260 : 재구성)

우리의 정서는 한번에 하나의 감정과 연결되어 있지 않다. (그림2)에서 보이는 것과 같이 우리의 정서는 긍정과 부정의 감정들을 느끼는 좌표들이 다르며 두개의 축 사이에서 서로 인접한 감정들이 상호작용을 한다. 더욱이 부정적 감정과 긍정적 감정을 모두 느끼는 순간이 많은데, 한 순간 하나의 정서에 몰입함으로써 겉으로 드러나는 하나의 감정만을 인식하게 된다.

순간의 대표 감정만을 판별할 수 밖에 없는 현재의 정서+행동기반의 인공지능 판별은 인간이 느끼는 전체 감정을 반영하지 못하여 결국 부정확하고 부분적 처리로 이어 질 수 밖에 없게 된다. 즉, 의식화가 바로 가능한 감정만을 측정하게 된다는 한계가 있으며, 이로 인해 이것의 활용에 대하여 신중해야 한다는 지적들이 나오는 배경이다.

아실로마 인공지능 원칙에서 바라보는 안면 및 정서 프로그램
즉 원자력을 인간에게 위험하게 작동하지 않도록 관리하듯이 정서 및 안면 인식 인공지능도 관리되어야 할 필요성이 제기된다. 그렇다면 어떻게 하면 좋을까? 답을 2017년 1월 미국 캘리포니아의 아실로마에서 열린 AI 컨퍼런스에서 미국 비영리연구단체인 FLI(Future of Life Institute)가 천명한 23개 원칙에서 찾아 보자. 아실로마 원칙은 연구이슈 5개항, 윤리와 가치 13개항, 장기이슈 5개항으로 구분되어 있다. 안면 및 정서 인식 인공지능 프로그램을 윤리와 가치 원칙을 적용하여 보자.

모든 안면 및 정서 인식 시스템은 인간의 인권과 관련된 일이므로 8번에 해당하는 사법 투명성을 확보하여 개인의 정서와 안면인식정보가 공적 영역에서 보호 받을 수 있도록 제도적 장치 속에서 개발될 수 있도록 해야 할 것이다.

9번항의 책임성으로 보면, 대부분의 안면 및 정서 인식 시스템이 오용 및 도덕적 영향력 문제에 대한 문제를 고려하지 못하고 만들어지고 있다. 따라서 연구는 계속진행하되 적용 범위에 대한 사회적 합의를 이끌어 내도록 하여야 할 것이다.

특히, 인간의 성적 선호도의 구분이 가능한 시스템은 그의 적용, 구현에 심리학적 요소의 함정이 있다. 즉, 인간의 발달단계에서 청소년기에 일시적으로 나타나는 동성애적 태도의 경우조차 동성애로 낙인 찍는 낙인 효과(labeling Effect)의 위험성이 존재하는 것이다.

이는 11번항의 인간의 가치문제에 크게 위배된다. 인간의 자유와 문화적 다양성의 이상에 적합하지 않도록 설계되고 운용되고 있지는 않은지 감독과 제재가 필요할 것이다. 12번항의 프라이버시 문제로 이어진다. 현재까지 개발된 안면 및 정서 인식 인공지능 프로그램이 측정한 개인정보를 활용하였다는 것을 각 개인에게 통보했다는 말을 듣지 못했다. 따라서, 공적시스템에서 사용한 개인의 정서 및 안면 인식 정보를 개인에게 어떻게 통지할 지에 대한 대안 및 방법을 마련해야 할 것이다. 개인에게 일일이 통보할 수 없다면 국민 개개인은 언제든지 공적시스템에서 자신의 안면 정보가 어찌 수집되고 관리되는지 확인할 수 있는 시스템을 마련하는 것도 한 방법일 것이다.

14번항은 공동의 이익 부분이다. 영국 케임브리지대 연구팀은 얼굴을 가린 범죄자들을 인식하는 연구의 경우는 공동의 안녕이라는 이익에 부합하는 것으로써 개발을 지원하고 활용하여야 할 것이다.

이제까지 살펴본 아실로마의 원칙의 적용에서 몇 가지 검토를 통하여 어떻게 대응할 것이 좋은지에 대한 방향을 찾을 수 있을 것이다. 이것이 인공지능발 4차 산업혁명의 지능정보화 사회가 몰고올 사회적 변혁에 대비해야 하는 방법 중에 하나가 될 것이다.

* 한서대학교에 근무하는 이재용 교수는 4차산업혁명 카운셀러로써 IT 조직심리학, 심리정보과학의 연구, 강연 및 소통교육을 하고 있다. 4차 산업혁명의 지향점을 인간심리요소의 4가지 컴퓨팅 개념화 파라다임으로 설명하는 컴퓨터공학자이자 심리정보학자이다. 특정 프로젝트나 제품, 연구가 4차 산업혁명의 지향점 중 어떤 위치에 해당하는지를 확인해 볼 수 있는 <특이점 지도>를 만들기 위해 노력하고 있다. ciokr@idg.co.kr 
X