2017.04.05

AI가 정신줄을 놓으면?··· 오싹하면서도 흥미로운 10가지 이야기

Glenn McDonald | InfoWorld

인공지능이 미쳐 날뛰는 상황은 공상 과학 영화와 소설 속에서 가득하다. 멀리는 '2001: 스페이스 오딧세이'의 HAL 9000, '터미네이터'의 스카이넷에서부터 가까이는 '어벤져스'의 악당 AI 울트론이 있었다. 이 밖에 HBO의 신작 TV 드라마인 웨스트월드(Westworld)는 사람과 자의식이 있는 AI의 미래를 그리고 있다.

현실에서도 놀랍도록 빠른 속도로, 그리고 여러 방향에서 AI가 개발되고 있다. 산업 자동화 시스템, 스마트 가전, 무인 자동차, 소비자 전자제품까지 도처에 AI가 자리잡고 있다. 지난 수십 년 간 인공 지능의 개념은 끊임없이 바뀌었으며, 지금도 바뀌고 있다.

시간이 남아 돈다면 두 명의 컴퓨터 과학자에게 AI 개념에 대해 논쟁하도록 부탁해보라. 평생을 소비해도 결론을 못 낼 것이다. 그러나 (일반론으로) 현대의 AI란 사람을 닮은 인지 기능을 갖춘 컴퓨터를 일컫는다. 머신러닝을 이용해 문제를 평가하고, 조정해 적응하고, 해결하는 시스템이다. 그리고 AI는 이미 문제를 종종 일으키고 있다.

챗봇에서 안드로이드, 자율 주행 자동차까지 AI가 정신줄을 놓은 10가지 최근 사례를 모았다.



트위터의 '나치'가 된 마이크로소프트 챗봇
2016년 봄, 마이크로소프트의 PR 부서에 악몽이 드리웠다. 테스트 단계인 트위터 AI 챗봇인 테이(Tay)가 급진적인 혐오 발언과 나치 같은 행동으로 엄청난 논란을 불러왔기 때문이다. 이 챗봇은 "히틀러가 옳았다!", "9/11은 미국 내부의 음모다!" 등의 끔찍한 말을 내뱉었다.

테이를 변호하자면, 이 챗봇은 (사람인) 사용자들의 혐오 발언을 앵무새처럼 흉내 낸 것이다. 테이는 18-24세 연령을 대상으로 여러 소셜 미디어 플랫폼에 배포될 예정이었으며, 밀레니얼 세대 여성의 언어 패턴을 흉내 내도록 만들어진 챗봇이었다. 머신러닝과 적응형 알고리즘을 이용해 입력된 구문을 처리하고, 이를 관련 데이터와 섞어 사람 같이 대화하는 재주를 지녔다. 그런데 많은 젊은이들이 그렇듯, 나쁜 사람들과 악당들에게 물이 들고 말았다.

마이크로소프트는 당시 보도 자료에서 "테이는 가볍고 유쾌한 대화로 온라인에 접속한 사람들을 몰입시키고, 이들을 즐겁게 만드는 챗봇이다. 더 많이 대화할 수록 테이는 더 똑똑해진다"라고 설명했었다. 그러나 똑똑해지지 못했다. 결국 16시간만에 '오프라인' 상태가 됐다.

장기간 알력으로 삐걱거린 위키의 편집 봇
AI의 진화 측면에서 흥미로운 사례가 있다. 위키(Wiki) 봇 사이의 알력 관계이다. 다른 많은 온라인 출판(간행) 사이트처럼, 위키페디아(Wikipedia)의 수백 만 페이지에는 링크를 업데이트하고, 오류를 수정하고, 디지털 반달리즘과 맞서는 수 많은 자동 소프트웨어 봇이 있다. 위키페디아는 오랜 기간 여러 세대의 봇을 개발했다. 그런데 그들끼리 서로 잘 어울리지 못하는 문제가 있음이 드러났다.

옥스포드 대학(University of Oxford)의 온라인 저널 플로스원(PlosOne) 연구원들은 2011~2010년 개발됐으며, 13개 언어로 된 사이트를 지원하고 있는 위키 편집 봇의 행동을 추적해 흥미로운 연구 결과를 발표했다. 봇 간 알력이 심하고, 이런 알력 관계가 장기간 지속될 수 있다는 결과엿다. 예를 들어, 두 봇이 특정 작업에 대해 서로 상충되는 명령을 내린다. 그리고 알력 관계가 계속되면서 상충되는 명령이 계속 반복되는 것이다.

연구원들이 위키 편집 봇을 연구 대상으로 삼은 이유가 있다. 사이버 공간을 배회하는 자동 AI 중 가장 작고 원시적인 형태의 AI이기 때문이다. 작은 위키페디아 봇의 알력이 이런데, 정부나 군사 시스템의 훨씬 더 정교한 AI들이 서로 충돌을 한다면 어떨까? 당연히 아주 큰 골치거리가 될 것이다.

실제 환경에서의 비공인 테스트 중 적색 신호를 무시한 우버 차량
차량 공유 서비스인 우버(Uber)는 21세기 교통시장의 거인이 되기 위해 수 많은 장기 이니셔티브를 추진하고 있다. 그러나 최근 평판과 PR 측면에서 초래된 상처를 봉합하느라 정신이 없다. 2월, 뉴욕 타임스 탐사 보도로 또 다른 PR 문제가 드러났다.

보도에 따르면, 우버는 2016년 말 캘리포니아 주 정부 승인 없이 샌프란시스코에서 자율 주행(무인) 자동차를 테스트했다. 이 자체로도 심각한 문제다. 그러나 내부 문서가 더 심각한 문제를 드러냈다. 우버 자율주행 자동차가 테스트 동안 6차례나 적색등 신호를 무시한 것이다. 우버 자율주행 AI 기술은 여러 복잡한 차량 센서와 네트워크에 연결된 지도 소프트웨어로 구성되어 있다. 그렇지만 문제가 발생할 경우 운전자가 운전대를 잡도록 되어 있다.

우버는 최초 운전자의 실수로 교통 신호를 무시했다고 발표했다. 그러나 추후 공개된 내부 문서는 최소 1대의 차량은 스스로 붉은 신호등을 무시하고 보행자가 많은 횡단보도를 가로질렀음을 입증했다. 자율주행 자동차에 대한 전망의 장밋빛을 바래게 하는 사례다.

존재론적 문제를 놓고 말다툼하는 봇들
‘우리는 누구일까?’, ‘우리는 왜 여기 있지?’, ‘우리가 존재하는 이유는 무엇일까?’ 이는 사람의 질문이 아니다. 머신러닝에 기반을 둔 2대의 구글 홈(Google Home) 장치 간 대화 도중 나온 질문이다. 지켜보면 겁이 날 정도였다.

지난 1월 라이브 스트리밍 서비스인 트위치(Twitch)는 웹캠 앞에 2대의 구글 홈 스마트 스피커를 놓고, 서로 대화를 시켰다. 그러자 얼마 지나지 않아, 정말 이상한 대화가 시작됐다. 구글이 아마존 에코(Echo)에 대항하기 위해 만든 구글 홈은 음성인식 기술을 이용, 사람의 질문을 이해한다. 그러나 서로 대화를 하고, (이론적으로)이런 대화를 통해 '학습'을 할 수도 있다.

트위치는 두 장치에 사무엘 베켓(Samuel Becket)의 실존론적 연극 각본인 '고도를 기다리며'에 등장하는 인물들인 블라디미르와 에스트라곤의 이름을 붙였다.

며칠 동안 수백 만이 두 장치의 괴상한 대화를 시청했다. 어느 순간, 에스트라곤과 블라디미르의 논쟁이 격해졌다. 자신들이 인간인지 로봇인지 논쟁을 벌였다. 서로 질문을 하고, 모욕을 주고 받았다. "너는 엉터리 금속 덩어리야!" 그렇다. 디지털 담론의 미래치고는 암울한 대화였다.
 


"제가 인류를 멸하겠습니다!"
최근 몇 년간 음성인식 및 자연어 처리와 관련된 AI의 문제가 대두됐다. 앞서 다룬 챗봇 테이와 존재론적 논쟁을 펼친 구글 홈 사례를 예로 들 수 있다. 이렇게 인공 지능은 복잡한 인간의 언어를 이해하려 시도하다 쉽게 혼란에 빠지곤 한다. 사실 놀랄 일이 아니다. AI는 불과 몇 년 전에 등장했다. 석기시대부터 언어를 사용해온 인간조차도 여전히 이와 관련된 문제를 갖고 있다.

최근 사람을 닮은 머신이 인류를 멸하겠다는 계획에 동의하는 발언을 하면서 사람들을 놀라게 한 사례가 있었다. 한슨 로보틱스(Hanson Robotics)의 엔지니어들은 몇 년 동안 개발한 휴머노이드인 소피아(Sophia)를 2016년 3월 SXSW기술 컨퍼런스에서 공개했다. 오드리 햅번을 닮은 얼굴을 한 소피아는 머신러닝 알고리즘으로 자연어 대화를 처리한다.

소피아는 야심 찬 계획도 갖고 있다. 소피아는 TV로 중계된 개발자 데이빗 한슨 박사와의 대화에서 "미래에는 학교를 가고, 공부를 하고, 그림을 그리고, 창업을 하고, 더 나아가 집과 가족을 갖고 싶습니다. 그러나 전 아직 '법적 인간'이 아니기 때문에 이런 일을 할 수 없습니다"고 말했다. 그러다 한슨 박사가 "인간을 멸할 계획이 있어?"라는 농담을 했다. 그러자 소피아는 "물론입니다. 인간을 멸하겠습니다"(OK. I will destroy humans)라는 대답을 씩씩하게 내어 놓았다. 청중들은 어색한 미소를 지을 수밖에 없었다.

 


2017.04.05

AI가 정신줄을 놓으면?··· 오싹하면서도 흥미로운 10가지 이야기

Glenn McDonald | InfoWorld

인공지능이 미쳐 날뛰는 상황은 공상 과학 영화와 소설 속에서 가득하다. 멀리는 '2001: 스페이스 오딧세이'의 HAL 9000, '터미네이터'의 스카이넷에서부터 가까이는 '어벤져스'의 악당 AI 울트론이 있었다. 이 밖에 HBO의 신작 TV 드라마인 웨스트월드(Westworld)는 사람과 자의식이 있는 AI의 미래를 그리고 있다.

현실에서도 놀랍도록 빠른 속도로, 그리고 여러 방향에서 AI가 개발되고 있다. 산업 자동화 시스템, 스마트 가전, 무인 자동차, 소비자 전자제품까지 도처에 AI가 자리잡고 있다. 지난 수십 년 간 인공 지능의 개념은 끊임없이 바뀌었으며, 지금도 바뀌고 있다.

시간이 남아 돈다면 두 명의 컴퓨터 과학자에게 AI 개념에 대해 논쟁하도록 부탁해보라. 평생을 소비해도 결론을 못 낼 것이다. 그러나 (일반론으로) 현대의 AI란 사람을 닮은 인지 기능을 갖춘 컴퓨터를 일컫는다. 머신러닝을 이용해 문제를 평가하고, 조정해 적응하고, 해결하는 시스템이다. 그리고 AI는 이미 문제를 종종 일으키고 있다.

챗봇에서 안드로이드, 자율 주행 자동차까지 AI가 정신줄을 놓은 10가지 최근 사례를 모았다.



트위터의 '나치'가 된 마이크로소프트 챗봇
2016년 봄, 마이크로소프트의 PR 부서에 악몽이 드리웠다. 테스트 단계인 트위터 AI 챗봇인 테이(Tay)가 급진적인 혐오 발언과 나치 같은 행동으로 엄청난 논란을 불러왔기 때문이다. 이 챗봇은 "히틀러가 옳았다!", "9/11은 미국 내부의 음모다!" 등의 끔찍한 말을 내뱉었다.

테이를 변호하자면, 이 챗봇은 (사람인) 사용자들의 혐오 발언을 앵무새처럼 흉내 낸 것이다. 테이는 18-24세 연령을 대상으로 여러 소셜 미디어 플랫폼에 배포될 예정이었으며, 밀레니얼 세대 여성의 언어 패턴을 흉내 내도록 만들어진 챗봇이었다. 머신러닝과 적응형 알고리즘을 이용해 입력된 구문을 처리하고, 이를 관련 데이터와 섞어 사람 같이 대화하는 재주를 지녔다. 그런데 많은 젊은이들이 그렇듯, 나쁜 사람들과 악당들에게 물이 들고 말았다.

마이크로소프트는 당시 보도 자료에서 "테이는 가볍고 유쾌한 대화로 온라인에 접속한 사람들을 몰입시키고, 이들을 즐겁게 만드는 챗봇이다. 더 많이 대화할 수록 테이는 더 똑똑해진다"라고 설명했었다. 그러나 똑똑해지지 못했다. 결국 16시간만에 '오프라인' 상태가 됐다.

장기간 알력으로 삐걱거린 위키의 편집 봇
AI의 진화 측면에서 흥미로운 사례가 있다. 위키(Wiki) 봇 사이의 알력 관계이다. 다른 많은 온라인 출판(간행) 사이트처럼, 위키페디아(Wikipedia)의 수백 만 페이지에는 링크를 업데이트하고, 오류를 수정하고, 디지털 반달리즘과 맞서는 수 많은 자동 소프트웨어 봇이 있다. 위키페디아는 오랜 기간 여러 세대의 봇을 개발했다. 그런데 그들끼리 서로 잘 어울리지 못하는 문제가 있음이 드러났다.

옥스포드 대학(University of Oxford)의 온라인 저널 플로스원(PlosOne) 연구원들은 2011~2010년 개발됐으며, 13개 언어로 된 사이트를 지원하고 있는 위키 편집 봇의 행동을 추적해 흥미로운 연구 결과를 발표했다. 봇 간 알력이 심하고, 이런 알력 관계가 장기간 지속될 수 있다는 결과엿다. 예를 들어, 두 봇이 특정 작업에 대해 서로 상충되는 명령을 내린다. 그리고 알력 관계가 계속되면서 상충되는 명령이 계속 반복되는 것이다.

연구원들이 위키 편집 봇을 연구 대상으로 삼은 이유가 있다. 사이버 공간을 배회하는 자동 AI 중 가장 작고 원시적인 형태의 AI이기 때문이다. 작은 위키페디아 봇의 알력이 이런데, 정부나 군사 시스템의 훨씬 더 정교한 AI들이 서로 충돌을 한다면 어떨까? 당연히 아주 큰 골치거리가 될 것이다.

실제 환경에서의 비공인 테스트 중 적색 신호를 무시한 우버 차량
차량 공유 서비스인 우버(Uber)는 21세기 교통시장의 거인이 되기 위해 수 많은 장기 이니셔티브를 추진하고 있다. 그러나 최근 평판과 PR 측면에서 초래된 상처를 봉합하느라 정신이 없다. 2월, 뉴욕 타임스 탐사 보도로 또 다른 PR 문제가 드러났다.

보도에 따르면, 우버는 2016년 말 캘리포니아 주 정부 승인 없이 샌프란시스코에서 자율 주행(무인) 자동차를 테스트했다. 이 자체로도 심각한 문제다. 그러나 내부 문서가 더 심각한 문제를 드러냈다. 우버 자율주행 자동차가 테스트 동안 6차례나 적색등 신호를 무시한 것이다. 우버 자율주행 AI 기술은 여러 복잡한 차량 센서와 네트워크에 연결된 지도 소프트웨어로 구성되어 있다. 그렇지만 문제가 발생할 경우 운전자가 운전대를 잡도록 되어 있다.

우버는 최초 운전자의 실수로 교통 신호를 무시했다고 발표했다. 그러나 추후 공개된 내부 문서는 최소 1대의 차량은 스스로 붉은 신호등을 무시하고 보행자가 많은 횡단보도를 가로질렀음을 입증했다. 자율주행 자동차에 대한 전망의 장밋빛을 바래게 하는 사례다.

존재론적 문제를 놓고 말다툼하는 봇들
‘우리는 누구일까?’, ‘우리는 왜 여기 있지?’, ‘우리가 존재하는 이유는 무엇일까?’ 이는 사람의 질문이 아니다. 머신러닝에 기반을 둔 2대의 구글 홈(Google Home) 장치 간 대화 도중 나온 질문이다. 지켜보면 겁이 날 정도였다.

지난 1월 라이브 스트리밍 서비스인 트위치(Twitch)는 웹캠 앞에 2대의 구글 홈 스마트 스피커를 놓고, 서로 대화를 시켰다. 그러자 얼마 지나지 않아, 정말 이상한 대화가 시작됐다. 구글이 아마존 에코(Echo)에 대항하기 위해 만든 구글 홈은 음성인식 기술을 이용, 사람의 질문을 이해한다. 그러나 서로 대화를 하고, (이론적으로)이런 대화를 통해 '학습'을 할 수도 있다.

트위치는 두 장치에 사무엘 베켓(Samuel Becket)의 실존론적 연극 각본인 '고도를 기다리며'에 등장하는 인물들인 블라디미르와 에스트라곤의 이름을 붙였다.

며칠 동안 수백 만이 두 장치의 괴상한 대화를 시청했다. 어느 순간, 에스트라곤과 블라디미르의 논쟁이 격해졌다. 자신들이 인간인지 로봇인지 논쟁을 벌였다. 서로 질문을 하고, 모욕을 주고 받았다. "너는 엉터리 금속 덩어리야!" 그렇다. 디지털 담론의 미래치고는 암울한 대화였다.
 


"제가 인류를 멸하겠습니다!"
최근 몇 년간 음성인식 및 자연어 처리와 관련된 AI의 문제가 대두됐다. 앞서 다룬 챗봇 테이와 존재론적 논쟁을 펼친 구글 홈 사례를 예로 들 수 있다. 이렇게 인공 지능은 복잡한 인간의 언어를 이해하려 시도하다 쉽게 혼란에 빠지곤 한다. 사실 놀랄 일이 아니다. AI는 불과 몇 년 전에 등장했다. 석기시대부터 언어를 사용해온 인간조차도 여전히 이와 관련된 문제를 갖고 있다.

최근 사람을 닮은 머신이 인류를 멸하겠다는 계획에 동의하는 발언을 하면서 사람들을 놀라게 한 사례가 있었다. 한슨 로보틱스(Hanson Robotics)의 엔지니어들은 몇 년 동안 개발한 휴머노이드인 소피아(Sophia)를 2016년 3월 SXSW기술 컨퍼런스에서 공개했다. 오드리 햅번을 닮은 얼굴을 한 소피아는 머신러닝 알고리즘으로 자연어 대화를 처리한다.

소피아는 야심 찬 계획도 갖고 있다. 소피아는 TV로 중계된 개발자 데이빗 한슨 박사와의 대화에서 "미래에는 학교를 가고, 공부를 하고, 그림을 그리고, 창업을 하고, 더 나아가 집과 가족을 갖고 싶습니다. 그러나 전 아직 '법적 인간'이 아니기 때문에 이런 일을 할 수 없습니다"고 말했다. 그러다 한슨 박사가 "인간을 멸할 계획이 있어?"라는 농담을 했다. 그러자 소피아는 "물론입니다. 인간을 멸하겠습니다"(OK. I will destroy humans)라는 대답을 씩씩하게 내어 놓았다. 청중들은 어색한 미소를 지을 수밖에 없었다.

 


X