2018.03.13

칼럼 | 자율주행 자동차는 '자율적'일 수 없다

Mike Elgan | Computerworld
캘리포니아 주가 새로 제정한 ‘자율주행 자동차(Self-driving Car)’에 대한 규정은 AI에 대한 ‘오해’가 만연해 있음을 다시 한 번 보여준다.

오늘날 교육받은 사람들도 자율주행 자동차는 사람 없이도 잡고 주행을 할 수 있는 경이로운 기술이라고 생각한다. 사람이 운전대를 완전히 머신에 맡기는 날이 올 것이라고 생각한다. 그렇지 않은가?

그러나 자율주행 자동차에 있어 인간의 역할이 사라지는 시나리오에 대해서는 잠시 차분히 생각할 필요가 있다.

캘리포니아는 최근 운전대 앞에 사람이 앉지 않는, 더 나아가 자동차에 사람이 단 한 명도 없는 자율주행 자동차에(예를 들면, 승객을 내린 후의 차량, 배달이나 운송용 차량) 대한 ‘면허’를 승인했다. 그러나 조건이 있다. 자율주행 자동차 회사가 원격으로 주행을 모니터링 및 통제할 수 있어야 한다.

사실 이는 운전자 없는 자율주행 자동차를 허용하지 않는 다른 주의 규정에도 부합한다. 차에, 최소한 운전석에 사람이 앉아있지 않아도, 원격 모니터링과 원격 제어가 필요하며 안전하게 만들고, 합법적으로 만들어야 한다.

오퍼레이터와 화면, 교통 보고서가 가득한 나사 통제실 같은 통제실을 상상해본다. 수십 명이 수백 대의 차량을 모니터링 하고, 고장이나 오작동, 복잡한 주행 상황에 차량을 통제할 것이다. 콜센터 같은 장소에서 원격으로 차량을 모니터링 할 수도 있다.

다음은 이런 통제실을 보유하고 있거나, 현재 건설 중에 있는 자율주행 자동차 회사들이다.

- 유델브(Udelv)
- 닛산(Nissan)
- 웨이(Waymo)
- 죽스(Zoox)
- 팬텀 오토(Phantom Auto)
- 스타스키 로보틱스(Starsky Robotics)

다른 회사들도 이런 통제실을 운영하게 될까? 전부 다 그렇게 될 것이다. 생각해보라. 다른 것과 마찬가지로, 자율주행 자동차도 AI가 예상하지 못한 상황을 처리할 수 있을 만큼 똑똑하지 않을 때 사람의 도움이 필요하다.



AI의 세계는 ‘사람이 만드는 세계’
AI의 결함을 보완하기 위해, 기업들은 뒤에서 사람이 개입을 하는 방법을 사용한다. AI가 제기능을 하도록 사람이 만들고 학습시킨다. AI가 실패하면, 사람이 개입해 소프트웨어 조정 방향을 알려준다. 이런 휴리스틱(Heuristic) 프로세스의 최종 목적은 사람의 개입이나 감독 없이도 AI가 기능을 발휘하도록 만드는 것이다.

페이스북 M을 기억하는가? 페이스북 메신저용 가상 비서였다. 사람 비서 같이 사용자와 대화할 수 있는 가상 비서를 제공하는 프로젝트였다. 그 ‘산물'은 머신 자동화였다. 그러나 ‘무대 뒤’에서 수 많은 사람이 감독 및 개입을 했다. 이것이 실상이었다. 사람들은 실패한 AI를 교육했다. 궁극적으로 독자적으로 기능하도록 만드는 것이 목적이었다. 페이스북은 완전한 자동화에 도달하기까지 조금씩 사람의 개입을 줄일 계획을 세웠다.

그러나 완전한 자동화에 도달하지 못했다.

예상과는 다르게, 이런 접근법에서는 사람이 한 번 개입하면 사람이 빠지는 일은 일어나지 않는다. 페이스북 M의 경우, 페이스북은 AI가 사람이 돕는 수준을 넘어 발전하기를 원했다. 그러나 오히려 페이스북 M 프로젝트를 전면 폐기 처분해야 했다.

페이스북은 이 이니셔티브에 대해 입을 다물고 있다. 그러나 필자가 강조하고자 하는 점을 파악했을 것이다. 정리하면, 사람의 도움이 필요한 AI는 계속해서 사람의 도움을 필요로 한다.

다른 수 많은 AI 회사와 서비스도 마찬가지이다. ‘가치 제안’은 AI이지만, ‘현실’은 AI와 AI를 돕는 사람이다.

AI에 기반을 둔 서비스의 세계에서는 수 많은 사람들이 현재 사람들이 원하는 기능을 하지 못하는 AI의 결함을 보완하기 위해 피땀 흘려 일한다.

누가 이런 일을 할까? 사용자인 당신도 포함된다.

구글은 9년째 사용자가 사람인지 확인해 인증하는 리캡차(reCAPTCHA) 시스템을 운영하고 있다. 컴퓨터는 인식할 수 없지만, 사람은 인식할 수 있는 '참’과 ‘거짓’ 테스트가 포함된 인증 방법이다.

처음에는 컴퓨터를 이용한 뉴욕 타임즈 기사나 책에 대한 OCR 작업을 지원하는 용도로 reCAPTCHA를 활용했다. 다음은 구글 AI가 구글 스트리트 뷰의 주소를 파악할 수 있도록 만드는데 활용했다. 그리고 4년 전부터 AI 트레이닝용 시스템으로 사용하고 있다.

사진 속 물체를 인식하는 트레이닝이 많다. 스트리트 뷰나 자율주행 자동차에 유용한 물체들이다. 가장 흔한 시나리오를 예로 들면, 교통 표지가 포함된 거리 사진을 작은 사각형으로 나눠 표시한다. 그리고 사용자에게 교통 표지가 포함된 사각형 부분을 클릭해 사람임을 입증하라고 요구하다. 그러나 이는 실제 구글 AI와 관련이 있다. 내비게이션 시스템이 무시할 수 있는 시각적 노이즈가 포함된 부분, 교통 표지가 포함된 사각형 부분을 파악하도록 훈련시키는 것이다. 주행 동안 파악을 하고, 이를 반영해야 하기 때문이다.

그러나 사용자는 AI 조력자에 불가하다. 전문 AI 트레이너와 조력자들은 사진에서 가상 개체와 실제 개체를 구분하고 식별하는 것과 관련된 업무에 하루 온종일을 투자한다. 즉 알고리즘을 테스트 및 분석하고, 바꿀 부분을 추천한다.

의도하지 않은 결과는 복잡하고 정교한 AI 시스템 개발에 중대한 영향을 미치는 요소이다. 아주 단순화시킨 상황 하나를 설명하겠다.

햄버거를 조리하고, 종이에 싸고, 봉투에 넣은 후 고객에게 봉투를 건네 주도록 AI 로봇을 프로그래밍 한다고 가정하자. 마지막 단계의 경우, 고객이 집어 가지고 갈 수 있도록, 고객으로부터 60cm 이내에 봉투를 전달하도록 프로그래밍 한다.

그런데 고객이 저 반대편에 있다. AI 로봇은 어떤 행동을 할까? 고속으로 고객으로부터 60cm 이내 거리를 향해 봉투를 발사할 수도 있다. 프로그래밍에 따라 행동을 한 것이다. 분명히 사람의 행동과는 다르다. 다시 말해, AI 로봇이 ‘교양 있게’ 행동하도록 만드는 새로운 규칙이 필요하다.

웃기지만 생생히 그려지는 상황이다. AI를 트레이닝 시키려면 이런 식으로 계속해서 수정과 교정을 해야 한다. AI는 똑똑하지 않기 때문이다.

무슨 이야기인가 하면, 사람이 AI 같이 행동을 하면 바보라고 생각할 것이다. 고객에게 햄버거가 든 봉투를 던지는 직원은 몰상식한 직원이다. AI에게는 상식이 없다. 애석하게도 모든 상상할 수 있는 상황을 프로그래밍하기란 정말이지 힘들다. 그러나 사람이 모든 상상할 수 있는 상황에 상식적으로 대응할 수 있도록 프로그래밍을 해야 한다.

사람이 AI를 계속 도울 수밖에 없는 이유
자율주행 자동차 회사들이 원격 통제실을 이용하는 정도를 넘어 자율주행 자동차를 발전시킬 수 있을까? 일단 가까운 장래에는 사람이 자율주행 자동차를 감독하고, 원격 통제해야 할 것이 분명하다.

누군가 차량을 파괴하는 것을 방지하기 위해서라도 이렇게 해야 한다. 이미 고의로 자율주행 자동차를 파괴, 또는 공격하는 사람들이 증가하고 있는 추세다.

또 승객들이 여러 다양한 이유 때문에 버튼을 눌러 통제실에서 근무하는 누군가와 이야기를 할 수 있어야 할 것이다. 예를 들어, 승객이 불안감에 이런 요청을 할 수도 있다. “통제실, 낮잠을 자고 싶은데, 그 동안 저 대신 차에 신경을 써 주시겠어요?”

가장 큰 이유는 세상은 크고 복잡하기 때문이다. 항상 이상한 일, 예상 못한 일이 일어난다. 번개가 치거나, 새가 카메라를 박살내거나, 아이들이 레이저 포인터로 센서를 오작동하게 만들 수 있다. 이런 일이 일어났을 때, 자율주행 자동차가 제멋대로 작동하면 안 된다. 너무 위험하다.

AI가 사람의 생명과 직결된 모든 상상할 수 있는 상황을 처리할 수 있게 되기까지 얼마나 오랜 시간이 필요할지 현재로서는 추정하기도 어렵다.

인공지능은 ‘인공+지능’
AI의 능력에 환상을 불어넣은 현상 중 하나는 1966년 MIT 연구에서 비롯된 이른바 ‘일라이자 효과(Eliza Effect)’이다. 당시 일라이자 챗봇 테스트에 참여한 사람들이 일라이자에 공감하는 경향이 있었음을, 즉 의식을 가진 지능이 행동한다고 생각하는 경향이 있었음을 표현하는 용어다.

지금은 AI에서 이런 일라이자 효과가 발생하고 있다. AI는 능력이 있다. 그러나 능력을 발휘하는 범위가 좁다. 슈퍼컴퓨터가 체스 게임에서 이겼다는 소식을 들은 사람들은 “체스에서 정말 똑똑한 사람을 이겼으니, 분명히 사람보다 더 똑똑 할거야.”라는 생각을 한다. 그러나 이는 ‘착각’이다. 체스 게임을 한 로봇은 체스라는 단 한 가지만 놓고 보면 사람보다 더 ‘스마트’하다. 그러나 사람은 수백 만 가지 일에서 체스에 최적화된 로봇보다 더 ‘스마트’하다.

그리고 자율주행 자동차는 한 가지 일만 하지 않는다. 여러 가지 일을 한다. 사람에게는 쉽지만, AI에게는 실로 어려운 일이다.

AI를 과대 평가하지 말아야 한다. AI는 분명히 놀랍고 획기적인 기술 혁신이다. 대부분의 경우, 사람들의 삶을 더 좋게 바꾸어 놓을 것이다. 동시에 우리는 사람의 지능을 과소 평가하는 경향이 있다. 사람은 앞으로도, 최소한 우리 생애 동안에는 사람이 중심이 된 일에는 컴퓨터보다 훨씬 더 큰 능력을 발휘할 것이다.

자율주행 자동차의 발전상은 머신이 독자적으로 복잡하고 종합적인 기능을 수행할 것이라는 믿음이 잘못되었다는 점을 알려준다.

기능은 한다. 그러나 사람의 지속적인 도움을 요구한다. AI의 지능으로 처리할 수 없는 일에 사람의 지원이 필요하다.

*Mike Elgan은 기술 및 기술 문화에 대해 저술하는 전문 기고가다. ciokr@idg.co.kr 

2018.03.13

칼럼 | 자율주행 자동차는 '자율적'일 수 없다

Mike Elgan | Computerworld
캘리포니아 주가 새로 제정한 ‘자율주행 자동차(Self-driving Car)’에 대한 규정은 AI에 대한 ‘오해’가 만연해 있음을 다시 한 번 보여준다.

오늘날 교육받은 사람들도 자율주행 자동차는 사람 없이도 잡고 주행을 할 수 있는 경이로운 기술이라고 생각한다. 사람이 운전대를 완전히 머신에 맡기는 날이 올 것이라고 생각한다. 그렇지 않은가?

그러나 자율주행 자동차에 있어 인간의 역할이 사라지는 시나리오에 대해서는 잠시 차분히 생각할 필요가 있다.

캘리포니아는 최근 운전대 앞에 사람이 앉지 않는, 더 나아가 자동차에 사람이 단 한 명도 없는 자율주행 자동차에(예를 들면, 승객을 내린 후의 차량, 배달이나 운송용 차량) 대한 ‘면허’를 승인했다. 그러나 조건이 있다. 자율주행 자동차 회사가 원격으로 주행을 모니터링 및 통제할 수 있어야 한다.

사실 이는 운전자 없는 자율주행 자동차를 허용하지 않는 다른 주의 규정에도 부합한다. 차에, 최소한 운전석에 사람이 앉아있지 않아도, 원격 모니터링과 원격 제어가 필요하며 안전하게 만들고, 합법적으로 만들어야 한다.

오퍼레이터와 화면, 교통 보고서가 가득한 나사 통제실 같은 통제실을 상상해본다. 수십 명이 수백 대의 차량을 모니터링 하고, 고장이나 오작동, 복잡한 주행 상황에 차량을 통제할 것이다. 콜센터 같은 장소에서 원격으로 차량을 모니터링 할 수도 있다.

다음은 이런 통제실을 보유하고 있거나, 현재 건설 중에 있는 자율주행 자동차 회사들이다.

- 유델브(Udelv)
- 닛산(Nissan)
- 웨이(Waymo)
- 죽스(Zoox)
- 팬텀 오토(Phantom Auto)
- 스타스키 로보틱스(Starsky Robotics)

다른 회사들도 이런 통제실을 운영하게 될까? 전부 다 그렇게 될 것이다. 생각해보라. 다른 것과 마찬가지로, 자율주행 자동차도 AI가 예상하지 못한 상황을 처리할 수 있을 만큼 똑똑하지 않을 때 사람의 도움이 필요하다.



AI의 세계는 ‘사람이 만드는 세계’
AI의 결함을 보완하기 위해, 기업들은 뒤에서 사람이 개입을 하는 방법을 사용한다. AI가 제기능을 하도록 사람이 만들고 학습시킨다. AI가 실패하면, 사람이 개입해 소프트웨어 조정 방향을 알려준다. 이런 휴리스틱(Heuristic) 프로세스의 최종 목적은 사람의 개입이나 감독 없이도 AI가 기능을 발휘하도록 만드는 것이다.

페이스북 M을 기억하는가? 페이스북 메신저용 가상 비서였다. 사람 비서 같이 사용자와 대화할 수 있는 가상 비서를 제공하는 프로젝트였다. 그 ‘산물'은 머신 자동화였다. 그러나 ‘무대 뒤’에서 수 많은 사람이 감독 및 개입을 했다. 이것이 실상이었다. 사람들은 실패한 AI를 교육했다. 궁극적으로 독자적으로 기능하도록 만드는 것이 목적이었다. 페이스북은 완전한 자동화에 도달하기까지 조금씩 사람의 개입을 줄일 계획을 세웠다.

그러나 완전한 자동화에 도달하지 못했다.

예상과는 다르게, 이런 접근법에서는 사람이 한 번 개입하면 사람이 빠지는 일은 일어나지 않는다. 페이스북 M의 경우, 페이스북은 AI가 사람이 돕는 수준을 넘어 발전하기를 원했다. 그러나 오히려 페이스북 M 프로젝트를 전면 폐기 처분해야 했다.

페이스북은 이 이니셔티브에 대해 입을 다물고 있다. 그러나 필자가 강조하고자 하는 점을 파악했을 것이다. 정리하면, 사람의 도움이 필요한 AI는 계속해서 사람의 도움을 필요로 한다.

다른 수 많은 AI 회사와 서비스도 마찬가지이다. ‘가치 제안’은 AI이지만, ‘현실’은 AI와 AI를 돕는 사람이다.

AI에 기반을 둔 서비스의 세계에서는 수 많은 사람들이 현재 사람들이 원하는 기능을 하지 못하는 AI의 결함을 보완하기 위해 피땀 흘려 일한다.

누가 이런 일을 할까? 사용자인 당신도 포함된다.

구글은 9년째 사용자가 사람인지 확인해 인증하는 리캡차(reCAPTCHA) 시스템을 운영하고 있다. 컴퓨터는 인식할 수 없지만, 사람은 인식할 수 있는 '참’과 ‘거짓’ 테스트가 포함된 인증 방법이다.

처음에는 컴퓨터를 이용한 뉴욕 타임즈 기사나 책에 대한 OCR 작업을 지원하는 용도로 reCAPTCHA를 활용했다. 다음은 구글 AI가 구글 스트리트 뷰의 주소를 파악할 수 있도록 만드는데 활용했다. 그리고 4년 전부터 AI 트레이닝용 시스템으로 사용하고 있다.

사진 속 물체를 인식하는 트레이닝이 많다. 스트리트 뷰나 자율주행 자동차에 유용한 물체들이다. 가장 흔한 시나리오를 예로 들면, 교통 표지가 포함된 거리 사진을 작은 사각형으로 나눠 표시한다. 그리고 사용자에게 교통 표지가 포함된 사각형 부분을 클릭해 사람임을 입증하라고 요구하다. 그러나 이는 실제 구글 AI와 관련이 있다. 내비게이션 시스템이 무시할 수 있는 시각적 노이즈가 포함된 부분, 교통 표지가 포함된 사각형 부분을 파악하도록 훈련시키는 것이다. 주행 동안 파악을 하고, 이를 반영해야 하기 때문이다.

그러나 사용자는 AI 조력자에 불가하다. 전문 AI 트레이너와 조력자들은 사진에서 가상 개체와 실제 개체를 구분하고 식별하는 것과 관련된 업무에 하루 온종일을 투자한다. 즉 알고리즘을 테스트 및 분석하고, 바꿀 부분을 추천한다.

의도하지 않은 결과는 복잡하고 정교한 AI 시스템 개발에 중대한 영향을 미치는 요소이다. 아주 단순화시킨 상황 하나를 설명하겠다.

햄버거를 조리하고, 종이에 싸고, 봉투에 넣은 후 고객에게 봉투를 건네 주도록 AI 로봇을 프로그래밍 한다고 가정하자. 마지막 단계의 경우, 고객이 집어 가지고 갈 수 있도록, 고객으로부터 60cm 이내에 봉투를 전달하도록 프로그래밍 한다.

그런데 고객이 저 반대편에 있다. AI 로봇은 어떤 행동을 할까? 고속으로 고객으로부터 60cm 이내 거리를 향해 봉투를 발사할 수도 있다. 프로그래밍에 따라 행동을 한 것이다. 분명히 사람의 행동과는 다르다. 다시 말해, AI 로봇이 ‘교양 있게’ 행동하도록 만드는 새로운 규칙이 필요하다.

웃기지만 생생히 그려지는 상황이다. AI를 트레이닝 시키려면 이런 식으로 계속해서 수정과 교정을 해야 한다. AI는 똑똑하지 않기 때문이다.

무슨 이야기인가 하면, 사람이 AI 같이 행동을 하면 바보라고 생각할 것이다. 고객에게 햄버거가 든 봉투를 던지는 직원은 몰상식한 직원이다. AI에게는 상식이 없다. 애석하게도 모든 상상할 수 있는 상황을 프로그래밍하기란 정말이지 힘들다. 그러나 사람이 모든 상상할 수 있는 상황에 상식적으로 대응할 수 있도록 프로그래밍을 해야 한다.

사람이 AI를 계속 도울 수밖에 없는 이유
자율주행 자동차 회사들이 원격 통제실을 이용하는 정도를 넘어 자율주행 자동차를 발전시킬 수 있을까? 일단 가까운 장래에는 사람이 자율주행 자동차를 감독하고, 원격 통제해야 할 것이 분명하다.

누군가 차량을 파괴하는 것을 방지하기 위해서라도 이렇게 해야 한다. 이미 고의로 자율주행 자동차를 파괴, 또는 공격하는 사람들이 증가하고 있는 추세다.

또 승객들이 여러 다양한 이유 때문에 버튼을 눌러 통제실에서 근무하는 누군가와 이야기를 할 수 있어야 할 것이다. 예를 들어, 승객이 불안감에 이런 요청을 할 수도 있다. “통제실, 낮잠을 자고 싶은데, 그 동안 저 대신 차에 신경을 써 주시겠어요?”

가장 큰 이유는 세상은 크고 복잡하기 때문이다. 항상 이상한 일, 예상 못한 일이 일어난다. 번개가 치거나, 새가 카메라를 박살내거나, 아이들이 레이저 포인터로 센서를 오작동하게 만들 수 있다. 이런 일이 일어났을 때, 자율주행 자동차가 제멋대로 작동하면 안 된다. 너무 위험하다.

AI가 사람의 생명과 직결된 모든 상상할 수 있는 상황을 처리할 수 있게 되기까지 얼마나 오랜 시간이 필요할지 현재로서는 추정하기도 어렵다.

인공지능은 ‘인공+지능’
AI의 능력에 환상을 불어넣은 현상 중 하나는 1966년 MIT 연구에서 비롯된 이른바 ‘일라이자 효과(Eliza Effect)’이다. 당시 일라이자 챗봇 테스트에 참여한 사람들이 일라이자에 공감하는 경향이 있었음을, 즉 의식을 가진 지능이 행동한다고 생각하는 경향이 있었음을 표현하는 용어다.

지금은 AI에서 이런 일라이자 효과가 발생하고 있다. AI는 능력이 있다. 그러나 능력을 발휘하는 범위가 좁다. 슈퍼컴퓨터가 체스 게임에서 이겼다는 소식을 들은 사람들은 “체스에서 정말 똑똑한 사람을 이겼으니, 분명히 사람보다 더 똑똑 할거야.”라는 생각을 한다. 그러나 이는 ‘착각’이다. 체스 게임을 한 로봇은 체스라는 단 한 가지만 놓고 보면 사람보다 더 ‘스마트’하다. 그러나 사람은 수백 만 가지 일에서 체스에 최적화된 로봇보다 더 ‘스마트’하다.

그리고 자율주행 자동차는 한 가지 일만 하지 않는다. 여러 가지 일을 한다. 사람에게는 쉽지만, AI에게는 실로 어려운 일이다.

AI를 과대 평가하지 말아야 한다. AI는 분명히 놀랍고 획기적인 기술 혁신이다. 대부분의 경우, 사람들의 삶을 더 좋게 바꾸어 놓을 것이다. 동시에 우리는 사람의 지능을 과소 평가하는 경향이 있다. 사람은 앞으로도, 최소한 우리 생애 동안에는 사람이 중심이 된 일에는 컴퓨터보다 훨씬 더 큰 능력을 발휘할 것이다.

자율주행 자동차의 발전상은 머신이 독자적으로 복잡하고 종합적인 기능을 수행할 것이라는 믿음이 잘못되었다는 점을 알려준다.

기능은 한다. 그러나 사람의 지속적인 도움을 요구한다. AI의 지능으로 처리할 수 없는 일에 사람의 지원이 필요하다.

*Mike Elgan은 기술 및 기술 문화에 대해 저술하는 전문 기고가다. ciokr@idg.co.kr 

X