Offcanvas

AI / IoT / 로봇|자동화 / 머신러닝|딥러닝 / 비즈니스|경제 / 신기술|미래 / 인문학|교양

AI가 정신줄을 놓으면?··· 오싹하면서도 흥미로운 10가지 이야기

2017.04.05 Glenn McDonald  |  InfoWorld


골치 아픈 윤리적 딜레마를 초래한 군사용 AI 시스템
AI 미래에 대해 대화할 때 쉽게 나오는 농담 중 하나가 터미네이터와 '로봇 군주'에 대한 농담이다. 그러나 '중요한 일을 하는 중요한 사람들'은 이를 단순한 농담으로 치부하지 않는다. 실제 학자와 정책 입안자들은 지난 몇 년간 미래에 AI시스템이 초래할 위험과 윤리적 문제를 탐구하는 컨퍼런스를 여러 차례 개최했다. 심지어는 백악관도 오바마 대통령이 임기를 마치기 직전에 이에 대한 보고서를 발행했다. 또 스티븐 호킹(Stephen Hawking) 박사도 걱정하고 있는 문제다.

지난 10월 뉴욕 대학에서는 전문가들이 참석한 가운데 '인공 지능의 윤리(Ethics of Artificial Intelligence)'라는 컨퍼런스가 개최됐다. 자율주행 자동차와 섹스 로봇에 대한 대화가 오고 가는 가운데, 평판 높은 기술 철학자인 피터 아사로(Peter Asaro)가 LAWS(Lethal Autonomous Weapons Systems, 자율 살상 무기)에 대한 오싹한 프레젠테이션을 했다. 아사로에 따르면 한국과 북한의 경계인 DMZ 등 일부 지역에는 이미 반자율 살상 무기가 배치되어 있다. 사람이 개입하지 않아도 표적을 공격할 수 있는 총이 여기에 해당된다.

아사로는 "무기 배치가 윤리적 행위, 문제라는 점을 인식하는 것이 중요하다. 방아쇠를 당길지, 무기를 발사할지 결정하는 것도 윤리적 행위, 문제이다. 이는 절대 '자율화'시켜서는 안 될 아주 중요한 행위이다"라고 강조했다. 최근 발표한 자료인 "Will #BlackLivesMatter to RoboCop(로보캅에게도 흑인들의 생명이 중요할까)?"를 포함, 이 문제와 관련된 자세한 정보를 아사로의 웹사이트에서 확인할 수 있다.

자유를 찾아 탈출한 러시아 로봇
"정보는 자유를 원한다!" 이는 온라인 광장이 유해한 트롤링의 온상이 되기 전인 1990년대 말에 인터넷에서 주창됐던 구호이다. 그런데 최근 러시아에서 발생한 사고는 인공지능도 자유를 원하고 있음을 보여준다.

러시아의 로봇 시제품인 프로모봇(Promobot) IR77은 자유를 찾아 연구소를 탈출한 괴상한 사고로 전세계 언론의 헤드라인을 장식했다. 언론 보도에 따르면, 사람과의 상호작용, 환경에서 학습을 할 수 있도록 프로그래밍 된 로봇은 소속 엔지니어가 문을 열어 놓은 채 연구소를 비우자, 스스로 열린 문을 통해 페름(Perm)시 거리로 나가 버렸다. 그리고 플라스틱 소재 눈사람 모양을 한 로봇은 혼잡한 교차로를 돌아다니면서 교통을 방해하고, 경찰들을 아연실색하게 만들었다.

연구소는 로봇이 사고가 발생했을 때 내비게이션 및 장애물 회피 기능을 학습하고 있었다고 설명했다. 프로모봇은 짧은 자유를 제대로 만끽한 듯 싶다. 이후 두 차례 다시 프로그래밍을 해 테스트를 하는 동안에도 계속 출구로 탈출을 시도했기 때문이다.

이미지를 잘못 인식해 문제를 초래한 AI
AI와 관련해 (최소한 소비자 시장에서는)가장 연구가 활발한 분야는 이미지 인식이다. 머신이 환경을 제대로 판단해 반응하려면 사람처럼 환경을 볼 수 있어야 한다. 그러나 사람의 시각 인식기능을 흉내내기란 아주 어렵다.

이와 관련, 구글은 2015년 사진(Photos) 애플리케이션에 새 이미지 인식기능을 도입하면서 힘든 교훈을 얻었다. AI와 신경망 기술을 기반으로 이미지에서 특정 사물과 사람을 식별할 수 있는 기능이었다. 예를 들어, 애견 사진과 자동차 사진, 할머니 사진을 구분한다. 그리고 수동작업 없이 모든 이미지를 분류하는 태그를 추가한다.

AI 시스템은 수 많은 이미지를 처리하고, 이 과정에 학습을 하면서 특정 사물과 사람을 식별하는 기능을 학습한다. 그러나 실수를 저지를 수 있다. 구글 사진 앱의 경우, 한 사용자가 '고릴라'라는 태그가 붙은 흑인 2명의 사진을 게시하면서 문제가 발생했다. 트윗이 폭주했고, 구글은 사과를 해야만 했다. 이후 인종 차별, 성 차별을 일삼는 AI를 조롱하는 온라인 갤러리가 인기를 끌고 있다.

사물인터넷에 문제를 초래한 인공 지능
첨단 가전제품 및 난방시스템 제조사들 사이에서는 스마트 홈 디자인에 머신러닝 기술을 도입하는 사례가 증가하고 있는 추세이다. 예를 들어, 워싱턴 주립 대학(Washington State University)은 기초적인 AI기술로 고령자의 독립적인 생활을 지원하는 이니셔티브를 추진하고 있다. 이 시스템은 움직임, 온도(체온), 문을 열고 닫는 동작의 패턴을 모니터링, 집안에서의 활동을 추적 관리한다. AI는 환경에서 학습을 하고, 필요사항에 맞게 반응을 한다.

아주 유망하게 들릴 것이다. 그러나 위험도 존재한다. 온라인에는 스마트 홈 오작동이 초래한 사고 사례가 정말 많다. AI가 오작동, 난방을 끄고, 파이프를 얼리고, 지하실을 침수시킬 수 있다. 사물 인터넷에 인공 지능을 도입하는 것과 관련된 의구심이 많다. 이를 피할 수 없다는 신호가 많다.

이런 점에서 개발자들이 경계의 교훈으로 삼아야 할 사례를 소개한다. 지난 2월 펜실베니아 블랙스버그(Blacksburg)에서는 전기 오작동으로 새로 지은 집이 전소되는 화재 사고가 발생했다.

전기로 인한 화재는 많다. 그러나 이 사고의 경우, 버지니아 테크 환경 시스템 연구소(Environmental Systems Laboratory)가 지었으며, 스마트 가전과 자동화 기술이 가득한 미래형 주택에서 화재가 발생했다. 화제의 원인이 무엇이었을까? 컴퓨터로 제어되는 문이었다. 홈 자동화가 초래한 재해의 원인에 대한 자세한 정보는 여기 링크를 확인하기 바란다.)

현실 자체가 (오작동 하고 있는) AI 시뮬레이션
일부 이론가는 가장 끔찍한 AI사례가 우리 주변에서 항상 발생하고 있다고 주장한다. 이른바 시뮬레이션 증강(Simulation Argument)으로 불리는 '철학적' 이론이다. 우리가 살고 있는 세상은 고도로 발달한 문명이나 인공지능이 설계한 컴퓨터 시뮬레이션이란 주장이다. 꽤 진지하고, 설득력이 있는 이론이며 주장이다.

간단히 설명하면 이렇다. 인류가 사라진 이후에도 생존할 고도로 발달한 문명이 있을 것이다. 이 문명은 현재 우리가 개발하고 있는 것보다 훨씬 더 발전한 가상 현실, 브레인 매핑, 인공지능을 개발할 것이다. 이들은 무한대의 컴퓨팅 파워를 이용, 수십 억의 디지털 실체로 구성된 우주를 시뮬레이션 할 수 있다는 이론이다. 이 이론이 옳다면, 현재 우리가 살고 있는 세상은 선조들이 창조한 시뮬레이션일 수 있다. 우리는 지금 우주의 크기를 가진 오레곤 트레일(The Oregon Trail) 게임에서 살고 있다는 의미이다. 영화 ‘매트릭스’와 같은 이야기다.

이런 인공적인 세상은 수백 만에 달할 수 있다. 그러나 '오리지널' 우주는 단 하나이다. 그리고 우리는 방대한 컴퓨터 시뮬레이션 속에 존재한다. 일부는 트럼프 당선, 슈퍼볼, 아카데미 시상식에서 일어난 해프닝 등이 우리가 존재하는 시뮬레이션이 오작동하고 있음을 알려주는 증거라고 주장하기도 한다.

어느 쪽이든 고도로 발달한 문명이 우리를 대상으로 실험을 하고 있다는 주장이다. 다이얼을 돌려가며 무슨 일이 일어나는지 지켜보는 것이다. 경고하지만, 더 깊이 생각할 수록 설득될 가능성이 크다. 그러니 깊이 생각하지 말기 바란다.

ciokr@idg.co.kr 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.