2018.03.30

"판도라의 상자 열지 마라"··· AI 기반 자율살상 무기 논란

George Nott | Computerworld
호주 외무부 장관 쥴리 비숍이 인공지능(AI)의 무기화 반대 캠페인에 부정적인 입장을 밝혔다. 금지 조처를 하기에는 너무 초기단계라는 것이다.



지난해 11월 호주내 AI 전문가 122명은 호주 총리 말컴 턴블에 공개서한을 보냈다. 목표를 설정해 살상 공격을 하는데 있어 '인간의 중요한 통제'에 벗어난 치명적인 자율살상 무기 시스템에 반대하는 세계적 흐름에 동참하라는 내용이었다.

뉴사우스웨일스대학교(UNSW)의 AI 담당 교수 토비 월시가 이끄는 이들 전문가 그룹은 정부가 이러한 무기를 법으로 금지해야 한다고 촉구했다. 브라질과 이라크, 우간다 등 세계 19개국이 이들 무기에 대한 금지에 동참했지만 호주는 참여하지 않았다.

이들 학자의 공개 서한에 대해 비숍은 "세계는 아직 자율살상무기 시스템에 대한 공감대를 갖지 못한 상태다. 이 문제에 대한 규제 정책을 만들기 전에 더 광범위하게 검토해야 한다"라고 답했다. 이어 "호주 정부는 자율무기 시스템을 포함해 국방과 관련된 신흥 기술의 다양한 측면에 관심을 기울이고 있다. 신뢰할 수 있는 자율무기 시스템은 더 빠르고 정확하게 타격하는 데 중요한 도움이 될 수 있다. 민간인의 위험을 낮출 수도 있다"라고 덧붙였다.

지난해 7월 호주 정부는 5000만 달러 규모의 DCRC(Defence Cooperative Research Centre) 사업을 시작했다. 신뢰할 수 있는 자율 시스템을 개발하는 것이 주요 내용이다. 단, 비숍은 현재 정책에서도 자율 시스템은 언제나 인간과 상호작용해야 한다는 점을 명확히 했다.

공개서한에 대한 비숍의 답변을 보면, 호주 정부는 계속해서 비인도적재래식무기협약(CCW)을 지지할 것이며 자율무기 시스템에 대한 UN의 새로운 전문가 그룹에도 참여한다는 내용이 포함돼 있다. 이 그룹의 첫 회의는 오는 4월에 열릴 예정이다.

그러나 월시는 비숍의 대답에 대해 실망스럽다는 반응을 내놨다. 그는 "정부가 논쟁적 이슈에 대해 적극 임하지 않는 것으로 보인다. '인간의 중요한 통제'보다 낮은 단계를 고려하는 것 같다. 국제적으로 이 문제에 대한 윤리적 리더십을 보여주지 못하고 있다"라고 말했다.

자율살상 무기는 인간의 개입없이 목표를 선택해 공격한다. 예를 들어 무장한 드론을 미리 설정된 지역으로 보내 누구든 찾아 살상할 수 있다. 이런 무기는 방아쇠를 당기는 데 있어 원격으로 인간의 제어를 받지 않는다. 또는 경계 목적의 자율살상 총은 특정 지역을 지키기 위해 센서로 목표를 감지해 곧바로 발포한다. 일부에선 이를 '전장의 3차 혁명'이라고 부르기도 한다.

호주 전문가들의 공개 서한은 이런 무기의 사용을 중단해야 한다는 전 세계인 운동의 일환이었다. 화학 무기를 제한하는 것처럼 이런 무기도 협정 형태로 사용을 제한해야 한다는 것이다.

5년 전에 시작된 킬러 로봇 금지 운동 관련 단체들은 다양한 센서와 인공지능이 발전하면서 인간의 통제 없이 목표를 찾아 공격하는 무기 시스템을 설계하는 데까지 다다르고 있다고 우려한다. 이들은 "정부가 자율살상 무기 시스템에 대해 명확한 선을 그어야 한다. 인간의 생명을 빼앗는 결정은 절대로 기계에 위임해서는 안된다"라고 주장한다.

지난해 8월에는 이 기술에 대해 경고하기 위해 UN에 보낸 공개 서한에 116명이 서명했다. 이 중에는 태슬라와 스페이스X의 설립자 일론 머스크와 구글 딥마인드의 어플라이드 AI(Applied AI)의 설립자 머스타프 슈레이이 포함됐다. 이들은 공개서한 통해 "(자율살상 무기를) 막을 수 있는 시간이 많지 않다. 일단 판도라의 상자가 열리면 이를 다시 닫기는 매우 힘들 것이다"라고 지적했다. ciokr@idg.co.kr 



2018.03.30

"판도라의 상자 열지 마라"··· AI 기반 자율살상 무기 논란

George Nott | Computerworld
호주 외무부 장관 쥴리 비숍이 인공지능(AI)의 무기화 반대 캠페인에 부정적인 입장을 밝혔다. 금지 조처를 하기에는 너무 초기단계라는 것이다.



지난해 11월 호주내 AI 전문가 122명은 호주 총리 말컴 턴블에 공개서한을 보냈다. 목표를 설정해 살상 공격을 하는데 있어 '인간의 중요한 통제'에 벗어난 치명적인 자율살상 무기 시스템에 반대하는 세계적 흐름에 동참하라는 내용이었다.

뉴사우스웨일스대학교(UNSW)의 AI 담당 교수 토비 월시가 이끄는 이들 전문가 그룹은 정부가 이러한 무기를 법으로 금지해야 한다고 촉구했다. 브라질과 이라크, 우간다 등 세계 19개국이 이들 무기에 대한 금지에 동참했지만 호주는 참여하지 않았다.

이들 학자의 공개 서한에 대해 비숍은 "세계는 아직 자율살상무기 시스템에 대한 공감대를 갖지 못한 상태다. 이 문제에 대한 규제 정책을 만들기 전에 더 광범위하게 검토해야 한다"라고 답했다. 이어 "호주 정부는 자율무기 시스템을 포함해 국방과 관련된 신흥 기술의 다양한 측면에 관심을 기울이고 있다. 신뢰할 수 있는 자율무기 시스템은 더 빠르고 정확하게 타격하는 데 중요한 도움이 될 수 있다. 민간인의 위험을 낮출 수도 있다"라고 덧붙였다.

지난해 7월 호주 정부는 5000만 달러 규모의 DCRC(Defence Cooperative Research Centre) 사업을 시작했다. 신뢰할 수 있는 자율 시스템을 개발하는 것이 주요 내용이다. 단, 비숍은 현재 정책에서도 자율 시스템은 언제나 인간과 상호작용해야 한다는 점을 명확히 했다.

공개서한에 대한 비숍의 답변을 보면, 호주 정부는 계속해서 비인도적재래식무기협약(CCW)을 지지할 것이며 자율무기 시스템에 대한 UN의 새로운 전문가 그룹에도 참여한다는 내용이 포함돼 있다. 이 그룹의 첫 회의는 오는 4월에 열릴 예정이다.

그러나 월시는 비숍의 대답에 대해 실망스럽다는 반응을 내놨다. 그는 "정부가 논쟁적 이슈에 대해 적극 임하지 않는 것으로 보인다. '인간의 중요한 통제'보다 낮은 단계를 고려하는 것 같다. 국제적으로 이 문제에 대한 윤리적 리더십을 보여주지 못하고 있다"라고 말했다.

자율살상 무기는 인간의 개입없이 목표를 선택해 공격한다. 예를 들어 무장한 드론을 미리 설정된 지역으로 보내 누구든 찾아 살상할 수 있다. 이런 무기는 방아쇠를 당기는 데 있어 원격으로 인간의 제어를 받지 않는다. 또는 경계 목적의 자율살상 총은 특정 지역을 지키기 위해 센서로 목표를 감지해 곧바로 발포한다. 일부에선 이를 '전장의 3차 혁명'이라고 부르기도 한다.

호주 전문가들의 공개 서한은 이런 무기의 사용을 중단해야 한다는 전 세계인 운동의 일환이었다. 화학 무기를 제한하는 것처럼 이런 무기도 협정 형태로 사용을 제한해야 한다는 것이다.

5년 전에 시작된 킬러 로봇 금지 운동 관련 단체들은 다양한 센서와 인공지능이 발전하면서 인간의 통제 없이 목표를 찾아 공격하는 무기 시스템을 설계하는 데까지 다다르고 있다고 우려한다. 이들은 "정부가 자율살상 무기 시스템에 대해 명확한 선을 그어야 한다. 인간의 생명을 빼앗는 결정은 절대로 기계에 위임해서는 안된다"라고 주장한다.

지난해 8월에는 이 기술에 대해 경고하기 위해 UN에 보낸 공개 서한에 116명이 서명했다. 이 중에는 태슬라와 스페이스X의 설립자 일론 머스크와 구글 딥마인드의 어플라이드 AI(Applied AI)의 설립자 머스타프 슈레이이 포함됐다. 이들은 공개서한 통해 "(자율살상 무기를) 막을 수 있는 시간이 많지 않다. 일단 판도라의 상자가 열리면 이를 다시 닫기는 매우 힘들 것이다"라고 지적했다. ciokr@idg.co.kr 

X