Offcanvas

AI / 로봇|자동화 / 머신러닝|딥러닝 / 신기술|미래

"AI 무기 시스템 완성 직전··· UN 차원의 사용 금지 시급"

2017.08.23 George Nott  |  CIO Australia
인공지능 및 로보틱스 전문가로 구성된 한 국제 단체가 UN에 보내는 공개 서한을 통해 자동화 무기(autonomous weapons) 사용을 금지해 줄 것을 요청했다. 이들은 자동화 무기가 ‘제3의 전쟁 혁명(third revolution in warfare)’을 불러올 것이라고 경고했다.



이 서한에 서명한 116인 중에는 텔사, 스페이스 X, 그리고 오픈 AI의 창립자인 일론 머스크와 구글 딥마인드의 응용 AI 창립자이자 대표인 무스타파 술레이먼도 포함된 것으로 알려졌다. 이 공개 서한은 이번 주 멜버른에서 개최된 2017 인공지능 국제회의(IJCAI 2017)에서 공개됐다.

주요 내용을 보면 “우리 116인은 자동화 무기 개발로 이어질 수 있는 인공지능 및 로보틱스 분야의 테크놀로지를 개발 중인 기업으로, 이에 대한 문제의식을 제기할 책임감을 느끼고 있다”고 적었다. 또한 “자동화 무기가 개발되면 인간의 인지 범위를 벗어난 짧은 기간 내에 전례 없는 규모의 무력 분쟁이 발생할 수 있다. 이러한 무기는 테러의 수단으로 무고한 민간인의 학살에 이용될 수 있으며 해킹을 통해 바람직하지 않은 방식으로 기능하도록 조작될 수 있다”고 경고했다.

지난해 12월, UN 재래식 무기 협약 재검토 회의의 123개 회원국은 자동화 무기에 대한 공식 논의를 개시하는 것에 만장 일치로 동의했다. 이중 19개 국은 이미 이러한 무기의 완전한 사용 금지를 주장하고 있다. 호주는 아직 이 사안에 대한 찬반을 표명하지 않은 상태이다. 치명적 자동화 무기 시스템(Lethal Autonomous Weapon Systems)의 정부 전문가 그룹(GGE) 첫 회동이 이번 주 있을 예정이었으나 일부 국가의 UN 회비 미납으로 11월로 연기됐다.

이번 공개 서한은 영국의 물리학자 스티븐 호킹과 애플의 공동 창립자 스티브 워즈니악, 그리고 인지 과학자 노엄 촘스키가 지지한 지난 2015년 서한의 후속이다. 서한은 “우리는 자동화 무기 분야의 군비 경쟁을 예방하고, 자동화 무기의 오용으로부터 민간인을 보호하며, 이러한 기술의 개발이 야기할 불안정한 상황을 예방할 것을 GGE 체결 국가에 요청한다. 치명적 자동화 무기의 개발은 전쟁사 제3의 혁명을 야기할 위험이 있다. 그리고 이에 대처할 시간은 길지 않다. 한 번 열린 판도라의 상자를 다시 닫기란 어려울 것이다”라고 경고했다.

시드니 뉴사우스웨일즈 대학의 인공 지능 교수이자 2015년과 2017년의 공개 서한 작성을 주도한 토비 월쉬 교수는 "자동화 무기의 위험에 대한 대책 마련이 시급하다. 우리가 원하는 미래가 어떤 것인지 지금 결정해야 한다. 화학 무기 및 기타 살상용 무기와 마찬가지로, UN의 자동화 무기 금지를 요구하는 인도적 단체와 기타 단체의 요청에 강력하게 동의한다”고 말했다.

이어 “2년 전 이 컨퍼런스에서도 AI 및 로보틱스 분야의 전문가 수천 명이 자동화 무기 사용 금지를 요구하는 서신에 기꺼이 서명했다. 이러한 노력은 UN에서 자동화 무기 어젠다를 수면 위로 끌어올리는 역할을 했으며 공식 논의가 시작될 수 있는 계기를 마련했다. 올 해 새로이 발행돼 AI와 로보틱스 산업의 지지를 받고 있는 이 공개 서한이 UN에서 이루어 지고 있는 논의를 가속화하기를 기대한다”라고 덧붙였다.


자동화 무기 시스템 완성 직전 단계
자동화 무기는 아직 프로토타입 수준에 머물러 있지만, 그 기술 발전 속도는 매우 빠르다. ‘살상 로봇 개발 중지 캠페인(Campaign to Stop Killer Robots)’ 국제 연합에 따르면, 미국, 중국, 이스라엘, 대한민국, 러시아, 영국 등 강력한 군사력을 갖춘 여러 국가가 기기에 전투 자율성을 부여하는 시스템을 갖추는 쪽으로 방향을 틀고 있다.

월쉬는 “어떤 기술이든 좋게 쓰려면 좋게, 나쁘게 쓰려면 나쁘게 쓰일 수 있다. AI도 마찬가지다. 좋은 의도를 가지고 사용하면, 오늘날 우리가 직면한 불평등, 빈곤, 기후 변화, 국제적 금융 위기 등의 문제를 해결하는 데 도움이 된다. 그러나 이를 자동화 무기 개발에 사용한다면 전쟁의 산업화를 초래할 것이다"라고 말했다.

클리어패스 로보틱스(Clearpath Robotics)의 CTO, 창립자이자 이번 공개 서한에 서명한 라이언 게리어피는 “이토록 많은 유명 기업, 개인이 이 서신에 서명했다는 것은 자동화 무기의 위협이 가상의 시나리오가 아닌 실제적이며 빠른 대처를 요하는 매우 급박한 문제임을 보여준다”라고 말했다.

이어 “아직 공상 과학 소설의 영역에 속하는 다른 AI 기술과 달리, 자동화 무기 시스템은 완성 직전 단계까지 와 있으며 국제적 안보 불안과 함께 무고한 민간인에게 막대한 해를 끼칠 위험이 높다. 치명적 자동화 무기 시스템의 개발은 비도덕적이고 현명하지 못한 선택이며 국제적 차원에서 금지돼야 한다”라고 덧붙였다.

엘리먼트 AI(Element AI)의 창립자이자 딥 러닝 전문가 요슈아 벤지오는 자신이 이 서한에 서명한 이유에 대해 “자동화 무기에 AI 기술을 이용하는 것은 개인적 윤리 의식에 반하는 행위이며, 향후 선한 의도를 가진 AI 기술 활용을 저해하는 악순환을 초래하게 될 것이다. 자동화 무기 금지에 대한 논의는 과거 도덕적 이유로 금지되어 온 생화학 무기, 핵무기에 대한 논의와 마찬가지로 국제적 차원에서 이루어져야 한다”라고 말했다.

베이지언 로직(Bayesian Logic)의 부대표이자 창립자 스튜어트 러셀도 “인류가 새로운 종류의, 치명적 마이크로 드론 형태를 한 대량 살상무기의 확산을 바라는 게 아닌 이상 자동화 무기 금지 조약을 맺고자 하는 UN의 노력을 지지해야만 한다. 국가 안보뿐 아니라 국제적인 안보를 위해서도 필요한 일이다”라고 말했다. ciokr@idg.co.kr 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.