2018.04.11

살상 로봇 보이콧 '철회'··· 카이스트, 치명적인 자율 무기 개발 않겠다

Byron Connolly | CIO Australia
최근 한국과학기술원(KAIST)의 인공지능 무기 연구를 문제 삼으며 공동연구를 보이콧한 전세계 유명 AI 및 로봇 학자 50여 명이 자신들이 결정을 철회한다고 밝혔다. 카이스트 총장이 치명적인 자율 무기를 개발하지 않겠다고 약속했으며 50여 명의 학자가 이를 받아들인 것으로 전해졌다.



카이스트와 한화시스템(Hanwha Systems)이 지난 2월 AI 무기 연구실을 공동으로 설립했는데, 지난주 30개국의 인공지능 및 로봇 전문가 50여 명은 여기에 불참하겠다고 밝힌 바 있다.

4월 9일 카이스트 신성철 총장은 "KAIST가 치명적인 자율 무기 시스템이나 살인 로봇 개발에 관여할 의도가 없다"며 "카이스트는 인간의 의미있는 통제가 결여된 자율 무기를 포함한 인간의 존엄성에 반하는 연구 활동을 하지 않겠다"고 밝혔다.

10일 AI 전문가들은 "무기 개발에 인공지능을 책임 있게 사용하겠다는 신속하고 확실한 약속을 고려해 보이콧에 서명한 56명의 인공지능 연구원과 로봇공학 연구원은 보이콧 행동을 철회했다"고 말했다.

호주 뉴사우스웨일즈대학에서 인공지능을 연구하는 토비 월시 교수는 AI 기반 무기의 의미있는 인간 통제가 개발되도록 자율 무기와 국제 규범을 개발하지 않기로 합의해 기쁘다고 전했다.

"이는 우리가 주장하고 그 행동이 성공을 거둔 과학 공동체의 힘을 보여주는 것이다. 처음에 우리는 새 연구소의 목적이 무엇인지 개별적으로 대학에 요청했다. 카이스트는 보이콧을 발표한 지 하루 만에 매우 공개적으로 그리고 분명하게 확신을 보냈다"고 말했다.

월시 교수에 따르면, 군사 환경에서도 인공지능용 애플리케이션이 무수히 많다. 월시 교수는 “예를 들어 지뢰 제거나 폭탄 해체 같은 위험한 일은 로봇이 할 수 있는 완벽한 작업이다. 그러나 누구를 살리고 누구를 죽일지 결정하는 일을 기계에 넘겨서는 안 된다. 그것은 도덕적인 경고를 넘어 새로운 대량 살상 무기가 될 것이다"고 덧붙였다.

한편 이번주 제네바에서 유엔은 살상 로봇이라는 치명적인 자율 무기로 제기된 문제를 논의할 예정이다. 그것은 AI의 군대 적용과 치명적인 자율 무기 체계로 야기된 인도적이고 국제적인 안보 문제를 해결할 수 있는 옵션을 고려할 것이다. 이미 참가국 중 22개국은 그러한 무기에 대한 선제적이고 금지를 촉구했다.

월시 교수는 "2015년에 수천 명의 동료 AI 학자가 자율 무기를 개발 경쟁에 대해 유엔의 공개서한을 작성했다"며 "우리는 최대의 대학이 이 경쟁에 속도를 내도록 하는 것을 좌시할 수 없었다"고 덧붙였다. ciokr@idg.co.kr
 



2018.04.11

살상 로봇 보이콧 '철회'··· 카이스트, 치명적인 자율 무기 개발 않겠다

Byron Connolly | CIO Australia
최근 한국과학기술원(KAIST)의 인공지능 무기 연구를 문제 삼으며 공동연구를 보이콧한 전세계 유명 AI 및 로봇 학자 50여 명이 자신들이 결정을 철회한다고 밝혔다. 카이스트 총장이 치명적인 자율 무기를 개발하지 않겠다고 약속했으며 50여 명의 학자가 이를 받아들인 것으로 전해졌다.



카이스트와 한화시스템(Hanwha Systems)이 지난 2월 AI 무기 연구실을 공동으로 설립했는데, 지난주 30개국의 인공지능 및 로봇 전문가 50여 명은 여기에 불참하겠다고 밝힌 바 있다.

4월 9일 카이스트 신성철 총장은 "KAIST가 치명적인 자율 무기 시스템이나 살인 로봇 개발에 관여할 의도가 없다"며 "카이스트는 인간의 의미있는 통제가 결여된 자율 무기를 포함한 인간의 존엄성에 반하는 연구 활동을 하지 않겠다"고 밝혔다.

10일 AI 전문가들은 "무기 개발에 인공지능을 책임 있게 사용하겠다는 신속하고 확실한 약속을 고려해 보이콧에 서명한 56명의 인공지능 연구원과 로봇공학 연구원은 보이콧 행동을 철회했다"고 말했다.

호주 뉴사우스웨일즈대학에서 인공지능을 연구하는 토비 월시 교수는 AI 기반 무기의 의미있는 인간 통제가 개발되도록 자율 무기와 국제 규범을 개발하지 않기로 합의해 기쁘다고 전했다.

"이는 우리가 주장하고 그 행동이 성공을 거둔 과학 공동체의 힘을 보여주는 것이다. 처음에 우리는 새 연구소의 목적이 무엇인지 개별적으로 대학에 요청했다. 카이스트는 보이콧을 발표한 지 하루 만에 매우 공개적으로 그리고 분명하게 확신을 보냈다"고 말했다.

월시 교수에 따르면, 군사 환경에서도 인공지능용 애플리케이션이 무수히 많다. 월시 교수는 “예를 들어 지뢰 제거나 폭탄 해체 같은 위험한 일은 로봇이 할 수 있는 완벽한 작업이다. 그러나 누구를 살리고 누구를 죽일지 결정하는 일을 기계에 넘겨서는 안 된다. 그것은 도덕적인 경고를 넘어 새로운 대량 살상 무기가 될 것이다"고 덧붙였다.

한편 이번주 제네바에서 유엔은 살상 로봇이라는 치명적인 자율 무기로 제기된 문제를 논의할 예정이다. 그것은 AI의 군대 적용과 치명적인 자율 무기 체계로 야기된 인도적이고 국제적인 안보 문제를 해결할 수 있는 옵션을 고려할 것이다. 이미 참가국 중 22개국은 그러한 무기에 대한 선제적이고 금지를 촉구했다.

월시 교수는 "2015년에 수천 명의 동료 AI 학자가 자율 무기를 개발 경쟁에 대해 유엔의 공개서한을 작성했다"며 "우리는 최대의 대학이 이 경쟁에 속도를 내도록 하는 것을 좌시할 수 없었다"고 덧붙였다. ciokr@idg.co.kr
 

X