2017.08.24

"AI 무기는 안 된다" 外··· 인공지능의 위험성에 대한 경고 11선

Techworld Staff | Techworld
인공지능(AI) 분야가 점차 발전하면서 컴퓨터와 기계가 점차 정교해지고 있다. 이러한 가운데 일부 지성인들은 머지 않은 미래에 인간의 존재에 위협을 가할 수 있다고 수 차례 경고했다.

학계의 거장인 팀 버너스-리(Tim Berners-Lee)와 스티븐 호킹(Stephen Hawking)부터 산업계의 거장 엘론 머스크(Elon Musk)와 빌 게이츠(Bill Gates)에 이르는 이들이다. 인간의 통제를 벗어난 AI에 대한 이들의 경고를 정리했다.

1. 엘론 머스크(Elon Musk)
테슬라(Tesla)의 창업자 엘론 머스크를 비롯해 로봇공학 및 AI 산업계의 인물들은 최근 UN(United Nations)에 서신으로 자동 작동 무기에 대한 보호책을 촉구했다. 이 서신에서 그들은 “치명적인 자동 작동 무기 시스템(Lethal Autonomous Weapon Systems)”의 활용을 검토하기 위한 GGE(Group of Government Experts) 수립을 축하하며, 이런 자동 작동 무기가 “전쟁의 3차 혁명이 될 위험”이 있다고 강조했다.

서신은 이렇게 마무리됐다. “개발이 완료되면 그 어느 때보다도 큰 규모의 무력 충돌이 가능할 것이며 인간이 이해할 수 있는 수준보다 더욱 빠를 것이다. 테러리스트와 폭군들이 무고한 사람들을 상대로 이런 무기를 사용할 수 있으며 무기를 해킹하여 바람직하지 않은 용도로 활용할 수 있다. 우리는 시간이 없다. 이 판도라의 상자가 열리면 닫기가 어려울 것이다.”

서명인에는 딥마인드(DeepMind)의 설립자 무스타파 술레이만(Mustafa Suleyman)을 비롯해 전 세계의 학계 및 산업계 명사들이 포함돼 있다.

2. 팀 버너스-리 경(Sir Tim Berners-Lee)
WWW(World Wide Web)의 설계자인 팀 버너스-리는 2017년 4월 런던(London)에서 열린 컨퍼런스에서 인공지능(AI)이 스스로 기업을 설립하고 운영함으로써 새로운 ‘우주의 주인’이 될 수 있는 악몽 같은 시나리오에 관해 이야기했다.

그는 AI가 인수할 기업을 결정하고 이를 논리적인 결론으로 받아들이는 시나리오를 다음과 같이 제시했다.

“AI가 대출 가능자 등을 결정하기 시작하면 심각한 일이 시작되는 것이다. 나아가 AI가 인수할 기업을 선택하거나 스스로 기업을 설립하고 지주회사를 구성하며 스스로 새로운 버전을 만들어 이런 기업을 운영할 수도 있다. 그렇게 되면 이런 AI기업들 사이에서 적자생존이 이루어질 것이다. 이러한 기업에게 공정함을 어떻게 이해시킬 수 있을까? 이러한 현상의 의미는 어떻게 설명할 수 있을까?”

3. 스티븐 호킹 교수(Professor Stephen Hawking)
캠브리지 대학 LCFI(Leverhulme Centre for the Future of Intelligence) 개관식에 참석한 호킹은 인공지능의 잠재적인 위험에 관해 다음과 같이 이야기했다.

“생물적인 두뇌와 컴퓨터가 달성할 수 있는 것 사이에 큰 차이는 없다고 생각한다. 따라서 이론적으로 컴퓨터는 인간 지능을 모방하고 이를 초월할 수 있다.”

호킹은 이어 인간이 통제할 수 없는 자동 작동 무기와 기계 등의 잠재적 위험성을 언급했다. 그는 “쉽게 말해 강력한 AI의 등장은 인류 역상상 최고 아니면 최악의 사태로 이어질 것이다. 그러나 우리는 이 중 어떤 일이 일어날 것인지 모르고 있다”라고 말했다.



4. 스티븐 호킹(2)
스티븐 호킹 교수는 우선 2014년의 BBC 인터뷰 중 무절제한 인공지능 성장의 충격파에 대해 경고하면서 인공지능이 인류의 멸종을 초래할 수 있다고 주장했다.

그는 “인공지능의 발전이 인간의 멸종을 초래할 수 있다. 완전한 인공지능은 스스로를 구축하고 놀라운 속도로 재구성할 수 있을 것이다. 느린 생물학적 진화의 제한을 받는 인간은 경쟁이 불가능하며 대체될 것이다”라고 말했다.

그는 1년 후, 시대정신(Zeitgeist)에서 AI의 빠른 성장에 대해 타임라인을 제시하기도 했다. 호킹은 “컴퓨터는 향후 100년 이내에 AI를 통해 인간을 따라잡을 것이다. 그렇게 되면 컴퓨터가 인류와 같은 목적을 갖도록 해야 할 것이다”라고 말했다.

5. 엘론 머스크(다시)
2017년 4월의 베니티 페어(Vanity Fair)에서 엘론 머스크는 딸기 수확 시나리오를 언급하며 AI에 관한 우려를 표명했다.

“딸기를 수확하기 위해 자기 발전 AI를 개발한다면 점차 딸기를 잘 따게 되면서 더 많은 양을 수확하고 스스로 발전한다면 결국 딸기만 수확하고 싶어질 것이다. 그러면 전 세계를 딸기밭으로 만들고 싶어질 것이다. 딸기밭이 영원히 끝나지 않는 것이다.” 

또한 2014년 AACS(AeroAstro Centennial Symposium)에서의 인터뷰에서 머스크는 이렇게 말했다.

“인공지능에 대해 매우 주의해야 한다고 생각한다. 이것이 현존하는 가장 큰 위협이라고 생각한다. 매우 주의해야 한다. 우리가 멍청하게 행동하지 않도록 하기 위해 국내 및 국제적인 수준에서 규제 감독이 있어야 한다는 생각이 든다.”

6. 구글의 에릭 슈미트(Eric Schmidt)
워싱턴 포스트(Washington Post)는 슈미트가 이렇게 말했다고 보도했다. “이 기술이 인간을 더욱 스마트하게 만들 것이다. 결국 인류 역사상 가장 큰 충격파를 던질 것이라고 생각한다.”

그는 10년 또는 20년 후까지는 별로 걱정되지 않는 수준이라고 덧붙였다. “우리는 아직 사물을 이해하는 초기 수준에 머무르고 있다”라고 그는 말했다.



7. 마이크로소프트 공동 설립자 빌 게이츠(Bill Gates)
지난 해 BBC와의 인터뷰에서 빌 게이츠는 인공지능으로 인한 잠재적인 위협에 대한 자신의 생각을 내비쳤다.
http://www.bbc.co.uk/news/31047780
그는 “나는 슈퍼인텔리전스가 걱정된다. 우선 기계가 우리를 위해 많은 일을 하지만 아주 똑똑해서는 안 된다. 하지만 수십 년 후에는 지능이 강화되어 걱정되는 수준에 이를 것이다. 이에 대해서는 엘론 머스크 및 다른 사람들과 같은 생각이며 이에 대해 걱정하지 않는 사람들이 이해되지 않는다”라고 말했다.

8. 애플의 공동 설립자 스티브 워즈니악(Steve Wozniak)
지난 해 이맘때 즈음 스티브 워즈니악은 인류에 대한 AI의 영향에 관해 이야기하면서 “인간은 로봇의 애완동물이 될 것이다”라는 주장을 펼친 것으로 유명하다.

AFR(Australian Financial Review)과의 인터뷰에서 워즈니악은 이렇게 말했다. “사람들에게 미래가 두렵고 좋지 못하다는 것에는 동의한다. 우리가 우리 스스로를 위해 이런 장치를 만든다면 결국에는 우리보다 사고가 빨라지고 느린 인간을 몰아내어 기업의 효율성을 제고할 것이다.”

하지만 워즈니악이 2015년 6월 오스틴(Austine)에서 열린 프리스케일(Freescale) 기술 포럼에서 입장을 바꿨다. 그는 “우리보다 더욱 똑똑해짐에 따라 인류가 필요하다는 사실을 알게 될 것이다”라고 말했다.

9. 스카이프의 공동 설립자 얀 탈린(Jaan Tallinn)
테크월드(Techworld)와의 인터뷰에서 탈린은 이렇게 말했다.

“AI의 특성이 있다. 약간만 발전해도 큰 돈과 연결된다는 점이다. 순위 측정 알고리즘을 1%만 개선해도 구글은 수억 달러를 벌게 된다. 구체적인 (AI) 모니터링 메커니즘에 관해 이야기하기에는 시기상조라 생각한다. 현재로서는 ‘겁주기 효과’(chilling effect) 가진 것이 무엇인지에 관해 산업계와 학계가 합의점을 찾는 것이 더욱 중요하다.”

10. FLI(Future of Life)의 공개 질의서
FLI의 서신에는 “AI의 엄청난 잠재력 때문에 잠재적인 위험을 피하면서 그 이점을 취할 수 있는 방법을 연구하는 것이 중요하다. 우리의 AI 시스템은 우리가 원하는 일을 해야 한다”라는 내용이 담겨 있다.

FLI 측은 해당 서신에서 “AI 연구가 꾸준히 발전하고 있으며 사회에 대한 영향력이 커질 수 있다는 광범위한 합의점이 도출되고 있다. 잠재적인 이점이 크며 문명이 제공하는 모든 것은 인간 지능의 산물이다. AI가 제공할 수 있는 도구를 통해 이 지능이 강화되었을 때 우리가 무엇을 달성할 수 있는지는 예측할 수 없지만 질병과 빈곤 퇴치가 불가해한 것은 아니다”라고 기술했다.

11. 자동 작동 무기에 대한 FLI(Future of Life)의 공개 질의서
구글의 AI 책임자 데미스 하사비스와 테슬라의 설립자 엘론 머스크 등이 참여한 FLI는 인간의 개입 없이 표적을 자동으로 선별하여 파괴하는 무기의 개발은 전 세계적으로 새로운 무기 경쟁을 유발할 가능성이 있으며 현재의 AI 연구 상태로 보아 몇 년 안에 그런 일이 일어날 수 있다고 경고했다.

서명인들은 “군사 AI 무기 경쟁이 인간에게는 도움이 되지 않을 것이라 생각한다. 유의적인 인간 통제를 벗어나는 공격적인 자동 작동 무기를 금지하여 예방해야 한다”라고 주장했다.


ciokr@idg.co.kr 



2017.08.24

"AI 무기는 안 된다" 外··· 인공지능의 위험성에 대한 경고 11선

Techworld Staff | Techworld
인공지능(AI) 분야가 점차 발전하면서 컴퓨터와 기계가 점차 정교해지고 있다. 이러한 가운데 일부 지성인들은 머지 않은 미래에 인간의 존재에 위협을 가할 수 있다고 수 차례 경고했다.

학계의 거장인 팀 버너스-리(Tim Berners-Lee)와 스티븐 호킹(Stephen Hawking)부터 산업계의 거장 엘론 머스크(Elon Musk)와 빌 게이츠(Bill Gates)에 이르는 이들이다. 인간의 통제를 벗어난 AI에 대한 이들의 경고를 정리했다.

1. 엘론 머스크(Elon Musk)
테슬라(Tesla)의 창업자 엘론 머스크를 비롯해 로봇공학 및 AI 산업계의 인물들은 최근 UN(United Nations)에 서신으로 자동 작동 무기에 대한 보호책을 촉구했다. 이 서신에서 그들은 “치명적인 자동 작동 무기 시스템(Lethal Autonomous Weapon Systems)”의 활용을 검토하기 위한 GGE(Group of Government Experts) 수립을 축하하며, 이런 자동 작동 무기가 “전쟁의 3차 혁명이 될 위험”이 있다고 강조했다.

서신은 이렇게 마무리됐다. “개발이 완료되면 그 어느 때보다도 큰 규모의 무력 충돌이 가능할 것이며 인간이 이해할 수 있는 수준보다 더욱 빠를 것이다. 테러리스트와 폭군들이 무고한 사람들을 상대로 이런 무기를 사용할 수 있으며 무기를 해킹하여 바람직하지 않은 용도로 활용할 수 있다. 우리는 시간이 없다. 이 판도라의 상자가 열리면 닫기가 어려울 것이다.”

서명인에는 딥마인드(DeepMind)의 설립자 무스타파 술레이만(Mustafa Suleyman)을 비롯해 전 세계의 학계 및 산업계 명사들이 포함돼 있다.

2. 팀 버너스-리 경(Sir Tim Berners-Lee)
WWW(World Wide Web)의 설계자인 팀 버너스-리는 2017년 4월 런던(London)에서 열린 컨퍼런스에서 인공지능(AI)이 스스로 기업을 설립하고 운영함으로써 새로운 ‘우주의 주인’이 될 수 있는 악몽 같은 시나리오에 관해 이야기했다.

그는 AI가 인수할 기업을 결정하고 이를 논리적인 결론으로 받아들이는 시나리오를 다음과 같이 제시했다.

“AI가 대출 가능자 등을 결정하기 시작하면 심각한 일이 시작되는 것이다. 나아가 AI가 인수할 기업을 선택하거나 스스로 기업을 설립하고 지주회사를 구성하며 스스로 새로운 버전을 만들어 이런 기업을 운영할 수도 있다. 그렇게 되면 이런 AI기업들 사이에서 적자생존이 이루어질 것이다. 이러한 기업에게 공정함을 어떻게 이해시킬 수 있을까? 이러한 현상의 의미는 어떻게 설명할 수 있을까?”

3. 스티븐 호킹 교수(Professor Stephen Hawking)
캠브리지 대학 LCFI(Leverhulme Centre for the Future of Intelligence) 개관식에 참석한 호킹은 인공지능의 잠재적인 위험에 관해 다음과 같이 이야기했다.

“생물적인 두뇌와 컴퓨터가 달성할 수 있는 것 사이에 큰 차이는 없다고 생각한다. 따라서 이론적으로 컴퓨터는 인간 지능을 모방하고 이를 초월할 수 있다.”

호킹은 이어 인간이 통제할 수 없는 자동 작동 무기와 기계 등의 잠재적 위험성을 언급했다. 그는 “쉽게 말해 강력한 AI의 등장은 인류 역상상 최고 아니면 최악의 사태로 이어질 것이다. 그러나 우리는 이 중 어떤 일이 일어날 것인지 모르고 있다”라고 말했다.



4. 스티븐 호킹(2)
스티븐 호킹 교수는 우선 2014년의 BBC 인터뷰 중 무절제한 인공지능 성장의 충격파에 대해 경고하면서 인공지능이 인류의 멸종을 초래할 수 있다고 주장했다.

그는 “인공지능의 발전이 인간의 멸종을 초래할 수 있다. 완전한 인공지능은 스스로를 구축하고 놀라운 속도로 재구성할 수 있을 것이다. 느린 생물학적 진화의 제한을 받는 인간은 경쟁이 불가능하며 대체될 것이다”라고 말했다.

그는 1년 후, 시대정신(Zeitgeist)에서 AI의 빠른 성장에 대해 타임라인을 제시하기도 했다. 호킹은 “컴퓨터는 향후 100년 이내에 AI를 통해 인간을 따라잡을 것이다. 그렇게 되면 컴퓨터가 인류와 같은 목적을 갖도록 해야 할 것이다”라고 말했다.

5. 엘론 머스크(다시)
2017년 4월의 베니티 페어(Vanity Fair)에서 엘론 머스크는 딸기 수확 시나리오를 언급하며 AI에 관한 우려를 표명했다.

“딸기를 수확하기 위해 자기 발전 AI를 개발한다면 점차 딸기를 잘 따게 되면서 더 많은 양을 수확하고 스스로 발전한다면 결국 딸기만 수확하고 싶어질 것이다. 그러면 전 세계를 딸기밭으로 만들고 싶어질 것이다. 딸기밭이 영원히 끝나지 않는 것이다.” 

또한 2014년 AACS(AeroAstro Centennial Symposium)에서의 인터뷰에서 머스크는 이렇게 말했다.

“인공지능에 대해 매우 주의해야 한다고 생각한다. 이것이 현존하는 가장 큰 위협이라고 생각한다. 매우 주의해야 한다. 우리가 멍청하게 행동하지 않도록 하기 위해 국내 및 국제적인 수준에서 규제 감독이 있어야 한다는 생각이 든다.”

6. 구글의 에릭 슈미트(Eric Schmidt)
워싱턴 포스트(Washington Post)는 슈미트가 이렇게 말했다고 보도했다. “이 기술이 인간을 더욱 스마트하게 만들 것이다. 결국 인류 역사상 가장 큰 충격파를 던질 것이라고 생각한다.”

그는 10년 또는 20년 후까지는 별로 걱정되지 않는 수준이라고 덧붙였다. “우리는 아직 사물을 이해하는 초기 수준에 머무르고 있다”라고 그는 말했다.



7. 마이크로소프트 공동 설립자 빌 게이츠(Bill Gates)
지난 해 BBC와의 인터뷰에서 빌 게이츠는 인공지능으로 인한 잠재적인 위협에 대한 자신의 생각을 내비쳤다.
http://www.bbc.co.uk/news/31047780
그는 “나는 슈퍼인텔리전스가 걱정된다. 우선 기계가 우리를 위해 많은 일을 하지만 아주 똑똑해서는 안 된다. 하지만 수십 년 후에는 지능이 강화되어 걱정되는 수준에 이를 것이다. 이에 대해서는 엘론 머스크 및 다른 사람들과 같은 생각이며 이에 대해 걱정하지 않는 사람들이 이해되지 않는다”라고 말했다.

8. 애플의 공동 설립자 스티브 워즈니악(Steve Wozniak)
지난 해 이맘때 즈음 스티브 워즈니악은 인류에 대한 AI의 영향에 관해 이야기하면서 “인간은 로봇의 애완동물이 될 것이다”라는 주장을 펼친 것으로 유명하다.

AFR(Australian Financial Review)과의 인터뷰에서 워즈니악은 이렇게 말했다. “사람들에게 미래가 두렵고 좋지 못하다는 것에는 동의한다. 우리가 우리 스스로를 위해 이런 장치를 만든다면 결국에는 우리보다 사고가 빨라지고 느린 인간을 몰아내어 기업의 효율성을 제고할 것이다.”

하지만 워즈니악이 2015년 6월 오스틴(Austine)에서 열린 프리스케일(Freescale) 기술 포럼에서 입장을 바꿨다. 그는 “우리보다 더욱 똑똑해짐에 따라 인류가 필요하다는 사실을 알게 될 것이다”라고 말했다.

9. 스카이프의 공동 설립자 얀 탈린(Jaan Tallinn)
테크월드(Techworld)와의 인터뷰에서 탈린은 이렇게 말했다.

“AI의 특성이 있다. 약간만 발전해도 큰 돈과 연결된다는 점이다. 순위 측정 알고리즘을 1%만 개선해도 구글은 수억 달러를 벌게 된다. 구체적인 (AI) 모니터링 메커니즘에 관해 이야기하기에는 시기상조라 생각한다. 현재로서는 ‘겁주기 효과’(chilling effect) 가진 것이 무엇인지에 관해 산업계와 학계가 합의점을 찾는 것이 더욱 중요하다.”

10. FLI(Future of Life)의 공개 질의서
FLI의 서신에는 “AI의 엄청난 잠재력 때문에 잠재적인 위험을 피하면서 그 이점을 취할 수 있는 방법을 연구하는 것이 중요하다. 우리의 AI 시스템은 우리가 원하는 일을 해야 한다”라는 내용이 담겨 있다.

FLI 측은 해당 서신에서 “AI 연구가 꾸준히 발전하고 있으며 사회에 대한 영향력이 커질 수 있다는 광범위한 합의점이 도출되고 있다. 잠재적인 이점이 크며 문명이 제공하는 모든 것은 인간 지능의 산물이다. AI가 제공할 수 있는 도구를 통해 이 지능이 강화되었을 때 우리가 무엇을 달성할 수 있는지는 예측할 수 없지만 질병과 빈곤 퇴치가 불가해한 것은 아니다”라고 기술했다.

11. 자동 작동 무기에 대한 FLI(Future of Life)의 공개 질의서
구글의 AI 책임자 데미스 하사비스와 테슬라의 설립자 엘론 머스크 등이 참여한 FLI는 인간의 개입 없이 표적을 자동으로 선별하여 파괴하는 무기의 개발은 전 세계적으로 새로운 무기 경쟁을 유발할 가능성이 있으며 현재의 AI 연구 상태로 보아 몇 년 안에 그런 일이 일어날 수 있다고 경고했다.

서명인들은 “군사 AI 무기 경쟁이 인간에게는 도움이 되지 않을 것이라 생각한다. 유의적인 인간 통제를 벗어나는 공격적인 자동 작동 무기를 금지하여 예방해야 한다”라고 주장했다.


ciokr@idg.co.kr 

X