2018.07.02

"나는 우려한다"··· 인공지능에 관한 경고 12선

Techworld Staff | Techworld
나날이 발전해가는 인공지능을 우려스럽게 바라보는 시각이 있다. 기술 분야 전문가들보다 비전문가들이 좀더 우려한다는 연구가 있기는 하지만, 인공지능의 미래를 걱정하는 기술 전문가들 또한 그리 드물지 않다. 팀 버너리 리 경에서 스티븐 호킹과 같은 학계의 거물에서부터 엘론 머스크, 빌 게이츠와 같은 산업계의 거물들이 AI에 대해 제시한 부정적인 논평을 정리했다.

1. 엘론 머스크, AI 독재자에 대해 경고
스페이스X의 설립자이자 테슬라 CEO인 엘론 머스크는 2018년 한 다큐멘터리를 통해 인공지능에 대한 우려를 재차 전했다. 그는 '이 컴퓨터를 신뢰하는가?'(Do you trust this computer?)라는 제목의 다큐멘터리에서 인간보다 지능화된 로봇이 궁극적으로 독재자가 될 가능성이 있다고 말했다.

그는 또 창조 주체인 인간보다 더 강력한 지능을 지닌 인공지능의 '초지능성'에 대해서도 경고했다.

머스크는 "적어도 인간 독재자는 죽음을 피할 수 없다. 그러나 인공지능에게는 죽임이란 없다. 영원이 살 것이며 이는 인간이 피할 수 없는 불멸의 독재자를 접하게 된다는 것"이라고 말했다.

2. 다시 엘론 머스크
엘론 머스크와 일련의 산업계 인사들은 UN에 발송한 서신을 통해 자율형 무기를 금지하라고 촉구했다. 이 편지는 '치명적인 자율형 무기 체계'를 조사하는 정부 전분가 그룹(GGE)를 설립하려는 시도에 갈채를 보내며, 자율형 무기가 "전쟁 분야에서 세번째 혁명이 될 수 있다"라고 지적했다.

이어 "일단 개발되면 이전보다 더 큰 규모로, 그리고 인간이 이해할 수 없을 정도로 빠르게 전쟁이 일어날 수 있게 된다. 또 이러한 지능형 무기는 독재자나 테러리스트들이 무고한 사람을 공격하는데, 또는 해킹됨으로써 바람직하지 않은 방식으로 동작하는데 활용될 수 있다. 일단 이 판도라의 상자가 열리면 닫히기 어려울 것"이라고 기술하고 있다.

이 서신에는 엘론 머스크 외에도 딥마인드 설립자인 무스타파 설리만을 비롯한 전세계 학자 및 업계 인사들이 서명했다.

3. 팀 버너스 리
월드 와이드 웹 아키텍트 팀 버너스 리 경은은 작년 4월 런던에서 열린 한 컨퍼런스에서 인공지능이 독자적으로 기업을 설립하고 경영함으로써 새롭게 '세계의 주인'이 되는 악몽 시나리오에 대해 언급했다.

그는 "AI가 대출 여부를 결정하기 시작할 때, 독자적으로 기업을 설립하고 지주 회사를 설립할 때, 나아가 이를 기업들을 운영하기 위해 자신의 새로운 버전을 생성할 때를 생각해보자. 이들 AI 기업들 사이에 적자생존을 벌이는 시점이 올 것이다. 이들이 공정하게 움직일 것임을 의심하기 시작하는 지점이 다가올 것이다. 그들이 어떻게 움직이는지 설명하기 어려운 시점이 올 것이다"라고 말했다.



4. 스티븐 호킹
스티븐 호킹 박사는 케임브리지 대학 LCFI(Leverhulme Centre for the Future of Intelligence) 개소식에서 인공지능이 초래할 수 있는 잠재적 함정에 대해 언급했다. 그는 "생물학적 두뇌와 컴퓨터 연산에서 성취되는 것 사이에 큰 간극이 있다고 보지 않는다. 이론적으로 컴퓨터는 인간의 지능을 모방하고 초월할 수 있다"라고 말했다.

그는 인공지능이 나아갈 수 있는 두 가지 경로를 제시했다. 하나는 징별과 빈곤 퇴지라는 경로이며 다른 하나는 인간이 제어할 수 없는 자율 무기 및 기계에의 경로가 그것이다. 호킹은 "간단히 말해 강력한 AI의 부상은 인간에게 최고 또는 최악의 것이 될 것이다. 우리는 아직 그 결과가 무엇일지 모른다"라고 말했다.

5. 다시 스티븐 호킹
스티븐 호킹 박사는 2014년 BBC와의 인터뷰에서 인공지능이 제대로 규제되지 않고 발전한다면 인류의 종말을 초래할 수 있다고 언급했다. 그는 "생물학적 진화가 느린 인간은 인공지능과 경쟁할 수 없고 결국 대체될 수 있다"라고 덧붙였다.

1년 후 그는 ZH(Zeitgeist Hawking)에서 수행한 연설에서 인공지능에 대한 개략적인 타임라인을 제시하기도 했다. 그는 "앞으로 100년 안에 AI가 사람을 따라잡을 것이다. 그 시점이 되면 우리는 컴퓨터가 인류와 발맞춘 목표를 가지고 있는지 확인해야 할 것이다"라고 말했다.

-> AI에 제동을 걸어야 하는 6가지 이유

6. 또 다시 엘론 머스크
2017년 4월 배니티 페어에서 엘론 머스크는 딸기 수확 시나리오를 언급하며 AI와 관련된 그의 여러 우려를 제시했다. 그는 다음과 같이 말했다.

"딸기를 수확하는 자가진보형 AI를 개발했다고 치자. 이 인공지능이 원하는 것은 점점 더 딸기를 잘 따는 것이다. 그래서 이 인공지능은 온 세상을 딸기밭으로 만들어버린다."

머스크는 2014년 ACS(AeroAstro Centennial Symposium)에서 다음과 같이 말하기도 했다.

"우리는 인공지능에 대해 매우 신중해야 한다고 생각한다. 인류의 가장 큰 실존적 위협을 생각한다면 그렇다. 사람들이 어리석은 일을 하지 않도록 국가적, 국제적 차원에서 규제 감독 행위가 있어야 한다고 나는 점점 더 생각하고 있다."

7. 에릭 슈미트
구글의 에릭 슈미트는 워싱턴 포스트와의 인터뷰에서 AI 기술의 긍정적 잠재력을 강조했다. 그러나 시간 제한을 뒀다. 그는 "이 기술은 인류 역사상 가장 위대한 동력 중 하나로 자리매김할 것이다. 나는 앞으로 10년에서 20년에 대해서는 전혀 걱정하지 않는다. 우리는 여전히 이를 이해하는 단계에 있다. 이미 엄청난 발전을 이뤘다"라고 말했다.

8. 빌 게이츠
빌 게이트는 지난해 BBC와의 인터뷰에서 인공지능 기술의 잠재적 위협에 대해 언급했다. 그는 "초지능에 대해 우려하고 있다. 일단 기계는 인류에게 많은 일을 해줄 것이며 초지능이 되지는 않을 것이다. 그러나 수십 년이 지난다면 인공지능은 우려 대상이 될 수 있다. 나는 엘론 머스크를 비롯한 몇몇 사람들의 우려에 동의한다. 우려하지 않는 이들을 이해할 수 없다"라고 말했다.

9. 스티브 워즈니악
스티브 워즈니악은 작년 "인간의 로봇의 애완동물이 될 것"이라고 말했다. 그는 호주 파이낸셜 리뷰와의 인터뷰에서 "소름끼치는 미래가 열릴 수 있다는 점에, 인류에게 나쁜 결과를 초래할 수 있다는 점에 동의한다. 만약 기계가 사람들 온통 돌보도록 한다면 기계는 궁국즉어로 인류보다 더 빠르게 생각할 수 있을 것이다. 그리고는 느린 인간을 제거해 기업을 더 효율적으로 경영할 수 있다고 판단할 수 있다"라고 말했다.

그는 그러나 2015년 6월 프리스케일 기술 포럼에서 "기계가 우리보다 더 똑똑해질 것이라고 본다. 단 그들이 인류보다 더 똑똑해진다면, 인류가 필요하다는 사실도 깨달을 것"이라고 말했다.

10. 얀 탈린
스카이프를 공동 설립한 얀 탈린은 테크월드와의 인터뷰에서 현재는 AI에 대해 그리 걱정할 필요가 없다는 의견을 제시했다.

그는 "오늘날의 AI 열풍에는 다소 다른 점이 있다. AI를 통해 수익을 창출할 수 있다는 점이다. 가령 순위 알고리즘을 1% 향상시키면 구글은 수억 달러를 즉각적으로 벌어들일 수 있다. 인공지능 모니터링 메커니즘을 구체적으로 생각하기에는 아직 이르다고 본다. 현재로서는 업계와 학계에서 공포심을 자극하는 것이 무엇인지 합의해가는 것이 중요하다고 본다"라고 말했다.



11. FLI(Future of Life)의 공개 서한
영화배우 모건 프리만, 엘론 머스크, 스티븐 호킹, MIT의 맥스 테그마크 등이 지원하는 FLI는 다음과 같은 내용의 공개 서한을 발송했다.

"잠재적인 함정을 피하면서 이익을 얻어내는 방법을 연구하는 것이 중요하다. AI 시스템은 인류가 원하는 것을 하도록 해야 한다. 현재 인공지능 연구가 꾸준히 진행 중이며 사회에 미치는 영향이 증가할 것이라는 폭 넓은 공감대가 형성되고있다. 잠재적 이익은 엄청날 수 있다. 사실 이 문명 기술이 제공하는 모든 것은 인간 지능의 산물이다. 이 인공지능 기술이 제공하는 도구로 인해 지능성이 증폭될 때 어떤 성취가 있을지 우리는 예측할 수 없다. 질병과 빈곤의 퇴치가 달성 불가능한 문제가 아니다."

12. 자율 무기에 대한 FLI의 공개 서한
이 그룹은 배에서부터 탱크에 이르는 무기가 자율적으로 동작하는 상황을 우려하고 있다. 또 이러한 무기의 제조가 새로운 무기 경쟁 상황을 초래할 가능성이 있으며, 현 단계의 AI 연구를 감안할 때 몇 낸 내에 일어날 수도 있는 문제라고 보고 있다.

FLI는 "AI 무기 경쟁이 인류에게 결코 유익하지 않을 것이라고 본다. 인간의 통제를 넘어서는 공격적 자율 무기를 금지해야만 한다라고 결론지었다"라고 말했다. ciokr@idg.co.kr 



2018.07.02

"나는 우려한다"··· 인공지능에 관한 경고 12선

Techworld Staff | Techworld
나날이 발전해가는 인공지능을 우려스럽게 바라보는 시각이 있다. 기술 분야 전문가들보다 비전문가들이 좀더 우려한다는 연구가 있기는 하지만, 인공지능의 미래를 걱정하는 기술 전문가들 또한 그리 드물지 않다. 팀 버너리 리 경에서 스티븐 호킹과 같은 학계의 거물에서부터 엘론 머스크, 빌 게이츠와 같은 산업계의 거물들이 AI에 대해 제시한 부정적인 논평을 정리했다.

1. 엘론 머스크, AI 독재자에 대해 경고
스페이스X의 설립자이자 테슬라 CEO인 엘론 머스크는 2018년 한 다큐멘터리를 통해 인공지능에 대한 우려를 재차 전했다. 그는 '이 컴퓨터를 신뢰하는가?'(Do you trust this computer?)라는 제목의 다큐멘터리에서 인간보다 지능화된 로봇이 궁극적으로 독재자가 될 가능성이 있다고 말했다.

그는 또 창조 주체인 인간보다 더 강력한 지능을 지닌 인공지능의 '초지능성'에 대해서도 경고했다.

머스크는 "적어도 인간 독재자는 죽음을 피할 수 없다. 그러나 인공지능에게는 죽임이란 없다. 영원이 살 것이며 이는 인간이 피할 수 없는 불멸의 독재자를 접하게 된다는 것"이라고 말했다.

2. 다시 엘론 머스크
엘론 머스크와 일련의 산업계 인사들은 UN에 발송한 서신을 통해 자율형 무기를 금지하라고 촉구했다. 이 편지는 '치명적인 자율형 무기 체계'를 조사하는 정부 전분가 그룹(GGE)를 설립하려는 시도에 갈채를 보내며, 자율형 무기가 "전쟁 분야에서 세번째 혁명이 될 수 있다"라고 지적했다.

이어 "일단 개발되면 이전보다 더 큰 규모로, 그리고 인간이 이해할 수 없을 정도로 빠르게 전쟁이 일어날 수 있게 된다. 또 이러한 지능형 무기는 독재자나 테러리스트들이 무고한 사람을 공격하는데, 또는 해킹됨으로써 바람직하지 않은 방식으로 동작하는데 활용될 수 있다. 일단 이 판도라의 상자가 열리면 닫히기 어려울 것"이라고 기술하고 있다.

이 서신에는 엘론 머스크 외에도 딥마인드 설립자인 무스타파 설리만을 비롯한 전세계 학자 및 업계 인사들이 서명했다.

3. 팀 버너스 리
월드 와이드 웹 아키텍트 팀 버너스 리 경은은 작년 4월 런던에서 열린 한 컨퍼런스에서 인공지능이 독자적으로 기업을 설립하고 경영함으로써 새롭게 '세계의 주인'이 되는 악몽 시나리오에 대해 언급했다.

그는 "AI가 대출 여부를 결정하기 시작할 때, 독자적으로 기업을 설립하고 지주 회사를 설립할 때, 나아가 이를 기업들을 운영하기 위해 자신의 새로운 버전을 생성할 때를 생각해보자. 이들 AI 기업들 사이에 적자생존을 벌이는 시점이 올 것이다. 이들이 공정하게 움직일 것임을 의심하기 시작하는 지점이 다가올 것이다. 그들이 어떻게 움직이는지 설명하기 어려운 시점이 올 것이다"라고 말했다.



4. 스티븐 호킹
스티븐 호킹 박사는 케임브리지 대학 LCFI(Leverhulme Centre for the Future of Intelligence) 개소식에서 인공지능이 초래할 수 있는 잠재적 함정에 대해 언급했다. 그는 "생물학적 두뇌와 컴퓨터 연산에서 성취되는 것 사이에 큰 간극이 있다고 보지 않는다. 이론적으로 컴퓨터는 인간의 지능을 모방하고 초월할 수 있다"라고 말했다.

그는 인공지능이 나아갈 수 있는 두 가지 경로를 제시했다. 하나는 징별과 빈곤 퇴지라는 경로이며 다른 하나는 인간이 제어할 수 없는 자율 무기 및 기계에의 경로가 그것이다. 호킹은 "간단히 말해 강력한 AI의 부상은 인간에게 최고 또는 최악의 것이 될 것이다. 우리는 아직 그 결과가 무엇일지 모른다"라고 말했다.

5. 다시 스티븐 호킹
스티븐 호킹 박사는 2014년 BBC와의 인터뷰에서 인공지능이 제대로 규제되지 않고 발전한다면 인류의 종말을 초래할 수 있다고 언급했다. 그는 "생물학적 진화가 느린 인간은 인공지능과 경쟁할 수 없고 결국 대체될 수 있다"라고 덧붙였다.

1년 후 그는 ZH(Zeitgeist Hawking)에서 수행한 연설에서 인공지능에 대한 개략적인 타임라인을 제시하기도 했다. 그는 "앞으로 100년 안에 AI가 사람을 따라잡을 것이다. 그 시점이 되면 우리는 컴퓨터가 인류와 발맞춘 목표를 가지고 있는지 확인해야 할 것이다"라고 말했다.

-> AI에 제동을 걸어야 하는 6가지 이유

6. 또 다시 엘론 머스크
2017년 4월 배니티 페어에서 엘론 머스크는 딸기 수확 시나리오를 언급하며 AI와 관련된 그의 여러 우려를 제시했다. 그는 다음과 같이 말했다.

"딸기를 수확하는 자가진보형 AI를 개발했다고 치자. 이 인공지능이 원하는 것은 점점 더 딸기를 잘 따는 것이다. 그래서 이 인공지능은 온 세상을 딸기밭으로 만들어버린다."

머스크는 2014년 ACS(AeroAstro Centennial Symposium)에서 다음과 같이 말하기도 했다.

"우리는 인공지능에 대해 매우 신중해야 한다고 생각한다. 인류의 가장 큰 실존적 위협을 생각한다면 그렇다. 사람들이 어리석은 일을 하지 않도록 국가적, 국제적 차원에서 규제 감독 행위가 있어야 한다고 나는 점점 더 생각하고 있다."

7. 에릭 슈미트
구글의 에릭 슈미트는 워싱턴 포스트와의 인터뷰에서 AI 기술의 긍정적 잠재력을 강조했다. 그러나 시간 제한을 뒀다. 그는 "이 기술은 인류 역사상 가장 위대한 동력 중 하나로 자리매김할 것이다. 나는 앞으로 10년에서 20년에 대해서는 전혀 걱정하지 않는다. 우리는 여전히 이를 이해하는 단계에 있다. 이미 엄청난 발전을 이뤘다"라고 말했다.

8. 빌 게이츠
빌 게이트는 지난해 BBC와의 인터뷰에서 인공지능 기술의 잠재적 위협에 대해 언급했다. 그는 "초지능에 대해 우려하고 있다. 일단 기계는 인류에게 많은 일을 해줄 것이며 초지능이 되지는 않을 것이다. 그러나 수십 년이 지난다면 인공지능은 우려 대상이 될 수 있다. 나는 엘론 머스크를 비롯한 몇몇 사람들의 우려에 동의한다. 우려하지 않는 이들을 이해할 수 없다"라고 말했다.

9. 스티브 워즈니악
스티브 워즈니악은 작년 "인간의 로봇의 애완동물이 될 것"이라고 말했다. 그는 호주 파이낸셜 리뷰와의 인터뷰에서 "소름끼치는 미래가 열릴 수 있다는 점에, 인류에게 나쁜 결과를 초래할 수 있다는 점에 동의한다. 만약 기계가 사람들 온통 돌보도록 한다면 기계는 궁국즉어로 인류보다 더 빠르게 생각할 수 있을 것이다. 그리고는 느린 인간을 제거해 기업을 더 효율적으로 경영할 수 있다고 판단할 수 있다"라고 말했다.

그는 그러나 2015년 6월 프리스케일 기술 포럼에서 "기계가 우리보다 더 똑똑해질 것이라고 본다. 단 그들이 인류보다 더 똑똑해진다면, 인류가 필요하다는 사실도 깨달을 것"이라고 말했다.

10. 얀 탈린
스카이프를 공동 설립한 얀 탈린은 테크월드와의 인터뷰에서 현재는 AI에 대해 그리 걱정할 필요가 없다는 의견을 제시했다.

그는 "오늘날의 AI 열풍에는 다소 다른 점이 있다. AI를 통해 수익을 창출할 수 있다는 점이다. 가령 순위 알고리즘을 1% 향상시키면 구글은 수억 달러를 즉각적으로 벌어들일 수 있다. 인공지능 모니터링 메커니즘을 구체적으로 생각하기에는 아직 이르다고 본다. 현재로서는 업계와 학계에서 공포심을 자극하는 것이 무엇인지 합의해가는 것이 중요하다고 본다"라고 말했다.



11. FLI(Future of Life)의 공개 서한
영화배우 모건 프리만, 엘론 머스크, 스티븐 호킹, MIT의 맥스 테그마크 등이 지원하는 FLI는 다음과 같은 내용의 공개 서한을 발송했다.

"잠재적인 함정을 피하면서 이익을 얻어내는 방법을 연구하는 것이 중요하다. AI 시스템은 인류가 원하는 것을 하도록 해야 한다. 현재 인공지능 연구가 꾸준히 진행 중이며 사회에 미치는 영향이 증가할 것이라는 폭 넓은 공감대가 형성되고있다. 잠재적 이익은 엄청날 수 있다. 사실 이 문명 기술이 제공하는 모든 것은 인간 지능의 산물이다. 이 인공지능 기술이 제공하는 도구로 인해 지능성이 증폭될 때 어떤 성취가 있을지 우리는 예측할 수 없다. 질병과 빈곤의 퇴치가 달성 불가능한 문제가 아니다."

12. 자율 무기에 대한 FLI의 공개 서한
이 그룹은 배에서부터 탱크에 이르는 무기가 자율적으로 동작하는 상황을 우려하고 있다. 또 이러한 무기의 제조가 새로운 무기 경쟁 상황을 초래할 가능성이 있으며, 현 단계의 AI 연구를 감안할 때 몇 낸 내에 일어날 수도 있는 문제라고 보고 있다.

FLI는 "AI 무기 경쟁이 인류에게 결코 유익하지 않을 것이라고 본다. 인간의 통제를 넘어서는 공격적 자율 무기를 금지해야만 한다라고 결론지었다"라고 말했다. ciokr@idg.co.kr 

X