2017.01.18

'인간 대체' 아닌 '인간 증진'의 AI여야 한다··· IBM·MS CEO 한 목소리

Peter Sayer | IDG News Service
인공지능은 인간을 대체하는 것이 아니라 증진시키는 것이어야 한다. 적어도 IBM과 마이크로소프트의 CEO들에 따르면 그렇다.

IBM 지니 로메티 CEO와 마이크로소프트 사티야 나델라 CEO는 17일 스위스 다보스에서 열린 세계경제포럼에서 열린 패널 토론에서 AI의 역할에 대한 견해를 피력했다.

로메티는 패널 토론에 앞서 인지 기술 개발에 대한 IBM의 3가지 지도 원칙을 회사 직원들에게 공개했다. 아이작 아시모포의 로봇 3 원칙만큼 드라마틱하지는 않지만 이번 IBM의 3 원칙은 AI 기술이 초래할 수 있는 유해성을 제한하려는 목적을 뚜렷이 표현하고 있다.

첫번째는 이들 기술의 목적이다. 로메티는 IBM에게 있어 AI란 인간이냐 기계냐의 문제가 아니라고 말했다. 그는 "AI에 대한 우리의 목표은 인간의 작업을 증강시키고 돕도록 하는 것"이라고 전했다.

그녀가 언급한 두번째는 투명성이다. 로메티는 "누군가 인공지능 시스템을 이용 중이라면, 인공지능이 동작 중임을, 그리고 그것이 어떻게 훈련됐는지 말해야 한다. 전문가들이 훈련했는가? 훈련에 어떤 데이터가 활용됐는가? 인간은 이들 시스템에 대한 통제구너을 유지할 필요가 있다"라고 말했다.

세번째 원칙은 인간에게 새로운 인지 기술을 이용해 작업할 수 있는 역량을 제공하는 것이다. 로메티는 "몇몇 직종이 대체될 것이라는 우려가 있다. 그러나 인간 대부분은 인공지능 시스템을 활용해 일하게 될 것이다"라며, IBM과 같은 기업들에게는 AI 뿐 아니라 인간의 역량 또한 높일 필요가 있다고 밝혔다.

그녀는 이어 산학 협력이 필요하기는 하겠지만 "인공지능의 세계에서 요구되는 역량은 모두 고도의 훈련이 필요한 것들이 아니다"라고 말하며, "적절한 커리큘럼을 제공하고 멘토십을 제시해야 한다. 그리고 어떤 역량의 인재를 찾는지 알려줘야 한다"라고 말했다.



마이크로소프트의 나델라는 IBM의 이러한 주장에 목소리를 보탰다. 그는 "AI가 인간의 창의력과 기회를 증강시키도록 하는 것이 우리의 책임"이라고 말했다.

나델러는 이와 함께 인공지능 산업에 있어 인간의 책임이 어디까지 이를지는 의문이라고 전했다. 그는 "좀더 어려운 질문이다. 알고리즘이 내린 결정에 대한 책임을 인간이 어디까지 져야할까? 당사자가 직접 작성한 알고리즘이 아니며 또 스스로 학습하는 알고리즘이라면 더욱이 쉽지 않은 문제다"라고 말했다.

나델라는 이어 투명성의 필요성에 대해 동의했다. 그는 투명성이 부족할 경우 "누구의 블랙박스를 신뢰할지, 블랙박스를 지배하는 윤리 및 법적 프레임워크는 무엇일지, 누가 책임을 질 것인지"와 같은 의문이 심화될 수 있다고 말했다.

로메티는 IT 업계가 이러한 숙제를 풀어가는 노력을 지속해야 할 것이라고 전했다. 그녀는 "우리의 책임이다. 업계의 리더로서 인공지능 기술을 안전하게 도입하도록 안내해야 한다"라고 말했다. ciokr@idg.co.kr
 



2017.01.18

'인간 대체' 아닌 '인간 증진'의 AI여야 한다··· IBM·MS CEO 한 목소리

Peter Sayer | IDG News Service
인공지능은 인간을 대체하는 것이 아니라 증진시키는 것이어야 한다. 적어도 IBM과 마이크로소프트의 CEO들에 따르면 그렇다.

IBM 지니 로메티 CEO와 마이크로소프트 사티야 나델라 CEO는 17일 스위스 다보스에서 열린 세계경제포럼에서 열린 패널 토론에서 AI의 역할에 대한 견해를 피력했다.

로메티는 패널 토론에 앞서 인지 기술 개발에 대한 IBM의 3가지 지도 원칙을 회사 직원들에게 공개했다. 아이작 아시모포의 로봇 3 원칙만큼 드라마틱하지는 않지만 이번 IBM의 3 원칙은 AI 기술이 초래할 수 있는 유해성을 제한하려는 목적을 뚜렷이 표현하고 있다.

첫번째는 이들 기술의 목적이다. 로메티는 IBM에게 있어 AI란 인간이냐 기계냐의 문제가 아니라고 말했다. 그는 "AI에 대한 우리의 목표은 인간의 작업을 증강시키고 돕도록 하는 것"이라고 전했다.

그녀가 언급한 두번째는 투명성이다. 로메티는 "누군가 인공지능 시스템을 이용 중이라면, 인공지능이 동작 중임을, 그리고 그것이 어떻게 훈련됐는지 말해야 한다. 전문가들이 훈련했는가? 훈련에 어떤 데이터가 활용됐는가? 인간은 이들 시스템에 대한 통제구너을 유지할 필요가 있다"라고 말했다.

세번째 원칙은 인간에게 새로운 인지 기술을 이용해 작업할 수 있는 역량을 제공하는 것이다. 로메티는 "몇몇 직종이 대체될 것이라는 우려가 있다. 그러나 인간 대부분은 인공지능 시스템을 활용해 일하게 될 것이다"라며, IBM과 같은 기업들에게는 AI 뿐 아니라 인간의 역량 또한 높일 필요가 있다고 밝혔다.

그녀는 이어 산학 협력이 필요하기는 하겠지만 "인공지능의 세계에서 요구되는 역량은 모두 고도의 훈련이 필요한 것들이 아니다"라고 말하며, "적절한 커리큘럼을 제공하고 멘토십을 제시해야 한다. 그리고 어떤 역량의 인재를 찾는지 알려줘야 한다"라고 말했다.



마이크로소프트의 나델라는 IBM의 이러한 주장에 목소리를 보탰다. 그는 "AI가 인간의 창의력과 기회를 증강시키도록 하는 것이 우리의 책임"이라고 말했다.

나델러는 이와 함께 인공지능 산업에 있어 인간의 책임이 어디까지 이를지는 의문이라고 전했다. 그는 "좀더 어려운 질문이다. 알고리즘이 내린 결정에 대한 책임을 인간이 어디까지 져야할까? 당사자가 직접 작성한 알고리즘이 아니며 또 스스로 학습하는 알고리즘이라면 더욱이 쉽지 않은 문제다"라고 말했다.

나델라는 이어 투명성의 필요성에 대해 동의했다. 그는 투명성이 부족할 경우 "누구의 블랙박스를 신뢰할지, 블랙박스를 지배하는 윤리 및 법적 프레임워크는 무엇일지, 누가 책임을 질 것인지"와 같은 의문이 심화될 수 있다고 말했다.

로메티는 IT 업계가 이러한 숙제를 풀어가는 노력을 지속해야 할 것이라고 전했다. 그녀는 "우리의 책임이다. 업계의 리더로서 인공지능 기술을 안전하게 도입하도록 안내해야 한다"라고 말했다. ciokr@idg.co.kr
 

X