2016.12.15

'AI·알고리즘·로봇' 윤리 문제 고민하라

Blair Hanley Frank | IDG News Service
'킬러(살인마)' 로봇이 큰 문제가 될 것이라는 경고를 들었을지 모르겠다. IEEE(Institute of Electrical and Electronics Engineers)는 이 문제를 해결하고 싶어한다.

IEEE GIECAIAS(Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems), 즉 인공지능 및 자동화 시스템의 윤리 문제를 고민하는 이 IEEE 산하 단체는 엔지니어와 연구원들이 새 지능형 소프트웨어와 하드웨어를 윤리적으로 개발하도록 하는데 목적을 둔 보고서 하나를 최근 발표했다.

'윤리적인 디자인(Ethically Aligned Design)'이라는 제목의 이 보고서는 엔지니어와 개발자들이 인공 지능을 신중히 창조하도록 만드는 것이 목적이다. 분량이 100여 쪽에 달하지만, 주제는 몇 가지로 압축된다. 자동화된 시스템의 작동 방식에 대한 투명성을 높이고, 사람이 더 많이 관여하고, 시스템 디자인에 따른 결과를 책임질 것을 촉구하고 있다.


Credit: Boston Dynamics

보고서에 따르면 인공 지능의 활용이 증가하면서 윤리적인 부분을 고려해 인공 지능과 자동화된 시스템을 개발해 활용하는 개념이 더욱 중요하게 대두될 전망이다. 영화나 소설에서는 경이적인 인공 지능 시스템에 대한 내용들이 많다. 하지만 사실 지금 시대에도 기업과 정부의 의사결정에 큰 영향을 미칠 수 있는 여러 알고리즘이 존재한다.

이번 보고서 계획을 주도한 라자 차틸라(Raja Chatila) 의장은 인터뷰에서 엔지니어와 기업들이 당면한 문제를 인식하지 못하고 있다고 지적했다.

그는 "개인적인 의견이지만, 많은 엔지니어와 기업이 윤리적인 문제를 인식하지 못하거나, 이를 개방적으로 수용하고 있지 않다. 훈련을 받지 못한 이유가 크다. 이들은 효율적으로 기능하는 시스템 개발만 훈련 받았다. 윤리적인 문제를 고려하도록 훈련 받지 않았다"라고 말했다.

그녀에 따르면 이로 인해 표면화 되고 있는 중요한 문제 중 하나는 편향적인 알고리즘의 등장이다. 컴퓨터 시스템에는 창조자의 세계관이 반영되는데, 시스템의 가치관이 고객과 일치하지 않는 문제가 발생할 수 있다.

이번 보고서는 이와 관련해 투명성을 강조하며, 의사결정의 근거를 보고하는 시스템을 개발할 것을 여러 차례 촉구하고 있다. 그러나 이는 현재 이용되고 있는 머신러닝을 감안했을 때 꽤 어려운 부분이다. 오늘날 많은 기업이 머신러닝 알고리즘의 작동 방식과 관련된 세부 사항을 꽁꽁 숨기고 있다.

이미지 인식 알고리즘 같은 알고리즘에만 투명성이 필요한 것은 아니다. 미래에 부상할 전쟁 관련 알고리즘에서 투명성은 대단히 중요할 수 있다. IEEE 보고서에는 '무책임한 폭력과 사회적 파괴'를 초래할 수 있는 효율적인 전쟁 기계 등 자율 무기 시스템에 대한 섬뜩한 지적들이 가득하다.

보고서는 또 사람이 인공 지능 시스템에 더 많이 관여해야 한다고 강조하고 있다. 자율 시스템이 의사결정을 내리는 과정에 있어 사람들의 이해의 판단, 설득 과정이 가능해야 한다는 지적이다.

-> CIO.tv | 2016년 가장 인상적이었던 로봇은 바로...

한편 이런 일련의 노력은 향후 윤리와 인공 지능 시스템에 대한 IEEE 기준 제정으로 이어질 전망이다. 이미 윤리적인 시스템 설계에 대한 기준 하나가 등장했으며, 두 가지 기준이 준비되고 있다.

그러나 기준이 등장해도, 이를 도입할지 결정하는 것은 개별 조직이며, 이를 감안한 유인 요인이 필요하다. 즉 윤리적인 시스템이 시장 차별화 요소가 되어야 한다. 예를 들어, 사람을 살해할 확률이 65% 더 낮은 시스템이 고객에게 더 매력적으로 보여야 한다. 또 동시에 기술 업계가 이런 윤리적인 문제를 회피해 우려할 가능성을 감안할 필요도 있다.

IEEE 팀은 현재 피드백 수집을 위해 문서[PDF]를 공개한 상태다. 누구나 내용에 대해 의견을 개진할 수 있다. IEEE는 2쪽 미만의 피드백을 요청했다. 제출 마감은 내년 3월 6일이다. ciokr@idg.co.kr
2016.12.15

'AI·알고리즘·로봇' 윤리 문제 고민하라

Blair Hanley Frank | IDG News Service
'킬러(살인마)' 로봇이 큰 문제가 될 것이라는 경고를 들었을지 모르겠다. IEEE(Institute of Electrical and Electronics Engineers)는 이 문제를 해결하고 싶어한다.

IEEE GIECAIAS(Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems), 즉 인공지능 및 자동화 시스템의 윤리 문제를 고민하는 이 IEEE 산하 단체는 엔지니어와 연구원들이 새 지능형 소프트웨어와 하드웨어를 윤리적으로 개발하도록 하는데 목적을 둔 보고서 하나를 최근 발표했다.

'윤리적인 디자인(Ethically Aligned Design)'이라는 제목의 이 보고서는 엔지니어와 개발자들이 인공 지능을 신중히 창조하도록 만드는 것이 목적이다. 분량이 100여 쪽에 달하지만, 주제는 몇 가지로 압축된다. 자동화된 시스템의 작동 방식에 대한 투명성을 높이고, 사람이 더 많이 관여하고, 시스템 디자인에 따른 결과를 책임질 것을 촉구하고 있다.


Credit: Boston Dynamics

보고서에 따르면 인공 지능의 활용이 증가하면서 윤리적인 부분을 고려해 인공 지능과 자동화된 시스템을 개발해 활용하는 개념이 더욱 중요하게 대두될 전망이다. 영화나 소설에서는 경이적인 인공 지능 시스템에 대한 내용들이 많다. 하지만 사실 지금 시대에도 기업과 정부의 의사결정에 큰 영향을 미칠 수 있는 여러 알고리즘이 존재한다.

이번 보고서 계획을 주도한 라자 차틸라(Raja Chatila) 의장은 인터뷰에서 엔지니어와 기업들이 당면한 문제를 인식하지 못하고 있다고 지적했다.

그는 "개인적인 의견이지만, 많은 엔지니어와 기업이 윤리적인 문제를 인식하지 못하거나, 이를 개방적으로 수용하고 있지 않다. 훈련을 받지 못한 이유가 크다. 이들은 효율적으로 기능하는 시스템 개발만 훈련 받았다. 윤리적인 문제를 고려하도록 훈련 받지 않았다"라고 말했다.

그녀에 따르면 이로 인해 표면화 되고 있는 중요한 문제 중 하나는 편향적인 알고리즘의 등장이다. 컴퓨터 시스템에는 창조자의 세계관이 반영되는데, 시스템의 가치관이 고객과 일치하지 않는 문제가 발생할 수 있다.

이번 보고서는 이와 관련해 투명성을 강조하며, 의사결정의 근거를 보고하는 시스템을 개발할 것을 여러 차례 촉구하고 있다. 그러나 이는 현재 이용되고 있는 머신러닝을 감안했을 때 꽤 어려운 부분이다. 오늘날 많은 기업이 머신러닝 알고리즘의 작동 방식과 관련된 세부 사항을 꽁꽁 숨기고 있다.

이미지 인식 알고리즘 같은 알고리즘에만 투명성이 필요한 것은 아니다. 미래에 부상할 전쟁 관련 알고리즘에서 투명성은 대단히 중요할 수 있다. IEEE 보고서에는 '무책임한 폭력과 사회적 파괴'를 초래할 수 있는 효율적인 전쟁 기계 등 자율 무기 시스템에 대한 섬뜩한 지적들이 가득하다.

보고서는 또 사람이 인공 지능 시스템에 더 많이 관여해야 한다고 강조하고 있다. 자율 시스템이 의사결정을 내리는 과정에 있어 사람들의 이해의 판단, 설득 과정이 가능해야 한다는 지적이다.

-> CIO.tv | 2016년 가장 인상적이었던 로봇은 바로...

한편 이런 일련의 노력은 향후 윤리와 인공 지능 시스템에 대한 IEEE 기준 제정으로 이어질 전망이다. 이미 윤리적인 시스템 설계에 대한 기준 하나가 등장했으며, 두 가지 기준이 준비되고 있다.

그러나 기준이 등장해도, 이를 도입할지 결정하는 것은 개별 조직이며, 이를 감안한 유인 요인이 필요하다. 즉 윤리적인 시스템이 시장 차별화 요소가 되어야 한다. 예를 들어, 사람을 살해할 확률이 65% 더 낮은 시스템이 고객에게 더 매력적으로 보여야 한다. 또 동시에 기술 업계가 이런 윤리적인 문제를 회피해 우려할 가능성을 감안할 필요도 있다.

IEEE 팀은 현재 피드백 수집을 위해 문서[PDF]를 공개한 상태다. 누구나 내용에 대해 의견을 개진할 수 있다. IEEE는 2쪽 미만의 피드백을 요청했다. 제출 마감은 내년 3월 6일이다. ciokr@idg.co.kr
X