2019.10.31

“AI 등의 파괴적 기술, 기후 변화 · 핵전쟁 뒤잇는 위험 요인”AI 기술기업 설립자

Brian Cheon | CIO KR
플라밍고 AI의 설립자이자 임원 디렉터인 카트리나 월리스 박사가 인공지능 기술이 인간에게 끼칠 수 있는 각종 영향에 대해 공유했다. 

이번 주 시드니에서 개최된 세빗(CeBIT) 컨퍼런스에서 그는 AI의 부상, 그리고 인간과 기계 사이의 관계에 대해 발표했다. 윌리스는 특히 장단기적인 AI의 영향 및 혁신의 정도와 앞으로 초래될 수 있는 부정적인 결과에 대한 몇몇 사실과 수치를 언급했다. 



그에 따르면 AI와 같은 파괴적인 기술은 인류가 직면할 수 있는 세 가지 주요 문제 중 세 번째에 해당한다. 다른 2가지는 기후 변화와 핵전쟁이다. 즉 AI 등의 기술이 핵전쟁과 함께 나열될 정도의 충격을 줄 수도 있다는 것이 그의 진단이다. 월리스 박사는 지난 12개월 동안 300억 달러가 AI에 투자됐으며, 이 수치는 향후 5년 동안 12배 증가할 것으로 예상된다고 덧붙였다. 

월리스 박사는 물론 인공지능이 긍정적으로 활용될 소지 또한 폭넓게 존재한다고 강조했다. 심장마비가 언제 발생할 지 예측할 수 있게 해주는 텔레매틱스 기기, 시장 장애인을 위한 AI 시야, 실종 아동을 찾도록 돕는 안면 인식 도구 등을 언급했다. 

그러나 AI는 파괴적인 힘을 가지고 있기도 하다고 월리스 박사는 강조했다. 예를 들어 향후 5년 이내에 금융 서비스, 유틸리티 및 보험과 같은 산업에서 서비스 및 관리 작업의 40%가 자동화되는데 일조할 것으로 그는 진단했다. 또 향후 3년간 고객 상호 작용의 30%가 로봇과 기계로 자동화되거나 수행될 것이며, 로봇이나 기계로 인해 61억 시간의 인간 작업이 줄어들 것으로 그는 진단했다. 

그는 가트너의 수치를 인용해 AI가 2020년까지 180만 개의 일자리를 없애지만 230만 개의 새로운 일자리를 창출할 것으로 전망되고 있다면서도, 줄어드는 일자리 대부분이 여성이나 소수자의 몫일 것이라고 강조했다. 아울러 일자리를 잃은 사람 중 다수가 재교육 기회를 받지 못할 것이라는 전망도 제시했다. 

윤리적 충격
위험에 거기에 그치지 않는다. 더 심각한 위험은 윤리적 측면에 있을 수 있다는 설명이다. 가트너의 예측에 따르면, 향후 3년 동안 모든 AI 프로젝트의 85%가 실수, 오류, 편견 등을 통해 잘못된 결과를 낳을 것으로 예측되고 있다고 월리스는 전했다.

그는 “너무 빠르게 변화하는 가운데 이에 대한 규제와 지침이 거의 없기 때문에 발생하는 일이다. 기업가들은 정부보다 5 년 앞서 있다. 정부가 따라잡을 시점이면, 문제를 일으킬 수 있는 다음 번 무언가가 등장할 것”이라고 말했다. 

특히 다양성 및 편견 문제가 심각할 수 있다는 지적이다. 월리스는 오늘날 신흥 기술과 관련된 코딩의 90%가 남성에 의해 수행되고 있는 것이 한 사례라고 전했다. 그는 “용어, 코드, 데이터 및 각종 머신 관련 작업에 다양성 개념에 큰 어려움이 나타나고 있음을 의미한다”라고 말했다. 

이와 관련된 사례로는 바빌론 심장마디 앱이 있다. 남성 환자의 데이터 세트로 훈련된 이 앱은 공황 발작을 일으킨 여성 환자에 대해 오진한 바 있다. 월리스 박사는 “데이터에 내재된 편향 개념을 잘 나타낸다. 경우에 따라 심각한 영향으로 이어질 수 있다”라고 말했다. 

한편 월리스 박사는 AI 윤리 및 인간 프레임워크를 정의하는 호주 정부 및 인권위원회의 작업에 참여하고 있다. 올해 초 발표된 이 2,900만 달러 규모의 프로젝트는 AI 혁신을 보다 인간적으로 만드는 데 도움이 되는 8 가지 원칙을 도출했다. 혜택 창출, 무해, 규제 및 법적 준수, 개인 정보 보호, 공정성, 투명성 및 설명 가능성, 경쟁 가능성 및 책임이 그것이다. ciokr@idg.co.kr



2019.10.31

“AI 등의 파괴적 기술, 기후 변화 · 핵전쟁 뒤잇는 위험 요인”AI 기술기업 설립자

Brian Cheon | CIO KR
플라밍고 AI의 설립자이자 임원 디렉터인 카트리나 월리스 박사가 인공지능 기술이 인간에게 끼칠 수 있는 각종 영향에 대해 공유했다. 

이번 주 시드니에서 개최된 세빗(CeBIT) 컨퍼런스에서 그는 AI의 부상, 그리고 인간과 기계 사이의 관계에 대해 발표했다. 윌리스는 특히 장단기적인 AI의 영향 및 혁신의 정도와 앞으로 초래될 수 있는 부정적인 결과에 대한 몇몇 사실과 수치를 언급했다. 



그에 따르면 AI와 같은 파괴적인 기술은 인류가 직면할 수 있는 세 가지 주요 문제 중 세 번째에 해당한다. 다른 2가지는 기후 변화와 핵전쟁이다. 즉 AI 등의 기술이 핵전쟁과 함께 나열될 정도의 충격을 줄 수도 있다는 것이 그의 진단이다. 월리스 박사는 지난 12개월 동안 300억 달러가 AI에 투자됐으며, 이 수치는 향후 5년 동안 12배 증가할 것으로 예상된다고 덧붙였다. 

월리스 박사는 물론 인공지능이 긍정적으로 활용될 소지 또한 폭넓게 존재한다고 강조했다. 심장마비가 언제 발생할 지 예측할 수 있게 해주는 텔레매틱스 기기, 시장 장애인을 위한 AI 시야, 실종 아동을 찾도록 돕는 안면 인식 도구 등을 언급했다. 

그러나 AI는 파괴적인 힘을 가지고 있기도 하다고 월리스 박사는 강조했다. 예를 들어 향후 5년 이내에 금융 서비스, 유틸리티 및 보험과 같은 산업에서 서비스 및 관리 작업의 40%가 자동화되는데 일조할 것으로 그는 진단했다. 또 향후 3년간 고객 상호 작용의 30%가 로봇과 기계로 자동화되거나 수행될 것이며, 로봇이나 기계로 인해 61억 시간의 인간 작업이 줄어들 것으로 그는 진단했다. 

그는 가트너의 수치를 인용해 AI가 2020년까지 180만 개의 일자리를 없애지만 230만 개의 새로운 일자리를 창출할 것으로 전망되고 있다면서도, 줄어드는 일자리 대부분이 여성이나 소수자의 몫일 것이라고 강조했다. 아울러 일자리를 잃은 사람 중 다수가 재교육 기회를 받지 못할 것이라는 전망도 제시했다. 

윤리적 충격
위험에 거기에 그치지 않는다. 더 심각한 위험은 윤리적 측면에 있을 수 있다는 설명이다. 가트너의 예측에 따르면, 향후 3년 동안 모든 AI 프로젝트의 85%가 실수, 오류, 편견 등을 통해 잘못된 결과를 낳을 것으로 예측되고 있다고 월리스는 전했다.

그는 “너무 빠르게 변화하는 가운데 이에 대한 규제와 지침이 거의 없기 때문에 발생하는 일이다. 기업가들은 정부보다 5 년 앞서 있다. 정부가 따라잡을 시점이면, 문제를 일으킬 수 있는 다음 번 무언가가 등장할 것”이라고 말했다. 

특히 다양성 및 편견 문제가 심각할 수 있다는 지적이다. 월리스는 오늘날 신흥 기술과 관련된 코딩의 90%가 남성에 의해 수행되고 있는 것이 한 사례라고 전했다. 그는 “용어, 코드, 데이터 및 각종 머신 관련 작업에 다양성 개념에 큰 어려움이 나타나고 있음을 의미한다”라고 말했다. 

이와 관련된 사례로는 바빌론 심장마디 앱이 있다. 남성 환자의 데이터 세트로 훈련된 이 앱은 공황 발작을 일으킨 여성 환자에 대해 오진한 바 있다. 월리스 박사는 “데이터에 내재된 편향 개념을 잘 나타낸다. 경우에 따라 심각한 영향으로 이어질 수 있다”라고 말했다. 

한편 월리스 박사는 AI 윤리 및 인간 프레임워크를 정의하는 호주 정부 및 인권위원회의 작업에 참여하고 있다. 올해 초 발표된 이 2,900만 달러 규모의 프로젝트는 AI 혁신을 보다 인간적으로 만드는 데 도움이 되는 8 가지 원칙을 도출했다. 혜택 창출, 무해, 규제 및 법적 준수, 개인 정보 보호, 공정성, 투명성 및 설명 가능성, 경쟁 가능성 및 책임이 그것이다. ciokr@idg.co.kr

X