2019.01.16

기업에 AI 윤리위원회가 필요한 이유

George Nott | CIO Australia
에덜만 신뢰도 지표조사(Edelman Trust Barometer)에 따르면, 전 세계 대부분 국가에서 기업에 대한 소비자 신뢰도가 ‘침체된 불신’으로 치닫는 것으로 나타났다.

이 같은 결과는 당연하다. 최근 페이스북은 끝없는 데이터 오용 스캔들 악순환에 빠진 것 같고 호주 BRC(Banking Royal Commission)는 금융서비스 부문에서 일부 충격적인 경범죄가 노출됐다. 또한 호주 대기업들이 보유한 소비자 데이터 유출은 현재 우울할 정도로 빈번하다.
 
Credit: Dreamstime

최근 CA테크놀로지스가 시장조사회사인 프로스트&설리번(Frost & Sullivan)을 통해 작성한 보고서에 따르면 호주 소비자들은 브랜드가 자신의 디지털 정보를 적절히 수집, 저장, 사용하고 있는지에 대한 전반적인 '디지털 신뢰도'가 가장 낮은 것으로 나타났다.

거의 모든 부문에서 소비자 신뢰도가 낮으며 감소하고 있어 정치인과 언론에 대한 신뢰도보다 조금 더 높을 뿐이었다.

일단, 한 조직이 인공지능 관련 기술을 활용하면 이렇게 한심스러울 정도로 낮은 신뢰도 때문에 위험해 보일 수도 있다. AI가 '잘못된' 예는 인종차별 챗봇부터 성별차주의자 채용 툴까지 수없이 많다.

하지만 기술은 조직에 대한 소비자 신뢰도를 높일 기회도 제공한다고 액센츄어 APAC의 AI 제공 책임자 아밋 반살은 말했다. 그는 "AI를 이용해 신뢰를 얻을 수 있다"고 강조했다. 

반살은 가장 효과적인 방법은 능동적이고 투명하며 강경한 AI윤리위원회를 수립하는 것이라고 전했다.

막대한 힘, 막중한 책임
호주에서 기업의 AI 기술 도입률은 상대적으로 높은 편이다. 최근 SAS, AAI(Accenture Applied Intelligence), 인텔이 진행한 연구에서 조사한 10개 국가 중 호주의 도입률이 전 세계에서 가장 높았다.

해당 조사에서 호주 기업 중 78%는 해당 기술을 이용해 더욱 신뢰할 수 있는 시스템, 더 나은 보안, 수동 작업의 자동화를 통한 더 높은 생산성, 개선된 고객 서비스 등을 추구하고 있다고 밝혔다.

데이타61은 AI와 관련 기술의 성장이 향후 10년 동안 호주 경제에 3,150억 달러의 가치가 있을 수 있다고 보고했다.

반살에 따르면, 이런 기업들은 AI 지원 시스템을 출시할 때 윤리적인 고려사항에 주의해야 한다.

반살은 "AI 도입을 시작하는 조직들은 실제로 구축하는 방식에 대해 책임감 있게 생각하고 있는 새로운 AI 엔진을 구축하고 있는지 그리고 여기에 편견이 들어가지 않는지 등을 확인해야 한다"면서 제3자 시스템에 대해서도 편견을 시험할 수 있어야 한다고 이야기했다.

그는 "윤리적으로 구축해야 한다"고 덧붙였다.

AI 얼리 어답터로 여겨지는 많은 기업이 내부 AI 윤리위원회를 통해 그렇게 하고 있다. SAS/액츄추어/인텔 설문조사에서는 이미 일정 형태로 AI를 도입한 호주 기업들 중 72%가 이런 위원회를 수립한 것으로 나타났다(세계 평균인 70%보다 살짝 높다).

반살은 "가이드 레일이 마련되어 있고 사람들이 이런 가이드 레일을 따라가며 원칙과 문화를 준수하고 있는지 확인할 책임이 있는 사람들이다. 대규모 관료제 프로세스를 구성하는 것이 중요한 것이 아니라 AI와 자동화를 적용하려는 목적이 중요한 것이다"고 설명했다.

이어서 "여기에 동의하는 경우 하나의 조직으로써 어떻게 운영할지에 대해 확인하는 것이 중요하다. 예를 들어, 우편번호가 특정 인종이나 인구 통계에 대해 차별하기 때문에 사용하지 않을 것이다. 그러면 윤리위원회는 이런 정신을 존중하고 준수하며 아무도 '쉽게 돈을 벌 수 있으니 해 보자.'고 말하지 않을 것이다"고 덧붙였다.

반살은 일반적으로 기업의 분석 또는 AI책임자, 해당 툴을 이용하는 기능의 비즈니스 리더, CDO(Chief Data Officer), CIO(Chief Information Officer), ‘솔루션 구축’ 담당자들로 AI 윤리위원회가 구성되어야 한다고 제안했다.

언젠가는 북미의 여러 기업에서 등장하고 있는 새로운 역할인 'CAIO(Chief Artificial Intelligence Officer)'가 합류할 것이다.
 
투명성이 열쇠다
SAP액손(Axon) 등의 일부 기업은 AI 윤리위원회의 위원을 공개하고 있지만 구글의 딥마인드는 그렇지가 않다.

반살은 위원회가 만들어지면 투자자와 고객에게 이를 투명하게 공개해야 할 것을 제안했다. 그는 그렇게 해야 내외부의 신뢰도가 상승한다고 강조했다.

그는 "[위원회의 업무는] 연례 보고서에 포함되어야 하며, 우리는 그렇게 했다. 지역사회 또는 환경을 위해 한 일과 마찬가지다. 단지 이를 공개해야 한다는 점이 다르다"고 말했다.

이어서 "나라면 분기별로 업데이트를 제공할 것이다. 그렇게 하면서 고객 및 직원들과 신뢰를 쌓기 시작할 수 있다"고 덧붙였다. ciokr@idg.co.kr



2019.01.16

기업에 AI 윤리위원회가 필요한 이유

George Nott | CIO Australia
에덜만 신뢰도 지표조사(Edelman Trust Barometer)에 따르면, 전 세계 대부분 국가에서 기업에 대한 소비자 신뢰도가 ‘침체된 불신’으로 치닫는 것으로 나타났다.

이 같은 결과는 당연하다. 최근 페이스북은 끝없는 데이터 오용 스캔들 악순환에 빠진 것 같고 호주 BRC(Banking Royal Commission)는 금융서비스 부문에서 일부 충격적인 경범죄가 노출됐다. 또한 호주 대기업들이 보유한 소비자 데이터 유출은 현재 우울할 정도로 빈번하다.
 
Credit: Dreamstime

최근 CA테크놀로지스가 시장조사회사인 프로스트&설리번(Frost & Sullivan)을 통해 작성한 보고서에 따르면 호주 소비자들은 브랜드가 자신의 디지털 정보를 적절히 수집, 저장, 사용하고 있는지에 대한 전반적인 '디지털 신뢰도'가 가장 낮은 것으로 나타났다.

거의 모든 부문에서 소비자 신뢰도가 낮으며 감소하고 있어 정치인과 언론에 대한 신뢰도보다 조금 더 높을 뿐이었다.

일단, 한 조직이 인공지능 관련 기술을 활용하면 이렇게 한심스러울 정도로 낮은 신뢰도 때문에 위험해 보일 수도 있다. AI가 '잘못된' 예는 인종차별 챗봇부터 성별차주의자 채용 툴까지 수없이 많다.

하지만 기술은 조직에 대한 소비자 신뢰도를 높일 기회도 제공한다고 액센츄어 APAC의 AI 제공 책임자 아밋 반살은 말했다. 그는 "AI를 이용해 신뢰를 얻을 수 있다"고 강조했다. 

반살은 가장 효과적인 방법은 능동적이고 투명하며 강경한 AI윤리위원회를 수립하는 것이라고 전했다.

막대한 힘, 막중한 책임
호주에서 기업의 AI 기술 도입률은 상대적으로 높은 편이다. 최근 SAS, AAI(Accenture Applied Intelligence), 인텔이 진행한 연구에서 조사한 10개 국가 중 호주의 도입률이 전 세계에서 가장 높았다.

해당 조사에서 호주 기업 중 78%는 해당 기술을 이용해 더욱 신뢰할 수 있는 시스템, 더 나은 보안, 수동 작업의 자동화를 통한 더 높은 생산성, 개선된 고객 서비스 등을 추구하고 있다고 밝혔다.

데이타61은 AI와 관련 기술의 성장이 향후 10년 동안 호주 경제에 3,150억 달러의 가치가 있을 수 있다고 보고했다.

반살에 따르면, 이런 기업들은 AI 지원 시스템을 출시할 때 윤리적인 고려사항에 주의해야 한다.

반살은 "AI 도입을 시작하는 조직들은 실제로 구축하는 방식에 대해 책임감 있게 생각하고 있는 새로운 AI 엔진을 구축하고 있는지 그리고 여기에 편견이 들어가지 않는지 등을 확인해야 한다"면서 제3자 시스템에 대해서도 편견을 시험할 수 있어야 한다고 이야기했다.

그는 "윤리적으로 구축해야 한다"고 덧붙였다.

AI 얼리 어답터로 여겨지는 많은 기업이 내부 AI 윤리위원회를 통해 그렇게 하고 있다. SAS/액츄추어/인텔 설문조사에서는 이미 일정 형태로 AI를 도입한 호주 기업들 중 72%가 이런 위원회를 수립한 것으로 나타났다(세계 평균인 70%보다 살짝 높다).

반살은 "가이드 레일이 마련되어 있고 사람들이 이런 가이드 레일을 따라가며 원칙과 문화를 준수하고 있는지 확인할 책임이 있는 사람들이다. 대규모 관료제 프로세스를 구성하는 것이 중요한 것이 아니라 AI와 자동화를 적용하려는 목적이 중요한 것이다"고 설명했다.

이어서 "여기에 동의하는 경우 하나의 조직으로써 어떻게 운영할지에 대해 확인하는 것이 중요하다. 예를 들어, 우편번호가 특정 인종이나 인구 통계에 대해 차별하기 때문에 사용하지 않을 것이다. 그러면 윤리위원회는 이런 정신을 존중하고 준수하며 아무도 '쉽게 돈을 벌 수 있으니 해 보자.'고 말하지 않을 것이다"고 덧붙였다.

반살은 일반적으로 기업의 분석 또는 AI책임자, 해당 툴을 이용하는 기능의 비즈니스 리더, CDO(Chief Data Officer), CIO(Chief Information Officer), ‘솔루션 구축’ 담당자들로 AI 윤리위원회가 구성되어야 한다고 제안했다.

언젠가는 북미의 여러 기업에서 등장하고 있는 새로운 역할인 'CAIO(Chief Artificial Intelligence Officer)'가 합류할 것이다.
 
투명성이 열쇠다
SAP액손(Axon) 등의 일부 기업은 AI 윤리위원회의 위원을 공개하고 있지만 구글의 딥마인드는 그렇지가 않다.

반살은 위원회가 만들어지면 투자자와 고객에게 이를 투명하게 공개해야 할 것을 제안했다. 그는 그렇게 해야 내외부의 신뢰도가 상승한다고 강조했다.

그는 "[위원회의 업무는] 연례 보고서에 포함되어야 하며, 우리는 그렇게 했다. 지역사회 또는 환경을 위해 한 일과 마찬가지다. 단지 이를 공개해야 한다는 점이 다르다"고 말했다.

이어서 "나라면 분기별로 업데이트를 제공할 것이다. 그렇게 하면서 고객 및 직원들과 신뢰를 쌓기 시작할 수 있다"고 덧붙였다. ciokr@idg.co.kr

X