2018.03.27

바클레이 부사장이 우려하는 '4가지 은행 AI 리스크'

Scott Carey | Computerworld UK
효율과 경쟁력 강화를 위해 인공지능 기술을 활용하는 금융 서비스 기업이 증가하고 있다. 그러나 최신 기술 도입으로 인한 리스크와 공포도 함께 수반되고 있다.



금융 안정성 이사회(Financial Stability Board)가 발행한 보고서는 은행에서 인공지능 기술 사용이 금융 안정성에 리스크를 야기할 수 있다는 점을 들어 우려를 표명했다.

이 보고서는 “인공지능 및 머신러닝 방식은 해석 능력이나 감사 가능성 등이 결여되어 거시적 수준의 리스크를 야기할 수 있다. 마찬가지로, 불확실한 모델이 널리 확산될 경우 의도치 않은 결과가 발생할 수 있다”고 지적했다.

금융 안정성 이사회는 인력을 AI로 대체할 경우 “금융 쇼크를 확대, 재생산할 가능성도 있다”고 경고했다.

그렇지만 보고서가 단점만을 언급한 것은 아니다. “신용 평가, 금융 시장, 보험 계약, 그리고 고객 상호작용 등과 같이 좀더 효율적인 정보 처리로 금융 시스템의 효율성을 업그레이드할 기회가 될 것이다.

“AI와 머신러닝 기술은 규제 이행을 돕고, 당국의 관리, 감독도 더욱 효과적으로 만들 수 있을 것이다.”

<컴퓨터월드 UK(Computerworld UK)>는 지난주 열린 ‘딥러닝 인 파이낸스(Deep Learning in Finance)’ 회담에서 바클레이의 혁신 및 신기술 부사장 아아드 하심은 300년의 전통을 자랑하는 은행 및 금융업계에서 인공지능 기술 도입에 관한 우려와 호기심을 언급했다.

하심에 따르면, 바클레이는 현재 은행에서 사용되는 머신러닝 기술, 예측 분석, 자연어 처리, 챗봇까지 다양한 AI 기술을 연구하고 있다.

이러한 기술들은 고객 유지와 제품 추천 등을 위해, 그리고 자연어 처리 기술을 이용해 문서로 작성된 지원 양식에서 정보를 추출하기 위해 프론트 오피스와 백 오피스 모두에 적용될 수 있다.

그리고 이러한 기술의 적용은 은행 운용상의 효율성을 증대시킨다는 장점과 함께 비즈니스 리스크를 증가시키는 단점도 지니고 있다.

하심은 은행의 AI 기술 사용이 야기할 수 있는 4가지 주요 리스크를 다음과 같이 설명했다.

데이터 보안
첫 번째 리스크는 데이터 보안과 관련된 것이다. 하심은 “데이터 품질이 가장 큰 리스크가 될 수 있다. 대부분 은행은 사일로 시스템에 많은 양의 데이터를 보관하게 될 것이며 따라서 우리가 사용하는 데이터가 정제된 데이터인지, 유출 등에 대비해 안전한 방식으로 이들 데이터를 사용 및 저장하고 있는지, 그리고 무엇보다 우리가 만든 모델이 확실한 데이터에 기반을 두고 있는지 등을 확인해야 한다”고 강조했다.

그는 “AI 모델의 경우, 여기서 말하는 것은 예측 분석 모델이지만 NLP(자연어 처리)라 하더라도 모델의 성공은 이들 알고리즘을 교육하는 데 쓰이는 데이터에 달려 있다”고 덧붙였다.

하심에 따르면, 금융업계에서는 개인정보나 비즈니스 기밀 등 보안 유지가 생명인 데이터를 매일 같이 다룬다. 이 때문에 이러한 데이터를 관리하고, 사용하는 데 리스크가 클 수 밖에 없다. “우선 이들 데이터가 안전한 환경에 있는지, 유출은 발생하지 않았는지를 확인하는 것이 급선무다. 특히 핀테크와 같은 외부 기관들과 협력하려 할 때 더욱 그렇다”고 그는 말했다.

이쯤에서, 안전한 API 표준을 만들어 핀테크와 데이터를 공유하는 것이 바로 오픈뱅킹 규제의 핵심이라는 사실을 언급해야 할 것 같다. 현재 영국에서는 오픈뱅킹 관련 규제들이 발효되고 있다.

하심은 데이터 관리에서 가장 큰 과제는 투명성이라고 생각했다. 그는 “우리가 이들 데이터를 어떻게 이용하는지, 그리고 고객들이 왜, 얼마나 금융 기관을 신뢰해 이러한 데이터를 일임하였는지 등을 생각해 보면, 고객의 데이터를 가지고 우리가 무엇을 어떻게 하고 있는지 최대한 투명하게 공개하는 것이 중요함을 알 수 있다”고 이야기하며 다음과 같이 말을 이었다.

“불확실한 데이터를 사용하는 경우도 있는데, 이는 다양한 개념들을 빠르게 테스트 및 실험할 수 있기 때문이다. 대부분 은행은 위장 데이터를 이용하여 이러한 개념들을 테스트하고 안전한 환경에서 모델을 제작하여 그 결과가 정당함을 입증한다.”

불분명한 알고리즘
두 번째 문제는 이들 AI 시스템이 어떻게 기능하는가를 규제 당국에게 설명하고 설득하는 일이다. 하심은 “이들 모델이 어떻게 작동하며, 의사 결정을 내릴 때 어째서 그런 결정을 내렸는지 이해하는 것은 더 어려운 문제다”고 말했다.

하심에 따르면 특히 딥러닝과 신경망의 경우 대부분 모델이 과거 데이터에 기반을 두고 학습하기 때문에 이들 모델이 내놓은 결과나 결정을 한번에 이해하기란 매우 어려우며, 이를 규제 당국에게 설명하기란 더 어려운 과제가 될 것이다.

그는 “물론 이들 모델이 기존의 인력 및 선형 회귀 모델들보다 더 나은 결과를 내놓을 수도 있지만, 도대체 왜, 그리고 어떻게 ‘더 나은’ 결과물을 내놓을 수 있는 것인지를 이해하기는 여전히 쉽지 않은 과제가 될 것이다”고 설명했다.

이에 대해 WEC(World Economic Forum)의 금융 혁신 전문가 제스 맥워터스는 지난주 열린 이노베이트 파이낸스 글로벌 서밋(Innovate Finance Global Summit)에서 “금융 업계에서 불확실성이란 투자 심리를 얼어붙게 만들 수 있는 리스크다. 이는 명백하다”고 말했다.

모델의 해석 가능성 문제는 지나치게 과장된 측면이 있지만 “이들 모델에 대한 이해가 쉽지 않은 상황에서 이에 대한 질문을 던질 수밖에 없다”고 맥워터스는 밝혔다.

정보의 객관성 및 공평성 문제
인공지능 기술이 사용하는 정보의 객관성도 무시할 수 없다. 하심은 “객관적이지 않은 정보를 이용하는 데서 발생하는 문제가 있을 수 있다. 이들 모델에 투입되는 정보의 객관성, 공정성을 어떻게 판단할 것이며, 이들 정보가 특정 결과를 유도해 내기 위하여 왜곡, 조작되지 않았음을 어떻게 확신할 수 있단 말인가?”라고 반문했다.

이어서 “대출 심사 과정만 봐도 그렇다. 모델에 입력되는 특정 데이터로 인해 특정 고객 집단이 대출 심사에서 불리한 결과를 받게 되지 않도록 주의해야 할 것”이라고 말했다.

대중적 인식
마지막으로, 대중적 인식 역시 썩 좋지만은 않다. 최근 케임브리지 애널리티카와 페이스북 사건에서도 알 수 있듯, 데이터 유출 사건이 신뢰받던 기업의 이미지에 미칠 수 있는 타격은 엄청나다.

“인공지능 프로젝트를 진행할 때는 완벽한 투명성을 유지하지 않으면 자칫 고객들의 데이터를 나쁜 목적으로 악용하고 있다는 오해를 사기 쉽다. 이는 기업의 명성에도 큰 타격을 줄 수 있다. 한 번 이미지가 나빠진 금융 기관에서 만든 모델에 대중이 호의적이지 않은 시선을 보낼 것은 말할 것도 없다”고 그는 덧붙였다. ciokr@idg.co.kr
 

2018.03.27

바클레이 부사장이 우려하는 '4가지 은행 AI 리스크'

Scott Carey | Computerworld UK
효율과 경쟁력 강화를 위해 인공지능 기술을 활용하는 금융 서비스 기업이 증가하고 있다. 그러나 최신 기술 도입으로 인한 리스크와 공포도 함께 수반되고 있다.



금융 안정성 이사회(Financial Stability Board)가 발행한 보고서는 은행에서 인공지능 기술 사용이 금융 안정성에 리스크를 야기할 수 있다는 점을 들어 우려를 표명했다.

이 보고서는 “인공지능 및 머신러닝 방식은 해석 능력이나 감사 가능성 등이 결여되어 거시적 수준의 리스크를 야기할 수 있다. 마찬가지로, 불확실한 모델이 널리 확산될 경우 의도치 않은 결과가 발생할 수 있다”고 지적했다.

금융 안정성 이사회는 인력을 AI로 대체할 경우 “금융 쇼크를 확대, 재생산할 가능성도 있다”고 경고했다.

그렇지만 보고서가 단점만을 언급한 것은 아니다. “신용 평가, 금융 시장, 보험 계약, 그리고 고객 상호작용 등과 같이 좀더 효율적인 정보 처리로 금융 시스템의 효율성을 업그레이드할 기회가 될 것이다.

“AI와 머신러닝 기술은 규제 이행을 돕고, 당국의 관리, 감독도 더욱 효과적으로 만들 수 있을 것이다.”

<컴퓨터월드 UK(Computerworld UK)>는 지난주 열린 ‘딥러닝 인 파이낸스(Deep Learning in Finance)’ 회담에서 바클레이의 혁신 및 신기술 부사장 아아드 하심은 300년의 전통을 자랑하는 은행 및 금융업계에서 인공지능 기술 도입에 관한 우려와 호기심을 언급했다.

하심에 따르면, 바클레이는 현재 은행에서 사용되는 머신러닝 기술, 예측 분석, 자연어 처리, 챗봇까지 다양한 AI 기술을 연구하고 있다.

이러한 기술들은 고객 유지와 제품 추천 등을 위해, 그리고 자연어 처리 기술을 이용해 문서로 작성된 지원 양식에서 정보를 추출하기 위해 프론트 오피스와 백 오피스 모두에 적용될 수 있다.

그리고 이러한 기술의 적용은 은행 운용상의 효율성을 증대시킨다는 장점과 함께 비즈니스 리스크를 증가시키는 단점도 지니고 있다.

하심은 은행의 AI 기술 사용이 야기할 수 있는 4가지 주요 리스크를 다음과 같이 설명했다.

데이터 보안
첫 번째 리스크는 데이터 보안과 관련된 것이다. 하심은 “데이터 품질이 가장 큰 리스크가 될 수 있다. 대부분 은행은 사일로 시스템에 많은 양의 데이터를 보관하게 될 것이며 따라서 우리가 사용하는 데이터가 정제된 데이터인지, 유출 등에 대비해 안전한 방식으로 이들 데이터를 사용 및 저장하고 있는지, 그리고 무엇보다 우리가 만든 모델이 확실한 데이터에 기반을 두고 있는지 등을 확인해야 한다”고 강조했다.

그는 “AI 모델의 경우, 여기서 말하는 것은 예측 분석 모델이지만 NLP(자연어 처리)라 하더라도 모델의 성공은 이들 알고리즘을 교육하는 데 쓰이는 데이터에 달려 있다”고 덧붙였다.

하심에 따르면, 금융업계에서는 개인정보나 비즈니스 기밀 등 보안 유지가 생명인 데이터를 매일 같이 다룬다. 이 때문에 이러한 데이터를 관리하고, 사용하는 데 리스크가 클 수 밖에 없다. “우선 이들 데이터가 안전한 환경에 있는지, 유출은 발생하지 않았는지를 확인하는 것이 급선무다. 특히 핀테크와 같은 외부 기관들과 협력하려 할 때 더욱 그렇다”고 그는 말했다.

이쯤에서, 안전한 API 표준을 만들어 핀테크와 데이터를 공유하는 것이 바로 오픈뱅킹 규제의 핵심이라는 사실을 언급해야 할 것 같다. 현재 영국에서는 오픈뱅킹 관련 규제들이 발효되고 있다.

하심은 데이터 관리에서 가장 큰 과제는 투명성이라고 생각했다. 그는 “우리가 이들 데이터를 어떻게 이용하는지, 그리고 고객들이 왜, 얼마나 금융 기관을 신뢰해 이러한 데이터를 일임하였는지 등을 생각해 보면, 고객의 데이터를 가지고 우리가 무엇을 어떻게 하고 있는지 최대한 투명하게 공개하는 것이 중요함을 알 수 있다”고 이야기하며 다음과 같이 말을 이었다.

“불확실한 데이터를 사용하는 경우도 있는데, 이는 다양한 개념들을 빠르게 테스트 및 실험할 수 있기 때문이다. 대부분 은행은 위장 데이터를 이용하여 이러한 개념들을 테스트하고 안전한 환경에서 모델을 제작하여 그 결과가 정당함을 입증한다.”

불분명한 알고리즘
두 번째 문제는 이들 AI 시스템이 어떻게 기능하는가를 규제 당국에게 설명하고 설득하는 일이다. 하심은 “이들 모델이 어떻게 작동하며, 의사 결정을 내릴 때 어째서 그런 결정을 내렸는지 이해하는 것은 더 어려운 문제다”고 말했다.

하심에 따르면 특히 딥러닝과 신경망의 경우 대부분 모델이 과거 데이터에 기반을 두고 학습하기 때문에 이들 모델이 내놓은 결과나 결정을 한번에 이해하기란 매우 어려우며, 이를 규제 당국에게 설명하기란 더 어려운 과제가 될 것이다.

그는 “물론 이들 모델이 기존의 인력 및 선형 회귀 모델들보다 더 나은 결과를 내놓을 수도 있지만, 도대체 왜, 그리고 어떻게 ‘더 나은’ 결과물을 내놓을 수 있는 것인지를 이해하기는 여전히 쉽지 않은 과제가 될 것이다”고 설명했다.

이에 대해 WEC(World Economic Forum)의 금융 혁신 전문가 제스 맥워터스는 지난주 열린 이노베이트 파이낸스 글로벌 서밋(Innovate Finance Global Summit)에서 “금융 업계에서 불확실성이란 투자 심리를 얼어붙게 만들 수 있는 리스크다. 이는 명백하다”고 말했다.

모델의 해석 가능성 문제는 지나치게 과장된 측면이 있지만 “이들 모델에 대한 이해가 쉽지 않은 상황에서 이에 대한 질문을 던질 수밖에 없다”고 맥워터스는 밝혔다.

정보의 객관성 및 공평성 문제
인공지능 기술이 사용하는 정보의 객관성도 무시할 수 없다. 하심은 “객관적이지 않은 정보를 이용하는 데서 발생하는 문제가 있을 수 있다. 이들 모델에 투입되는 정보의 객관성, 공정성을 어떻게 판단할 것이며, 이들 정보가 특정 결과를 유도해 내기 위하여 왜곡, 조작되지 않았음을 어떻게 확신할 수 있단 말인가?”라고 반문했다.

이어서 “대출 심사 과정만 봐도 그렇다. 모델에 입력되는 특정 데이터로 인해 특정 고객 집단이 대출 심사에서 불리한 결과를 받게 되지 않도록 주의해야 할 것”이라고 말했다.

대중적 인식
마지막으로, 대중적 인식 역시 썩 좋지만은 않다. 최근 케임브리지 애널리티카와 페이스북 사건에서도 알 수 있듯, 데이터 유출 사건이 신뢰받던 기업의 이미지에 미칠 수 있는 타격은 엄청나다.

“인공지능 프로젝트를 진행할 때는 완벽한 투명성을 유지하지 않으면 자칫 고객들의 데이터를 나쁜 목적으로 악용하고 있다는 오해를 사기 쉽다. 이는 기업의 명성에도 큰 타격을 줄 수 있다. 한 번 이미지가 나빠진 금융 기관에서 만든 모델에 대중이 호의적이지 않은 시선을 보낼 것은 말할 것도 없다”고 그는 덧붙였다. ciokr@idg.co.kr
 

X