2018.04.11

AI에 제동을 걸어야 하는 6가지 이유

Clint Boulton | CIO
지난해는 인공지능(AI)에 대한 '과대 선전'이 절정에 도달한 시기라고 해도 과언이 아니다. CIO와 컨설턴트, 학자 모두가 AI를 비즈니스 및 IT 운영부터 고객 연결 및 접촉까지 모든 것을 자동화하는 놀라운 기술이라고 칭송했다. 그런데 올들어 느닷없이 여러 언론이 AI의 위험에 대해 경고하기 시작했다. 통상 사람의 지능과 지혜가 필요한 일을 AI가 대신해 처리하도록 훈련하면서 비롯되는 위험이다.



벱슨 칼리지(Babson College)에서 인지 기술을 가르치고 있는 석좌교수 토마스 데이븐포트는 “그 동안 언론이 이런 과대 광고와 과장을 조장했다. 그런데 이제는 부정적인 부분을 이야기하고 있다”라고 말했다. 그러나 사실 이런 우려가 새로운 것은 아니다. 인종과 성별 등 다양한 편향과 차별부터 통제력을 상실해 치명적인 결과를 초래할 자동 드론까지 AI에 대한 우려는 오래 전에 시작됐고 지금도 계속되고 있다.

MIT 테크놀로지 리뷰는 최근 ‘AI가 누군가를 죽였을 때 책임질 사람은?’이라는 글에서 자율주행 자동차가 교통사고를 일으켜 누군가가 사망했을 때의 법 적용 문제를 제기했다. 그런데 일주일 뒤 실제로 우버(Uber)의 자율주행 자동차가 애리조나에서 사람을 치어 숨지게 했다. CIO닷컴은 AI 도입과 관련된 몇몇 우려를 모았다. 또 앞으로 AI 기술을 테스트 할 계획이 있는 CIO를 위해 몇가지 조언을 취합했다. AI에 대한 가장 큰 우려사항은 다음과 같다.

1. 무례한 AI
마이크로소프트의 테이(Tay) 챗봇 ‘사고’에서 알 수 있듯, 대화형 메시지 시스템은 터무니없고, 무례하며, 더 나아가 아주 불쾌한 시스템으로 변질될 수 있다. CIO는 자신이 이용하는 AI, 이를 이용하는 방법에 주의를 기울여야 한다. 챗봇이 한 번이라도 무례하고 불쾌한 말을 내뱉으면, 브랜드의 친근한 이미지와 평판이 순식간에 파괴될 수 있다.

2. 멍청한 AI
AI는 사람이 개발했지만 아이러니하게도 사람과는 아주 다르다. 구글의 AI 과학자인 스탠포드대학의 교수 페이-페이 리는 뉴욕 타임스 칼럼을 통해 “사람의 시지각은 아주 맥락적이지만 AI의 시지각은 아주 협소하다. AI 프로그래머는 사람과 기계의 지각력 차이를 없애기 위해 분야 전문가(학계 전문가)와 협력해야 한다"라고 말했다.

3. 블랙박스 같은 속성
많은 기업이 AI를 활용하려 한다. 심지어 전략적 경쟁력을 창출하는 분야에도 AI를 쓰고 싶어한다. 그러나 금융 서비스 산업 등 규제 산업의 기업은 AI를 이용해 특정 결론에 도달한 과정을 설명할 수 있어야 한다. 즉 네스트(Nest) 온도조절기 사용자에게 우대 금지를 주려면, 이런 제품을 사용해 전기 요금을 관리하는 사람들이 주택 담보금 대출 상황에 쓸 현금 흐름에 더 여유가 있다고 논리적으로 추론할 수 있어야 한다.

파니 메(Fannie Mae)의 운영 및 기술 책임자인 브루스 리에 따르면, AI가 이를 자격 조건으로 포함하게 되면 규제 당국의 간섭을 받을 가능성이 있다. 공정한 대출에 대한 규칙에서 표본의 편향에 대한 문제 없이 네스트를 사용하는 사람에게 더 좋은 대출 상품을 제공한 근거가 확실치 않기 때문이다.

이에 대해 리는 CIO닷컴에 "신용 및 대출 결정에 AI를 활용하려면 넘어야 할 규제 관련 장애물이 많다. 현재 우리가 하고 있는 일 중에는 부적절한 편향이 발생하지 않도록 만들고, 주택 시장 인프라에 이익이 발생하도록 만드는 철저한 검증과 관련된 일들이 많다. 특히 AI의 경우 중간 과정을 설명할 수 있어야 한다"라고 말했다.

소프트웨어가 패턴을 파악하는 방식, 결과를 관찰하는 방식을 명확히 이해하지 못하는 규제 산업의 기업은 AI 머신에 대해 의구심을 가질 수밖에 없다. 로펌인 폭스 로스차일드(Fox Rothschild)의 기술 분야 공동 책임자인 댄 패리스는 “규제가 엄격한 산업에서는 상황(맥락)과 윤리, 데이터 품질이 AI의 가치와 신뢰도에 막대한 영향을 준다. 그래서 이 산업은 AI 도입이 규제 준수 문제를 야기할 수 있다”라고 말했다.


4. 인종과 민족, 사회경제적 편견과 편향
스탠퍼드대학 박사과정 학생인 팀니트 게브루는 차량과 구글 스트리트 뷰를 이용해 미국 전역의 도시와 마을의 인구통계학적 특성을 파악하는 프로젝트를 진행하면서, 자신의 연구에 인종과 성별, 사회경제적 편견과 편향이 반영되는 문제를 우려하게 됐다. 게브루는 이를 계기로 마이크로소프트에 합류해 AI의 편견과 편향을 없애는 연구를 하고 있다.

심지어 AI 가상 비서에도 이런 편견과 편향이 주입돼 있다. 예를 들어, 알렉사, 시리, 코타나 같은 가상 비서의 목소리가 여자인 이유는 무엇일까? 고객 서비스 소프트웨어 회사인 라이브퍼슨(LivePerson)의 CEO 로브 로카시오는 ’헬퍼’ 기술의 성별을 여성으로 지정하는 이유는 무엇일까? 세상과 직장에서 여성에 대해 이런 기대와 생각을 하고 있기 때문이다. 여성은 ‘헬퍼(조력자)’이고, ‘수다쟁이’이며, 보조적인 역할을 수행하고 명령에 잘 복종한다는 편견과 편향이 있는 것이다"라고 말했다.

5. 해킹에 악용되고, 치명적인 공격 가능성
캠브리지와 옥스퍼드, 예일대학의 기술 및 공공 정책 분야 연구원 25명이 발표한 98페이지 분량의 보고서에 따르면, AI가 빠른 속도로 발전하면서 가까운 장래에 악의적인 의도를 가진 사용자가 자동화 된 해킹 공격에 나설 가능성이 있다. 사람을 가장한 가짜 정보 유포 및 확산에 AI를 악용하거나 상용 드론을 무기로 바꿔 표적화된 공격에 쓸 수도 있다.

옥스퍼드 ‘인간 미래 연구소(FHI)의 펠로우 연구원 마일즈 브런디지는 로이터 인터뷰에서 “AI가 ‘긍정적’으로 활용되는 분야가 많다는 점에 동의한다. 그러나 악의적인 용도로 사용됐을 때의 문제에 대한 연구와 문헌이 부족하다”라고 말했다. 뉴욕 타임스와 기즈모드도 ‘인공 지능의 악의적 사용: 전망과 예방, 경감’이라는 제목의 이 보고서를 비중있게 다뤘다.

6. 사람이 ‘집 고양이’로 전락할 가능성
사람이 AI의 노예가 될 수 있다는 주장이다. 텔사와 스페이스엑스(SpaceX)의 일론 머스크는 사람이 지능과 능력이 우수한 AI에 매달리는 ‘집 고양이’로 전락할 위험이 있다고 경고한다. 최근에는 이스라엘의 역사학자인 노아 하라리가 모든 것을 자동화하는 AI가 ‘글로벌 잉여 계층’을 만들어낼 수 있다고 주장했다. 사람들이 (머신처럼) 스스로를 이해하지 못하면서 민주주의가 위협받게 된다는 것이다.

데이븐포트는 이런 우려가 과장됐다고 지적한다. 최근 “AI의 이점: AI를 도입하는 대기업들(The AI Advantage. All about big enterprise adoption of AI)”이라는 책을 내기도 했다. 데이븐포트에 따르면 과거 일반적인 분석에도 항상 편향과 편견이 존재했다. 그는 “분석 일을 하는 사람 중에 편향이 존재하지 않는다고 말할 사람은 단 한 명도 없다. 몇몇 대기업이 책임 있는 방식으로 AI를 테스트 하고 있다"라고 말했다.

데이븐포트에 따르면, AI 기술은 아직 성숙기에 도달하지 못했다. 현명한 기업은 계속 AI를 발전시키고 있으며, 언론의 ‘과장'에 방해를 받지 않으려 애를 쓴다는 것이다. 실제로 ‘과대 선전'은 IT리더에 큰 영향을 주지 않는 것으로 보인다.

가트너에 따르면, 2020년까지 AI를 조달, 구축, 아웃소싱 해 테스트하겠다는 응답이 전체 CIO의 85% 이상이다. 가트너는 고객과 대중이 AI 기반의 도움을 기대하는 분야를 중심으로 지능형 가상 지원 기능을 구축하는 것이 좋다고 충고했다. 또 이와 동시에 비즈니스 부문과 협력해 디지털 '윤리’ 전략을 수립해야 한다고 조언했다. ciokr@idg.co.kr 

2018.04.11

AI에 제동을 걸어야 하는 6가지 이유

Clint Boulton | CIO
지난해는 인공지능(AI)에 대한 '과대 선전'이 절정에 도달한 시기라고 해도 과언이 아니다. CIO와 컨설턴트, 학자 모두가 AI를 비즈니스 및 IT 운영부터 고객 연결 및 접촉까지 모든 것을 자동화하는 놀라운 기술이라고 칭송했다. 그런데 올들어 느닷없이 여러 언론이 AI의 위험에 대해 경고하기 시작했다. 통상 사람의 지능과 지혜가 필요한 일을 AI가 대신해 처리하도록 훈련하면서 비롯되는 위험이다.



벱슨 칼리지(Babson College)에서 인지 기술을 가르치고 있는 석좌교수 토마스 데이븐포트는 “그 동안 언론이 이런 과대 광고와 과장을 조장했다. 그런데 이제는 부정적인 부분을 이야기하고 있다”라고 말했다. 그러나 사실 이런 우려가 새로운 것은 아니다. 인종과 성별 등 다양한 편향과 차별부터 통제력을 상실해 치명적인 결과를 초래할 자동 드론까지 AI에 대한 우려는 오래 전에 시작됐고 지금도 계속되고 있다.

MIT 테크놀로지 리뷰는 최근 ‘AI가 누군가를 죽였을 때 책임질 사람은?’이라는 글에서 자율주행 자동차가 교통사고를 일으켜 누군가가 사망했을 때의 법 적용 문제를 제기했다. 그런데 일주일 뒤 실제로 우버(Uber)의 자율주행 자동차가 애리조나에서 사람을 치어 숨지게 했다. CIO닷컴은 AI 도입과 관련된 몇몇 우려를 모았다. 또 앞으로 AI 기술을 테스트 할 계획이 있는 CIO를 위해 몇가지 조언을 취합했다. AI에 대한 가장 큰 우려사항은 다음과 같다.

1. 무례한 AI
마이크로소프트의 테이(Tay) 챗봇 ‘사고’에서 알 수 있듯, 대화형 메시지 시스템은 터무니없고, 무례하며, 더 나아가 아주 불쾌한 시스템으로 변질될 수 있다. CIO는 자신이 이용하는 AI, 이를 이용하는 방법에 주의를 기울여야 한다. 챗봇이 한 번이라도 무례하고 불쾌한 말을 내뱉으면, 브랜드의 친근한 이미지와 평판이 순식간에 파괴될 수 있다.

2. 멍청한 AI
AI는 사람이 개발했지만 아이러니하게도 사람과는 아주 다르다. 구글의 AI 과학자인 스탠포드대학의 교수 페이-페이 리는 뉴욕 타임스 칼럼을 통해 “사람의 시지각은 아주 맥락적이지만 AI의 시지각은 아주 협소하다. AI 프로그래머는 사람과 기계의 지각력 차이를 없애기 위해 분야 전문가(학계 전문가)와 협력해야 한다"라고 말했다.

3. 블랙박스 같은 속성
많은 기업이 AI를 활용하려 한다. 심지어 전략적 경쟁력을 창출하는 분야에도 AI를 쓰고 싶어한다. 그러나 금융 서비스 산업 등 규제 산업의 기업은 AI를 이용해 특정 결론에 도달한 과정을 설명할 수 있어야 한다. 즉 네스트(Nest) 온도조절기 사용자에게 우대 금지를 주려면, 이런 제품을 사용해 전기 요금을 관리하는 사람들이 주택 담보금 대출 상황에 쓸 현금 흐름에 더 여유가 있다고 논리적으로 추론할 수 있어야 한다.

파니 메(Fannie Mae)의 운영 및 기술 책임자인 브루스 리에 따르면, AI가 이를 자격 조건으로 포함하게 되면 규제 당국의 간섭을 받을 가능성이 있다. 공정한 대출에 대한 규칙에서 표본의 편향에 대한 문제 없이 네스트를 사용하는 사람에게 더 좋은 대출 상품을 제공한 근거가 확실치 않기 때문이다.

이에 대해 리는 CIO닷컴에 "신용 및 대출 결정에 AI를 활용하려면 넘어야 할 규제 관련 장애물이 많다. 현재 우리가 하고 있는 일 중에는 부적절한 편향이 발생하지 않도록 만들고, 주택 시장 인프라에 이익이 발생하도록 만드는 철저한 검증과 관련된 일들이 많다. 특히 AI의 경우 중간 과정을 설명할 수 있어야 한다"라고 말했다.

소프트웨어가 패턴을 파악하는 방식, 결과를 관찰하는 방식을 명확히 이해하지 못하는 규제 산업의 기업은 AI 머신에 대해 의구심을 가질 수밖에 없다. 로펌인 폭스 로스차일드(Fox Rothschild)의 기술 분야 공동 책임자인 댄 패리스는 “규제가 엄격한 산업에서는 상황(맥락)과 윤리, 데이터 품질이 AI의 가치와 신뢰도에 막대한 영향을 준다. 그래서 이 산업은 AI 도입이 규제 준수 문제를 야기할 수 있다”라고 말했다.


4. 인종과 민족, 사회경제적 편견과 편향
스탠퍼드대학 박사과정 학생인 팀니트 게브루는 차량과 구글 스트리트 뷰를 이용해 미국 전역의 도시와 마을의 인구통계학적 특성을 파악하는 프로젝트를 진행하면서, 자신의 연구에 인종과 성별, 사회경제적 편견과 편향이 반영되는 문제를 우려하게 됐다. 게브루는 이를 계기로 마이크로소프트에 합류해 AI의 편견과 편향을 없애는 연구를 하고 있다.

심지어 AI 가상 비서에도 이런 편견과 편향이 주입돼 있다. 예를 들어, 알렉사, 시리, 코타나 같은 가상 비서의 목소리가 여자인 이유는 무엇일까? 고객 서비스 소프트웨어 회사인 라이브퍼슨(LivePerson)의 CEO 로브 로카시오는 ’헬퍼’ 기술의 성별을 여성으로 지정하는 이유는 무엇일까? 세상과 직장에서 여성에 대해 이런 기대와 생각을 하고 있기 때문이다. 여성은 ‘헬퍼(조력자)’이고, ‘수다쟁이’이며, 보조적인 역할을 수행하고 명령에 잘 복종한다는 편견과 편향이 있는 것이다"라고 말했다.

5. 해킹에 악용되고, 치명적인 공격 가능성
캠브리지와 옥스퍼드, 예일대학의 기술 및 공공 정책 분야 연구원 25명이 발표한 98페이지 분량의 보고서에 따르면, AI가 빠른 속도로 발전하면서 가까운 장래에 악의적인 의도를 가진 사용자가 자동화 된 해킹 공격에 나설 가능성이 있다. 사람을 가장한 가짜 정보 유포 및 확산에 AI를 악용하거나 상용 드론을 무기로 바꿔 표적화된 공격에 쓸 수도 있다.

옥스퍼드 ‘인간 미래 연구소(FHI)의 펠로우 연구원 마일즈 브런디지는 로이터 인터뷰에서 “AI가 ‘긍정적’으로 활용되는 분야가 많다는 점에 동의한다. 그러나 악의적인 용도로 사용됐을 때의 문제에 대한 연구와 문헌이 부족하다”라고 말했다. 뉴욕 타임스와 기즈모드도 ‘인공 지능의 악의적 사용: 전망과 예방, 경감’이라는 제목의 이 보고서를 비중있게 다뤘다.

6. 사람이 ‘집 고양이’로 전락할 가능성
사람이 AI의 노예가 될 수 있다는 주장이다. 텔사와 스페이스엑스(SpaceX)의 일론 머스크는 사람이 지능과 능력이 우수한 AI에 매달리는 ‘집 고양이’로 전락할 위험이 있다고 경고한다. 최근에는 이스라엘의 역사학자인 노아 하라리가 모든 것을 자동화하는 AI가 ‘글로벌 잉여 계층’을 만들어낼 수 있다고 주장했다. 사람들이 (머신처럼) 스스로를 이해하지 못하면서 민주주의가 위협받게 된다는 것이다.

데이븐포트는 이런 우려가 과장됐다고 지적한다. 최근 “AI의 이점: AI를 도입하는 대기업들(The AI Advantage. All about big enterprise adoption of AI)”이라는 책을 내기도 했다. 데이븐포트에 따르면 과거 일반적인 분석에도 항상 편향과 편견이 존재했다. 그는 “분석 일을 하는 사람 중에 편향이 존재하지 않는다고 말할 사람은 단 한 명도 없다. 몇몇 대기업이 책임 있는 방식으로 AI를 테스트 하고 있다"라고 말했다.

데이븐포트에 따르면, AI 기술은 아직 성숙기에 도달하지 못했다. 현명한 기업은 계속 AI를 발전시키고 있으며, 언론의 ‘과장'에 방해를 받지 않으려 애를 쓴다는 것이다. 실제로 ‘과대 선전'은 IT리더에 큰 영향을 주지 않는 것으로 보인다.

가트너에 따르면, 2020년까지 AI를 조달, 구축, 아웃소싱 해 테스트하겠다는 응답이 전체 CIO의 85% 이상이다. 가트너는 고객과 대중이 AI 기반의 도움을 기대하는 분야를 중심으로 지능형 가상 지원 기능을 구축하는 것이 좋다고 충고했다. 또 이와 동시에 비즈니스 부문과 협력해 디지털 '윤리’ 전략을 수립해야 한다고 조언했다. ciokr@idg.co.kr 

X