Offcanvas

������

채용에서의 AI 활용, 아직은 갈 길 먼 이유

이력서를 분석하고 지원자를 선별하기 위해 자동화된 평가, 디지털 면접, 데이터 애널리틱스에 주목하는 기업이 늘고 있다. 이 과정에서 인공지능의 사용이 증가하기도 했다. 그러나 IT의 과제 중 하나로 다양성, 형평성 및 포용성(DEI)이 대두되고 있는 가운데, 서툰 AI 활용이 도움이 되기보다는 해를 끼칠 수 있다는 주장이 제기되고 있다. IEEE 펠로우이자 뉴욕대학교 텐던 공과대학 학장 겸 윌리엄 R 버클리 교수인 젤레나 코바체비치는 “편향은 대개 데이터에서 비롯된다. 데이터 집합이나 결정에 참고할 만한 요소가 없다면, 당연히 지원자를 제대로 찾아내서 평가하지 못할 것”이라고 말했다. 채용에 AI를 사용하는 데 있어 특히 큰 문제는 채용 시스템을 구축하는 기반이 되는 과거 데이터가 궁극적으로 고유한 편견을 가질 수 있다는 점이다. 과거 데이터 세트가 충분히 풍부하지 않다면, AI 채용 도구는 십수 년 전에 존재했던 편견을 갖게 될 가능성이 매우 높다. 그러나 효과적으로 사용한다면, AI는 더 효율적이고 공정한 채용 과정을 만드는데 도움을 줄 수 있기도 하다.   AI에서 편견의 위험성 AI 알고리즘은 일반적으로 과거 데이터에 기반하여 훈련되기 때문에 편향성이 문제시되곤 한다. 데이터 과학에서 편향은 학습 알고리즘의 잘못된 가정으로부터 발생하는 오류라고 정의된다. 현재 환경을 반영하지 않는 데이터로 알고리즘을 교육하면 잘못된 결과가 도출될 것이다. 따라서, 특히 IT와 같이 역사적으로 다양성 문제가 있었던 산업에서 과거 고용 데이터로 알고리즘을 교육하는 것은 큰 실수가 될 수 있다. 전자개인정보센터(Electronic Privacy Information Center, EPIC)의 AI 및 인권 펠로우인 벤 윈터스는 “AI 소프트웨어가 본질적으로 편향되지 않았거나 편향된 영향을 끼치지 않는다는 것을 보증하는 것은 정말 어려운 일이다. 이 점을 방지하기 위해 취할 수 있는 조치들이 있기는 하지만 "많은 시스템이 인종과 장애에 따라 편향된 효과를 ...

편견 편향 차별 다양성 인종 윤리

2021.10.27

이력서를 분석하고 지원자를 선별하기 위해 자동화된 평가, 디지털 면접, 데이터 애널리틱스에 주목하는 기업이 늘고 있다. 이 과정에서 인공지능의 사용이 증가하기도 했다. 그러나 IT의 과제 중 하나로 다양성, 형평성 및 포용성(DEI)이 대두되고 있는 가운데, 서툰 AI 활용이 도움이 되기보다는 해를 끼칠 수 있다는 주장이 제기되고 있다. IEEE 펠로우이자 뉴욕대학교 텐던 공과대학 학장 겸 윌리엄 R 버클리 교수인 젤레나 코바체비치는 “편향은 대개 데이터에서 비롯된다. 데이터 집합이나 결정에 참고할 만한 요소가 없다면, 당연히 지원자를 제대로 찾아내서 평가하지 못할 것”이라고 말했다. 채용에 AI를 사용하는 데 있어 특히 큰 문제는 채용 시스템을 구축하는 기반이 되는 과거 데이터가 궁극적으로 고유한 편견을 가질 수 있다는 점이다. 과거 데이터 세트가 충분히 풍부하지 않다면, AI 채용 도구는 십수 년 전에 존재했던 편견을 갖게 될 가능성이 매우 높다. 그러나 효과적으로 사용한다면, AI는 더 효율적이고 공정한 채용 과정을 만드는데 도움을 줄 수 있기도 하다.   AI에서 편견의 위험성 AI 알고리즘은 일반적으로 과거 데이터에 기반하여 훈련되기 때문에 편향성이 문제시되곤 한다. 데이터 과학에서 편향은 학습 알고리즘의 잘못된 가정으로부터 발생하는 오류라고 정의된다. 현재 환경을 반영하지 않는 데이터로 알고리즘을 교육하면 잘못된 결과가 도출될 것이다. 따라서, 특히 IT와 같이 역사적으로 다양성 문제가 있었던 산업에서 과거 고용 데이터로 알고리즘을 교육하는 것은 큰 실수가 될 수 있다. 전자개인정보센터(Electronic Privacy Information Center, EPIC)의 AI 및 인권 펠로우인 벤 윈터스는 “AI 소프트웨어가 본질적으로 편향되지 않았거나 편향된 영향을 끼치지 않는다는 것을 보증하는 것은 정말 어려운 일이다. 이 점을 방지하기 위해 취할 수 있는 조치들이 있기는 하지만 "많은 시스템이 인종과 장애에 따라 편향된 효과를 ...

2021.10.27

"AI 기반 감정인식, 한계 있다" 캠브리지 연구진 

인간의 감정까지 읽어내는 AI 기반 얼굴인식 기술이 관심을 끌고 있다. 하지만 전문가들은 컴퓨터에서 사람의 감정을 이해하는 건 한계가 있다고 지적한다. 캠브리지 대학교 알렉사 하게티 박사가 이끄는 연구팀에서 선보인 '이모지파이 프로젝트(Emojify)'는 그 이유를 제시한다.    이모지파이 프로젝트는 두 가지 브라우저 웹 게임으로 구성돼 있다. 가짜 미소 게임(Fake Smile Game)과 윙크/깜빡임 게임(Wink/Blink Game)이다.  가짜 미소 게임에서는 사용자에게 컴퓨터 웹 캠을 보면서 '행복, 슬픔, 두려움, 놀라움, 혐오감, 분노'라는 6가지 감정을 표현해보라고 요청한다. 미소를 짓거나 찡그리며 게임을 하다 보면 자연스레 소프트웨어를 속이기 쉽다는 사실을 알게 된다. 미소만 지으면 감정인식 소프트웨어가 행복하다고 판단하기 때문이다.  이와 유사하게 윙크/깜빡임 게임에서는 웹 캠을 보면서 윙크와 눈 깜빡임을 해보라고 요청한다. 하지만 기계는 윙크와 눈 깜빡임을 구분하지 못한다. AI 시스템은 눈을 뜨고 감는 건 추적할 수 있지만 상황에 맞는 행동을 이해하거나 그 의미를 이해할 순 없다는 게 연구진의 설명이다.    하게티 박사는 더 버지와의 인터뷰에서 "이러한 기술의 전제는 얼굴과 내면의 감정이 예측 가능한 방식으로 상호 연관돼 있다는 것이다"라면서, "이를테면 웃으면 행복하고 눈살을 찌푸리면 화가 난다고 본다. 하지만 사람의 감정은 얼굴 움직임만으로 쉽게 추론할 수 없다"라고 전했다.  이러한 한계에도 불구하고 AI 기반 감정인식 기술은 갈수록 보편화되고 있다. 보도에 따르면 기업들은 이런 시스템을 사용해 구직자의 직무 적합성을 평가하거나(예: 하이어뷰(HireVue) 등), 테러리스트가 될 수 있는 사람을 찾거나(예: 페셉션(Faception) 등) 또는 트럭 운전사가 졸린지 아니면 졸고 있는지 파악할 수 있다고 말한다. 애플에서도 2016년 얼굴 사진을 스캔해 감정을...

AI 인공지능 감정인식 얼굴인식 안면인식 편향

2021.04.07

인간의 감정까지 읽어내는 AI 기반 얼굴인식 기술이 관심을 끌고 있다. 하지만 전문가들은 컴퓨터에서 사람의 감정을 이해하는 건 한계가 있다고 지적한다. 캠브리지 대학교 알렉사 하게티 박사가 이끄는 연구팀에서 선보인 '이모지파이 프로젝트(Emojify)'는 그 이유를 제시한다.    이모지파이 프로젝트는 두 가지 브라우저 웹 게임으로 구성돼 있다. 가짜 미소 게임(Fake Smile Game)과 윙크/깜빡임 게임(Wink/Blink Game)이다.  가짜 미소 게임에서는 사용자에게 컴퓨터 웹 캠을 보면서 '행복, 슬픔, 두려움, 놀라움, 혐오감, 분노'라는 6가지 감정을 표현해보라고 요청한다. 미소를 짓거나 찡그리며 게임을 하다 보면 자연스레 소프트웨어를 속이기 쉽다는 사실을 알게 된다. 미소만 지으면 감정인식 소프트웨어가 행복하다고 판단하기 때문이다.  이와 유사하게 윙크/깜빡임 게임에서는 웹 캠을 보면서 윙크와 눈 깜빡임을 해보라고 요청한다. 하지만 기계는 윙크와 눈 깜빡임을 구분하지 못한다. AI 시스템은 눈을 뜨고 감는 건 추적할 수 있지만 상황에 맞는 행동을 이해하거나 그 의미를 이해할 순 없다는 게 연구진의 설명이다.    하게티 박사는 더 버지와의 인터뷰에서 "이러한 기술의 전제는 얼굴과 내면의 감정이 예측 가능한 방식으로 상호 연관돼 있다는 것이다"라면서, "이를테면 웃으면 행복하고 눈살을 찌푸리면 화가 난다고 본다. 하지만 사람의 감정은 얼굴 움직임만으로 쉽게 추론할 수 없다"라고 전했다.  이러한 한계에도 불구하고 AI 기반 감정인식 기술은 갈수록 보편화되고 있다. 보도에 따르면 기업들은 이런 시스템을 사용해 구직자의 직무 적합성을 평가하거나(예: 하이어뷰(HireVue) 등), 테러리스트가 될 수 있는 사람을 찾거나(예: 페셉션(Faception) 등) 또는 트럭 운전사가 졸린지 아니면 졸고 있는지 파악할 수 있다고 말한다. 애플에서도 2016년 얼굴 사진을 스캔해 감정을...

2021.04.07

'드디어 안개 걷혔다'··· 데이터 과학 현주소와 미래는?

2020년은 ‘데이터 과학(Data Science)’이 얼마나 가치 있는지를 보여준 한 해였다. 물론 그 한계가 드러난 한 해이기도 했다.  작년은 ‘데이터 과학이 성장한 한 해’라고 할 수 있다. 수많은 기업이 데이터 중심의 애플리케이션을 대폭 도입했고 (성공한 정도는 다르지만) 데이터 과학으로 문제를 해결했다. 그 과정에서 데이터 과학은 얼마나 성숙했는지를 보여줬고 그리고 실제로 가치가 있다는 것을 증명해 보였다.  전 세계적 팬데믹 위기는 데이터 과학 분야에서도 위기였다. 코로나19 사태로 인해 방대한 양의 데이터를 신속하게 분석하고 공유해야 했다. 또 계속해서 조건이 바뀌는 상황에서 긴급하게 예측 모델을 실행하고 업데이트해야 했다.  따라서 지난 12개월은 데이터 과학에 있어 그 가치는 물론이고 한계까지 확인할 수 있었던 한 해였다. 2020년 데이터 과학에서 드러난 실상과 2021년 전망을 살펴본다.    2020년의 데이터 과학 데이터 과학의 확산은 신나는 일이었지만 이 분야가 이제 어느 정도 자리를 잡았다는 잘못된 인식을 가져왔다. 오히려 그 반대다. 데이터 과학은 여전히 빠른 속도로 혁신하고 있는 ‘새로운 분야’로 남아있다. 하이프사이클에 따른다면 데이터 과학은 업계의 여러 업체가 AI를 채택하면서 2020년에 주류로 편입하는 것처럼 보였다. 그리고 모든 제품이나 서비스에 어떤 형태로든 인공지능이 적용되는 것처럼 보였다. 따라서 기업들은 스마트 데이터 솔루션으로 모든 문제를 해결할 수 있으리라 기대했고 기대치가 터무니없이 높아졌다. 하지만 데이터 과학은 그런 식으로 작동하지 않는다.  다행스럽게도, 이제 사람들은 하이프에서 벗어나 데이터 과학이 할 수 있는 일과 없는 일을 이해할 수 있는 적절한 질문을 하기 시작했다. 따라서 현재 데이터 과학은 품질과 제대로 구축했을 때 얻을 수 있는 ROI를 바탕으로 주목받고 있다.  1. 적응성(Adaptability)  데...

데이터 과학 팬데믹 하이프사이클 ROI AI 인공지능 편향 디지털 트랜스포메이션 클라우드 하이브리드 온프레미스클 온프레미스

2021.03.25

2020년은 ‘데이터 과학(Data Science)’이 얼마나 가치 있는지를 보여준 한 해였다. 물론 그 한계가 드러난 한 해이기도 했다.  작년은 ‘데이터 과학이 성장한 한 해’라고 할 수 있다. 수많은 기업이 데이터 중심의 애플리케이션을 대폭 도입했고 (성공한 정도는 다르지만) 데이터 과학으로 문제를 해결했다. 그 과정에서 데이터 과학은 얼마나 성숙했는지를 보여줬고 그리고 실제로 가치가 있다는 것을 증명해 보였다.  전 세계적 팬데믹 위기는 데이터 과학 분야에서도 위기였다. 코로나19 사태로 인해 방대한 양의 데이터를 신속하게 분석하고 공유해야 했다. 또 계속해서 조건이 바뀌는 상황에서 긴급하게 예측 모델을 실행하고 업데이트해야 했다.  따라서 지난 12개월은 데이터 과학에 있어 그 가치는 물론이고 한계까지 확인할 수 있었던 한 해였다. 2020년 데이터 과학에서 드러난 실상과 2021년 전망을 살펴본다.    2020년의 데이터 과학 데이터 과학의 확산은 신나는 일이었지만 이 분야가 이제 어느 정도 자리를 잡았다는 잘못된 인식을 가져왔다. 오히려 그 반대다. 데이터 과학은 여전히 빠른 속도로 혁신하고 있는 ‘새로운 분야’로 남아있다. 하이프사이클에 따른다면 데이터 과학은 업계의 여러 업체가 AI를 채택하면서 2020년에 주류로 편입하는 것처럼 보였다. 그리고 모든 제품이나 서비스에 어떤 형태로든 인공지능이 적용되는 것처럼 보였다. 따라서 기업들은 스마트 데이터 솔루션으로 모든 문제를 해결할 수 있으리라 기대했고 기대치가 터무니없이 높아졌다. 하지만 데이터 과학은 그런 식으로 작동하지 않는다.  다행스럽게도, 이제 사람들은 하이프에서 벗어나 데이터 과학이 할 수 있는 일과 없는 일을 이해할 수 있는 적절한 질문을 하기 시작했다. 따라서 현재 데이터 과학은 품질과 제대로 구축했을 때 얻을 수 있는 ROI를 바탕으로 주목받고 있다.  1. 적응성(Adaptability)  데...

2021.03.25

냉철한 판단력 유지하려면?··· 사이버 사고 대응(IR) 팀을 위한 조언

사고 대응(IR ; Incident response)은 대규모 조직이라면 보안 전략의 한 축이다. 다양한 상황과 시나리오에 대응하는 방법을 숙지함으로써 기업은 사이버 공격에 더 신속하고 효과적으로 대응할 수 있다. 또한 비용 편익도 있다. IBM의 2020년 데이터 유출 비용 보고서에 따르면 탁상 연습(tabletop exercises) 또는 시뮬레이션을 통해 IR 계획을 테스트하는 사고 대응팀이 있는 기업들은 IR 팀이나 IR 테스트가 없는 기업들과 비교해 유출 비용이 평균 200만 달러나 낮은 것으로 나타났다. 그렇다면 사고 대응팀은 어떻게 구성하고 훈련해야 할까? 긴급 상황 중 적절한 의사 결정에 도움이 되는 팁을 살펴본다.    연 1회 기동 훈련으로는 효과적인 IR을 달성할 수 없다 심리학자 레베카 맥키원은 의사결정 및 상황 인식 파악 전문가로서, 영국 민간항공관리국(Civil Aviation Authority, CAA)과 영국 국방부에서 근무한 바 있다. 그녀는 국방과 사이버 보안 사이에 유사성이 높으며, 서로 의사결정에 관해 배울 것이 있다고 생각한다. 그녀는 “문제는 같다. 높은 압박, 빠른 속도, 높은 복잡성, 중대한 이해 관계, 많은 이해관계자 등이다. 영역만 다르지 문제의 종류는 같다”라고 말했다. 국방과 마차가지로 사이버 보안에는 프레임워크가 많다. OODA Loop 등의 프레임워크는 국방의 영역에 걸쳐 있기도 하다. 그리고 국방과 마찬가지로 사전 정의된 프레임워크와 프로세스에 과도하게 의존하면 결과가 좋지 못할 수 있다.  맥키원은 “사고의 민첩성이 정말 중요하다. OODA와 다른 프레임워크에 과도하게 의존하면 사람들은 프레임워크를 채우고 답변을 제공하는 것에 관해 생각하는 경향이 있다. 현실은 그것보다 훨씬 복잡하다”라고 말했다. CISO들은 향상된 사고 스킬과 정신적 민첩성을 높이고 사고 대응팀들의 비판적 사고와 의사결정을 촉진할 수 있어야 한다. 그래야 더욱 신속하고 효과적인 대응을 유도하는 방...

편향 IR 사고대응 긴급대응 의사결정 판단

2021.02.02

사고 대응(IR ; Incident response)은 대규모 조직이라면 보안 전략의 한 축이다. 다양한 상황과 시나리오에 대응하는 방법을 숙지함으로써 기업은 사이버 공격에 더 신속하고 효과적으로 대응할 수 있다. 또한 비용 편익도 있다. IBM의 2020년 데이터 유출 비용 보고서에 따르면 탁상 연습(tabletop exercises) 또는 시뮬레이션을 통해 IR 계획을 테스트하는 사고 대응팀이 있는 기업들은 IR 팀이나 IR 테스트가 없는 기업들과 비교해 유출 비용이 평균 200만 달러나 낮은 것으로 나타났다. 그렇다면 사고 대응팀은 어떻게 구성하고 훈련해야 할까? 긴급 상황 중 적절한 의사 결정에 도움이 되는 팁을 살펴본다.    연 1회 기동 훈련으로는 효과적인 IR을 달성할 수 없다 심리학자 레베카 맥키원은 의사결정 및 상황 인식 파악 전문가로서, 영국 민간항공관리국(Civil Aviation Authority, CAA)과 영국 국방부에서 근무한 바 있다. 그녀는 국방과 사이버 보안 사이에 유사성이 높으며, 서로 의사결정에 관해 배울 것이 있다고 생각한다. 그녀는 “문제는 같다. 높은 압박, 빠른 속도, 높은 복잡성, 중대한 이해 관계, 많은 이해관계자 등이다. 영역만 다르지 문제의 종류는 같다”라고 말했다. 국방과 마차가지로 사이버 보안에는 프레임워크가 많다. OODA Loop 등의 프레임워크는 국방의 영역에 걸쳐 있기도 하다. 그리고 국방과 마찬가지로 사전 정의된 프레임워크와 프로세스에 과도하게 의존하면 결과가 좋지 못할 수 있다.  맥키원은 “사고의 민첩성이 정말 중요하다. OODA와 다른 프레임워크에 과도하게 의존하면 사람들은 프레임워크를 채우고 답변을 제공하는 것에 관해 생각하는 경향이 있다. 현실은 그것보다 훨씬 복잡하다”라고 말했다. CISO들은 향상된 사고 스킬과 정신적 민첩성을 높이고 사고 대응팀들의 비판적 사고와 의사결정을 촉진할 수 있어야 한다. 그래야 더욱 신속하고 효과적인 대응을 유도하는 방...

2021.02.02

'수면 아래 백조의 다리'··· 인공지능의 어두운 비밀 12가지

인류는 자신의 노동을 대신할 수 있는 다재다능한 무언가를 갈망해왔다. 연구소 과학자들의 노력 덕분에, 우리는 인공지능(Artificial Intelligence, AI)에서 해답을 찾았다. 거창한 이론대로라면 AI는 사람이 해야 할 일을 거의 무엇이든지 할 수 있다(최소한 일부라도, 일부 시간 동안이라도).  그렇다. AI혁신은 경이롭다. 시리, 알렉사, 구글 어시스턴트 같은 가상 비서는 10 ~ 15년 전만 해도 마치 마술처럼 보일 것이다. 이용자의 말은 AI의 명령이 되고, 1990년대의 음성 인식 툴과 달리 이들은 꽤나 정확한 대답을 내놓는다. 바늘의 꼭지점에서 얼마나 많은 수의 천사가 춤을 출 수 있는 지와 같은 황당한 질문만 아니면 된다. 그러나 AI의 온갖 마술에도 불구하고, AI는 여전히 컴퓨터 프로그래밍에 의존하고, 스프레드시트, 워드프로세서에서와 같이 온갖 제한들로부터 똑같은 어려움을 겪는다. 이들은 통계적 변화를 다루는 데 능숙하지만, 궁극적으로 여전히 컴퓨터일 뿐이고, 따라서 함수를 계산하고 수치들이 임계점보다 크거나 작은지를 측정해 결론을 내릴 뿐이다. 영리한 신비로움과 정교한 알고리즘의 아래에는 ‘if-Then’ 결정을 수행하는 일련의 트랜지스터가 있다. 모든 산업에 걸쳐 AI가 확산되면서 우리는 아래와 같이 인공지능이 가진 어두운 비밀과 함께 살아가는 법을 배워야 한다.    AI가 발견한 것은 대부분이 뻔한 것이다 AI 과학자가 해야 하는 어려운 일 중 하나는 모든 사람이 이미 알고 있는 것이 발견됐다고 상사에게 말하는 것이다. 100억장의 사진을 조사한 후 AI는 하늘이 푸르다고 보고한다. 훈련 세트에 야간 사진을 넣지 않았다면 AI는 하늘이 저녁에 어두워진다는 사실을 모를 것이다.  그러나 이는 어쩔 수 없다. 데이터 내의 가장 강력한 신호는 실무자에게 명백할 것이고, 숫자를 파헤치는 컴퓨터 알고리즘에게도 명백할 것이다. 최소한 알고리즘에게 보상해줄 필요가 없다.  미묘한...

어두운 비밀 인공지능 설명가능한 AI 데이터 작업 편향 공정성 데이터 과학

2021.01.08

인류는 자신의 노동을 대신할 수 있는 다재다능한 무언가를 갈망해왔다. 연구소 과학자들의 노력 덕분에, 우리는 인공지능(Artificial Intelligence, AI)에서 해답을 찾았다. 거창한 이론대로라면 AI는 사람이 해야 할 일을 거의 무엇이든지 할 수 있다(최소한 일부라도, 일부 시간 동안이라도).  그렇다. AI혁신은 경이롭다. 시리, 알렉사, 구글 어시스턴트 같은 가상 비서는 10 ~ 15년 전만 해도 마치 마술처럼 보일 것이다. 이용자의 말은 AI의 명령이 되고, 1990년대의 음성 인식 툴과 달리 이들은 꽤나 정확한 대답을 내놓는다. 바늘의 꼭지점에서 얼마나 많은 수의 천사가 춤을 출 수 있는 지와 같은 황당한 질문만 아니면 된다. 그러나 AI의 온갖 마술에도 불구하고, AI는 여전히 컴퓨터 프로그래밍에 의존하고, 스프레드시트, 워드프로세서에서와 같이 온갖 제한들로부터 똑같은 어려움을 겪는다. 이들은 통계적 변화를 다루는 데 능숙하지만, 궁극적으로 여전히 컴퓨터일 뿐이고, 따라서 함수를 계산하고 수치들이 임계점보다 크거나 작은지를 측정해 결론을 내릴 뿐이다. 영리한 신비로움과 정교한 알고리즘의 아래에는 ‘if-Then’ 결정을 수행하는 일련의 트랜지스터가 있다. 모든 산업에 걸쳐 AI가 확산되면서 우리는 아래와 같이 인공지능이 가진 어두운 비밀과 함께 살아가는 법을 배워야 한다.    AI가 발견한 것은 대부분이 뻔한 것이다 AI 과학자가 해야 하는 어려운 일 중 하나는 모든 사람이 이미 알고 있는 것이 발견됐다고 상사에게 말하는 것이다. 100억장의 사진을 조사한 후 AI는 하늘이 푸르다고 보고한다. 훈련 세트에 야간 사진을 넣지 않았다면 AI는 하늘이 저녁에 어두워진다는 사실을 모를 것이다.  그러나 이는 어쩔 수 없다. 데이터 내의 가장 강력한 신호는 실무자에게 명백할 것이고, 숫자를 파헤치는 컴퓨터 알고리즘에게도 명백할 것이다. 최소한 알고리즘에게 보상해줄 필요가 없다.  미묘한...

2021.01.08

마냥 웃을 순 없다··· AI 그리고 ML 프로젝트, 얼마나 '안전'한가? 

인공지능과 머신러닝은 많은 이점을 제공한다. 하지만 동시에 새로운 취약점을 가져오기도 한다. 이러한 위험을 최소화할 방법을 살펴본다.  신기술을 도입할 때 보안을 뒷전으로 미루는 경우가 많다. 새로운 제품이나 서비스를 최대한 빠르게, 그리고 저렴하게 선보이는 게 더 중요하다고 판단해서다. 게다가 ‘완벽한 보안’은 시간이 오래 걸리고 비용도 많이 든다.  인공지능(AI)과 머신러닝(ML) 역시 보안 취약점이 있다. 이전의 기술 발전과 유사한 취약점과 설정 오류를 보이기도 하고, 이들만의 고유한 보안 위험이 있기도 하다.  만약 AI 중심 디지털 트랜스포메이션을 추진한다면 기업은 이러한 위험을 직면하게 될 가능성이 크다. 美 IT 컨설팅 회사 부즈 앨런 해밀턴(Booz Allen Hamilton)의 수석 과학자 에드워드 라프는 “서둘러선 안 되는 영역이다”라고 말했다.   AI와 ML은 다른 기술보다 더 많고 복잡한 데이터도 필요하다. 따라서 수학자와 데이터 과학자들이 개발한 알고리즘은 학문적인 연구 프로젝트에서 시작되는 경우가 많다. 라프는 “최근에서야 연구진들은 AI에 보안 문제가 있다는 것을 알게 됐다”라고 언급했다.  아울러 이들의 용량 및 처리 요건은 또 다른 수준의 복잡성과 취약점을 추가한다. 클라우드 플랫폼이 워크로드를 처리하는 경우가 많기 때문이다. 정리하자면, AI 도입에 있어 사이버보안이 가장 우려되는 위험인 것은 당연하다.  2020년 7월 발표된 딜로이트(Deloitte)의 한 보고서에 따르면 AI를 도입한 기업 가운데 62%가 사이버보안 위험을 가장 큰 혹은 주요 위험으로 보고 있지만, 이 위험을 해결할 준비가 됐다고 답한 기업은 39%에 불과했다. 이 문제를 더욱더 복잡하게 만드는 것은 사이버보안 자체에서 AI가 많이 사용된다는 점이다. 따라서 AI 경험이 풍부해질수록 기업들은 사이버보안 위험을 더 걱정한다고 딜로이트의 기술, 미디어, 통신 부문 전무이사 제프 룩스는 전했...

인공지능 머신러닝 AI ML 보안 보안 취약점 사이버보안 디지털 트랜스포메이션 데이터 과학 딜로이트 데이터 보호 전도 공격 설명가능성 블랙박스 AI 데이터 포이즈닝 편향 모델 드리프트 클라우드

2020.11.30

인공지능과 머신러닝은 많은 이점을 제공한다. 하지만 동시에 새로운 취약점을 가져오기도 한다. 이러한 위험을 최소화할 방법을 살펴본다.  신기술을 도입할 때 보안을 뒷전으로 미루는 경우가 많다. 새로운 제품이나 서비스를 최대한 빠르게, 그리고 저렴하게 선보이는 게 더 중요하다고 판단해서다. 게다가 ‘완벽한 보안’은 시간이 오래 걸리고 비용도 많이 든다.  인공지능(AI)과 머신러닝(ML) 역시 보안 취약점이 있다. 이전의 기술 발전과 유사한 취약점과 설정 오류를 보이기도 하고, 이들만의 고유한 보안 위험이 있기도 하다.  만약 AI 중심 디지털 트랜스포메이션을 추진한다면 기업은 이러한 위험을 직면하게 될 가능성이 크다. 美 IT 컨설팅 회사 부즈 앨런 해밀턴(Booz Allen Hamilton)의 수석 과학자 에드워드 라프는 “서둘러선 안 되는 영역이다”라고 말했다.   AI와 ML은 다른 기술보다 더 많고 복잡한 데이터도 필요하다. 따라서 수학자와 데이터 과학자들이 개발한 알고리즘은 학문적인 연구 프로젝트에서 시작되는 경우가 많다. 라프는 “최근에서야 연구진들은 AI에 보안 문제가 있다는 것을 알게 됐다”라고 언급했다.  아울러 이들의 용량 및 처리 요건은 또 다른 수준의 복잡성과 취약점을 추가한다. 클라우드 플랫폼이 워크로드를 처리하는 경우가 많기 때문이다. 정리하자면, AI 도입에 있어 사이버보안이 가장 우려되는 위험인 것은 당연하다.  2020년 7월 발표된 딜로이트(Deloitte)의 한 보고서에 따르면 AI를 도입한 기업 가운데 62%가 사이버보안 위험을 가장 큰 혹은 주요 위험으로 보고 있지만, 이 위험을 해결할 준비가 됐다고 답한 기업은 39%에 불과했다. 이 문제를 더욱더 복잡하게 만드는 것은 사이버보안 자체에서 AI가 많이 사용된다는 점이다. 따라서 AI 경험이 풍부해질수록 기업들은 사이버보안 위험을 더 걱정한다고 딜로이트의 기술, 미디어, 통신 부문 전무이사 제프 룩스는 전했...

2020.11.30

데이터 준비에서 HW 선택까지··· '머신러닝 트레이닝' 안내서

머신러닝(ML)을 제대로 활용하기 위한 기본 전제는 모델을 적절히 훈련시키는 것이다. 데이터로부터 신뢰할 만한 결과를 도출해내는데 참고할 만한 12가지 조언을 정리했다.    ML은 오늘날 가장 실용적인 AI 응용 기술이라고 말할 수 있다. ML시스템은 명시적인 프로그래밍 없이, 데이터에 알고리즘을 적용해 인사이트를 도출한다. 즉, 데이터를 활용해 질문에 답을 찾아낼 수 있다. 오늘날 많은 기업들이 고객 구매 패턴에서 유지보수 및 관리에 대한 예측까지 다양한 문제에 ML을 적용해 활용하고 있다. 그러나 ML 시스템이 질문에 제대로 대답하기 위해서는 데이터와 결과에 대한 트레이닝이 실시되어야 한다. 여기에는 이유가 있다. ML 시스템은 질문에 대답을 할 때 사용할 데이터와 같은 종류의 데이터를 ‘체험’하는 방법을 통해 데이터에서 예측을 할 수 있는 능력을 키울 수 있기 때문이다. 이를테면 구성요소에 장애가 발생할지 여부를 예측하는 경우, 먼저 기능을 하는 구성요소와 장애가 발생한 구성요소 모두에서 센서 판독 데이터를 수집 공급하는 방법으로 ML 시스템을 트레이닝해야 한다. 지루한 단계이지만, ML을 정확히 구현하는데 아주 중요한 단계이다. 이 단계가 잘못되면, 시스템이 원하는 결과를 만들어내지 못한다. ML을 트레이닝 하면서 자주 저지르는 실수들이 있다. 또 ML 시스템을 배포하기 훨씬 전에 내려야 할 결정들이 있다. 이를 나중에 다루려 할 경우 대가를 치를 수 있다. 머신러닝을 훈련시킬 때 알아야 할 사항들을 정리했다.  데이터 품질 확보 일단 데이터가 제대로 준비해야 ML 시스템 트레이닝을 시작할 수 있다. 인텔 AI 제품 그룹의 세일즈 강화 디렉터인 에릭 가드너는 “데이터를 올바르게 준비하는데 많은 시간이 소요되지만, 이 부분이 간과되는 경우가 많다. 현대적인 데이터 인프라 구축, 수집 및 생성할 데이터 파악, 클린업에 많은 시간이 소요될 수 있다”라고 말했다. 여기에는 중복 데이터, 손상 데이터, 누락 데이터 문제...

훈련 데이터 세트 트레이닝 데이터 품질 편향 데이터 포이즈닝 전이 학습 합성 데이터

2020.05.08

머신러닝(ML)을 제대로 활용하기 위한 기본 전제는 모델을 적절히 훈련시키는 것이다. 데이터로부터 신뢰할 만한 결과를 도출해내는데 참고할 만한 12가지 조언을 정리했다.    ML은 오늘날 가장 실용적인 AI 응용 기술이라고 말할 수 있다. ML시스템은 명시적인 프로그래밍 없이, 데이터에 알고리즘을 적용해 인사이트를 도출한다. 즉, 데이터를 활용해 질문에 답을 찾아낼 수 있다. 오늘날 많은 기업들이 고객 구매 패턴에서 유지보수 및 관리에 대한 예측까지 다양한 문제에 ML을 적용해 활용하고 있다. 그러나 ML 시스템이 질문에 제대로 대답하기 위해서는 데이터와 결과에 대한 트레이닝이 실시되어야 한다. 여기에는 이유가 있다. ML 시스템은 질문에 대답을 할 때 사용할 데이터와 같은 종류의 데이터를 ‘체험’하는 방법을 통해 데이터에서 예측을 할 수 있는 능력을 키울 수 있기 때문이다. 이를테면 구성요소에 장애가 발생할지 여부를 예측하는 경우, 먼저 기능을 하는 구성요소와 장애가 발생한 구성요소 모두에서 센서 판독 데이터를 수집 공급하는 방법으로 ML 시스템을 트레이닝해야 한다. 지루한 단계이지만, ML을 정확히 구현하는데 아주 중요한 단계이다. 이 단계가 잘못되면, 시스템이 원하는 결과를 만들어내지 못한다. ML을 트레이닝 하면서 자주 저지르는 실수들이 있다. 또 ML 시스템을 배포하기 훨씬 전에 내려야 할 결정들이 있다. 이를 나중에 다루려 할 경우 대가를 치를 수 있다. 머신러닝을 훈련시킬 때 알아야 할 사항들을 정리했다.  데이터 품질 확보 일단 데이터가 제대로 준비해야 ML 시스템 트레이닝을 시작할 수 있다. 인텔 AI 제품 그룹의 세일즈 강화 디렉터인 에릭 가드너는 “데이터를 올바르게 준비하는데 많은 시간이 소요되지만, 이 부분이 간과되는 경우가 많다. 현대적인 데이터 인프라 구축, 수집 및 생성할 데이터 파악, 클린업에 많은 시간이 소요될 수 있다”라고 말했다. 여기에는 중복 데이터, 손상 데이터, 누락 데이터 문제...

2020.05.08

인공지능 및 머신러닝 프로젝트, 얼마나 안전할까

기업이 새로운 기술을 도입할 때 보안이 뒷전으로 물러나는 경우가 많다. 가능한 빨리, 가능한 저렴한 비용으로 고객과 내부 사용자를 위한 새로운 제품과 서비스를 도입하는 것이 더 중요해 보일 수도 있다. 보안을 견고히 하려면 시간과 비용을 투자해야 할 수 있기 때문이다. 즉, 좋은 보안은 느리고 비싸다. 인공지능(Artificial intelligence, AI)과 머신러닝(Machine Learning, ML)은 이전의 기술 발전과 마찬가지로 ‘취약점’과 ‘잘못된 구성’이 초래될 수 있으며, 동시에 고유의 위험도 존재한다. 기업이 AI에 기반을 둔 디지털 트랜스포메이션이라는 중요한 여정을 거치면서, 이런 위험이 과거 우리가 경험하지 못했던 수준으로 커질 가능성이 있다. AI와 머신러닝은 다른 기술들보다 훨씬 더 많은 데이터, 훨씬 더 복잡한 데이터를 요구한다. 여기에 사용되는 알고리즘은 수학자와 데이터 과학자가 개발했으며, 연구 프로젝트에서 나온 것들이다. 한편 불륨(양)과 프로세싱에 필요한 요건 때문에 클라우드 플랫폼으로 워크로드를 처리해야 하는 경우가 일반적이다. 이로 인해 복잡성과 취약점이 가중된다. 많은 데이터 요구, 암호화되지 않은 데이터를 남긴다  AI와 머신러닝 시스템은 3가지 데이터 세트를 요구한다. 첫째, 기업이 예측 모델을 구축하기 위해 필요한 트레이닝 데이터다. 둘째, 모델이 얼마나 잘 작동하는지 파악하기 위해 필요한 테스팅 데이터다. 마지막은 모델을 가동할 때 사용하는 트랜젝션 데이터, 운영 데이터다. 이로 인해 2가지 보안 문제를 초래한다. 첫 번째, 데이터 과학자가 수집하는 트레이닝 데이터는 통상 평문(cleartext) 형식이다. 익명화된 데이터, 토큰화 된 데이터를 사용하면 모델을 구축하기 더 힘들어진다. 데이터 과학자는 일반적으로 이런 종류의 데이터 보안 전문성을 갖고 있지 않다. 모델이 입증되어 운영에 사용되는 경우에도 여전히 평문 데이터를 받아들이게 될 것이다. 이는 중대한 보안 위험이다. 엣지와이즈 네트워크...

프로젝트 클라우드 사이버보안 인공지능 머신러닝 편향 보안내재화

2019.09.06

기업이 새로운 기술을 도입할 때 보안이 뒷전으로 물러나는 경우가 많다. 가능한 빨리, 가능한 저렴한 비용으로 고객과 내부 사용자를 위한 새로운 제품과 서비스를 도입하는 것이 더 중요해 보일 수도 있다. 보안을 견고히 하려면 시간과 비용을 투자해야 할 수 있기 때문이다. 즉, 좋은 보안은 느리고 비싸다. 인공지능(Artificial intelligence, AI)과 머신러닝(Machine Learning, ML)은 이전의 기술 발전과 마찬가지로 ‘취약점’과 ‘잘못된 구성’이 초래될 수 있으며, 동시에 고유의 위험도 존재한다. 기업이 AI에 기반을 둔 디지털 트랜스포메이션이라는 중요한 여정을 거치면서, 이런 위험이 과거 우리가 경험하지 못했던 수준으로 커질 가능성이 있다. AI와 머신러닝은 다른 기술들보다 훨씬 더 많은 데이터, 훨씬 더 복잡한 데이터를 요구한다. 여기에 사용되는 알고리즘은 수학자와 데이터 과학자가 개발했으며, 연구 프로젝트에서 나온 것들이다. 한편 불륨(양)과 프로세싱에 필요한 요건 때문에 클라우드 플랫폼으로 워크로드를 처리해야 하는 경우가 일반적이다. 이로 인해 복잡성과 취약점이 가중된다. 많은 데이터 요구, 암호화되지 않은 데이터를 남긴다  AI와 머신러닝 시스템은 3가지 데이터 세트를 요구한다. 첫째, 기업이 예측 모델을 구축하기 위해 필요한 트레이닝 데이터다. 둘째, 모델이 얼마나 잘 작동하는지 파악하기 위해 필요한 테스팅 데이터다. 마지막은 모델을 가동할 때 사용하는 트랜젝션 데이터, 운영 데이터다. 이로 인해 2가지 보안 문제를 초래한다. 첫 번째, 데이터 과학자가 수집하는 트레이닝 데이터는 통상 평문(cleartext) 형식이다. 익명화된 데이터, 토큰화 된 데이터를 사용하면 모델을 구축하기 더 힘들어진다. 데이터 과학자는 일반적으로 이런 종류의 데이터 보안 전문성을 갖고 있지 않다. 모델이 입증되어 운영에 사용되는 경우에도 여전히 평문 데이터를 받아들이게 될 것이다. 이는 중대한 보안 위험이다. 엣지와이즈 네트워크...

2019.09.06

AI는 법률 분야에 어떤 영향을 끼칠까

AI와 자동화는 법률 분야에 어떤 영향을 끼칠까? 법률 분야는 개인과 기업 차원에서 많은 양의 데이터를 통해 작동하므로 이 분야에서 데이터 보호와 정확성은 매우 중요하다.   자동화 기술은 법률 부문에 매우 잘 적용될 것처럼 보였으나, 일부 법률회사는 여전히 매우 조심스럽고 규제가 엄격한 산업의 혜택을 여전히 의문시하고 있다. 인공지능과 자동화 기술이 법률과 법률 보조 직업에 미칠 수 있는 잠재적 영향을 알아보자.  1. 문서 찾기 및 검토 컴퓨터가 문서를 이해하고 찾아내는 능력은 법률 보조 업무에 심각한 영향을 미칠 것이다. 일반적으로 사람이 문서 찾기 및 검토 업무를 해왔는데 컴퓨터는 이 작업을 매우 빠른 속도로 해낼 수 있다. 이미 자연어 처리 및 AI 도구를 사용하여 문서를 검색하는 전문 서비스 회사가 여러 곳 있다. 사례는 사람이 할 수 있는 것보다 훨씬 빠른 속도로 사례 파일, 법적 브리핑 등을 통과하는 기능에서 다양하다. 2017년에 투자은행 회사인 JP모건은 상업 자금 대출 계약을 해석하기 위해 계약 인텔리전스에 COIN이라는 프로그램을 사용하고 있다고 발표했다. 이는 연간 최대 3만 6,000시간의 변호사 비용을 소비하는 작업이다. 위와 같은 기술의 채택은 법률 연구가 수행되는 방식이 변경됨에 따라 부문 전반에 걸쳐 빠르게 확산되고 있다. 하버드대학교는 연수생 변호사들이 이와 같은 기술을 습득할 수 있도록 법률 혁신 및 프로그래밍 과정을 제공한다. 2. 빅데이터 분석 빅데이터는 자연어 처리 및 머신러닝과 같은 기술을 활용하여 대용량의 데이터 및 실제적인 통찰력을 위한 콘텐츠를 마이닝할 때 법률 분야에서 중요한 역할을 한다. 수집된 정보는 변호사가 판례를 더욱더 잘 판단하고 합법적인 전략을 수립하며 소송 비용을 예측하는 데 사용될 수 있다. 3. 의무 이행 확인 의무를 이행했는지 확인하는 작업은 일반적으로 지루하고 평범한 것으로 종종 법적인 지원을 맡는 근로자가 수행해야 한다. 경우에 따라 사람의 실수가 발생할 ...

빅데이터 일자리 감소 프로퍼블리카 편향 ML 머신러닝 계약서 분석 변호사 법률 기계학습 인공지능 판결 딜로이트 듀딜리전스

2018.12.28

AI와 자동화는 법률 분야에 어떤 영향을 끼칠까? 법률 분야는 개인과 기업 차원에서 많은 양의 데이터를 통해 작동하므로 이 분야에서 데이터 보호와 정확성은 매우 중요하다.   자동화 기술은 법률 부문에 매우 잘 적용될 것처럼 보였으나, 일부 법률회사는 여전히 매우 조심스럽고 규제가 엄격한 산업의 혜택을 여전히 의문시하고 있다. 인공지능과 자동화 기술이 법률과 법률 보조 직업에 미칠 수 있는 잠재적 영향을 알아보자.  1. 문서 찾기 및 검토 컴퓨터가 문서를 이해하고 찾아내는 능력은 법률 보조 업무에 심각한 영향을 미칠 것이다. 일반적으로 사람이 문서 찾기 및 검토 업무를 해왔는데 컴퓨터는 이 작업을 매우 빠른 속도로 해낼 수 있다. 이미 자연어 처리 및 AI 도구를 사용하여 문서를 검색하는 전문 서비스 회사가 여러 곳 있다. 사례는 사람이 할 수 있는 것보다 훨씬 빠른 속도로 사례 파일, 법적 브리핑 등을 통과하는 기능에서 다양하다. 2017년에 투자은행 회사인 JP모건은 상업 자금 대출 계약을 해석하기 위해 계약 인텔리전스에 COIN이라는 프로그램을 사용하고 있다고 발표했다. 이는 연간 최대 3만 6,000시간의 변호사 비용을 소비하는 작업이다. 위와 같은 기술의 채택은 법률 연구가 수행되는 방식이 변경됨에 따라 부문 전반에 걸쳐 빠르게 확산되고 있다. 하버드대학교는 연수생 변호사들이 이와 같은 기술을 습득할 수 있도록 법률 혁신 및 프로그래밍 과정을 제공한다. 2. 빅데이터 분석 빅데이터는 자연어 처리 및 머신러닝과 같은 기술을 활용하여 대용량의 데이터 및 실제적인 통찰력을 위한 콘텐츠를 마이닝할 때 법률 분야에서 중요한 역할을 한다. 수집된 정보는 변호사가 판례를 더욱더 잘 판단하고 합법적인 전략을 수립하며 소송 비용을 예측하는 데 사용될 수 있다. 3. 의무 이행 확인 의무를 이행했는지 확인하는 작업은 일반적으로 지루하고 평범한 것으로 종종 법적인 지원을 맡는 근로자가 수행해야 한다. 경우에 따라 사람의 실수가 발생할 ...

2018.12.28

IBM의 인공지능 툴킷, AI 편향을 완화해 줄까

AI의 발전이 가속됨에 따라 우리의 일상적 삶의 더 많은 부분이 눈에 보이지 않는 알고리즘의 영향을 받고 있다. 그러나 중요한 결정을 소프트웨어에 맡기면 맡길수록 이들이 작용하는 방식과 이들이 내린 결론의 이유를 조사할 필요성은 더욱 커진다. 우려는 서서히 부상 중이다. 케이시 오닐은 <수학 살상 무기(Weapons of Math Destruction)>라는 저서에서 알고리즘이 대출 여부, 채용 여부, 대학 입학, 보석 결정 등의 중대한 결정에 어떻게 영향을 줄 수 있는지를 중점적으로 다루었다. 알고리즘의 가장 큰 위험이라면 의도적 및 비의도적 편향을 수용하고 영속화하는 것이다. 레이첼 벨래미는 주로 인지 편향과 인지 편향이 AI에 코드화되는 방법을 조사하는 IBM 리서치 휴먼-에이전트 컬레보레이션 그룹을 지휘한다. 현재 벨래미는 알고리즘이 어떻게 특정 집단에 차별 효과를 줄 수 있는지, 개발자는 어떻게 이러한 잠재적 문제를 우회할 수 있는지에 관해 광범위한 연구를 벌이고 있다. 벨레미는 AI가 인간보다 더 논리적이고 정확하다는 것을 전제로 왜 AI가 인간의 변덕스러운 추론의 대안으로서 반갑게 등장했는지를 설명하면서 “문제는 인간이 결정을 내리는 데 매우 서툴다는 것이다”고 말했다. 이어서 “그러나 AI는 데이터를 기반으로 하고, 데이터에는 편향이 있기 때문에 AI 역시 편향에서 벗어나지 못한 것이 분명하다”고 덧붙였다. 중요한 연구들에서는 알고리즘의 무분별한 이용의 확연한 문제를 발견했다. 예를 들어 2016년의 프로퍼블리카 조사에서는 미국의 형사 법원에서 사용한 알고리즘이 흑인에게 편향적이었음이 드러났다. 흑인이 백인보다 재범 확률이 높다고 틀리게 예측할 가능성이 더 높다는 것이다. 보다 최근에는 아마존의 채용 프로세스에 사용된 알고리즘에서 여성을 차별하며, ‘여성 체스 클럽’이라든지 ‘여자 대학’과 같은 말을 한 응시자를 감점...

채용 아마존 IBM 인공지능 차별 편견 편향 AI 페어니스 360 프로퍼블리카

2018.11.20

AI의 발전이 가속됨에 따라 우리의 일상적 삶의 더 많은 부분이 눈에 보이지 않는 알고리즘의 영향을 받고 있다. 그러나 중요한 결정을 소프트웨어에 맡기면 맡길수록 이들이 작용하는 방식과 이들이 내린 결론의 이유를 조사할 필요성은 더욱 커진다. 우려는 서서히 부상 중이다. 케이시 오닐은 <수학 살상 무기(Weapons of Math Destruction)>라는 저서에서 알고리즘이 대출 여부, 채용 여부, 대학 입학, 보석 결정 등의 중대한 결정에 어떻게 영향을 줄 수 있는지를 중점적으로 다루었다. 알고리즘의 가장 큰 위험이라면 의도적 및 비의도적 편향을 수용하고 영속화하는 것이다. 레이첼 벨래미는 주로 인지 편향과 인지 편향이 AI에 코드화되는 방법을 조사하는 IBM 리서치 휴먼-에이전트 컬레보레이션 그룹을 지휘한다. 현재 벨래미는 알고리즘이 어떻게 특정 집단에 차별 효과를 줄 수 있는지, 개발자는 어떻게 이러한 잠재적 문제를 우회할 수 있는지에 관해 광범위한 연구를 벌이고 있다. 벨레미는 AI가 인간보다 더 논리적이고 정확하다는 것을 전제로 왜 AI가 인간의 변덕스러운 추론의 대안으로서 반갑게 등장했는지를 설명하면서 “문제는 인간이 결정을 내리는 데 매우 서툴다는 것이다”고 말했다. 이어서 “그러나 AI는 데이터를 기반으로 하고, 데이터에는 편향이 있기 때문에 AI 역시 편향에서 벗어나지 못한 것이 분명하다”고 덧붙였다. 중요한 연구들에서는 알고리즘의 무분별한 이용의 확연한 문제를 발견했다. 예를 들어 2016년의 프로퍼블리카 조사에서는 미국의 형사 법원에서 사용한 알고리즘이 흑인에게 편향적이었음이 드러났다. 흑인이 백인보다 재범 확률이 높다고 틀리게 예측할 가능성이 더 높다는 것이다. 보다 최근에는 아마존의 채용 프로세스에 사용된 알고리즘에서 여성을 차별하며, ‘여성 체스 클럽’이라든지 ‘여자 대학’과 같은 말을 한 응시자를 감점...

2018.11.20

로봇 전문가가 말하는 'AI에 관한 설명 기능이 향상되는 이유'

로봇공학 전문가 브라이언 루튼버그 박사는 산업에서 신기술을 채택함에 따라 머신러닝의 의사결정 방식을 설명하는 개념이 얼마나 중요한지 강조했다. 방대한 양의 데이터에서 신속하게 추천을 생성할 수 있는 인공지능(AI) 시스템은 고객 등급 매기기부터 피부암 종양 탐지까지 다양한 분야에 적용되는 것으로 나타났다. 그러나 이러한 시스템이 의사결정에 도달하는 방식이 항상 명확한 것은 아니다. 특히 시간이 지남에 따라 자율적으로 정확성을 높일 수 있는 머신러닝 기술을 사용할 때 그렇다. 기계가 결론에 도달하는 방법을 인간이 쉽게 이해할 수 없다는 것은 처음부터 기계가 이러한 컴퓨팅을 처리하도록 요청된 이유에 따른 자연스러운 결과이기도 하다. 즉 인간의 마음이 수학적으로 동일한 작업을 실질적으로 완료할 수는 없다는 의미다. 그러나 사람은 신용 대출이 거절됐거나 특정 제안을 받지 못할 때 등 인공지능의 결정에 영향을 받는 경우 그 이유를 알고 싶어 할 것이다. 또한 의사결정 과정에서 자연스럽게 불이익을 줄 수 있는 오류나 편향된 데이터를 기반으로 컴퓨터가 결론에 도달할 가능성이 있을 때 더욱 커진다. 로봇회사인 넥스트드로이드(NextDriod)의 수석 과학자 브라이언 루튼버그 박사는 인공지능에서 '설명가능성(explainability)' 개념에 일생을 바쳤다. 호주 애널리틱스 전문가 협회(IAPA) 총회에서 발표할 예정인 루튼버그는 자신이 자율주행 차량에 AI를 신속하게 채택함으로써 이 개념을 조사하도록 영감을 받았다고 말했다. 루튼버그는 <CMO>에 "딥러닝과 컴퓨팅 기능의 등장으로 AI 시스템은 점점 더 복잡해지고 있다"며 "이러한 AI 결정에는 사회적 함의가 있다. 설명가능성은 공정성과 책임성과 투명성이라는 개념과 관련이 있다"고 밝혔다. 루튼버그의 설명가능성에 대한 관심은 주로 자율주행 차량에 관한 것이다. 그는 다른 분야에서의 AI 채택은 그것을 사용하는 사람들에...

구글 신용 자율주행 설명 이해 명예훼손 투명 대출 과학자 인공지능 CMO 금융 책임 빅데이터 편향

2018.10.23

로봇공학 전문가 브라이언 루튼버그 박사는 산업에서 신기술을 채택함에 따라 머신러닝의 의사결정 방식을 설명하는 개념이 얼마나 중요한지 강조했다. 방대한 양의 데이터에서 신속하게 추천을 생성할 수 있는 인공지능(AI) 시스템은 고객 등급 매기기부터 피부암 종양 탐지까지 다양한 분야에 적용되는 것으로 나타났다. 그러나 이러한 시스템이 의사결정에 도달하는 방식이 항상 명확한 것은 아니다. 특히 시간이 지남에 따라 자율적으로 정확성을 높일 수 있는 머신러닝 기술을 사용할 때 그렇다. 기계가 결론에 도달하는 방법을 인간이 쉽게 이해할 수 없다는 것은 처음부터 기계가 이러한 컴퓨팅을 처리하도록 요청된 이유에 따른 자연스러운 결과이기도 하다. 즉 인간의 마음이 수학적으로 동일한 작업을 실질적으로 완료할 수는 없다는 의미다. 그러나 사람은 신용 대출이 거절됐거나 특정 제안을 받지 못할 때 등 인공지능의 결정에 영향을 받는 경우 그 이유를 알고 싶어 할 것이다. 또한 의사결정 과정에서 자연스럽게 불이익을 줄 수 있는 오류나 편향된 데이터를 기반으로 컴퓨터가 결론에 도달할 가능성이 있을 때 더욱 커진다. 로봇회사인 넥스트드로이드(NextDriod)의 수석 과학자 브라이언 루튼버그 박사는 인공지능에서 '설명가능성(explainability)' 개념에 일생을 바쳤다. 호주 애널리틱스 전문가 협회(IAPA) 총회에서 발표할 예정인 루튼버그는 자신이 자율주행 차량에 AI를 신속하게 채택함으로써 이 개념을 조사하도록 영감을 받았다고 말했다. 루튼버그는 <CMO>에 "딥러닝과 컴퓨팅 기능의 등장으로 AI 시스템은 점점 더 복잡해지고 있다"며 "이러한 AI 결정에는 사회적 함의가 있다. 설명가능성은 공정성과 책임성과 투명성이라는 개념과 관련이 있다"고 밝혔다. 루튼버그의 설명가능성에 대한 관심은 주로 자율주행 차량에 관한 것이다. 그는 다른 분야에서의 AI 채택은 그것을 사용하는 사람들에...

2018.10.23

'AI의 블랙박스화' 막겠다··· 오픈소스로 알고리즘 공개 선언한 IBM

IBM은 인공지능 개발자가 알고리즘 작동 방식을 더 잘 파악할 수 있도록 돕는 오픈소스 소프트웨어 툴 세트를 발표했으며, 이는 향후 알고리즘의 편견을 피하는 데 도움이 될 것으로 기대된다. IBM은 개발자들이 인공지능의 의사결정 방식을 파악하는 데 도움이 되는 새로운 오픈소스 소프트웨어를 출시해 인공지능 블랙박스 알고리즘을 깨고자 분투하고 있다. 블랙박스 알고리즘은 신문 구독과 상품 구매 등 단순한 것부터 헤지펀드가 투자하는 주식이나 보험사가 가입을 승인하는 고객까지 사람들이 점차 일상적으로 의존하고 있는 시스템의 핵심에 있는 복잡한 코드다. 이것들은 디자인이 점차 복잡해지고 있으며 시스템이 결론에 도달한 방식을 모를 때도 있는 코드 개발자들로부터 정보를 받을 수 있다. 또한 역사적으로 디자인에 대한 감독이나 책임성이 거의 없었다. IBM은 현재 페어네스 360 키트(Fairness 360 Kit)를 통해 AI개발자들이 일련의 대시보드를 통해 창작물의 내부를 살펴보고 의사결정 근거를 파악하는 데 도움이 되기 위해 개발된 소프트웨어를 오픈소스화하고 있다. 이 소프트웨어는 IBM 클라우드에서 서비스로써 운용되며 IBM 리서치가 해당 오픈소스 커뮤니티에 AI 편향 감지 및 완화 툴킷을 공개할 예정이다. 이를 통해 알고리즘 의사결정에 대한 실시간 통찰을 얻고 내재된 편향에 대한 의혹을 감지함으로써 심지어 감지된 편향을 완화하는 데 도움이 될 수 있는 새로운 데이터 파라미터를 추천할 수 있다. 이 통찰이 대시보드와 자연어로 제공되어 "의사결정에 가중치를 둔 인자, 추천에 대한 신뢰성, 신뢰성의 근거 인자를 보여준다"고 해당 업체가 언론 보도를 통해 밝혔다. 또한 IBM은 "고객 서비스, 규제, GDPR 준수성 등의 준수성을 위해 모델의 정확도, 성능, 공정성에 대한 기록과 AI 시스템의 혈통이 손쉽게 추적된다"고 이야기했다.  이 소프트웨어는 광범위하고 사용자 정의 가능한 용도를 ...

구글 편견 텐서플로 GDPR 애저ML 편향 스파크ML SparkML AWS 세이지메이커 AWS SageMaker 블랙박스 핀터레스트 공정 SAP 페이스북 인텔 IBM 액센츄어 마이크로소프트 왓슨 윤리 인공지능 AzureML

2018.10.01

IBM은 인공지능 개발자가 알고리즘 작동 방식을 더 잘 파악할 수 있도록 돕는 오픈소스 소프트웨어 툴 세트를 발표했으며, 이는 향후 알고리즘의 편견을 피하는 데 도움이 될 것으로 기대된다. IBM은 개발자들이 인공지능의 의사결정 방식을 파악하는 데 도움이 되는 새로운 오픈소스 소프트웨어를 출시해 인공지능 블랙박스 알고리즘을 깨고자 분투하고 있다. 블랙박스 알고리즘은 신문 구독과 상품 구매 등 단순한 것부터 헤지펀드가 투자하는 주식이나 보험사가 가입을 승인하는 고객까지 사람들이 점차 일상적으로 의존하고 있는 시스템의 핵심에 있는 복잡한 코드다. 이것들은 디자인이 점차 복잡해지고 있으며 시스템이 결론에 도달한 방식을 모를 때도 있는 코드 개발자들로부터 정보를 받을 수 있다. 또한 역사적으로 디자인에 대한 감독이나 책임성이 거의 없었다. IBM은 현재 페어네스 360 키트(Fairness 360 Kit)를 통해 AI개발자들이 일련의 대시보드를 통해 창작물의 내부를 살펴보고 의사결정 근거를 파악하는 데 도움이 되기 위해 개발된 소프트웨어를 오픈소스화하고 있다. 이 소프트웨어는 IBM 클라우드에서 서비스로써 운용되며 IBM 리서치가 해당 오픈소스 커뮤니티에 AI 편향 감지 및 완화 툴킷을 공개할 예정이다. 이를 통해 알고리즘 의사결정에 대한 실시간 통찰을 얻고 내재된 편향에 대한 의혹을 감지함으로써 심지어 감지된 편향을 완화하는 데 도움이 될 수 있는 새로운 데이터 파라미터를 추천할 수 있다. 이 통찰이 대시보드와 자연어로 제공되어 "의사결정에 가중치를 둔 인자, 추천에 대한 신뢰성, 신뢰성의 근거 인자를 보여준다"고 해당 업체가 언론 보도를 통해 밝혔다. 또한 IBM은 "고객 서비스, 규제, GDPR 준수성 등의 준수성을 위해 모델의 정확도, 성능, 공정성에 대한 기록과 AI 시스템의 혈통이 손쉽게 추적된다"고 이야기했다.  이 소프트웨어는 광범위하고 사용자 정의 가능한 용도를 ...

2018.10.01

AI가 판결하는 '정의란 무엇인가'

전세계 법원은 소프트웨어를 사용해 위험을 평가하고 판결에 도움을 받으며 알고리즘을 실험하고 있다. 비평가들은 시스템 투명성이 부족하고 인간의 편견을 증폭시킬 수 있다고 우려하지만 알고리즘이 좀더 공정하고 효율적일 수 있다고 주장하고 있다. 엘리엇 애쉬 교수는 이 주제를 연구 중이며 시스템 개발 방법 계획을 수립했다. 2017년 8월, 미국 오하이오주 클리브랜드의 한 법정에서는 허큘리스 셰퍼드 주니어가 코카인 소지 죄목으로 체포되어 재판을 기다리고 있었다. 이날 사건을 맡은 판사는 판결을 내리는 데 도움을 줄 리스크 평가 소프트웨어를 동반한 채 법정에 등장했다. 이 소프트웨어는 사건 파일을 분석해 기소된 사람의 미래 행동을 예측할 수 있다. 셰퍼드는 저위험군 피고인으로 분류돼 재판 전 석방에 적합하다는 판결을 받았다. 그는 그날 밤 석방되어 다음 날 아침 멀쩡하게 등교할 수 있었다. 미국뿐 아니라 세계 여러 나라의 법정에서 이와 유사한 자동화 의사 결정 시스템의 도움을 받아 판결이 내려지고 있지만, 모든 알고리즘이 다 공정한 판결을 보장하는 것은 아니다. 2016년 프로퍼블리카(ProPublica)의 조사 결과에 따르면 컴퍼스(Compas)라는 이름의 유명 리스크 평가 툴은 백인보다 흑인을 잠재적 범죄자로 잘못 분류할 확률이 2배가량 높았다. 이처럼 법정의 판결에 이용되는 소프트웨어가 결함을 가지고 있다는 사실은 경종을 울리기에 충분하지만, 사실 따지고 보면 인간 판사가 가지고 있는 편견이나 한계에 비할 바는 아닐 것이다. 워릭대학교 경제학 부교수인 엘리엇 애쉬 교수는 인간 판사들이 가지는 충동적 성향과 편향적 관점이 훨씬 더 심각하다고 말했다. 애쉬는 현대 사법 체계의 분석을 통해 다수의 판결에서 발견되는 임의적 성격을 지적했다. 미국의 경우 망명 신청자가 망명을 허가받을 가능성은 그 날 판사가 누구냐에 따라 크게 2배 가까이 차이가 난다. 뉴어크에서는 어떤 판사에게 판결을 받는가에 따라...

판결 공형 AI 판사 자동화 판결 사법 판사 판례 편견 일관성 블랙박스 알고리즘 정의 재판 인공지능 편향

2018.07.24

전세계 법원은 소프트웨어를 사용해 위험을 평가하고 판결에 도움을 받으며 알고리즘을 실험하고 있다. 비평가들은 시스템 투명성이 부족하고 인간의 편견을 증폭시킬 수 있다고 우려하지만 알고리즘이 좀더 공정하고 효율적일 수 있다고 주장하고 있다. 엘리엇 애쉬 교수는 이 주제를 연구 중이며 시스템 개발 방법 계획을 수립했다. 2017년 8월, 미국 오하이오주 클리브랜드의 한 법정에서는 허큘리스 셰퍼드 주니어가 코카인 소지 죄목으로 체포되어 재판을 기다리고 있었다. 이날 사건을 맡은 판사는 판결을 내리는 데 도움을 줄 리스크 평가 소프트웨어를 동반한 채 법정에 등장했다. 이 소프트웨어는 사건 파일을 분석해 기소된 사람의 미래 행동을 예측할 수 있다. 셰퍼드는 저위험군 피고인으로 분류돼 재판 전 석방에 적합하다는 판결을 받았다. 그는 그날 밤 석방되어 다음 날 아침 멀쩡하게 등교할 수 있었다. 미국뿐 아니라 세계 여러 나라의 법정에서 이와 유사한 자동화 의사 결정 시스템의 도움을 받아 판결이 내려지고 있지만, 모든 알고리즘이 다 공정한 판결을 보장하는 것은 아니다. 2016년 프로퍼블리카(ProPublica)의 조사 결과에 따르면 컴퍼스(Compas)라는 이름의 유명 리스크 평가 툴은 백인보다 흑인을 잠재적 범죄자로 잘못 분류할 확률이 2배가량 높았다. 이처럼 법정의 판결에 이용되는 소프트웨어가 결함을 가지고 있다는 사실은 경종을 울리기에 충분하지만, 사실 따지고 보면 인간 판사가 가지고 있는 편견이나 한계에 비할 바는 아닐 것이다. 워릭대학교 경제학 부교수인 엘리엇 애쉬 교수는 인간 판사들이 가지는 충동적 성향과 편향적 관점이 훨씬 더 심각하다고 말했다. 애쉬는 현대 사법 체계의 분석을 통해 다수의 판결에서 발견되는 임의적 성격을 지적했다. 미국의 경우 망명 신청자가 망명을 허가받을 가능성은 그 날 판사가 누구냐에 따라 크게 2배 가까이 차이가 난다. 뉴어크에서는 어떤 판사에게 판결을 받는가에 따라...

2018.07.24

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.

10.4.0.13