Offcanvas

������

채용에서의 AI 활용, 아직은 갈 길 먼 이유

이력서를 분석하고 지원자를 선별하기 위해 자동화된 평가, 디지털 면접, 데이터 애널리틱스에 주목하는 기업이 늘고 있다. 이 과정에서 인공지능의 사용이 증가하기도 했다. 그러나 IT의 과제 중 하나로 다양성, 형평성 및 포용성(DEI)이 대두되고 있는 가운데, 서툰 AI 활용이 도움이 되기보다는 해를 끼칠 수 있다는 주장이 제기되고 있다. IEEE 펠로우이자 뉴욕대학교 텐던 공과대학 학장 겸 윌리엄 R 버클리 교수인 젤레나 코바체비치는 “편향은 대개 데이터에서 비롯된다. 데이터 집합이나 결정에 참고할 만한 요소가 없다면, 당연히 지원자를 제대로 찾아내서 평가하지 못할 것”이라고 말했다. 채용에 AI를 사용하는 데 있어 특히 큰 문제는 채용 시스템을 구축하는 기반이 되는 과거 데이터가 궁극적으로 고유한 편견을 가질 수 있다는 점이다. 과거 데이터 세트가 충분히 풍부하지 않다면, AI 채용 도구는 십수 년 전에 존재했던 편견을 갖게 될 가능성이 매우 높다. 그러나 효과적으로 사용한다면, AI는 더 효율적이고 공정한 채용 과정을 만드는데 도움을 줄 수 있기도 하다.   AI에서 편견의 위험성 AI 알고리즘은 일반적으로 과거 데이터에 기반하여 훈련되기 때문에 편향성이 문제시되곤 한다. 데이터 과학에서 편향은 학습 알고리즘의 잘못된 가정으로부터 발생하는 오류라고 정의된다. 현재 환경을 반영하지 않는 데이터로 알고리즘을 교육하면 잘못된 결과가 도출될 것이다. 따라서, 특히 IT와 같이 역사적으로 다양성 문제가 있었던 산업에서 과거 고용 데이터로 알고리즘을 교육하는 것은 큰 실수가 될 수 있다. 전자개인정보센터(Electronic Privacy Information Center, EPIC)의 AI 및 인권 펠로우인 벤 윈터스는 “AI 소프트웨어가 본질적으로 편향되지 않았거나 편향된 영향을 끼치지 않는다는 것을 보증하는 것은 정말 어려운 일이다. 이 점을 방지하기 위해 취할 수 있는 조치들이 있기는 하지만 "많은 시스템이 인종과 장애에 따라 편향된 효과를 ...

편견 편향 차별 다양성 인종 윤리

2021.10.27

이력서를 분석하고 지원자를 선별하기 위해 자동화된 평가, 디지털 면접, 데이터 애널리틱스에 주목하는 기업이 늘고 있다. 이 과정에서 인공지능의 사용이 증가하기도 했다. 그러나 IT의 과제 중 하나로 다양성, 형평성 및 포용성(DEI)이 대두되고 있는 가운데, 서툰 AI 활용이 도움이 되기보다는 해를 끼칠 수 있다는 주장이 제기되고 있다. IEEE 펠로우이자 뉴욕대학교 텐던 공과대학 학장 겸 윌리엄 R 버클리 교수인 젤레나 코바체비치는 “편향은 대개 데이터에서 비롯된다. 데이터 집합이나 결정에 참고할 만한 요소가 없다면, 당연히 지원자를 제대로 찾아내서 평가하지 못할 것”이라고 말했다. 채용에 AI를 사용하는 데 있어 특히 큰 문제는 채용 시스템을 구축하는 기반이 되는 과거 데이터가 궁극적으로 고유한 편견을 가질 수 있다는 점이다. 과거 데이터 세트가 충분히 풍부하지 않다면, AI 채용 도구는 십수 년 전에 존재했던 편견을 갖게 될 가능성이 매우 높다. 그러나 효과적으로 사용한다면, AI는 더 효율적이고 공정한 채용 과정을 만드는데 도움을 줄 수 있기도 하다.   AI에서 편견의 위험성 AI 알고리즘은 일반적으로 과거 데이터에 기반하여 훈련되기 때문에 편향성이 문제시되곤 한다. 데이터 과학에서 편향은 학습 알고리즘의 잘못된 가정으로부터 발생하는 오류라고 정의된다. 현재 환경을 반영하지 않는 데이터로 알고리즘을 교육하면 잘못된 결과가 도출될 것이다. 따라서, 특히 IT와 같이 역사적으로 다양성 문제가 있었던 산업에서 과거 고용 데이터로 알고리즘을 교육하는 것은 큰 실수가 될 수 있다. 전자개인정보센터(Electronic Privacy Information Center, EPIC)의 AI 및 인권 펠로우인 벤 윈터스는 “AI 소프트웨어가 본질적으로 편향되지 않았거나 편향된 영향을 끼치지 않는다는 것을 보증하는 것은 정말 어려운 일이다. 이 점을 방지하기 위해 취할 수 있는 조치들이 있기는 하지만 "많은 시스템이 인종과 장애에 따라 편향된 효과를 ...

2021.10.27

섣부른 믿음이 독 될 때··· 조심해야 할 보안 편향 8가지

보안 관련 결정을 내릴 때 리더는 여러 편견 및 인지 편향의 영향을 받을 수 있다. 팬데믹으로 인해 보안 우려가 커지는 가운데 이러한 편향성을 피하는 것이 더욱 중요해졌다.  자산 관리 및 거버넌스 벤더 주피터원의 수닐 유 CISO는 “개인의 사고 방식은 보안에 직접적인 영향을 미친다. 많은 보안 사고의 원인이 사람의 실수라는 점에서 사람들이 생각하고 반응하며 행동하는 방식을 이해하는 것은 우수한 사이버 보안에 필수적이다”라고 말했다. 편향성과 관련해 유를 비롯한 여러 보안 전문가들이 전하는 조언을 정리했다.    확증 편향(Confirmation bias) 스스로 가능성 높다고 위협 시나리오가 맞을 것이라고 생각하는 우를 범할 수 있다. 디지털 섀도우즈(Digital Shadows) CISO 릭 홀랜드는 “확증 편향이란 본인이 예전에 확립한 견해나 믿음을 뒷받침하는 정보를 선호하는 것”이라고 설명했다.  확증 편향이 특히 문제가 되는 것은 공격이나 위협의 원인을 찾을 때이다. 보안 리더들은 별다른 근거 없이 특정 국가 소속 행위자나 위협 행위자의 탓으로 돌려버리는 함정에 빠지기 쉽다. 확증 편향을 최소화할 객관적인 데이터 포인트를 찾아나서야 하며 대안적 시나리오를 살펴보고 본인의 신념 체계를 적극적으로 의심해 보아야 한다. 유는 모자 달린 옷과 스키용 마스크를 착용한 해커들이라면 자동적으로 악인을 떠올리는 경향을 지적했다. “모자 달린 옷을 입은 해커들의 빈도는 과대평가되고 해커처럼 보이지 않는 전문가들이 해커일 가능성은 과소 평가되고 있다”라고 그는 말했다. 편승 편향(Bandwagon bias) 동료들과 보안 관행에 대한 정보를 공유하고 비교하는 것이 권장되는 업계에서는 주위 사람들이 다 채택했다는 이유만으로 특정 방식을 채택하곤 한다. 블랙클록(Blackcloak) 창립자 겸 CEO 크리스토퍼 피어슨은 이러한 현상을 사이버보안 ‘편승 효과’라고 명명했다.  일례로 CISO가 특정 위험에 대처할 ...

편향성 편견 오해 선입견 착각

2021.07.22

보안 관련 결정을 내릴 때 리더는 여러 편견 및 인지 편향의 영향을 받을 수 있다. 팬데믹으로 인해 보안 우려가 커지는 가운데 이러한 편향성을 피하는 것이 더욱 중요해졌다.  자산 관리 및 거버넌스 벤더 주피터원의 수닐 유 CISO는 “개인의 사고 방식은 보안에 직접적인 영향을 미친다. 많은 보안 사고의 원인이 사람의 실수라는 점에서 사람들이 생각하고 반응하며 행동하는 방식을 이해하는 것은 우수한 사이버 보안에 필수적이다”라고 말했다. 편향성과 관련해 유를 비롯한 여러 보안 전문가들이 전하는 조언을 정리했다.    확증 편향(Confirmation bias) 스스로 가능성 높다고 위협 시나리오가 맞을 것이라고 생각하는 우를 범할 수 있다. 디지털 섀도우즈(Digital Shadows) CISO 릭 홀랜드는 “확증 편향이란 본인이 예전에 확립한 견해나 믿음을 뒷받침하는 정보를 선호하는 것”이라고 설명했다.  확증 편향이 특히 문제가 되는 것은 공격이나 위협의 원인을 찾을 때이다. 보안 리더들은 별다른 근거 없이 특정 국가 소속 행위자나 위협 행위자의 탓으로 돌려버리는 함정에 빠지기 쉽다. 확증 편향을 최소화할 객관적인 데이터 포인트를 찾아나서야 하며 대안적 시나리오를 살펴보고 본인의 신념 체계를 적극적으로 의심해 보아야 한다. 유는 모자 달린 옷과 스키용 마스크를 착용한 해커들이라면 자동적으로 악인을 떠올리는 경향을 지적했다. “모자 달린 옷을 입은 해커들의 빈도는 과대평가되고 해커처럼 보이지 않는 전문가들이 해커일 가능성은 과소 평가되고 있다”라고 그는 말했다. 편승 편향(Bandwagon bias) 동료들과 보안 관행에 대한 정보를 공유하고 비교하는 것이 권장되는 업계에서는 주위 사람들이 다 채택했다는 이유만으로 특정 방식을 채택하곤 한다. 블랙클록(Blackcloak) 창립자 겸 CEO 크리스토퍼 피어슨은 이러한 현상을 사이버보안 ‘편승 효과’라고 명명했다.  일례로 CISO가 특정 위험에 대처할 ...

2021.07.22

AI 모델의 3가지 편향성, '그리고 대처 방법'

자동 의사 결정 툴이 갈수록 확산되고 있다. 그러나 얼굴 인식 시스템부터 온라인 광고에 이르기까지, 이러한 툴의 뒤에 존재하는 머신러닝 모델의 상당수는 인종과 성별에 대한 뚜렷한 편향성을 보인다. ML 모델이 갈수록 폭넓게 채택되고 있는 만큼 인공지능(AI)의 공정성을 높이기 위한 각별한 관심과 전문적인 역량이 필요하다.    ML 모델은 차별을 악화시켜서는 안 되며 편향성을 찾아 제거해야 한다. 그러나 공정한 AI 모델을 구축하기 위해서는 먼저 AI 편향성의 근본 원인을 더 효과적으로 식별할 수 있는 방법을 확보해야 한다. 편향된 AI 모델이 입력과 출력 간의 편향된 관계를 어떻게 학습하는지를 이해해야 한다.  연구자들이 파악한 AI 편향성의 3가지 범주는 알고리즘 편견, 부정적 유산, 과소평가다. 알고리즘 편견은 보호되는 특징과 의사 결정에 사용되는 다른 정보 사이에 통계적 종속성이 존재하는 경우 발생한다. 부정적 유산은 AI 모델을 학습시키는 데 사용되는 데이터에 이미 존재하는 편향성을 나타낸다. 과소평가는 인구의 특정 구간에 대한 데이터가 충분하지 않아 모델이 확실한 결론을 내리지 못하는 경우다.  각 범주를 더 세부적으로 살펴보자.  알고리즘 편견  알고리즘 편견은 보호되는 특징과 다른 인자 간의 상관관계에서 비롯된다. 이 경우 보호되는 특성을 단순히 분석에서 배제하는 방법으로는 편향성을 줄일 수 없다. 이 상관관계가 보호되지 않는 인자를 근거로 해서 편향된 의사 결정으로 이어질 수 있기 때문이다.  예를 들어 초창기 예측 치안 알고리즘은 예측을 수행할 때는 인종 데이터에 접근할 수 없었지만, 모델은 지리적 데이터(예를 들어 우편번호)에 크게 의존했고 지리적 데이터는 인종과 연관된다. 결국 성별, 인종과 같은 인구통계학적 데이터를 “볼 수 없는” 모델이라 해도 보호되는 특성과 통계적으로 연관된 다른 특징을 통해 여전히 이 정보를 코드화할 수 있다.  대출 기관이 공정 ...

AI 학습 편향성 편견

2021.03.02

자동 의사 결정 툴이 갈수록 확산되고 있다. 그러나 얼굴 인식 시스템부터 온라인 광고에 이르기까지, 이러한 툴의 뒤에 존재하는 머신러닝 모델의 상당수는 인종과 성별에 대한 뚜렷한 편향성을 보인다. ML 모델이 갈수록 폭넓게 채택되고 있는 만큼 인공지능(AI)의 공정성을 높이기 위한 각별한 관심과 전문적인 역량이 필요하다.    ML 모델은 차별을 악화시켜서는 안 되며 편향성을 찾아 제거해야 한다. 그러나 공정한 AI 모델을 구축하기 위해서는 먼저 AI 편향성의 근본 원인을 더 효과적으로 식별할 수 있는 방법을 확보해야 한다. 편향된 AI 모델이 입력과 출력 간의 편향된 관계를 어떻게 학습하는지를 이해해야 한다.  연구자들이 파악한 AI 편향성의 3가지 범주는 알고리즘 편견, 부정적 유산, 과소평가다. 알고리즘 편견은 보호되는 특징과 의사 결정에 사용되는 다른 정보 사이에 통계적 종속성이 존재하는 경우 발생한다. 부정적 유산은 AI 모델을 학습시키는 데 사용되는 데이터에 이미 존재하는 편향성을 나타낸다. 과소평가는 인구의 특정 구간에 대한 데이터가 충분하지 않아 모델이 확실한 결론을 내리지 못하는 경우다.  각 범주를 더 세부적으로 살펴보자.  알고리즘 편견  알고리즘 편견은 보호되는 특징과 다른 인자 간의 상관관계에서 비롯된다. 이 경우 보호되는 특성을 단순히 분석에서 배제하는 방법으로는 편향성을 줄일 수 없다. 이 상관관계가 보호되지 않는 인자를 근거로 해서 편향된 의사 결정으로 이어질 수 있기 때문이다.  예를 들어 초창기 예측 치안 알고리즘은 예측을 수행할 때는 인종 데이터에 접근할 수 없었지만, 모델은 지리적 데이터(예를 들어 우편번호)에 크게 의존했고 지리적 데이터는 인종과 연관된다. 결국 성별, 인종과 같은 인구통계학적 데이터를 “볼 수 없는” 모델이라 해도 보호되는 특성과 통계적으로 연관된 다른 특징을 통해 여전히 이 정보를 코드화할 수 있다.  대출 기관이 공정 ...

2021.03.02

칼럼 | 원격 근무, 직장 내 ‘편견 해소’ 솔루션일 수 있다

원격 근무가 새로운 것은 아니다. 그러나 널리 이용되고 있다는 현실은 꽤 새로운 것이다. 기업들이 재개를 준비하면서 일부는 사무실 복귀와 ‘평소와 같은 비즈니스’를 애타게 기다리고 있다. 그러나 원격 근무가 압도적으로 긍정적인 이점을 제공할 수 있다고 믿는 이들도 있다. 필자는 원격 근무 측면에서 얼리 어답터다. 30여 년 전부터 전화 접속 연결을 사용하여 원격으로 작업을 했다. 기대했던 방식대로 전부 되지는 않았지만 가족과 직장 사이에서 시간을 쪼갤 수 있었으며 가상 연결의 위력을 배울 수 있었다. 업무 환경이 가상화 된다는 것은 여러 지역에 걸쳐 사람들을 원활하게 연결하여 새로운 아이디어와 혁신을 창출하는 관점을 허용한다는 의미를 지닌다. 기업의 성공은 창의성과 포용력을 촉진하는 환경에서 번창한다. 가상 업무 공간이 더 나은 비즈니스 성과에 대한 해답이 될 수 있을까? 원격팀이 전통적인 사무실 노동자보다 더 생산적일 수 있다   몇몇 연구에 따르면 핵심 업무에 소요되는 시간이 4% 증가했고 원격으로 일하는 사람들의 출퇴근 시간은 18% 감소했다. 매니저는 자신의 초점을 대면 시간이 중요한 전통적인 사무실에서 결과가 중요한 가상의 세계로 변경함으로써 이러한 추가 근무 시간을 가치로 전환할 수 있다. 원격팀이 결과에 집중할 때 사무실에서 일하는 팀보다 생산성이 더 높다는 연구도 있다. 원격팀은 유연하게 일하기 때문에 직원들은 자신들의 생활에 맞춰 업무 일정을 만들 수 있다. 이러한 융통성은 직원들이 일과 가정 사이에서 최대한 효율적으로 조정할 수 있게 해준다.  한 연구 결과에 따르면 특히 가정 활동의 경우 여성이 남성보다 3배나 많은 시간을 소비하는 것으로 나타났다. 실제로 원격으로 일하는 여성이 남성보다 생산성이 높다(50% 대 37%)고 알려져 있다. 가정에서의 전통적인 역할과 책임을 바뀔 때일지도 모르지만, 그렇게 되기 전까지는 가상 업무 환경이 차선책일 수 있는 셈이다. 가상 작업 환경에서의 무의식적인 편견을 계속...

편견 원격 근무 재택 근무

2020.06.26

원격 근무가 새로운 것은 아니다. 그러나 널리 이용되고 있다는 현실은 꽤 새로운 것이다. 기업들이 재개를 준비하면서 일부는 사무실 복귀와 ‘평소와 같은 비즈니스’를 애타게 기다리고 있다. 그러나 원격 근무가 압도적으로 긍정적인 이점을 제공할 수 있다고 믿는 이들도 있다. 필자는 원격 근무 측면에서 얼리 어답터다. 30여 년 전부터 전화 접속 연결을 사용하여 원격으로 작업을 했다. 기대했던 방식대로 전부 되지는 않았지만 가족과 직장 사이에서 시간을 쪼갤 수 있었으며 가상 연결의 위력을 배울 수 있었다. 업무 환경이 가상화 된다는 것은 여러 지역에 걸쳐 사람들을 원활하게 연결하여 새로운 아이디어와 혁신을 창출하는 관점을 허용한다는 의미를 지닌다. 기업의 성공은 창의성과 포용력을 촉진하는 환경에서 번창한다. 가상 업무 공간이 더 나은 비즈니스 성과에 대한 해답이 될 수 있을까? 원격팀이 전통적인 사무실 노동자보다 더 생산적일 수 있다   몇몇 연구에 따르면 핵심 업무에 소요되는 시간이 4% 증가했고 원격으로 일하는 사람들의 출퇴근 시간은 18% 감소했다. 매니저는 자신의 초점을 대면 시간이 중요한 전통적인 사무실에서 결과가 중요한 가상의 세계로 변경함으로써 이러한 추가 근무 시간을 가치로 전환할 수 있다. 원격팀이 결과에 집중할 때 사무실에서 일하는 팀보다 생산성이 더 높다는 연구도 있다. 원격팀은 유연하게 일하기 때문에 직원들은 자신들의 생활에 맞춰 업무 일정을 만들 수 있다. 이러한 융통성은 직원들이 일과 가정 사이에서 최대한 효율적으로 조정할 수 있게 해준다.  한 연구 결과에 따르면 특히 가정 활동의 경우 여성이 남성보다 3배나 많은 시간을 소비하는 것으로 나타났다. 실제로 원격으로 일하는 여성이 남성보다 생산성이 높다(50% 대 37%)고 알려져 있다. 가정에서의 전통적인 역할과 책임을 바뀔 때일지도 모르지만, 그렇게 되기 전까지는 가상 업무 환경이 차선책일 수 있는 셈이다. 가상 작업 환경에서의 무의식적인 편견을 계속...

2020.06.26

기고 | ‘세익스피어 vs. 래퍼’··· AI 모델 편향성 사례 살펴보기

요즈음 인공지능(AI)의 편향에 대한 논란이 많다. 사람의 얼굴을 부적절하게 판단하는 이미지 분류 시스템에서부터 성별 편향을 보이는 채용 봇에 이르기까지 AI는 인간의 행동을 모사함에 있어 편견까지 고스란히 물려받는 경향을 보인다. AI를 오용하면 인종차별주의자, 성차별주의자, 상스러운 봇을 만들고 이로 인한 피해를 입을 수 있다. 그렇다면 AI를 오용하지 않을 방법은 무엇일까? AI가 태생적으로 편향적인 것은 아닐까? 여기 참고할만한 필자의 사례를 소개한다.    기계는 기계일 뿐 우선 한 가지 확실히 말해 둘 것이 있다. AI는 기계일 뿐이다. 기계를 인격화해 바라볼 수 있지만 여전히 기계일 뿐이다. 호숫가에서 갖고 놀던 평범한 돌을 가치 있는 수집용 수석으로 대우할지라도 돌이라는 본질은 변하지 않는 것과 그리 다르지 않다.  사실 수집용 돌이 아무리 멋지게 보여도 돌이라는 점을 잊는 이는 드물다. AI도 마찬가지여야 한다. 대화하는 내용이나 외모가 아무리 인간과 비슷해도 여전히 기계라는 사실을 잊어서는 안 된다. 얼마 전 필자는 교사 봇 프로젝트를 진행했었다. 그 핵심은 오픈소스 데이터 사이언스 소프트웨어인 KNIME 분석 플랫폼의 문서와 기능에 대한 질문에 대해 자동으로 정보성 답변을 생성하는 것이었다. 모든 봇 프로젝트와 마찬가지로 말하는 스타일을 선택하는 문제에 직면했다.  말을 하거나 글을 쓰는 스타일은 다양하기 마련이다. 봇의 경우 친근하면 좋을 수 있지만 과도하지 않아야 한다. 공손하지만 상황에 따라 적극적일 수 있어야 한다.  ‘쓰기 또는 말하기 스타일을 묘사하는 60개의 단어’라는 제목의 블로그 포스트에는 수다스럽고 말을 잘 하는 것부터 서정적이며 문학적이고 재미있는 스타일, 유창하고 예의 바른 스타일, 앞 뒤가 맞지 않는 스타일(필자가 가장 좋아함)까지 봇의 다양한 말하기 스타일에 관한 60가지의 미묘한 차이가 나열되어 있다. 나의 봇은 어떤 말하기 스타일을 적용해야 할까? 필자는...

편견 편향성 AI 모델 AI 훈련 데이터

2020.01.28

요즈음 인공지능(AI)의 편향에 대한 논란이 많다. 사람의 얼굴을 부적절하게 판단하는 이미지 분류 시스템에서부터 성별 편향을 보이는 채용 봇에 이르기까지 AI는 인간의 행동을 모사함에 있어 편견까지 고스란히 물려받는 경향을 보인다. AI를 오용하면 인종차별주의자, 성차별주의자, 상스러운 봇을 만들고 이로 인한 피해를 입을 수 있다. 그렇다면 AI를 오용하지 않을 방법은 무엇일까? AI가 태생적으로 편향적인 것은 아닐까? 여기 참고할만한 필자의 사례를 소개한다.    기계는 기계일 뿐 우선 한 가지 확실히 말해 둘 것이 있다. AI는 기계일 뿐이다. 기계를 인격화해 바라볼 수 있지만 여전히 기계일 뿐이다. 호숫가에서 갖고 놀던 평범한 돌을 가치 있는 수집용 수석으로 대우할지라도 돌이라는 본질은 변하지 않는 것과 그리 다르지 않다.  사실 수집용 돌이 아무리 멋지게 보여도 돌이라는 점을 잊는 이는 드물다. AI도 마찬가지여야 한다. 대화하는 내용이나 외모가 아무리 인간과 비슷해도 여전히 기계라는 사실을 잊어서는 안 된다. 얼마 전 필자는 교사 봇 프로젝트를 진행했었다. 그 핵심은 오픈소스 데이터 사이언스 소프트웨어인 KNIME 분석 플랫폼의 문서와 기능에 대한 질문에 대해 자동으로 정보성 답변을 생성하는 것이었다. 모든 봇 프로젝트와 마찬가지로 말하는 스타일을 선택하는 문제에 직면했다.  말을 하거나 글을 쓰는 스타일은 다양하기 마련이다. 봇의 경우 친근하면 좋을 수 있지만 과도하지 않아야 한다. 공손하지만 상황에 따라 적극적일 수 있어야 한다.  ‘쓰기 또는 말하기 스타일을 묘사하는 60개의 단어’라는 제목의 블로그 포스트에는 수다스럽고 말을 잘 하는 것부터 서정적이며 문학적이고 재미있는 스타일, 유창하고 예의 바른 스타일, 앞 뒤가 맞지 않는 스타일(필자가 가장 좋아함)까지 봇의 다양한 말하기 스타일에 관한 60가지의 미묘한 차이가 나열되어 있다. 나의 봇은 어떤 말하기 스타일을 적용해야 할까? 필자는...

2020.01.28

블로그 | 데이터센터는 퇴물? AI는 과대평가?··· IT 분야 2가지 통념 파헤치기

IT 세계에서 제일 잘 알려진 문제는 두 가지다. 인류가 미래를 향해 너무 열심히 달려간 나머지 아이러니하게도 기술 발전 속도가 예상을 따라오지 못할 때 그 경향을 무시하게 되는 것이다. 예를 들어 오늘날 널리 퍼져 있는 두 가지의 굳건한 신화를 생각해보자. 첫 번째는 클라우드에 드는 비용이 데이터센터의 지출 감소에 영향을 준다는 것, 두 번째는 AI가 기업 도입 사례 대부분에서 과장되어 있다는 것이다. 이 두 가지 통념이 정말인지 차례대로 살펴보자.     신화 #1 : 데이터센터의 파멸 가트너 애널리스트 데이브 카푸치오는 기업의 80%가 2025년가량 데이터센터를 폐쇄할 것이라며(2018년에 데이터센터를 폐쇄한 기업은 10%)라고 주장하며 첫 번째 신화를 시작한다. 너무 공격적인 예상이 아닌가? 물론 그렇다. 그러나 카푸치오는 “인터커넥스 서비스, 클라우드 공급업체, 사물인터넷, 엣지 서비스, SaaS 서비스가 널리 자리잡으면서 기존 데이터센터의 토폴로지에 안주할 이유나 이익이 크지 않다”는 이유를 댔다. 이유는 데이터 중력이다. 종종 이 중력이 클라우드와 반대로 움직여(데이터가 너무 오래 데이터센터에 보관될 경우 클라우드로 꺼내 프로세스하는 것이 오히려 비효율적이다) 반작용을 불러온다. 클라우드에서 생겨나는 데이터가 점점 늘어나고 이 데이터가 모두 클라우드에서 저장되고 처리되며 분석된다는 반작용이다. 그러나 아직도 데이터센터는 사라지지 않았다. 과거 InfoWorld 기사에서 David Linthicum이 지적한 내용과 같다. Linthicum은 시너지 리서치 그룹의 데이터센터 지출에 대한 분석 결과를 통해 “클라우드가 성장하면서 동시에 데이터센터의 지출도 감소하지 않고 있다. 클라우드가 데이터센터를 급격히 대체할 것이라는 예상과는 반대다. 대부분이 데이터센터에 드는 비용이 그대로 클라우드 지출 비용으로 갈 것이라고 예상하지만 그렇지 않다”고 분석했다. 물론 기업의 목표와 현실은 대부분의 경우 상충되기 마련이다. 아니면 필...

신화 편견 AI프로젝트 멀티클라우드마이그레이션

2020.01.28

IT 세계에서 제일 잘 알려진 문제는 두 가지다. 인류가 미래를 향해 너무 열심히 달려간 나머지 아이러니하게도 기술 발전 속도가 예상을 따라오지 못할 때 그 경향을 무시하게 되는 것이다. 예를 들어 오늘날 널리 퍼져 있는 두 가지의 굳건한 신화를 생각해보자. 첫 번째는 클라우드에 드는 비용이 데이터센터의 지출 감소에 영향을 준다는 것, 두 번째는 AI가 기업 도입 사례 대부분에서 과장되어 있다는 것이다. 이 두 가지 통념이 정말인지 차례대로 살펴보자.     신화 #1 : 데이터센터의 파멸 가트너 애널리스트 데이브 카푸치오는 기업의 80%가 2025년가량 데이터센터를 폐쇄할 것이라며(2018년에 데이터센터를 폐쇄한 기업은 10%)라고 주장하며 첫 번째 신화를 시작한다. 너무 공격적인 예상이 아닌가? 물론 그렇다. 그러나 카푸치오는 “인터커넥스 서비스, 클라우드 공급업체, 사물인터넷, 엣지 서비스, SaaS 서비스가 널리 자리잡으면서 기존 데이터센터의 토폴로지에 안주할 이유나 이익이 크지 않다”는 이유를 댔다. 이유는 데이터 중력이다. 종종 이 중력이 클라우드와 반대로 움직여(데이터가 너무 오래 데이터센터에 보관될 경우 클라우드로 꺼내 프로세스하는 것이 오히려 비효율적이다) 반작용을 불러온다. 클라우드에서 생겨나는 데이터가 점점 늘어나고 이 데이터가 모두 클라우드에서 저장되고 처리되며 분석된다는 반작용이다. 그러나 아직도 데이터센터는 사라지지 않았다. 과거 InfoWorld 기사에서 David Linthicum이 지적한 내용과 같다. Linthicum은 시너지 리서치 그룹의 데이터센터 지출에 대한 분석 결과를 통해 “클라우드가 성장하면서 동시에 데이터센터의 지출도 감소하지 않고 있다. 클라우드가 데이터센터를 급격히 대체할 것이라는 예상과는 반대다. 대부분이 데이터센터에 드는 비용이 그대로 클라우드 지출 비용으로 갈 것이라고 예상하지만 그렇지 않다”고 분석했다. 물론 기업의 목표와 현실은 대부분의 경우 상충되기 마련이다. 아니면 필...

2020.01.28

“AI 등의 파괴적 기술, 기후 변화 · 핵전쟁 뒤잇는 위험 요인”AI 기술기업 설립자

플라밍고 AI의 설립자이자 임원 디렉터인 카트리나 월리스 박사가 인공지능 기술이 인간에게 끼칠 수 있는 각종 영향에 대해 공유했다.  이번 주 시드니에서 개최된 세빗(CeBIT) 컨퍼런스에서 그는 AI의 부상, 그리고 인간과 기계 사이의 관계에 대해 발표했다. 윌리스는 특히 장단기적인 AI의 영향 및 혁신의 정도와 앞으로 초래될 수 있는 부정적인 결과에 대한 몇몇 사실과 수치를 언급했다.  그에 따르면 AI와 같은 파괴적인 기술은 인류가 직면할 수 있는 세 가지 주요 문제 중 세 번째에 해당한다. 다른 2가지는 기후 변화와 핵전쟁이다. 즉 AI 등의 기술이 핵전쟁과 함께 나열될 정도의 충격을 줄 수도 있다는 것이 그의 진단이다. 월리스 박사는 지난 12개월 동안 300억 달러가 AI에 투자됐으며, 이 수치는 향후 5년 동안 12배 증가할 것으로 예상된다고 덧붙였다.  월리스 박사는 물론 인공지능이 긍정적으로 활용될 소지 또한 폭넓게 존재한다고 강조했다. 심장마비가 언제 발생할 지 예측할 수 있게 해주는 텔레매틱스 기기, 시장 장애인을 위한 AI 시야, 실종 아동을 찾도록 돕는 안면 인식 도구 등을 언급했다.  그러나 AI는 파괴적인 힘을 가지고 있기도 하다고 월리스 박사는 강조했다. 예를 들어 향후 5년 이내에 금융 서비스, 유틸리티 및 보험과 같은 산업에서 서비스 및 관리 작업의 40%가 자동화되는데 일조할 것으로 그는 진단했다. 또 향후 3년간 고객 상호 작용의 30%가 로봇과 기계로 자동화되거나 수행될 것이며, 로봇이나 기계로 인해 61억 시간의 인간 작업이 줄어들 것으로 그는 진단했다.  그는 가트너의 수치를 인용해 AI가 2020년까지 180만 개의 일자리를 없애지만 230만 개의 새로운 일자리를 창출할 것으로 전망되고 있다면서도, 줄어드는 일자리 대부분이 여성이나 소수자의 몫일 것이라고 강조했다. 아울러 일자리를 잃은 사람 중 다수가 재교육 기회를 받지 못할 것이라는 전망도 제시했다. ...

일자리 편견 인류 가트리나 월리스 플라밍고 AI

2019.10.31

플라밍고 AI의 설립자이자 임원 디렉터인 카트리나 월리스 박사가 인공지능 기술이 인간에게 끼칠 수 있는 각종 영향에 대해 공유했다.  이번 주 시드니에서 개최된 세빗(CeBIT) 컨퍼런스에서 그는 AI의 부상, 그리고 인간과 기계 사이의 관계에 대해 발표했다. 윌리스는 특히 장단기적인 AI의 영향 및 혁신의 정도와 앞으로 초래될 수 있는 부정적인 결과에 대한 몇몇 사실과 수치를 언급했다.  그에 따르면 AI와 같은 파괴적인 기술은 인류가 직면할 수 있는 세 가지 주요 문제 중 세 번째에 해당한다. 다른 2가지는 기후 변화와 핵전쟁이다. 즉 AI 등의 기술이 핵전쟁과 함께 나열될 정도의 충격을 줄 수도 있다는 것이 그의 진단이다. 월리스 박사는 지난 12개월 동안 300억 달러가 AI에 투자됐으며, 이 수치는 향후 5년 동안 12배 증가할 것으로 예상된다고 덧붙였다.  월리스 박사는 물론 인공지능이 긍정적으로 활용될 소지 또한 폭넓게 존재한다고 강조했다. 심장마비가 언제 발생할 지 예측할 수 있게 해주는 텔레매틱스 기기, 시장 장애인을 위한 AI 시야, 실종 아동을 찾도록 돕는 안면 인식 도구 등을 언급했다.  그러나 AI는 파괴적인 힘을 가지고 있기도 하다고 월리스 박사는 강조했다. 예를 들어 향후 5년 이내에 금융 서비스, 유틸리티 및 보험과 같은 산업에서 서비스 및 관리 작업의 40%가 자동화되는데 일조할 것으로 그는 진단했다. 또 향후 3년간 고객 상호 작용의 30%가 로봇과 기계로 자동화되거나 수행될 것이며, 로봇이나 기계로 인해 61억 시간의 인간 작업이 줄어들 것으로 그는 진단했다.  그는 가트너의 수치를 인용해 AI가 2020년까지 180만 개의 일자리를 없애지만 230만 개의 새로운 일자리를 창출할 것으로 전망되고 있다면서도, 줄어드는 일자리 대부분이 여성이나 소수자의 몫일 것이라고 강조했다. 아울러 일자리를 잃은 사람 중 다수가 재교육 기회를 받지 못할 것이라는 전망도 제시했다. ...

2019.10.31

IBM의 인공지능 툴킷, AI 편향을 완화해 줄까

AI의 발전이 가속됨에 따라 우리의 일상적 삶의 더 많은 부분이 눈에 보이지 않는 알고리즘의 영향을 받고 있다. 그러나 중요한 결정을 소프트웨어에 맡기면 맡길수록 이들이 작용하는 방식과 이들이 내린 결론의 이유를 조사할 필요성은 더욱 커진다. 우려는 서서히 부상 중이다. 케이시 오닐은 <수학 살상 무기(Weapons of Math Destruction)>라는 저서에서 알고리즘이 대출 여부, 채용 여부, 대학 입학, 보석 결정 등의 중대한 결정에 어떻게 영향을 줄 수 있는지를 중점적으로 다루었다. 알고리즘의 가장 큰 위험이라면 의도적 및 비의도적 편향을 수용하고 영속화하는 것이다. 레이첼 벨래미는 주로 인지 편향과 인지 편향이 AI에 코드화되는 방법을 조사하는 IBM 리서치 휴먼-에이전트 컬레보레이션 그룹을 지휘한다. 현재 벨래미는 알고리즘이 어떻게 특정 집단에 차별 효과를 줄 수 있는지, 개발자는 어떻게 이러한 잠재적 문제를 우회할 수 있는지에 관해 광범위한 연구를 벌이고 있다. 벨레미는 AI가 인간보다 더 논리적이고 정확하다는 것을 전제로 왜 AI가 인간의 변덕스러운 추론의 대안으로서 반갑게 등장했는지를 설명하면서 “문제는 인간이 결정을 내리는 데 매우 서툴다는 것이다”고 말했다. 이어서 “그러나 AI는 데이터를 기반으로 하고, 데이터에는 편향이 있기 때문에 AI 역시 편향에서 벗어나지 못한 것이 분명하다”고 덧붙였다. 중요한 연구들에서는 알고리즘의 무분별한 이용의 확연한 문제를 발견했다. 예를 들어 2016년의 프로퍼블리카 조사에서는 미국의 형사 법원에서 사용한 알고리즘이 흑인에게 편향적이었음이 드러났다. 흑인이 백인보다 재범 확률이 높다고 틀리게 예측할 가능성이 더 높다는 것이다. 보다 최근에는 아마존의 채용 프로세스에 사용된 알고리즘에서 여성을 차별하며, ‘여성 체스 클럽’이라든지 ‘여자 대학’과 같은 말을 한 응시자를 감점...

채용 아마존 IBM 인공지능 차별 편견 편향 AI 페어니스 360 프로퍼블리카

2018.11.20

AI의 발전이 가속됨에 따라 우리의 일상적 삶의 더 많은 부분이 눈에 보이지 않는 알고리즘의 영향을 받고 있다. 그러나 중요한 결정을 소프트웨어에 맡기면 맡길수록 이들이 작용하는 방식과 이들이 내린 결론의 이유를 조사할 필요성은 더욱 커진다. 우려는 서서히 부상 중이다. 케이시 오닐은 <수학 살상 무기(Weapons of Math Destruction)>라는 저서에서 알고리즘이 대출 여부, 채용 여부, 대학 입학, 보석 결정 등의 중대한 결정에 어떻게 영향을 줄 수 있는지를 중점적으로 다루었다. 알고리즘의 가장 큰 위험이라면 의도적 및 비의도적 편향을 수용하고 영속화하는 것이다. 레이첼 벨래미는 주로 인지 편향과 인지 편향이 AI에 코드화되는 방법을 조사하는 IBM 리서치 휴먼-에이전트 컬레보레이션 그룹을 지휘한다. 현재 벨래미는 알고리즘이 어떻게 특정 집단에 차별 효과를 줄 수 있는지, 개발자는 어떻게 이러한 잠재적 문제를 우회할 수 있는지에 관해 광범위한 연구를 벌이고 있다. 벨레미는 AI가 인간보다 더 논리적이고 정확하다는 것을 전제로 왜 AI가 인간의 변덕스러운 추론의 대안으로서 반갑게 등장했는지를 설명하면서 “문제는 인간이 결정을 내리는 데 매우 서툴다는 것이다”고 말했다. 이어서 “그러나 AI는 데이터를 기반으로 하고, 데이터에는 편향이 있기 때문에 AI 역시 편향에서 벗어나지 못한 것이 분명하다”고 덧붙였다. 중요한 연구들에서는 알고리즘의 무분별한 이용의 확연한 문제를 발견했다. 예를 들어 2016년의 프로퍼블리카 조사에서는 미국의 형사 법원에서 사용한 알고리즘이 흑인에게 편향적이었음이 드러났다. 흑인이 백인보다 재범 확률이 높다고 틀리게 예측할 가능성이 더 높다는 것이다. 보다 최근에는 아마존의 채용 프로세스에 사용된 알고리즘에서 여성을 차별하며, ‘여성 체스 클럽’이라든지 ‘여자 대학’과 같은 말을 한 응시자를 감점...

2018.11.20

머신러닝 프로젝트가 실패하는 6가지 이유

일반적으로 학습 과정이란 실수를 저지르고 잘못된 길을 택하면서 경험을 통해 향후 동일한 함정을 피하는 방법을 알아 나가는 것을 의미한다. 머신러닝 역시 다르지 않다. 기업이 머신러닝을 구현할 때는 주의해야 한다. 일부 마케팅 자료에는 머신러닝을 매우 빠르고 정확한 기술로 묘사하지만 현실은 그렇지 않다. 진실은 머신러닝 프로세스에는 실수가 포함될 수밖에 없다는 것이다. 이러한 실수는 (적어도 한동안은) 비즈니스 프로세스에 영향을 미친다. 현재 이와 같은 실수는 큰 규모로 발생하며 사람이 즉각적으로 통제할 수 있는 범위를 벗어나는 경우가 많다. SPR 컨설팅의 최고 데이터 과학자인 레이 존슨은 “면밀한 실사가 동반되지 않은 열의는 머신러닝의 이점을 거의 무효화하는 문제로 이어질 수 있다”고 말했다. 머신러닝 오류를 탐지하고 적절히 대처하면 머신러닝 기술의 성공 가능성을 높이고 이 기술에 대한 기대치를 충족하는 데 도움이 된다. 머신러닝 툴이 학습 중 저지르는 실수를 늘리고 그 기간도 연장시키는 문제점은 다음과 같다. 이러한 문제점을 방치할 경우 머신러닝 툴은 잘못 학습하면서도 이를 인식하지 못하고 따라서 교정도 할 수 없는 상황에 놓이게 된다. 머신러닝 실패 원인 1. 비즈니스에 대한 이해 부족 머신러닝 모델을 사용하는 데이터 작업자가 머신러닝이 해결하고자 하는 비즈니스 문제를 제대로 이해하지 못할 경우 프로세스에 오류가 발생할 수 있다. 금융 서비스 사이트 렌딩트리(LendingTree)의 부사장으로 전략 및 분석을 책임지는 악샤이 탠던은 머신러닝 툴을 사용하는 팀이 가장 먼저 질문 목록부터 작성하도록 했다. 이를 통해 해결하고자 하는 문제가 무엇인지, 이 문제를 해결하기 위해 구축할 모델은 무엇인지를 물어야 한다. 탠던은 현재 시중의 머신러닝 툴은 통계 측면에서 매우 강력하다고 말했다. 툴이 강력한 만큼 주의해서 사용하지 않으면 매우 잘못된 의사 결정으로 이어질 수 있으므...

프로젝트 IT전략 실패 모델링 편견

2018.10.16

일반적으로 학습 과정이란 실수를 저지르고 잘못된 길을 택하면서 경험을 통해 향후 동일한 함정을 피하는 방법을 알아 나가는 것을 의미한다. 머신러닝 역시 다르지 않다. 기업이 머신러닝을 구현할 때는 주의해야 한다. 일부 마케팅 자료에는 머신러닝을 매우 빠르고 정확한 기술로 묘사하지만 현실은 그렇지 않다. 진실은 머신러닝 프로세스에는 실수가 포함될 수밖에 없다는 것이다. 이러한 실수는 (적어도 한동안은) 비즈니스 프로세스에 영향을 미친다. 현재 이와 같은 실수는 큰 규모로 발생하며 사람이 즉각적으로 통제할 수 있는 범위를 벗어나는 경우가 많다. SPR 컨설팅의 최고 데이터 과학자인 레이 존슨은 “면밀한 실사가 동반되지 않은 열의는 머신러닝의 이점을 거의 무효화하는 문제로 이어질 수 있다”고 말했다. 머신러닝 오류를 탐지하고 적절히 대처하면 머신러닝 기술의 성공 가능성을 높이고 이 기술에 대한 기대치를 충족하는 데 도움이 된다. 머신러닝 툴이 학습 중 저지르는 실수를 늘리고 그 기간도 연장시키는 문제점은 다음과 같다. 이러한 문제점을 방치할 경우 머신러닝 툴은 잘못 학습하면서도 이를 인식하지 못하고 따라서 교정도 할 수 없는 상황에 놓이게 된다. 머신러닝 실패 원인 1. 비즈니스에 대한 이해 부족 머신러닝 모델을 사용하는 데이터 작업자가 머신러닝이 해결하고자 하는 비즈니스 문제를 제대로 이해하지 못할 경우 프로세스에 오류가 발생할 수 있다. 금융 서비스 사이트 렌딩트리(LendingTree)의 부사장으로 전략 및 분석을 책임지는 악샤이 탠던은 머신러닝 툴을 사용하는 팀이 가장 먼저 질문 목록부터 작성하도록 했다. 이를 통해 해결하고자 하는 문제가 무엇인지, 이 문제를 해결하기 위해 구축할 모델은 무엇인지를 물어야 한다. 탠던은 현재 시중의 머신러닝 툴은 통계 측면에서 매우 강력하다고 말했다. 툴이 강력한 만큼 주의해서 사용하지 않으면 매우 잘못된 의사 결정으로 이어질 수 있으므...

2018.10.16

'AI의 블랙박스화' 막겠다··· 오픈소스로 알고리즘 공개 선언한 IBM

IBM은 인공지능 개발자가 알고리즘 작동 방식을 더 잘 파악할 수 있도록 돕는 오픈소스 소프트웨어 툴 세트를 발표했으며, 이는 향후 알고리즘의 편견을 피하는 데 도움이 될 것으로 기대된다. IBM은 개발자들이 인공지능의 의사결정 방식을 파악하는 데 도움이 되는 새로운 오픈소스 소프트웨어를 출시해 인공지능 블랙박스 알고리즘을 깨고자 분투하고 있다. 블랙박스 알고리즘은 신문 구독과 상품 구매 등 단순한 것부터 헤지펀드가 투자하는 주식이나 보험사가 가입을 승인하는 고객까지 사람들이 점차 일상적으로 의존하고 있는 시스템의 핵심에 있는 복잡한 코드다. 이것들은 디자인이 점차 복잡해지고 있으며 시스템이 결론에 도달한 방식을 모를 때도 있는 코드 개발자들로부터 정보를 받을 수 있다. 또한 역사적으로 디자인에 대한 감독이나 책임성이 거의 없었다. IBM은 현재 페어네스 360 키트(Fairness 360 Kit)를 통해 AI개발자들이 일련의 대시보드를 통해 창작물의 내부를 살펴보고 의사결정 근거를 파악하는 데 도움이 되기 위해 개발된 소프트웨어를 오픈소스화하고 있다. 이 소프트웨어는 IBM 클라우드에서 서비스로써 운용되며 IBM 리서치가 해당 오픈소스 커뮤니티에 AI 편향 감지 및 완화 툴킷을 공개할 예정이다. 이를 통해 알고리즘 의사결정에 대한 실시간 통찰을 얻고 내재된 편향에 대한 의혹을 감지함으로써 심지어 감지된 편향을 완화하는 데 도움이 될 수 있는 새로운 데이터 파라미터를 추천할 수 있다. 이 통찰이 대시보드와 자연어로 제공되어 "의사결정에 가중치를 둔 인자, 추천에 대한 신뢰성, 신뢰성의 근거 인자를 보여준다"고 해당 업체가 언론 보도를 통해 밝혔다. 또한 IBM은 "고객 서비스, 규제, GDPR 준수성 등의 준수성을 위해 모델의 정확도, 성능, 공정성에 대한 기록과 AI 시스템의 혈통이 손쉽게 추적된다"고 이야기했다.  이 소프트웨어는 광범위하고 사용자 정의 가능한 용도를 ...

구글 편견 텐서플로 GDPR 애저ML 편향 스파크ML SparkML AWS 세이지메이커 AWS SageMaker 블랙박스 핀터레스트 공정 SAP 페이스북 인텔 IBM 액센츄어 마이크로소프트 왓슨 윤리 인공지능 AzureML

2018.10.01

IBM은 인공지능 개발자가 알고리즘 작동 방식을 더 잘 파악할 수 있도록 돕는 오픈소스 소프트웨어 툴 세트를 발표했으며, 이는 향후 알고리즘의 편견을 피하는 데 도움이 될 것으로 기대된다. IBM은 개발자들이 인공지능의 의사결정 방식을 파악하는 데 도움이 되는 새로운 오픈소스 소프트웨어를 출시해 인공지능 블랙박스 알고리즘을 깨고자 분투하고 있다. 블랙박스 알고리즘은 신문 구독과 상품 구매 등 단순한 것부터 헤지펀드가 투자하는 주식이나 보험사가 가입을 승인하는 고객까지 사람들이 점차 일상적으로 의존하고 있는 시스템의 핵심에 있는 복잡한 코드다. 이것들은 디자인이 점차 복잡해지고 있으며 시스템이 결론에 도달한 방식을 모를 때도 있는 코드 개발자들로부터 정보를 받을 수 있다. 또한 역사적으로 디자인에 대한 감독이나 책임성이 거의 없었다. IBM은 현재 페어네스 360 키트(Fairness 360 Kit)를 통해 AI개발자들이 일련의 대시보드를 통해 창작물의 내부를 살펴보고 의사결정 근거를 파악하는 데 도움이 되기 위해 개발된 소프트웨어를 오픈소스화하고 있다. 이 소프트웨어는 IBM 클라우드에서 서비스로써 운용되며 IBM 리서치가 해당 오픈소스 커뮤니티에 AI 편향 감지 및 완화 툴킷을 공개할 예정이다. 이를 통해 알고리즘 의사결정에 대한 실시간 통찰을 얻고 내재된 편향에 대한 의혹을 감지함으로써 심지어 감지된 편향을 완화하는 데 도움이 될 수 있는 새로운 데이터 파라미터를 추천할 수 있다. 이 통찰이 대시보드와 자연어로 제공되어 "의사결정에 가중치를 둔 인자, 추천에 대한 신뢰성, 신뢰성의 근거 인자를 보여준다"고 해당 업체가 언론 보도를 통해 밝혔다. 또한 IBM은 "고객 서비스, 규제, GDPR 준수성 등의 준수성을 위해 모델의 정확도, 성능, 공정성에 대한 기록과 AI 시스템의 혈통이 손쉽게 추적된다"고 이야기했다.  이 소프트웨어는 광범위하고 사용자 정의 가능한 용도를 ...

2018.10.01

AI가 판결하는 '정의란 무엇인가'

전세계 법원은 소프트웨어를 사용해 위험을 평가하고 판결에 도움을 받으며 알고리즘을 실험하고 있다. 비평가들은 시스템 투명성이 부족하고 인간의 편견을 증폭시킬 수 있다고 우려하지만 알고리즘이 좀더 공정하고 효율적일 수 있다고 주장하고 있다. 엘리엇 애쉬 교수는 이 주제를 연구 중이며 시스템 개발 방법 계획을 수립했다. 2017년 8월, 미국 오하이오주 클리브랜드의 한 법정에서는 허큘리스 셰퍼드 주니어가 코카인 소지 죄목으로 체포되어 재판을 기다리고 있었다. 이날 사건을 맡은 판사는 판결을 내리는 데 도움을 줄 리스크 평가 소프트웨어를 동반한 채 법정에 등장했다. 이 소프트웨어는 사건 파일을 분석해 기소된 사람의 미래 행동을 예측할 수 있다. 셰퍼드는 저위험군 피고인으로 분류돼 재판 전 석방에 적합하다는 판결을 받았다. 그는 그날 밤 석방되어 다음 날 아침 멀쩡하게 등교할 수 있었다. 미국뿐 아니라 세계 여러 나라의 법정에서 이와 유사한 자동화 의사 결정 시스템의 도움을 받아 판결이 내려지고 있지만, 모든 알고리즘이 다 공정한 판결을 보장하는 것은 아니다. 2016년 프로퍼블리카(ProPublica)의 조사 결과에 따르면 컴퍼스(Compas)라는 이름의 유명 리스크 평가 툴은 백인보다 흑인을 잠재적 범죄자로 잘못 분류할 확률이 2배가량 높았다. 이처럼 법정의 판결에 이용되는 소프트웨어가 결함을 가지고 있다는 사실은 경종을 울리기에 충분하지만, 사실 따지고 보면 인간 판사가 가지고 있는 편견이나 한계에 비할 바는 아닐 것이다. 워릭대학교 경제학 부교수인 엘리엇 애쉬 교수는 인간 판사들이 가지는 충동적 성향과 편향적 관점이 훨씬 더 심각하다고 말했다. 애쉬는 현대 사법 체계의 분석을 통해 다수의 판결에서 발견되는 임의적 성격을 지적했다. 미국의 경우 망명 신청자가 망명을 허가받을 가능성은 그 날 판사가 누구냐에 따라 크게 2배 가까이 차이가 난다. 뉴어크에서는 어떤 판사에게 판결을 받는가에 따라...

판결 공형 AI 판사 자동화 판결 사법 판사 판례 편견 일관성 블랙박스 알고리즘 정의 재판 인공지능 편향

2018.07.24

전세계 법원은 소프트웨어를 사용해 위험을 평가하고 판결에 도움을 받으며 알고리즘을 실험하고 있다. 비평가들은 시스템 투명성이 부족하고 인간의 편견을 증폭시킬 수 있다고 우려하지만 알고리즘이 좀더 공정하고 효율적일 수 있다고 주장하고 있다. 엘리엇 애쉬 교수는 이 주제를 연구 중이며 시스템 개발 방법 계획을 수립했다. 2017년 8월, 미국 오하이오주 클리브랜드의 한 법정에서는 허큘리스 셰퍼드 주니어가 코카인 소지 죄목으로 체포되어 재판을 기다리고 있었다. 이날 사건을 맡은 판사는 판결을 내리는 데 도움을 줄 리스크 평가 소프트웨어를 동반한 채 법정에 등장했다. 이 소프트웨어는 사건 파일을 분석해 기소된 사람의 미래 행동을 예측할 수 있다. 셰퍼드는 저위험군 피고인으로 분류돼 재판 전 석방에 적합하다는 판결을 받았다. 그는 그날 밤 석방되어 다음 날 아침 멀쩡하게 등교할 수 있었다. 미국뿐 아니라 세계 여러 나라의 법정에서 이와 유사한 자동화 의사 결정 시스템의 도움을 받아 판결이 내려지고 있지만, 모든 알고리즘이 다 공정한 판결을 보장하는 것은 아니다. 2016년 프로퍼블리카(ProPublica)의 조사 결과에 따르면 컴퍼스(Compas)라는 이름의 유명 리스크 평가 툴은 백인보다 흑인을 잠재적 범죄자로 잘못 분류할 확률이 2배가량 높았다. 이처럼 법정의 판결에 이용되는 소프트웨어가 결함을 가지고 있다는 사실은 경종을 울리기에 충분하지만, 사실 따지고 보면 인간 판사가 가지고 있는 편견이나 한계에 비할 바는 아닐 것이다. 워릭대학교 경제학 부교수인 엘리엇 애쉬 교수는 인간 판사들이 가지는 충동적 성향과 편향적 관점이 훨씬 더 심각하다고 말했다. 애쉬는 현대 사법 체계의 분석을 통해 다수의 판결에서 발견되는 임의적 성격을 지적했다. 미국의 경우 망명 신청자가 망명을 허가받을 가능성은 그 날 판사가 누구냐에 따라 크게 2배 가까이 차이가 난다. 뉴어크에서는 어떤 판사에게 판결을 받는가에 따라...

2018.07.24

블로그 | AI 내부의 편견, 방치하면 증폭된다

AI 시스템 내부의 편견이 의도치 않은 결과로 이어질 수 있다. 문제를 제대로 해결하기 위해서는 AI 시스템이 입력 데이터를 해석하는 방법을 이해하는 것이 중요하다. 알렉사와 시리, 코타나와 같은 가상 비서들이 일상 생활의 일부로 녹아들고 있다. 이들에게는 가상 비서라는 점 외에도 공통점이 하나 있다. 모두 '여성'으로 표시되도록 코드화되어 있다는 것이다. 인공지능 비서가 왜 모두 여성인지에 대해 의문을 가진 이는 또 있었다. 클라우드 기반의 고객 서비스 메시징 솔루션 기업 라이브퍼슨(LivePerson)은 미국인 1,000 명을 대상으로 인공 지능과 기술의 성별 차이에 대한 인식을 조사하도록 의뢰했다. '알렉사, 시리, 구글 어시스턴트는 모두 여성입니다. 이에 대해 생각해본 적 있습니까?'라는 질문에 52.3%의 응답자는 그렇지 않다고 대답했다. 라이브퍼슨의 롭 로카시오 CEO는 "도우미 기술을 여성으로 특정하고 있는 이유가 무엇인가? 이러한 사실은 어떤 현실을 반영하고 있는가? 여성은 주문을 접수하는데 능숙하기 때문인가?"라고 말했다. 증폭되는 편견 편견 문제는 가상비서 분야에만 존재하지 않는다. 블룸버그 보고서에 따르면 인공지능 시스템이 제작자의 편견을 되풀이하고 증폭하는 경향에 주목하는 연구자들이 있다. "대출 신청자의 신용 가치에서 암 환자의 치료에 이르기까지 머신러닝과 이미지 인식, 기타 인공지능 도구가 활용되는 분야가 증가하고 있다. 그러나 이러한 도구들에는 여성이나 소수 민족에게 영향을 미치는 사각 지대가 있을 수 있다"라고 보고서는 전했다. 예를 들어 채용 과정에서 AI가 활용되는데, 이 과정에서 AI가 다양성 문제를 증폭시킬 수 있다. AI 리크루팅 기업 알리오(AllyO)의 안킷 소미나 공동 설립자는 "기술 분야에서 기술직 후보자를 찾고 있다면 백인이 채용될 가능성이 높다. 오늘날 다양성의 부족이 이러한 시스템에 어떤 영향을 미치는지 ...

다양성 편견

2018.03.27

AI 시스템 내부의 편견이 의도치 않은 결과로 이어질 수 있다. 문제를 제대로 해결하기 위해서는 AI 시스템이 입력 데이터를 해석하는 방법을 이해하는 것이 중요하다. 알렉사와 시리, 코타나와 같은 가상 비서들이 일상 생활의 일부로 녹아들고 있다. 이들에게는 가상 비서라는 점 외에도 공통점이 하나 있다. 모두 '여성'으로 표시되도록 코드화되어 있다는 것이다. 인공지능 비서가 왜 모두 여성인지에 대해 의문을 가진 이는 또 있었다. 클라우드 기반의 고객 서비스 메시징 솔루션 기업 라이브퍼슨(LivePerson)은 미국인 1,000 명을 대상으로 인공 지능과 기술의 성별 차이에 대한 인식을 조사하도록 의뢰했다. '알렉사, 시리, 구글 어시스턴트는 모두 여성입니다. 이에 대해 생각해본 적 있습니까?'라는 질문에 52.3%의 응답자는 그렇지 않다고 대답했다. 라이브퍼슨의 롭 로카시오 CEO는 "도우미 기술을 여성으로 특정하고 있는 이유가 무엇인가? 이러한 사실은 어떤 현실을 반영하고 있는가? 여성은 주문을 접수하는데 능숙하기 때문인가?"라고 말했다. 증폭되는 편견 편견 문제는 가상비서 분야에만 존재하지 않는다. 블룸버그 보고서에 따르면 인공지능 시스템이 제작자의 편견을 되풀이하고 증폭하는 경향에 주목하는 연구자들이 있다. "대출 신청자의 신용 가치에서 암 환자의 치료에 이르기까지 머신러닝과 이미지 인식, 기타 인공지능 도구가 활용되는 분야가 증가하고 있다. 그러나 이러한 도구들에는 여성이나 소수 민족에게 영향을 미치는 사각 지대가 있을 수 있다"라고 보고서는 전했다. 예를 들어 채용 과정에서 AI가 활용되는데, 이 과정에서 AI가 다양성 문제를 증폭시킬 수 있다. AI 리크루팅 기업 알리오(AllyO)의 안킷 소미나 공동 설립자는 "기술 분야에서 기술직 후보자를 찾고 있다면 백인이 채용될 가능성이 높다. 오늘날 다양성의 부족이 이러한 시스템에 어떤 영향을 미치는지 ...

2018.03.27

기고 | SXSW에서 논의된 AI의 불편한 진실

오길비의 제이슨 데이비가 SXSW 행사에서 이뤄진 AI 관련 논의에 대해 기고했다. 작년 SXSW 행사에 대한 기고문에서 필자는 기술 분야에서 나타난 발전들이 마케팅 뿐 아니라 사회적인 충격을 가져올 것이라고 기술했다. 올해의 행사는 이러한 전망을 확인할 수 있는 자리였다. AI가 영화 제작, 터랙티브 및 음악 전반에 걸친 SXSW의 모든 트랙에서 논의되고 있었다. 그러나 올해의 어조는 다소 다르다. 예산이 신중한 검토 없이 투하되고 있고 데이터가 다양성에 대한 고려 없이 입력되고 있으며, 이로 인해 AI가 인종주의, 성 편견과 같은 인간성의 어두운 측면을 반영한다는 우려가 고조되고 있었다. AI가 학습하면서 참고하는 문서와 데이터가 문제의 원인 중 하나다. 광대한 역사에 존재하는 무의식적 편견이 녹아든 데이터로 인해 인공지능이 문제를 일으킨다. 불행하게도 인간의 나쁜 소식에 대한 진화적 친밀성을 가지고 있다. 사실 이는 인류가 수천 년 동안 생존하는데 도움이 됐던 특질이다. 그러나 이러한 편향성은 가짜 뉴스, 적개심 가득한 증오 표현, 트롤링 및 필터링되지 메시지 등으로 표현되기도 한다. 그리고 AI와 만날 때 글로벌 사회에 커다란 영향을 미칠 수 있다. 이번 행사에서는 런던시의 시장과 구글의 머신러닝 부문 수석 과학자와 같은 여러 유명 인사들이 기술 개발자들의 책임에 대한 질문을 제시했다. 특히 페이스북과 구글과 같은 글로벌 커뮤니케이션 플랫폼 제공자들의 인공지능 알고리즘이 세계 사회의 다양성과 관심사를 반영하도록 설계되지 않았으며 실제로 얼마나 극단적인 지에 관계없이 '관심 분야'에 기반한 경험을 제공하고 있다는 지적이다. 그리고 이러한 행태는 부족한 다양성과 편협한 문화를 초래한다는 목소리가 높았다. 뉴스 피드의 '피드'가 피드(feed)가 아닌 터널 시야(tunnel vision)를 야기시키고 있다는 것이다. 이는 웹의 초기 의도 및 약속, 즉 개방성과 평등, 지구적 연결성이라는 가치와...

인공지능 개인화 알고리즘 SXSW 편견 편향성

2018.03.15

오길비의 제이슨 데이비가 SXSW 행사에서 이뤄진 AI 관련 논의에 대해 기고했다. 작년 SXSW 행사에 대한 기고문에서 필자는 기술 분야에서 나타난 발전들이 마케팅 뿐 아니라 사회적인 충격을 가져올 것이라고 기술했다. 올해의 행사는 이러한 전망을 확인할 수 있는 자리였다. AI가 영화 제작, 터랙티브 및 음악 전반에 걸친 SXSW의 모든 트랙에서 논의되고 있었다. 그러나 올해의 어조는 다소 다르다. 예산이 신중한 검토 없이 투하되고 있고 데이터가 다양성에 대한 고려 없이 입력되고 있으며, 이로 인해 AI가 인종주의, 성 편견과 같은 인간성의 어두운 측면을 반영한다는 우려가 고조되고 있었다. AI가 학습하면서 참고하는 문서와 데이터가 문제의 원인 중 하나다. 광대한 역사에 존재하는 무의식적 편견이 녹아든 데이터로 인해 인공지능이 문제를 일으킨다. 불행하게도 인간의 나쁜 소식에 대한 진화적 친밀성을 가지고 있다. 사실 이는 인류가 수천 년 동안 생존하는데 도움이 됐던 특질이다. 그러나 이러한 편향성은 가짜 뉴스, 적개심 가득한 증오 표현, 트롤링 및 필터링되지 메시지 등으로 표현되기도 한다. 그리고 AI와 만날 때 글로벌 사회에 커다란 영향을 미칠 수 있다. 이번 행사에서는 런던시의 시장과 구글의 머신러닝 부문 수석 과학자와 같은 여러 유명 인사들이 기술 개발자들의 책임에 대한 질문을 제시했다. 특히 페이스북과 구글과 같은 글로벌 커뮤니케이션 플랫폼 제공자들의 인공지능 알고리즘이 세계 사회의 다양성과 관심사를 반영하도록 설계되지 않았으며 실제로 얼마나 극단적인 지에 관계없이 '관심 분야'에 기반한 경험을 제공하고 있다는 지적이다. 그리고 이러한 행태는 부족한 다양성과 편협한 문화를 초래한다는 목소리가 높았다. 뉴스 피드의 '피드'가 피드(feed)가 아닌 터널 시야(tunnel vision)를 야기시키고 있다는 것이다. 이는 웹의 초기 의도 및 약속, 즉 개방성과 평등, 지구적 연결성이라는 가치와...

2018.03.15

기고 | 프로젝트 관리에 대한 10가지 흔한 오해

기업과 기업 내 직무는 규칙과 지침에 따라 발전하고 운영된다. 이와 함께 근거 없는 믿음이 생겨나기도 한다. 프로젝트 관리 직종도 다르지 않다. 보편적인 프로젝트 관리에 관한 10가지 근거 없는 믿음이 있다. 이런 프로젝트 관리에 관한 근거 없는 믿음을 인지하고 발생할 수 있는 문제를 극복하기 위해 노력하는 것이 필요하다. 1. 프로젝트 내의 모든 것들은 해결될 수 있다 프로젝트 관리 전문가는 마법처럼 팀의 성공적인 프로젝트 실행을 이끌고 위험성을 낮추며 이해 당사자들과 협업하고 충돌을 해결해간다. 그러나 그들이 마법사는 아니다. 프로젝트 관리자는 결코 모든 것을 해결할 수 없으며 문제를 너무 오랫동안 해결하지 않은 경우에는 더욱 그렇다. 프로젝트 관리자, 이해 당사자, 후원자가 실패한 것을 해결하기 위해 추가적인 자원을 쏟아 붓는 실수가 생각보다 흔하다. 과업이나 계획을 포기할 때를 인지하고 인정하는 것이 중요하다. 2. 고객은 스스로가 무엇을 원하는지 늘 알고 있다 일반적으로 이해 당사자는 스스로 무엇을 원하는지 알고 있다고 생각한다. 하지만 그들은 정확히 무엇이 필요한지 또는 그들의 바람이 얼마나 현실적인지 또는 바람의 내부적인 상충 관계가 어느 정도인지는 모르고 자신의 이상향만 알고 있을 뿐이다. 여기에서 프로젝트 관리자와 팀은 이해 당사자의 바람을 추려 이해 당사자의 전략적인 목표를 달성하는 프로젝트 목표를 파악할 수 있도록 도울 수 있다. 이해 당사자의 진정한 의도를 파악하지 않으면 프로젝트가 맥없이 실패할 수 있다. 3. 이전 프로젝트의 템플릿은 미래의 성공을 위한 레시피다 이전 프로젝트를 잘 계획하고 실행했을지라도 동일한 접근방식, 기법, 툴, 협업 스타일 또는 방법론을 유사한 프로젝트에 적용한다고 해서 성공이 보장되지 않는다. 시점, 프로세스, 인간, 기술, 문화의 차이 등 다양한 내부 또는 외부적인 요소들이 프로젝트 결과를 바꾸어 놓을 수 있다. 사소해 보이는 변화가 상당한 차이를 만들어 낼 수 있다. 각 프...

PM 오해 프로젝트 관리 신화 편견

2018.02.02

기업과 기업 내 직무는 규칙과 지침에 따라 발전하고 운영된다. 이와 함께 근거 없는 믿음이 생겨나기도 한다. 프로젝트 관리 직종도 다르지 않다. 보편적인 프로젝트 관리에 관한 10가지 근거 없는 믿음이 있다. 이런 프로젝트 관리에 관한 근거 없는 믿음을 인지하고 발생할 수 있는 문제를 극복하기 위해 노력하는 것이 필요하다. 1. 프로젝트 내의 모든 것들은 해결될 수 있다 프로젝트 관리 전문가는 마법처럼 팀의 성공적인 프로젝트 실행을 이끌고 위험성을 낮추며 이해 당사자들과 협업하고 충돌을 해결해간다. 그러나 그들이 마법사는 아니다. 프로젝트 관리자는 결코 모든 것을 해결할 수 없으며 문제를 너무 오랫동안 해결하지 않은 경우에는 더욱 그렇다. 프로젝트 관리자, 이해 당사자, 후원자가 실패한 것을 해결하기 위해 추가적인 자원을 쏟아 붓는 실수가 생각보다 흔하다. 과업이나 계획을 포기할 때를 인지하고 인정하는 것이 중요하다. 2. 고객은 스스로가 무엇을 원하는지 늘 알고 있다 일반적으로 이해 당사자는 스스로 무엇을 원하는지 알고 있다고 생각한다. 하지만 그들은 정확히 무엇이 필요한지 또는 그들의 바람이 얼마나 현실적인지 또는 바람의 내부적인 상충 관계가 어느 정도인지는 모르고 자신의 이상향만 알고 있을 뿐이다. 여기에서 프로젝트 관리자와 팀은 이해 당사자의 바람을 추려 이해 당사자의 전략적인 목표를 달성하는 프로젝트 목표를 파악할 수 있도록 도울 수 있다. 이해 당사자의 진정한 의도를 파악하지 않으면 프로젝트가 맥없이 실패할 수 있다. 3. 이전 프로젝트의 템플릿은 미래의 성공을 위한 레시피다 이전 프로젝트를 잘 계획하고 실행했을지라도 동일한 접근방식, 기법, 툴, 협업 스타일 또는 방법론을 유사한 프로젝트에 적용한다고 해서 성공이 보장되지 않는다. 시점, 프로세스, 인간, 기술, 문화의 차이 등 다양한 내부 또는 외부적인 요소들이 프로젝트 결과를 바꾸어 놓을 수 있다. 사소해 보이는 변화가 상당한 차이를 만들어 낼 수 있다. 각 프...

2018.02.02

'인공지능 개발의 가장 큰 위협은 편견' AI 전문가들 지적

세계 최고 AI 전문가들에 따르면, 편견은 인간의 편견이든 데이터 기반 편견이든 인공지능(AI) 개발과 이용에 대한 가장 큰 윤리적 과제다. 왼쪽부터 피터 노르빅 박사, 리처드 소처 박사, 수치 사리아 박사, 포춘지 애덤 라쉰스키 지난주 드림포스(Dreamforce) 회의에 연사로 나선 세일즈포스 최고 과학자이자 스탠퍼드대학교 컴퓨터 과학과 겸임 교수인 리처드 소처 박사는 AI가 빠른 속도로 개발되면서 불가피하게 점점 더 많은 사람들의 삶에 영향을 미치게 됨에 따라 심각한 윤리적 문제가 대두될 것이라고 경고했다. 그는 참석자들에게 “이러한 알고리즘은 선거 결과에 악영향을 미치거나 잘못된 정보를 전파할 수도 있다”고 말했다. 이어서 “예를 들면, 정상적인 자연어 처리 분류 알고리즘을 통해 클릭 수를 최대화하고자 하는 경우, 터미네이터 이미지가 있는 것에 클릭 수가 많다면 기사에 그러한 사진을 더 많이 넣기도 한다”고 설명했다. 그러나 AI 알고리즘 훈련에 사용되는 기존 데이터 모음을 통해 편견이 들어오게 된다. 이것이 바로 각 업계가 직면한 가장 큰 윤리적 문제다. 소처 박사는 “우리의 알고리즘 전체의 품질은 우리가 제공하는 훈련된 데이터의 품질에 좌우된다”며 “훈련 데이터에 성별, 나이, 성적 취향 등에 대한 어떤 편견이 들어 있다면 이를 알고리즘이 알아챌 것이다”고 이야기했다. “본인이 은행이고 신규 업체 창립자에게 대출 여부를 결정할 대출 신청 선별기를 구축하고자 한다고 가정해 보자. 과거의 대출 신청 승인 건수 중 불과 5%만이 여성 사업주에게 돌아갔다. 알고리즘은 이 사실을 알아채고는 여성 사업주가 되는 것은 안 좋은 일이며 승인을 해 주어서는 안 된다고 말할 것이다. 그래서는 안 되지만 데이터 수집의 과거가 그렇게 말해 준다. “편견은 존재해 왔다. 인간에게는 편견이 있다. 인간이 만든 데이터 모음을 알고...

구글 세일즈포스 CMO 윤리 드림포스 인공지능 패널토의 편견

2017.11.16

세계 최고 AI 전문가들에 따르면, 편견은 인간의 편견이든 데이터 기반 편견이든 인공지능(AI) 개발과 이용에 대한 가장 큰 윤리적 과제다. 왼쪽부터 피터 노르빅 박사, 리처드 소처 박사, 수치 사리아 박사, 포춘지 애덤 라쉰스키 지난주 드림포스(Dreamforce) 회의에 연사로 나선 세일즈포스 최고 과학자이자 스탠퍼드대학교 컴퓨터 과학과 겸임 교수인 리처드 소처 박사는 AI가 빠른 속도로 개발되면서 불가피하게 점점 더 많은 사람들의 삶에 영향을 미치게 됨에 따라 심각한 윤리적 문제가 대두될 것이라고 경고했다. 그는 참석자들에게 “이러한 알고리즘은 선거 결과에 악영향을 미치거나 잘못된 정보를 전파할 수도 있다”고 말했다. 이어서 “예를 들면, 정상적인 자연어 처리 분류 알고리즘을 통해 클릭 수를 최대화하고자 하는 경우, 터미네이터 이미지가 있는 것에 클릭 수가 많다면 기사에 그러한 사진을 더 많이 넣기도 한다”고 설명했다. 그러나 AI 알고리즘 훈련에 사용되는 기존 데이터 모음을 통해 편견이 들어오게 된다. 이것이 바로 각 업계가 직면한 가장 큰 윤리적 문제다. 소처 박사는 “우리의 알고리즘 전체의 품질은 우리가 제공하는 훈련된 데이터의 품질에 좌우된다”며 “훈련 데이터에 성별, 나이, 성적 취향 등에 대한 어떤 편견이 들어 있다면 이를 알고리즘이 알아챌 것이다”고 이야기했다. “본인이 은행이고 신규 업체 창립자에게 대출 여부를 결정할 대출 신청 선별기를 구축하고자 한다고 가정해 보자. 과거의 대출 신청 승인 건수 중 불과 5%만이 여성 사업주에게 돌아갔다. 알고리즘은 이 사실을 알아채고는 여성 사업주가 되는 것은 안 좋은 일이며 승인을 해 주어서는 안 된다고 말할 것이다. 그래서는 안 되지만 데이터 수집의 과거가 그렇게 말해 준다. “편견은 존재해 왔다. 인간에게는 편견이 있다. 인간이 만든 데이터 모음을 알고...

2017.11.16

AI의 '블랙박스'를 어디까지 신뢰할 수 있을까?

많은 대기업들이 인공지능을 수용하고 있다. 고객 요청을 처리하는 봇을 구현하고, 비즈니스 프로세스를 자동화 할 알고리즘을 탐구한다. 그러나 스스로 학습을 하는 소프트웨어로 효율성을 높일 수 있다고 판단하는 CIO가 있는 반면, AI에 지나치게 많은 운영을 떠넘기는 것을 경계하는 CIO들도 있다. 아직은 알고리즘이 결론에 도달하는 방법과 과정을 규명하기 어렵다는 이유에서다. 특히 금융 서비스와 자율주행 자동차 관련 산업 등 규제가 심한 업종의 CIO들이 이런 '블랙박스 문제'와 힘겹게 씨름하고 있다. 자율주행 자동차가 테스트 중에 갑자기 도로를 이탈할 경우, 엔지니어는 그 이유와 과정을 파악해야 한다. 유사하게 고객들의 신용 위험 심사에 AI를 사용하려는 금융 서비스 회사들은 자격 평가에 편향이 발생하지 않도록 주의를 기울여야 한다. 이런 위험성 때문에, AI의 예측을 검사하고, 더 나아가 설명할 방법을 찾는 기업들이 증가하고 있다. 비즈니스 프로세스를 자동화할 수 있도록 개발된 소프트웨어 대부분에는 프로그래밍이 가능한 논리가 포함되어 있다. 즉 프로그래머가 지시한 일을 한다. 그러나 '자동화 2세대'의 시대에는 스스로 학습할 수 있는 소프트웨어가 '핵심'이다. 소프트웨어가 패턴을 파악하는 방식, 결과를 관찰하는 방식을 명확히 이해하지 못하는 규제 산업의 기업들은 이런 머신을 얼마나 신뢰해야 할지 의구심을 가질 수밖에 없다. AI의 '원동력'이면서 '도전과제'인 빅데이터 AI는 상황을 인식하고, 계획 및 학습을 하고, 인간이나 다른 동물의 타고난 지능을 흉내내는 다양한 인지 기술(Cognitive Technologies)로 구성되어 있다. 금방 손에 잡힐 듯 했지만 실제 잡히지 않는 기술이었기에 장기간 연구가 이뤄졌다. 그러다 컴퓨팅 파워가 증가하고, 알고리즘과 AI 모델이 더 정교해지고, 연결된 장치가 매일 수 많은 데이터를 생성하면서 자율 기술이 '캄...

블랙박스 편견 설명 가능한 AI

2017.07.10

많은 대기업들이 인공지능을 수용하고 있다. 고객 요청을 처리하는 봇을 구현하고, 비즈니스 프로세스를 자동화 할 알고리즘을 탐구한다. 그러나 스스로 학습을 하는 소프트웨어로 효율성을 높일 수 있다고 판단하는 CIO가 있는 반면, AI에 지나치게 많은 운영을 떠넘기는 것을 경계하는 CIO들도 있다. 아직은 알고리즘이 결론에 도달하는 방법과 과정을 규명하기 어렵다는 이유에서다. 특히 금융 서비스와 자율주행 자동차 관련 산업 등 규제가 심한 업종의 CIO들이 이런 '블랙박스 문제'와 힘겹게 씨름하고 있다. 자율주행 자동차가 테스트 중에 갑자기 도로를 이탈할 경우, 엔지니어는 그 이유와 과정을 파악해야 한다. 유사하게 고객들의 신용 위험 심사에 AI를 사용하려는 금융 서비스 회사들은 자격 평가에 편향이 발생하지 않도록 주의를 기울여야 한다. 이런 위험성 때문에, AI의 예측을 검사하고, 더 나아가 설명할 방법을 찾는 기업들이 증가하고 있다. 비즈니스 프로세스를 자동화할 수 있도록 개발된 소프트웨어 대부분에는 프로그래밍이 가능한 논리가 포함되어 있다. 즉 프로그래머가 지시한 일을 한다. 그러나 '자동화 2세대'의 시대에는 스스로 학습할 수 있는 소프트웨어가 '핵심'이다. 소프트웨어가 패턴을 파악하는 방식, 결과를 관찰하는 방식을 명확히 이해하지 못하는 규제 산업의 기업들은 이런 머신을 얼마나 신뢰해야 할지 의구심을 가질 수밖에 없다. AI의 '원동력'이면서 '도전과제'인 빅데이터 AI는 상황을 인식하고, 계획 및 학습을 하고, 인간이나 다른 동물의 타고난 지능을 흉내내는 다양한 인지 기술(Cognitive Technologies)로 구성되어 있다. 금방 손에 잡힐 듯 했지만 실제 잡히지 않는 기술이었기에 장기간 연구가 이뤄졌다. 그러다 컴퓨팅 파워가 증가하고, 알고리즘과 AI 모델이 더 정교해지고, 연결된 장치가 매일 수 많은 데이터를 생성하면서 자율 기술이 '캄...

2017.07.10

'편견 때문에 인재를 놓친다' 5가지 해결 방안

은연중에 나타나는 편견은 IT채용 과정에도 영향을 끼친다. 이 편견 때문에 채용 과정에서 인재를 놓친다면, 기업에는 큰 손해가 될 것이다. 이를 없애기 위해 기업이 할 수 있는 일은 많다. 편견을 없애는데 도움이 될만한 5가지 전략을 소개한다.   Credit: GettyImages 다양한 배경의 인재 채용을 희망하는 기업에게 무의식적이고 은연중에 나타나는 편견이나 차별은 극복해야 할 요소다. 이러한 편견과 차별은 직원 개인의 역량 발휘를 방해할 뿐 아니라 회사 전체에도 악영향을 미칠 수 있다. 채용 전문 변호사이자 SHIFT HR 컴플라이언스 트레이닝의 공동 창립자인 수잔 세라와 캐서린 누크-프리먼은 이를 피하기 위해서는 단순히 “혹시 내가 무의식적으로 편견이 있지 않을까?”라고 자문하는 것만으론 부족하며, “겉으로 드러나지 않는 편견을 없애기 위해 할 수 있는 일이 무엇일까?”를 생각해 봐야 한다고 조언했다. 두 사람이 추천하는, 기업 내에 더 다양한 인재 풀을 조성하는 데 필수적인 편견 타파 전략 다섯 가지를 소개한다. 1. 블라인드 이력서 스크리닝 여러 연구 결과들에 따르면, 이력서에서 지원자의 이름과 주소를 없애는 것만으로도 해당 지원자의 성별, 인종, 국적, 사회-경제 상황에 대한 무의식적 편견을 갖게 되는 일을 피할 수 있다. 구글 같은 기업들에서도 이 방식을 도입하기 시작했으며, 해커랭크(HackerRank)나 코드파이트(CodeFights)같은 플랫폼들도 지원자의 신상을 공개하지 않는 ‘블라인드’ 코딩 챌린지를 통해 인재를 발굴해내고 있다. 2. 포커스 그룹 활용 포커스 그룹 인터뷰(FGI)를 통해 직장 내 무의식적 차별을 발견하는 것도 좋은 방법이다. “다양한 부서 출신의, 다양한 배경을 가진 직원들을 모아 이 문제에 대한 최대한 다양한 시각을 반영하도록 한다. 포커스 그룹의 장점은 특정 개인에게 이목을 집중시키...

CIO FGI 포커스 그룹 인터뷰 편견 다양성 차별 문화 면접 고용 HR 채용 프로젝트 임플리싯

2016.11.03

은연중에 나타나는 편견은 IT채용 과정에도 영향을 끼친다. 이 편견 때문에 채용 과정에서 인재를 놓친다면, 기업에는 큰 손해가 될 것이다. 이를 없애기 위해 기업이 할 수 있는 일은 많다. 편견을 없애는데 도움이 될만한 5가지 전략을 소개한다.   Credit: GettyImages 다양한 배경의 인재 채용을 희망하는 기업에게 무의식적이고 은연중에 나타나는 편견이나 차별은 극복해야 할 요소다. 이러한 편견과 차별은 직원 개인의 역량 발휘를 방해할 뿐 아니라 회사 전체에도 악영향을 미칠 수 있다. 채용 전문 변호사이자 SHIFT HR 컴플라이언스 트레이닝의 공동 창립자인 수잔 세라와 캐서린 누크-프리먼은 이를 피하기 위해서는 단순히 “혹시 내가 무의식적으로 편견이 있지 않을까?”라고 자문하는 것만으론 부족하며, “겉으로 드러나지 않는 편견을 없애기 위해 할 수 있는 일이 무엇일까?”를 생각해 봐야 한다고 조언했다. 두 사람이 추천하는, 기업 내에 더 다양한 인재 풀을 조성하는 데 필수적인 편견 타파 전략 다섯 가지를 소개한다. 1. 블라인드 이력서 스크리닝 여러 연구 결과들에 따르면, 이력서에서 지원자의 이름과 주소를 없애는 것만으로도 해당 지원자의 성별, 인종, 국적, 사회-경제 상황에 대한 무의식적 편견을 갖게 되는 일을 피할 수 있다. 구글 같은 기업들에서도 이 방식을 도입하기 시작했으며, 해커랭크(HackerRank)나 코드파이트(CodeFights)같은 플랫폼들도 지원자의 신상을 공개하지 않는 ‘블라인드’ 코딩 챌린지를 통해 인재를 발굴해내고 있다. 2. 포커스 그룹 활용 포커스 그룹 인터뷰(FGI)를 통해 직장 내 무의식적 차별을 발견하는 것도 좋은 방법이다. “다양한 부서 출신의, 다양한 배경을 가진 직원들을 모아 이 문제에 대한 최대한 다양한 시각을 반영하도록 한다. 포커스 그룹의 장점은 특정 개인에게 이목을 집중시키...

2016.11.03

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.

10.4.0.31