2012.11.15

분석 | 버락 오바마의 승리, 그 뒤에는 빅 데이터가 있었다

Mike Lynch | Computerworld
22개월이라는 긴 기간 동안 이뤄진 이번 미 대선 캠페인은 단순한 이데올로기, 혹은 캠페인의 싸움이 아닌, 고전적 미디어 비평과 새로운 미디어 분석 간의 싸움이기도 했다.

대선 전날, 전통적인 뉴스 미디어들은 이번 선거가 치열한 경쟁 양상을 띌 것이라고 보도했다. 이러한 예측은 여러 여론 조사들에서도 유사하게 확인되었다. 그러나 이 모든 여론 조사들이 동일한 방식으로 이뤄진 것이 아님을 짚고 넘어가야 할 필요가 있다. 각 여론 조사 기관들은 가장 정확한 선거 결과 예측을 위해 모두 나름의 최신 데이터 프로세싱(data processing) 및 애널리틱스(analytics) 테크닉을 활용해 조사를 진행했다.

이번 선거에서 두각을 나타낸 ‘투표 애그리게이터(poll arrregator)’로는 크게 셋이 있었으며 이들 각자의 방법론으로 결과 예측을 진행했다. 그 중 대표적인 인물은 2012년 6월 자신의 웹사이트에 버락 오바마가 332명의 선거인단을 확보하며 206명을 확보한 미트 롬니를 상대로 승리를 거둘 것이라 예상하는 포스트를 기재한 드류 린저(Drew Linzer)이다. 이후 몇 달 간 캠페인이 더 진행되며 새로운 정보들이 소개되었지만 그의 예측은 변화하지 않았다. 그리고 실제 집표 결과에서도 오바마는 최종 집표지인 플로리다에서까지 승리를 거두며 332표 대 206표로 롬니를 제치게 되었다.

여기에서 우리가 주목해야 할 점은 단순히 그가 어떤 분석 도구를 활용해 선거 결과를 예측했는지가 아닌, 어떻게 이와 같이 정확한 예측이 가능했는지(특히 예감이나 직관에 의존해 분석을 진행하던 고전적인 워싱턴식 방법론 등과 비교해)이다.

또한 이러한 도구들은 우리가 보다 정확히 미래를 예측할 수 있음을 보여주었을 뿐 아니라 선거 양상 자체에 영향을 미치기도 했다. 애널리틱스가 선거 캠페인에 역시 활용된 것이다.

-> 2012 미 대선 승자 '오바마 & 트위터'
http://www.ciokorea.com/news/14630/2012

오바마의 캠페인 본부는 어떠한 가정도 있어선 안 된다는 목표 하에 매우 정교하고 매뉴얼(manual)화 된 디지털 운영을 진행했다. 그의 승리는 영리한 광고 캠페인에 의한 것이 아니었다(그것은 90년대 방식이다). 반면 공화당 측은 여전히 기존의 방식에 머무르고 있었다.

오바마 캠프는 다시 한번 2008년의 가상 캠페인 센터 마이버락오바마 닷컴(mybarackobama.com)을 가동시켜 지지자들이 자발적으로 자신들의 개인 정보와 코멘트, 사진/비디오 포스트를 기재하도록 장려하고 기금을 모금했다. 이는 단순한 하나의 시작점이 아닌, 지지자들이 콘텐츠를 다른 이들과 공유할 수 있도록 지원하거나 오바마의 페이스북 페이지(3,300만 ‘좋아요')나 유투브 채널(24만 구독자, 2억 4,600만 페이지 뷰) 등을 연결하는 일종의 전략 기지로 작용했다.

이와 달리 롬니의 캠페인은 디지털 트렌드를 어설프게 따라가는데 그쳤다. 그의 블로그에는 낡은 수사적인 문구들이 포스팅되었고 TV, 라디오 캠페인 역시 신문 기자나 기존 지지자들 이외에는 관심을 가지지 않을 만한 것뿐이었다. 롬니의 유투브 채널은 2만 3,700 명의 구독자와 2,600만 페이지 뷰를 확보하는데 그쳤다.

데이터 마이닝은 분명 정치학을 바꾸고 있었고 오바마는 이를 활용해 잠재적 지지자를 세밀하게 타겟팅하는데 성공했다. 일례로 선거 기금 모금을 위해 사라 제시카 파커(Sarah Jessica Parker)의 뉴욕 자택에서 개최된 행사는 기부금 지불 가능성이 큰 유권자들이 함께 저녁 식사를 함께 하길 원하는 셀러브리티가 누구일지 예측해 진행된, 말하자면 치밀하게 계산된 자리였다.

그들의 캠페인은 모든 개인의 모든 정보는 측정될 수 있으며, 모든 측정 된 정보는 예측 분석에 활용될 수 있다는 가정 아래에서 단순히 유권자를 찾아내는 것이 아닌 어떤 유권자가 어떤 형태와 내용의 메시지에 관심을 가지고 설득될 것인지를 예측하며 진행되었다.

오바마 캠프는 (상당한 규모의) 유권자들에 대한 정보를 일원화된 자원 봉사자 시스템으로 구성했고 설득 가능성에 기초해 그 목록을 신중하게 분석하고 정렬했다. 이 시스템에는 개인의 성별이나 나이, 주소, 투표 기록, 등의 정보뿐 아니라 그들에 관련한 소비자 정보 역시 25% 포함되어 누가 온라인이나 우편으로 기부를 할 가능성이 있고 또 누가 자원 봉사에 참여할 의사가 있는지 등을 예측하는데 활용될 수 있었다.

지지자들을 충분히 확보했다고 판단한 캠페인 본부는 기금 모금 및 유권자 결집 작업에 돌입했다. 본부의 데이터 마이닝 팀은 매일 밤 6만 6,000대의 컴퓨터를 통해 선거 진행 방향을 시뮬레이션하며 발생 가능한 위험 상황들을 검토했다. 이 과정에서 그들은 소셜 뉴스(social news) 웹사이트 레딧(Reddit)과 같이 기존에는 고려되지 않던 소스들까지 분석의 대상으로 끌어들였다.

그들의 캠페인은 클라우드 컴퓨팅이 중요한 역할을 수행한 최초의 사례이기도 하다. 오바마 팀은 그들의 데이터 대부분을 아마존 웹 서비스(AWS)을 통해 구동하고 오픈 소스 소프트웨어와 아마존 서비스들을 활용해 보다 경제적으로 프로그램을 작성하고 다듬을 수 있었다.

오바마 캠프의 사례는 골리앗을 쓰러뜨린 다윗에 비유할 수 있을 것이다. 그들의 경험을 통해 이제는 전국적 네트워크를 통한 값비싼 광고가 아닌 신중하고 세밀하게 타겟팅되어 각 독자에게 전달되는 메시지가 훨씬 큰 효과를 발휘한다는 사실이 증명됐다 . 다시 말해 그들의 캠페인 메시지는 단순한 지역, 가구 등의 기준이 아닌 각자의 이해에 따라 세부적으로 분류된 집단들에 초점이 맞춰졌던 것이다.

이는 기업의 마케터나 CIO들에게도 많은 시사점을 안겨준다. 예측적 분석과 데이터 프로세싱이라는 새로운 무기는, 민주주의라는 견고한 구조에 변화의 바람을 가져온 것처럼, 자유 의지에 따라 움직이는 소비자들을 공략하는 데에도 새로운 기회를 제공해줄 수 있지 않을까? ciokr@idg.co.kr



2012.11.15

분석 | 버락 오바마의 승리, 그 뒤에는 빅 데이터가 있었다

Mike Lynch | Computerworld
22개월이라는 긴 기간 동안 이뤄진 이번 미 대선 캠페인은 단순한 이데올로기, 혹은 캠페인의 싸움이 아닌, 고전적 미디어 비평과 새로운 미디어 분석 간의 싸움이기도 했다.

대선 전날, 전통적인 뉴스 미디어들은 이번 선거가 치열한 경쟁 양상을 띌 것이라고 보도했다. 이러한 예측은 여러 여론 조사들에서도 유사하게 확인되었다. 그러나 이 모든 여론 조사들이 동일한 방식으로 이뤄진 것이 아님을 짚고 넘어가야 할 필요가 있다. 각 여론 조사 기관들은 가장 정확한 선거 결과 예측을 위해 모두 나름의 최신 데이터 프로세싱(data processing) 및 애널리틱스(analytics) 테크닉을 활용해 조사를 진행했다.

이번 선거에서 두각을 나타낸 ‘투표 애그리게이터(poll arrregator)’로는 크게 셋이 있었으며 이들 각자의 방법론으로 결과 예측을 진행했다. 그 중 대표적인 인물은 2012년 6월 자신의 웹사이트에 버락 오바마가 332명의 선거인단을 확보하며 206명을 확보한 미트 롬니를 상대로 승리를 거둘 것이라 예상하는 포스트를 기재한 드류 린저(Drew Linzer)이다. 이후 몇 달 간 캠페인이 더 진행되며 새로운 정보들이 소개되었지만 그의 예측은 변화하지 않았다. 그리고 실제 집표 결과에서도 오바마는 최종 집표지인 플로리다에서까지 승리를 거두며 332표 대 206표로 롬니를 제치게 되었다.

여기에서 우리가 주목해야 할 점은 단순히 그가 어떤 분석 도구를 활용해 선거 결과를 예측했는지가 아닌, 어떻게 이와 같이 정확한 예측이 가능했는지(특히 예감이나 직관에 의존해 분석을 진행하던 고전적인 워싱턴식 방법론 등과 비교해)이다.

또한 이러한 도구들은 우리가 보다 정확히 미래를 예측할 수 있음을 보여주었을 뿐 아니라 선거 양상 자체에 영향을 미치기도 했다. 애널리틱스가 선거 캠페인에 역시 활용된 것이다.

-> 2012 미 대선 승자 '오바마 & 트위터'
http://www.ciokorea.com/news/14630/2012

오바마의 캠페인 본부는 어떠한 가정도 있어선 안 된다는 목표 하에 매우 정교하고 매뉴얼(manual)화 된 디지털 운영을 진행했다. 그의 승리는 영리한 광고 캠페인에 의한 것이 아니었다(그것은 90년대 방식이다). 반면 공화당 측은 여전히 기존의 방식에 머무르고 있었다.

오바마 캠프는 다시 한번 2008년의 가상 캠페인 센터 마이버락오바마 닷컴(mybarackobama.com)을 가동시켜 지지자들이 자발적으로 자신들의 개인 정보와 코멘트, 사진/비디오 포스트를 기재하도록 장려하고 기금을 모금했다. 이는 단순한 하나의 시작점이 아닌, 지지자들이 콘텐츠를 다른 이들과 공유할 수 있도록 지원하거나 오바마의 페이스북 페이지(3,300만 ‘좋아요')나 유투브 채널(24만 구독자, 2억 4,600만 페이지 뷰) 등을 연결하는 일종의 전략 기지로 작용했다.

이와 달리 롬니의 캠페인은 디지털 트렌드를 어설프게 따라가는데 그쳤다. 그의 블로그에는 낡은 수사적인 문구들이 포스팅되었고 TV, 라디오 캠페인 역시 신문 기자나 기존 지지자들 이외에는 관심을 가지지 않을 만한 것뿐이었다. 롬니의 유투브 채널은 2만 3,700 명의 구독자와 2,600만 페이지 뷰를 확보하는데 그쳤다.

데이터 마이닝은 분명 정치학을 바꾸고 있었고 오바마는 이를 활용해 잠재적 지지자를 세밀하게 타겟팅하는데 성공했다. 일례로 선거 기금 모금을 위해 사라 제시카 파커(Sarah Jessica Parker)의 뉴욕 자택에서 개최된 행사는 기부금 지불 가능성이 큰 유권자들이 함께 저녁 식사를 함께 하길 원하는 셀러브리티가 누구일지 예측해 진행된, 말하자면 치밀하게 계산된 자리였다.

그들의 캠페인은 모든 개인의 모든 정보는 측정될 수 있으며, 모든 측정 된 정보는 예측 분석에 활용될 수 있다는 가정 아래에서 단순히 유권자를 찾아내는 것이 아닌 어떤 유권자가 어떤 형태와 내용의 메시지에 관심을 가지고 설득될 것인지를 예측하며 진행되었다.

오바마 캠프는 (상당한 규모의) 유권자들에 대한 정보를 일원화된 자원 봉사자 시스템으로 구성했고 설득 가능성에 기초해 그 목록을 신중하게 분석하고 정렬했다. 이 시스템에는 개인의 성별이나 나이, 주소, 투표 기록, 등의 정보뿐 아니라 그들에 관련한 소비자 정보 역시 25% 포함되어 누가 온라인이나 우편으로 기부를 할 가능성이 있고 또 누가 자원 봉사에 참여할 의사가 있는지 등을 예측하는데 활용될 수 있었다.

지지자들을 충분히 확보했다고 판단한 캠페인 본부는 기금 모금 및 유권자 결집 작업에 돌입했다. 본부의 데이터 마이닝 팀은 매일 밤 6만 6,000대의 컴퓨터를 통해 선거 진행 방향을 시뮬레이션하며 발생 가능한 위험 상황들을 검토했다. 이 과정에서 그들은 소셜 뉴스(social news) 웹사이트 레딧(Reddit)과 같이 기존에는 고려되지 않던 소스들까지 분석의 대상으로 끌어들였다.

그들의 캠페인은 클라우드 컴퓨팅이 중요한 역할을 수행한 최초의 사례이기도 하다. 오바마 팀은 그들의 데이터 대부분을 아마존 웹 서비스(AWS)을 통해 구동하고 오픈 소스 소프트웨어와 아마존 서비스들을 활용해 보다 경제적으로 프로그램을 작성하고 다듬을 수 있었다.

오바마 캠프의 사례는 골리앗을 쓰러뜨린 다윗에 비유할 수 있을 것이다. 그들의 경험을 통해 이제는 전국적 네트워크를 통한 값비싼 광고가 아닌 신중하고 세밀하게 타겟팅되어 각 독자에게 전달되는 메시지가 훨씬 큰 효과를 발휘한다는 사실이 증명됐다 . 다시 말해 그들의 캠페인 메시지는 단순한 지역, 가구 등의 기준이 아닌 각자의 이해에 따라 세부적으로 분류된 집단들에 초점이 맞춰졌던 것이다.

이는 기업의 마케터나 CIO들에게도 많은 시사점을 안겨준다. 예측적 분석과 데이터 프로세싱이라는 새로운 무기는, 민주주의라는 견고한 구조에 변화의 바람을 가져온 것처럼, 자유 의지에 따라 움직이는 소비자들을 공략하는 데에도 새로운 기회를 제공해줄 수 있지 않을까? ciokr@idg.co.kr

X