Offcanvas

AI / 검색|인터넷 / 비즈니스|경제 / 신기술|미래

칼럼ㅣ가짜뉴스 온상 '소셜 미디어'가 '정보 안전지대'로 부상한다?

2020.12.08 Mike Elgan  |  Computerworld
오늘날 트위터, 인스타그램, 페이스북 등의 소셜 미디어는 가짜 뉴스와 허위 정보의 온상이 됐다. 하지만 동시에 소셜 미디어는 이러한 문제를 해결할 방법이기도 하다. 

최근 트위터와 페이스북 CEO는 美 국회에 소환됐고 고성과 호통이 오가는 가운데 취조를 받았다. 이는 ‘테크래시(Techlash; 거대 기술 기업에 대한 거센 반감)’라고 불리며, 미국 정치권에서 하나의 관행처럼 자리 잡고 있다. 
 
ⓒGetty Images

美 상원 사법위원회 위원들은 정치적 편향, 혐오 발언 그리고 무엇보다도 국가 조직, 국내 음모론자, 선동가들이 소셜 미디어 알고리즘을 간단히 악용해 가짜 이력과 인물로 구성된 가짜 뉴스를 퍼뜨리는 허위 정보를 우려한다.

지금으로부터 1년 전, 美 대선에서 정치적 스캔들을 조작하기 위해 딥페이크(Deepfake) 영상이 사용되리라 우려하는 목소리가 높았다. 물론 그런 일은 일어나지 않았다. 아직은 육안으로 딥페이크 영상을 식별할 수 있어서다. 

이와 반면에 딥페이크 사진은 실제와 허위를 구분할 수 없을 정도로 정교해졌다. 그리고 이번 대통령 선거에서 딥페이크 사진을 악용한 사건이 실제로 발생했다. 

선거 몇 달 전, 타이푼 인베스티게이션(Typhoon Investigations)과 스위스 보안 애널리스트 마틴 아스펜이 조 바이든 대통령 당선인의 아들 헌터 바이든에 관한 불법행위 의혹을 제기하며 관련 문건을 공개했는데, 이것이 가짜로 드러난 것이다

그 정보는 가짜였다. 회사와 애널리스트도 허구였다. 심지어 애널리스트의 프로필 사진조차 딥페이크 기술로 만들어진 가짜였다.

이는 많은 사람이 딥페이크 영상으로 일어나리라 우려했던, 일종의 AI를 악용한 정치적 테러였다. 그러나 이 가짜 문건은 대부분 텍스트로 이뤄져 있었고, 한 장의 딥페이크 사진을 통해 합법적이고 정당한 것으로 위장하려 했다. 물론 아이러니하게도, 기자들이 전체 문건을 철저히 조사하게 됐던 이유 역시 이 사진이기도 하지만 말이다. 

한편 지난 8월 중국 정부를 옹호하는 허위 정보 캠페인(Spamouflage Dragon)이 소셜 미디어 분석업체 그래피카(Graphika)에 의해 처음으로 포착됐다. 이 허위 정보 캠페인에서는 AI로 생성된 딥페이크 프로필 사진을 등록한 가짜 사용자가 트위터와 유튜브에서 미국 내 틱톡(TikTok) 사용 금지 위협에 관한 비판을 쏟아내면서, 비난 여론을 형성하려고 했다. 가짜 사용자들은 선동 영상을 퍼뜨리기도 했다. 

문제는 딥페이크 기술을 생성하고 배포하기가 갈수록 쉬워지고 있다는 점이다. 소비자 수준의 단순한 딥페이크는 ‘칩페이크(cheapfakes)’라고 불린다. 

영상 위협 인텔리전스 업체 센시티(Sensity)는 지난 10월 텔레그램 메시지 앱에서 딥페이크 봇을 발견하기도 했다. 회사에 따르면 해당 텔레그램 채널에서는 특정 여성의 사진을 전달받아 디지털로 옷을 제거한 가짜 나체사진을 생성해 공유했다. 센시티는 피해를 본 여성만 10만 명 이상이라고 전했다. 여기에 딥페이크 봇이 사용됐다.

유튜브에서는 딥페이크를 사용한 일종의 경쟁이 벌어지고 있다. 딥페이크 제작자들이 한 유명인의 얼굴을 다른 유명인의 사진에 집어넣으면서 치열하게 경쟁하고 있는 것이다. 이를테면 배우 짐 캐리의 얼굴을 영화 조커(The Joker)의 호아킨 피닉스 캐릭터와 합성한 사례를 예로 들 수 있다. 

美 코미디 애니메이션 사우스 파크(South Park)의 제작자들은 특히, 도널드 트럼프 대통령의 딥페이크 영상을 풍자로 활용하는 유튜브 코미디 채널 새시 저스티스(Sassy Justice)를 개설하기도 했다.  

심지어 딥페이크 기술을 사용해 예를 들면, 프랭크 시나트라와 같은 실제 가수의 음성과 스타일로 가짜 노래를 생성하는 사례도 있다. 소리가 기이하고 가사도 이상하긴 하지만 기술은 인정하지 않을 수 없다. 딥페이크 기술이 어떤 유명 가수로부터 들어본 적 없는 노래를 무한하게 생성하는 것은 단지 시간문제일 뿐이다. 

현재, 딥페이크는 사회적 문제로 치부된다. 그러나 AI가 만들어내는 가짜는 갈수록 비즈니스 문제로도 번지고 있다. 소셜 엔지니어링 공격에 딥페이크 기술을 사용하는 것은 이미 고착화됐다. 이를테면 딥페이크 음성이 직장 상사의 목소리를 가장해 송금을 요구하는 사기 전화에 쓰이고 있다. 그리고 이는 시작에 불과하다. 

해결책은 ‘더 많은 기술’이다 
여러 대학교 및 기술 기업의 연구진들은 새로운 딥페이크 도구에 맞서기 위해 딥페이크 탐지 도구를 연구 및 개발 중이다. 

빙햄튼 대학교(Binghamton University)의 ‘페이크 캐처(FakeCatcher)’는 영상 내 얼굴의 혈류 데이터를 모니터링해 영상의 허위 여부를 식별한다. 미주리 대학교(University of Missouri)와 샬럿 노스캐롤라이나 대학교(University of North Carolina at Charlotte)는 실시간 딥페이크 사진 및 영상 탐지를 연구 중이다. 카이스트(KAIST)는 딥페이크 사진을 식별하는 AI 기반 도구 ‘카이캐치(Kaicatch)’를 개발했다. 

그러나 더 중요한 것은 기술 기업들 역시 이를 연구하고 있다는 점이다. 

마이크로소프트는 최근 딥페이크 사진 및 영상을 탐지하는 새로운 도구를 선보였다. 물론 완벽하진 않다. 이 도구(Microsoft Video Authenticator)는 사진 및 영상이 진짜 또는 가짜라고 명시하는 게 아니라 신뢰도 점수를 표시한다. 이를 통해 사용자로 하여금 딥페이크가 사용됐는지 아닌지를 알 수 있도록 했다. 

지난해 페이스북은 120억 원을 투자해 이른바 ‘딥페이크 디텍션 챌린지(Deepfake Detection Challenge)’를 개최했다. 딥페이크 영상 탐지에 대한 관심을 유도하고 관련 신기술 개발을 촉진하려는 취지였다. 

한층 더 사실적인 딥페이크가 발전할 때마다, 이들을 컴퓨터에는 덜 사실적으로 만드는 신기술이 함께 개발되고 있는 것이다. 

소셜 네트워크가 정보 ‘안전지대’로 부상하는 이유 
오늘날 AI가 만들어내는 가짜 콘텐츠는 주로 소셜 네트워크상의 짓궂은 장난, 코미디, 정치적 허위 정보, 풍자와 관련돼 있다. 그리고 우리는 현재 컴퓨터로 생성된 사진 및 영상을 육안으로 식별할 수 있는 마지막 시대를 살고 있다. 

미래에는 가짜 미디어와 진짜 미디어를 육안으로는 절대 구분할 수 없을 것이다. AI의 발전 덕분이다. 그리고 아이러니하게도, 오직 AI만이 AI로 생성된 콘텐츠를 탐지할 수 있게 될 것이다. 

그렇다면, 이제 문제는 ‘딥페이크 탐지 기술이 존재한다면 이는 실제로 언제, 어디에 적용될 것인가?’다. 

최초로 적용될 곳이자 가장 적절한 곳은 바로 소셜 미디어다. 소셜 네트워크는 가짜 사진 및 영상을 실시간으로 탐지하기 위해 관련 기술을 적용하고 개발하며 발전시키는 데 열심이다. 유사 또는 관련 기술을 통해 실시간으로 팩트체크를 할 수 있게 되는 것이다. 

즉 가까운 장래에는 트위터, 인스타그램, 페이스북 등 소셜 미디어에서 보는 정보를 가장 신뢰하게 될 가능성이 높다는 뜻이다. 여기에 업로드되는 모든 정보에 AI가 적용되기 때문이다. 

사기꾼과 선동자는 다른 매체로 향할 것이다. 이를테면 가짜 정보는 언론인을 속여 거짓 기사를 출고하도록 만들지도 모른다. 또 사기꾼은 딥페이크 음성, 사진, 영상으로 갈수록 기업을 속일 것이다. 

머지않아 다른 그 어떤 곳보다 소셜 네트워크에 있는 정보를 신뢰하는 게 새로운 일상이 될 것이다. 대단히 획기적이지 않은가? 

*  Mike Elgan은 기술 및 기술 문화에 관해 저술하는 전문 기고가다. ciokr@idg.co.kr 


 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.