Offcanvas

검색|인터넷 / 라이프 / 보안 / 분쟁|갈등 / 소프트스킬 / 인문학|교양

머신러닝으로 만드는 가짜 영상··· 딥페이크란? 잠재적 위험성은?

2019.04.12 J.M. Porup  |  CSO


딥페이크를 감지하는 방법
딥페이크를 감지하기란 쉽지 않을 수 있다. 물론, 아마추어 딥페이크는 한 눈에 알아볼 수 있다. 기계가 찾아낼 수 있는 특징으로는 눈 깜빡임의 부재나 잘못된 그림자 등이 있다. 그러나 딥페이크를 생성하는 GAN은 개선되고 있기 때문에 머지않아 딥페이크를 감지하기 위해 디지털 포렌식에 의존해야 할 것이다.

이런 어려운 문제를 위해 DARPA는 연구원들이 진짜임이 입증된 동영상을 더욱 잘 찾을 수 있도록 투자를 하고 있다. 하지만 GAN은 자체적인 훈련을 통해 이런 포렌식을 회피하는 방법을 학습할 수 있기 때문에 이 싸움에서 이길 수 있을지 여부는 불확실하다.

DARPA 프로그램 관리자 데이비드 거닝은 "이론적으로, 이를 감지하기 위해 우리가 알고 있는 모든 기법을 GAN에 제공하는 경우 이런 기법을 모두 통과할 수 있다"라며, “한계가 있는지도 확실하지 않다”라고 MIT 테크놀로지 리뷰에 밝혔다. 

가짜 동영상을 감지할 수 없다면 머지않아 우리가 보고 듣는 모든 것을 신뢰할 수 없게 될 것이라고 일부 전문가들은 경고하고 있다. 우리 눈에 보이는 것을 신뢰할 수 없게 되면 "진실의 종말"로 이어질 수 있다는 것이다. 이로 인해 정치적인 시스템에 대한 신뢰가 위협받을 뿐 아니라 더욱 장기적인 측면에서 공유된 객관적인 현실에 대한 신뢰가 손상될 수 있다. 무엇이 진실인지에 대해 합의할 수 없다면 어떻게 정책 문제를 논의할 수 있을지에 대한 우려가 있다.

하지만 황은 다소 과장된 부분이 있다고 생각한다. "내가 가장 크게 비판하는 부분이다. 우리가 진실을 판단할 수 없는 수준에는 도달하고 있지 않다고 생각한다"라고 말했다.

좀더 현실적인 위협 '딥페이크 음란물'
정치인들의 거짓말은 정치의 역사만큼이나 오래되었으며 민주주의에 대한 딥페이크의 위협은 과장되어 있다. 하지만 좀 더 현실적인 위협이 존재한다. 유명인이나 전 여자친구의 머리를 포르노 스타의 머리에 합성하는 딥페이크 포르노 생성이다.

이것은 촬영 없이 이뤄지는 리벤지 포르노와 같다. 딥페이크 포르노 제작자에게는 소셜 미디어 피드에서 손쉽게 구할 수 있는 피해자의 사진과 피해자의 얼굴이 나오는 수 분 길이의 동영상만 있으면 된다. 심지어 어느 정도의 대중적인 혐오에 익숙한 유명인들도 선정적인 동영상 속에서 자신의 머리와 포르노 스타의 신체가 합성된 것을 발견하고는 경악을 금치 못했다.

딥페이크의 목적이 대중을 조종하기보다는 약자를 괴롭히거나 학대하는 것일 때가 있다. 딥페이크가 민주주의에 대한 위협보다는 주변인들에 대한 위협으로 활용될 가능성이 오히려 높은 셈이다.

딥페이크를 방지하기 위해서는 어떻게 규제해야 할까?
딥페이크는 합법일까? 이 곤란한 문제는 아직까지 해결되지 않고 있다. 미 수정 헌법 제1조를 고려해야 하지만 지적 재산법, 개인정보보호법, 미국의 여러 주에서 뒤늦게 발효한 새로운 리벤지 포르노 법령도 고려해야 한다.

지파이캣(Gfycat)이나 폰허브(Pornhub) 등의 플랫폼이 자체 웹사이트에서 딥페이크 포르노 동영상을 능동적으로 삭제하고 이런 콘텐츠는 자체 서비스 규정을 위반하는 것이라고 주장하곤 하지만 포르노 딥페이크는 비주류 플랫폼에서 지속적으로 공유된다.

하지만 성적으로 모욕적인 것은 아니라는 정치적 발언의 경우 구분이 모호해진다. 수정 제1조는 정치인이 사람들에게 거짓말을 할 수 있는 권리를 보호한다. 실수 또는 고의로 잘못된 정보를 공개할 권리가 보호된다. 규제자와 입법자는 이 문제로 계속 씨름하고 있다.

(1920년 대부터) 딥페이크 사례
정치적 딥페이크인 가짜 뉴스 동영상이 새롭다고 생각하는가? 다시 생각해 보자. 영화가 발명된 후 한 세대 동안 실제 뉴스를 강조하기 위한 가짜 뉴스 동영상은 당연한 것으로 여겨졌다.

영화가 대양을 건너는데 수 주가 소요되던 시대에도 영화 제작자들은 실제와 똑같은 뉴스를 만들기 위해 지진이나 화재 등을 극화했다. 1920년 대, 대양 횡단 케이블을 통해 흑백 사진을 전송하는 것이 유행이었으며, 영화 제작자들은 실제 사진을 이용해 파괴 장면을 제작했다. 이러한 관행은 1930년대부터야 사라지기 시작했다. ciokr@idg.co.kr
 

CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.