2020.11.20

“3년 만에 24%->95%”··· 페이스북, AI 이용한 혐오발언 탐지율 개선 강조

박예신 | CIO
페이스북이 자사 인공지능 소프트웨어를 이용해 플랫폼 내에서 혐오 발언 탐지율을 3년 전 24% 수준에서 약 95%까지 끌어올렸다고 주장했다. 

19일(현지시간) 페이스북 최고기술책임자(CTO) 마이크 슈레페는 블로그를 통해 “현재 (페이스북은) 인공지능을 이용해 혐오 발언을 탐지해 94.7%까지 걸러냈다”라며 “이는 2017년 탐지 비율인 24%, 지난해 탐지 비율인 80.5%보다 높은 수치”라고 설명했다. 

슈레페는 탐지 비율을 높일 수 있었던 이유에 대해 “데이터세트를 수작업으로 라벨링하지 않고도 다양한 언어를 바탕으로 인공지능을 훈련시킬 수 있었기 때문”이라고 설명했다. 

그는 또 강화된 무결성 최적화(Reinforced Integrity Optimizer, 이하 RIO) 기술과 린포머(Linformer) 인공지능 아키텍처 등의 시스템 덕분이라고 덧붙였다.

페이스북 블로그에 따르면 RIO는 현실 데이터를 직접 사용해 인공지능 모델의 혐오 발언 탐지력을 최적화시키는 시스템이다. 린포머는 인공지능이 페이스북 콘텐츠를 보다 효율적으로 이해하는 방법을 제공해주는 아키텍처를 뜻한다.

슈레페는 이런 시스템이 필요한 이유로, 혐오 발언들이 교묘하게 위장돼 있기 때문이라고 설명했다. 혐오 발언의 상당수는 텍스트와 이미지가 결합된 형태인 탓에 인공지능이 완벽하게 걸러내기 어렵다는 것. 

예컨대 평범한 무덤 사진 위에 “우리가 원하는 대로 선거 결과가 나오지 않으면, 여기가 너희 인종의 묘자리가 될 것”이라는 표현은 사람이라면 인종 혐오 발언임을 즉각 알아차릴 수 있지만, 인공지능은 그렇지 않다.
 
ⓒFacebook blog / 위 이미지는 텍스트와 이미지가 결합된 혐오 발언의 예시로 페이스북이 블로그에 첨부한 것임

슈레페 CTO는 “우리가 직면한 도전들은 복잡하고 미묘하며 빠르게 진화하고 있다”라며 “평범한 콘텐츠를 오정보나 혐오 발언으로 잘못 분류할 경우 표현의 자유를 침해할 수 있기 때문에 (혐오 발언을) 탐지하는 것뿐 아니라 실수를 피하는 것도 중요하다”라고 강조했다. 

한편 지난해 페이스북은 표현의 자유를 앞세워 플랫폼 내 콘텐츠에 관여하지 않겠다는 입장을 고수한 바 있다. 그러나 앞서 트위터가 혐오 발언이 담긴 트윗을 삭제하겠다는 정책을 펼치며 페이스북의 정책은 구설수에 올랐다. 또 ‘조지 플로이드 사건’이 있었던 지난 6월에는 트럼프 대통령의 선동적인 발언을 방치해 여론의 뭇매를 맞기도 했다. ciokr@idg.co.kr



2020.11.20

“3년 만에 24%->95%”··· 페이스북, AI 이용한 혐오발언 탐지율 개선 강조

박예신 | CIO
페이스북이 자사 인공지능 소프트웨어를 이용해 플랫폼 내에서 혐오 발언 탐지율을 3년 전 24% 수준에서 약 95%까지 끌어올렸다고 주장했다. 

19일(현지시간) 페이스북 최고기술책임자(CTO) 마이크 슈레페는 블로그를 통해 “현재 (페이스북은) 인공지능을 이용해 혐오 발언을 탐지해 94.7%까지 걸러냈다”라며 “이는 2017년 탐지 비율인 24%, 지난해 탐지 비율인 80.5%보다 높은 수치”라고 설명했다. 

슈레페는 탐지 비율을 높일 수 있었던 이유에 대해 “데이터세트를 수작업으로 라벨링하지 않고도 다양한 언어를 바탕으로 인공지능을 훈련시킬 수 있었기 때문”이라고 설명했다. 

그는 또 강화된 무결성 최적화(Reinforced Integrity Optimizer, 이하 RIO) 기술과 린포머(Linformer) 인공지능 아키텍처 등의 시스템 덕분이라고 덧붙였다.

페이스북 블로그에 따르면 RIO는 현실 데이터를 직접 사용해 인공지능 모델의 혐오 발언 탐지력을 최적화시키는 시스템이다. 린포머는 인공지능이 페이스북 콘텐츠를 보다 효율적으로 이해하는 방법을 제공해주는 아키텍처를 뜻한다.

슈레페는 이런 시스템이 필요한 이유로, 혐오 발언들이 교묘하게 위장돼 있기 때문이라고 설명했다. 혐오 발언의 상당수는 텍스트와 이미지가 결합된 형태인 탓에 인공지능이 완벽하게 걸러내기 어렵다는 것. 

예컨대 평범한 무덤 사진 위에 “우리가 원하는 대로 선거 결과가 나오지 않으면, 여기가 너희 인종의 묘자리가 될 것”이라는 표현은 사람이라면 인종 혐오 발언임을 즉각 알아차릴 수 있지만, 인공지능은 그렇지 않다.
 
ⓒFacebook blog / 위 이미지는 텍스트와 이미지가 결합된 혐오 발언의 예시로 페이스북이 블로그에 첨부한 것임

슈레페 CTO는 “우리가 직면한 도전들은 복잡하고 미묘하며 빠르게 진화하고 있다”라며 “평범한 콘텐츠를 오정보나 혐오 발언으로 잘못 분류할 경우 표현의 자유를 침해할 수 있기 때문에 (혐오 발언을) 탐지하는 것뿐 아니라 실수를 피하는 것도 중요하다”라고 강조했다. 

한편 지난해 페이스북은 표현의 자유를 앞세워 플랫폼 내 콘텐츠에 관여하지 않겠다는 입장을 고수한 바 있다. 그러나 앞서 트위터가 혐오 발언이 담긴 트윗을 삭제하겠다는 정책을 펼치며 페이스북의 정책은 구설수에 올랐다. 또 ‘조지 플로이드 사건’이 있었던 지난 6월에는 트럼프 대통령의 선동적인 발언을 방치해 여론의 뭇매를 맞기도 했다. ciokr@idg.co.kr

X