AI
2018.03.15

기고 | SXSW에서 논의된 AI의 불편한 진실

Jason Davey | CMO
오길비의 제이슨 데이비가 SXSW 행사에서 이뤄진 AI 관련 논의에 대해 기고했다.

작년 SXSW 행사에 대한 기고문에서 필자는 기술 분야에서 나타난 발전들이 마케팅 뿐 아니라 사회적인 충격을 가져올 것이라고 기술했다. 올해의 행사는 이러한 전망을 확인할 수 있는 자리였다.

AI가 영화 제작, 터랙티브 및 음악 전반에 걸친 SXSW의 모든 트랙에서 논의되고 있었다. 그러나 올해의 어조는 다소 다르다. 예산이 신중한 검토 없이 투하되고 있고 데이터가 다양성에 대한 고려 없이 입력되고 있으며, 이로 인해 AI가 인종주의, 성 편견과 같은 인간성의 어두운 측면을 반영한다는 우려가 고조되고 있었다.

AI가 학습하면서 참고하는 문서와 데이터가 문제의 원인 중 하나다. 광대한 역사에 존재하는 무의식적 편견이 녹아든 데이터로 인해 인공지능이 문제를 일으킨다. 불행하게도 인간의 나쁜 소식에 대한 진화적 친밀성을 가지고 있다.

사실 이는 인류가 수천 년 동안 생존하는데 도움이 됐던 특질이다. 그러나 이러한 편향성은 가짜 뉴스, 적개심 가득한 증오 표현, 트롤링 및 필터링되지 메시지 등으로 표현되기도 한다. 그리고 AI와 만날 때 글로벌 사회에 커다란 영향을 미칠 수 있다.

이번 행사에서는 런던시의 시장과 구글의 머신러닝 부문 수석 과학자와 같은 여러 유명 인사들이 기술 개발자들의 책임에 대한 질문을 제시했다. 특히 페이스북과 구글과 같은 글로벌 커뮤니케이션 플랫폼 제공자들의 인공지능 알고리즘이 세계 사회의 다양성과 관심사를 반영하도록 설계되지 않았으며 실제로 얼마나 극단적인 지에 관계없이 '관심 분야'에 기반한 경험을 제공하고 있다는 지적이다.

그리고 이러한 행태는 부족한 다양성과 편협한 문화를 초래한다는 목소리가 높았다. 뉴스 피드의 '피드'가 피드(feed)가 아닌 터널 시야(tunnel vision)를 야기시키고 있다는 것이다.

이는 웹의 초기 의도 및 약속, 즉 개방성과 평등, 지구적 연결성이라는 가치와 정반대의 것에 해당한다.

정보에 거의 무제한으로 액세스하면 전 세계가 그 어느 때보다 투명질 수 있다. 기업은 사회적으로나 문화적으로 책임있는 목적을 명확하게 정의하고 실행해야 한다. 그리고 이것을 반영하는 인공지능 도구를 선택해야 한다.

그렇게 하지 안으면 미래지향적이고 포괄적이며 다양한 대신, 무자비한 편견에 사로잡힌 의사 결정이 태동될 수 있다. 사회가 진전하는 것이 아니라 퇴보하게 되는 것이다.

올바른 방향으로의 진전은 기술이 인간성과 맞물려 있다는 생각에서 시작된다. 인류는 편견을 탐지하고 이를 해소하는데 더 익숙해질 필요가 있다. 우리의 일터, 정치, 광고 등의 모든 영역에서다. ciokr@idg.co.kr 



AI
2018.03.15

기고 | SXSW에서 논의된 AI의 불편한 진실

Jason Davey | CMO
오길비의 제이슨 데이비가 SXSW 행사에서 이뤄진 AI 관련 논의에 대해 기고했다.

작년 SXSW 행사에 대한 기고문에서 필자는 기술 분야에서 나타난 발전들이 마케팅 뿐 아니라 사회적인 충격을 가져올 것이라고 기술했다. 올해의 행사는 이러한 전망을 확인할 수 있는 자리였다.

AI가 영화 제작, 터랙티브 및 음악 전반에 걸친 SXSW의 모든 트랙에서 논의되고 있었다. 그러나 올해의 어조는 다소 다르다. 예산이 신중한 검토 없이 투하되고 있고 데이터가 다양성에 대한 고려 없이 입력되고 있으며, 이로 인해 AI가 인종주의, 성 편견과 같은 인간성의 어두운 측면을 반영한다는 우려가 고조되고 있었다.

AI가 학습하면서 참고하는 문서와 데이터가 문제의 원인 중 하나다. 광대한 역사에 존재하는 무의식적 편견이 녹아든 데이터로 인해 인공지능이 문제를 일으킨다. 불행하게도 인간의 나쁜 소식에 대한 진화적 친밀성을 가지고 있다.

사실 이는 인류가 수천 년 동안 생존하는데 도움이 됐던 특질이다. 그러나 이러한 편향성은 가짜 뉴스, 적개심 가득한 증오 표현, 트롤링 및 필터링되지 메시지 등으로 표현되기도 한다. 그리고 AI와 만날 때 글로벌 사회에 커다란 영향을 미칠 수 있다.

이번 행사에서는 런던시의 시장과 구글의 머신러닝 부문 수석 과학자와 같은 여러 유명 인사들이 기술 개발자들의 책임에 대한 질문을 제시했다. 특히 페이스북과 구글과 같은 글로벌 커뮤니케이션 플랫폼 제공자들의 인공지능 알고리즘이 세계 사회의 다양성과 관심사를 반영하도록 설계되지 않았으며 실제로 얼마나 극단적인 지에 관계없이 '관심 분야'에 기반한 경험을 제공하고 있다는 지적이다.

그리고 이러한 행태는 부족한 다양성과 편협한 문화를 초래한다는 목소리가 높았다. 뉴스 피드의 '피드'가 피드(feed)가 아닌 터널 시야(tunnel vision)를 야기시키고 있다는 것이다.

이는 웹의 초기 의도 및 약속, 즉 개방성과 평등, 지구적 연결성이라는 가치와 정반대의 것에 해당한다.

정보에 거의 무제한으로 액세스하면 전 세계가 그 어느 때보다 투명질 수 있다. 기업은 사회적으로나 문화적으로 책임있는 목적을 명확하게 정의하고 실행해야 한다. 그리고 이것을 반영하는 인공지능 도구를 선택해야 한다.

그렇게 하지 안으면 미래지향적이고 포괄적이며 다양한 대신, 무자비한 편견에 사로잡힌 의사 결정이 태동될 수 있다. 사회가 진전하는 것이 아니라 퇴보하게 되는 것이다.

올바른 방향으로의 진전은 기술이 인간성과 맞물려 있다는 생각에서 시작된다. 인류는 편견을 탐지하고 이를 해소하는데 더 익숙해질 필요가 있다. 우리의 일터, 정치, 광고 등의 모든 영역에서다. ciokr@idg.co.kr 

X