Offcanvas

AI / 라이프 / 로봇|자동화 / 소비자IT / 애플리케이션

칼럼ㅣ생성형 AI가 인간관계에 악영향?… 해결해야 할 3가지

2023.04.25 Rob Enderle  |  Computerworld
‘생성형 AI’가 기술 업계에 마치 바이러스처럼 퍼지고 있다. 1년 전만 해도 거의 들어본 적 없었던 기술이 오늘날 가장 핫한 기술이 됐다. 모든 기술이 그렇듯, 빠른 성장과 함께 불거지는 문제가 있기 마련이며, 생성형 AI도 예외는 아니다. 
 
ⓒGetty Images Bank
 

하이브리드 솔루션의 절실한 필요성

생성형 AI는 대규모 언어 모델을 사용하고, 프로세서 집약적이며, 브라우저만큼 빠르게 보편화되고 있다. 이것이 문제인 이유는 기존의 중앙집중식 데이터센터가 이런 종류의 부하를 처리할 수 있는 구조가 아니기 때문이다. I/O, 프로세서, 데이터베이스, 비용, 용량 등의 제약이 있기 때문에, 중앙집중식 데이터센터 용량의 필요성이 급증하고 있지만 단기간에 용량을 크게 늘리기는 어렵다. 

이런 용량 문제가 지연 시간을 늘리고, 안정성을 감소시키며, 시간 경과에 따라 성능을 저하시키고, 고객 만족도를 떨어뜨릴 수 있다. 따라서 데이터센터 부하와 지연 시간을 줄이기 위해 대부분의 데이터는 중앙에 상주하고, AI 구성 요소는 로컬(기기)에 유지되는 하이브리드 접근 방식이 필요하다. 

스마트폰과 노트북으로 대부분 작업을 처리할 수 있는 하이브리드 솔루션이 없다면, 지연이 가장 짜증 나는 사용 사례(예: 게임, 번역, 대화 등)에서 만족도가 떨어지면서 이 기술 사용이 정체될 가능성이 높다. 특히 번역에서는 과정 자체가 지연을 초래하므로 더욱 문제가 된다. AI 시스템으로 인해 지연 시간이 더 늘어나면 이런 도구를 사용하지 않을 수도 있다. 퀄컴(Qualcomm)은 이런 문제를 지적한 ‘성능 보고서’를 발표했는데, 앞으로 발생할 심각한 성능 문제의 일부에 불과하다.
 

보안 문제

생성형 AI가 사용하는 언어 모델에는 완전히 검증되지 않은 정보가 포함돼 있다. 지난 4월 19일(현지 시각) 일론 머스크는 마이크로소프트가 인공지능 모델 학습에 트위터의 데이터를 무단으로 사용했다며 법적 조치를 취하겠다고 협박했다. 물론 머스크는 협박만 하고 실제로는 고소하지 않은 경우가 많지만, 만일 소송을 한다고 해도 트위터의 데이터는 트위터가 아닌 고객이 생성한 것이기 때문에 패소할 가능성이 크다. 하지만 머스크의 협박을 계기로 ‘AI 도구가 생성한 결과를 누가 소유하는가’에 관한 우려가 커지고 있다.

쉽게 구할 수 있는 정보를 성공적으로 분석하면 많은 것을 얻을 수 있다. 경쟁사를 분석하는 애널리스트로 일했던 당시, 일반에 공개된 정보로도 경쟁사의 활동에 대해 매우 많은 것을 알아낼 수 있었다. 하지만 그 연구는 모두 수작업으로 이뤄졌고, 사용된 데이터 양도 비교적 적었다. 하지만 새로운 AI 모델은 페타바이트 규모의 데이터를 가져올 수 있으며, 앞으로 빠르게 성장해 엑사바이트, 심지어는 제타바이트 규모의 데이터까지 사용하게 될 전망이다. 

이런 전례 없는 도구를 통해 기업, 정부, 개인의 비밀이 폭로될 수 있다. 해당 문제를 완화하는 데 필요한 보안 기술은 현재 존재하지 않을 뿐만 아니라, 앞으로도 나오지 않을 수 있다. 더 심각한 문제는 이런 도구가 당시에는 안전하게 묻혔다고 생각됐던 수십 년 전의 사건을 드러낼 수도 있다는 점이다. 
 

인간관계 문제?

생성형 AI 도구는 한 사람을 대신해 다른 사람과 상호작용하고, 실제와는 매우 다른 성격을 표현할 수 있다. 또 한 개인의 이미지, 목소리, 심지어는 독특한 버릇까지 재현하면서 대리인 역할을 할 수 있다. 배우가 겪는 문제 중 하나는 다른 사람이 배우의 실제 모습과 역할을 혼동하는 것이다. 

생성형 AI 도구가 직장 동료와 상호작용하고, 나아가 이성 만남 사이트에서 사용자를 대신해 상호작용할 수 있게 된다면 이런 문제가 크게 발생할 수 있다. AI 대리인을 기반으로 한 인물과 실제 인물 사이의 괴리는 신뢰를 손상시키고, 개인 생활과 직장 생활 모두에서 지속적인 인간관계를 어렵게 만들 수 있다. 이를테면 종종 관계를 맺을 때 결점을 숨기려고 하는데, AI 도구를 사용하면 결점을 쉽게 숨길 수 있다. 그 결과 주변 사람을 신뢰하기가 거의 불가능해질 수 있다. 

이런 문제에도 생성형 AI는 생산성을 크게 향상시키고, 대리인 역할을 하며, 거의 즉각적인 번역을 지원하고, 답이 없던 문제에 답을 제공할 잠재력이 있다. 하지만 지연, 보안, 신뢰 문제도 현실이다. 여기에 해당 기술이 부상한 이후부터 줄곧 제기돼 온 일자리 상실 문제까지 있다. 생성형 AI를 반대하진 않는다. 반대하고 싶다고 해도 그 발전을 멈출 수 있을지는 의문이다. 단, 문제가 감당할 수 없을 정도로 커지기 전에 이런 문제에 어떻게 대응할지는 고려해야 할 것이다. 
editor@itworld.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.