Offcanvas

AI / HR / 분쟁|갈등 / 인문학|교양

생성형 AI 결과물을 내가 한 것처럼?!··· 세일즈포스 글로벌 설문조사 요약

2023.11.17 Gagandeep Kaur  |  Computerworld
생성형 AI 사용 실태를 조사한 설문 조사에서 응답자의 64%가 생성형 AI의 작업 결과물을 자신의 작업 산출물처럼 전달한 적이 있다고 대답했다. 

기업이 직원들의 생성형 AI 도구 무단 사용을 방지하고 정책을 명확하게 정의해야 할 필요성이 절실히 요구되고 있다. 최근 14개 국가에 걸쳐 정규직 직원 약 1만 4,000명을 대상으로 실시한 세일즈포스 설문조사의 주요 내용이다.

설문조사에 따르면 직원의 4분의 1(28%)이 직장에서 생성형 AI를 사용하고 있으며, 이 중 절반 이상이 회사 측의 승인이나 허가 없이 이를 사용하고 있었다. 또한 조사 대상자의 32%는 조만간 생성형 AI를 사용할 계획이라고 답했다. 이 설문조사는 생성형 AI 스냅샷 연구 시리즈인 ‘직장 내 AI의 약속과 함정’의 일환으로 실시됐다.

생성형 AI의 사용이 증가하는 주요 이유는 생산성 향상에 실제로 도움이 되기 때문이다. 생성형 AI 사용자는 71%가 업무 생산성을 높여준다고 답했으며, 58%는 이 기술이 업무 몰입도를 높여준다고 답했다.

또 설문조사에 참여한 직원 중 거의 50%가 생성형 AI에 대한 전문 지식을 개발하면 업무 만족도를 높이고 직장에서 더 많은 관심을 받으며 수입을 향상시키는 데 도움이 될 것이라고 답했다.

이러한 조사 결과는 생성형 AI 시장 관점에서는 좋은 징조다. 맥킨지에 따르면 생성형 AI는 잠재적으로 세계 경제에 연간 2조 6,000억 달러에서 4조 4,000억 달러 정도의 가치를 보탤 것으로 추정된다.

정책 부재로 보안 위험에 취약한 기업들
그러나 문제는 보안이다. 생성형 AI 도구와 관련해 정책과 명확성이 부족하며, 이로 인해 기업의 보안 위험이 증가하고 있다. 올해 초 세일즈포스에서 실시한 설문조사에서 응답자의 73%는 생성형 AI에 보안 위험이 있다고 생각한다고 답했다. 부정확한 결과와 지적 재산권 침해는 생성형 AI와 관련된 또다른 위험이다.

해당 설문조사의 국가별 분석에 따르면, 인도의 경우 허가되지 않거나 금지된 생성형 AI 도구의 사용 비율이 높았다. 설문조사에 참여한 산업별 직원의 64%가 경력 향상을 위해 이러한 도구를 사용한다고 답했다. 반면, 네덜란드에서는 조사 대상 직원의 43%만이 비승인 생성 AI 도구를 사용한다고 응답했다.

또 설문조사에 따르면 약 79%의 기업이 생성형 AI 사용과 관련하여 명확하게 정의된 정책을 가지고 있지 않은 것으로 나타났다. 15%는 업무용 생성형 AI 사용에 대한 정책이 느슨하게 정의되어 있으며, 37%는 업무용 생성형 AI 사용에 대한 정책이 없고, 나머지 27%는 잘 모른다고 답했다.  

비윤리적 생성형 AI 사용
한편 AI가 생성한 업무를 자신의 업무 결과처럼 전달하는 등 비윤리적인 활동도 확인됐다. 설문 응답자의 약 64%가 생성형 AI 작업을 자신의 작업인 것처럼 전달한 경험이 있다고 답했다. 41%의 직원은 취직을 위해 자신의 생성형 AI 역량을 과장할 수 있다고 응답했다.

세일즈포스 설문조사에서 드러난 주요 문제 중 하나는 교육 부족이었다. 거의 70%에 달하는 직원이 직장 내 안전하고 윤리적인 생성형 AI 사용법에 대해 교육을 받은 적이 없는 것으로 나타났다. 세일즈포스의 최고 윤리 책임자 폴라 골드만은 블로그 게시글에서 "명확한 가이드라인이 있다면 직원들은 AI의 위험을 이해하고 대처할 수 있을 것이다. 또 이 혁신 기술을 활용해 경력을 개발할 수 있을 것이다"라고 말했다. ciokr@idg.co.kr
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.