Offcanvas
“정부가 생성형 AI 사용의 안전을 보장하는 데 중요한 역할을 한다”
82
%
자료 제목 :
생성형 AI : 사용자가 원하는 것
GenAI: What consumers want
자료 출처 :
Thoughtworks
원본자료 다운로드
발행 날짜 :
2023년 10월 04일

AI / 디지털 트랜스포메이션 / 머신러닝|딥러닝

기고 | ‘책임 있는 AI’로 고객의 우려를 덜어보자

2024.02.22 Mike Mason   |  CIO
생성형 AI로 고객에게 혁신을 제공하려면 ‘책임 있는 기술’ 중심 사고가 뒷받침돼야 한다.
 
ⓒ Getty Images Bank

지난 12개월 동안 생성형 AI는 열광과 두려움을 동시에 불러일으켰다. 많은 이가 변호사 시험을 통과하고 사진 콘테스트 우승작까지 만들어내는 AI의 능력에 감탄했다. 동시에 생성형 AI 시대에도 인간에게 주도권이 있을 것이라고 믿고 싶은 이에게 불안감을 안겨 주었다.

생성형 AI는 오늘날의 비즈니스 리더에게 난제를 안겨준다. 생성형 AI를 사용하여 혁신을 이룰 기회는 매우 많지만, 이 기술을 불편해하는 소비자도 분명 많다. 어떻게 하면 고객을 떠나게 하지 않으면서 기회를 잡을 수 있을까?

미국 컨설팅 기업 쏘트웍스가 생성형 AI에 대한 소비자 태도를 주제로 설문조사를 진행한 결과, 응답자 1만 명 중 83%가 기업이 생성형 AI를 통해 더 혁신적이고 더 나은 서비스를 제공할 수 있다는 데 동의하는 것으로 나타났다.

하지만 동시에 응답자 93%가 생성형 AI가 가져오는 윤리적 문제를 우려하고 있었다. 딥페이크의 등장, ‘인간적인 요소’를 잃어버릴 가능성, 데이터 프라이버시 문제 등이 주요 우려 사항이었다.

또한 설문조사 응답자는 기업이 생성형 AI를 적절하게 사용하기 위해서는 데이터 사용 방법을 명확히 명시하고(68%), 불법 콘텐츠가 생성되지 않도록 하며(63%), 생성형 AI가 콘텐츠를 생성하는 시기를 공개(62%)하는 규제가 필요하다고 밝혔다.

여느 기술 트렌드와 마찬가지로, 규제 당국도 이 새로운 기술에 발 빠르게 대응하고 있다. 많은 소비자에게 반가운 소식일 수 있다. 실제로 응답자의 82%는 정부가 생성형 AI 사용의 안전을 보장하는 데 중요한 역할을 한다고 생각한다고 답했다.

그러나 규제 기관에 모든 것을 맡긴다고 AI 안정성이 저절로 높아지는 것은 아니다. 기술, 특히 생성형 AI는 매우 빠른 속도로 발전하기 때문에 규제가 이를 따라잡는다는 것은 사실상 불가능에 가깝다. 이미 이전의 역사에서 우리는 규제 당국이 기술을 따라잡기 위해 고군분투하며, 의도는 좋지만 복잡하고 느린 법안 제정 과정을 거치는 것을 목격한 바 있다. 오히려 규제가 등장할 때까지 기다리는 대신(물론 그렇게 될 것이 분명하지만), 기업은 생성형 AI 사용 과정을 개방적이고 투명하게 공개하고 어떻게 신뢰를 구축할 것인지에 대해 적극 검토해야 한다.

간단한 일처럼 보일 수 있지만 실행은 그리 쉬운 일이 아니다. 생성형 AI 활용 과정에서 좋은 의도만 내세워서는 문제가 해결되지 않는다. 제대로 된 신뢰를 구축하려면 윤리, 공정성, 포용성의 원칙을 어떻게 보장할 것인지에 대해 매우 신중한 계획을 준비해야 한다.
 
‘책임 있는 기술’ 관행을 채택하면 신뢰를 높이는 데 특히 도움을 받을 수 있다. 책임 있는 기술 관행은 소비자와 신뢰를 구축하는 동시에 혁신적인 생성형 AI 솔루션을 배포할 수 있는 강력한 디딤돌 역할을 한다.

책임 있는 기술이란 조직의 기술 사용을 개인과 사회의 이익에 부합하도록 조정하는 철학을 말한다. 여기에는 제품 개발 주기의 모든 단계에서 이러한 원칙을 준수하는 개발 도구, 방법론 및 프레임워크가 포함된다. 이런 철학하에 윤리적 문제를 기술 도입 초기 단계부터 미리 고려할 수 있다.

책임 있는 기술의 가치는 점점 더 주목받고 있다. 생성형 AI와 같은 기술이 일상생활에 영향을 미칠 수 있다는 사실을 많은 이가 공감하며 그 중요성이 커지는 것이다. UN과 같은 조직에서도 책임 있는 기술 관련 가이드라인을 쏘트웍스와 함께 발행했다.
 
소비자는 기업이 책임감 있고 투명하게 생성형 AI를 사용하길 원한다. 그리고 기업은 투명성을 높이기 위해, AI를 사용했다고 표기하거나 어떤 데이터를 활용했는지 그리고 편향성을 줄이기 위해 어떤 조치를 취했는지 알려줄 수 있다. 시스템이 얼마나 정확한지, 심지어 생성형 AI 시스템과 관련된 탄소 배출량을 어느 수준인지 공개해 볼 수도 있다. 이런 것을 알리는 것은 물론 쉽지 않은 작업이다.

투명성을 확보하려면 다양한 고객의 요구를 충족할 수 있는 적절한 정보를 효과적인 방식으로 제공해야 한다. 생성형 AI 분야와 관련해서 특히 다음 3가지 질문을 내부적으로 논의해 보면 좋다.
- 기술적 기능: 시스템이 실제로 어떤 기능을 수행하는가?
- 전달된 기능: 개발자나 배포자가 말하는 기능은 무엇인가?
- 공지된 기능: 사용자는 시스템이 무엇을 한다고 생각하는가?

이러한 접근 방식은 적절한 투명성과 사회적 책임을 지원한다. 동시에 생성형 AI 시스템의 복잡성에 대한 근거를 마련해준다. 또한 소비자에게 신뢰받는 혁신을 제공할 것이다.

*필자 마이크 메이슨은 쏘트웍스의 최고 AI 책임자로서 생성형 AI를 내부 및 외부 프로젝트에 도입하는 작업을 총괄하고 있다. 특히 고객이 AI 도입을 가속화하고 소프트웨어 프로세스에 AI를 도입하며 AI를 통해 비즈니스와 운영을 혁신할 수 있도록 지원하고 있다.
ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.