Offcanvas

AI / How To / 로봇|자동화 / 머신러닝|딥러닝

생성형 AI 사용 정책 개발하기··· 모범 준칙 6가지

2023.04.18 Nicholas D. Evans  |  CIO
이미 지니가 병에서 빠져나왔다.  AI 연구소가 GPT-4보다 강력한 AI 시스템의 훈련을 6개월 동안 즉시 중지해야 한다는 ‘공개 항의서’가 지니를 다시 병에 넣을 수 있을지 의심스럽다. AI 시스템의 능력을 더욱 잘 이해하고 이를 효과적으로 활용하기 위해 기업 정책을 구성하는 방법에 관해 알아본다.
 
Image Credit : Getty Images Bank

생성형 AI는 텍스트, 오디오, 비디오, 이미지, 코드 등 기존의 자료에서 새로운 콘텐츠를 창작하기 위해 비지도 또는 반지도형 알고리즘을 사용하는 AI의 한 형태다. 이 AI 기술의 사용 사례가 폭발적으로 증가하고 있다. 조직들이 고객에게 더 나은 서비스를 제공하고 기존의 기업 데이터를 더욱 잘 활용하며 운영 효율성을 높이기 위해 사용하고 있다.

하지만 다른 이머징 테크놀로지(Emerging Technology)와 마찬가지로 상당한 위험과 문제가 따른다. 최근 ‘세일즈포스의 IT 고위 리더 조사’에 따르면 응답자 중 79%는 이 기술이 보안 위험이 될 가능성이 있다고 생각했으며 73%는 편향될 수 있다고 우려했다. 59%는 결과물이 정확하지 않다고 생각하고 있다. 또한, 특히 기업 외부에서 도출된 생성형 AI 생성 콘텐츠에는 우려할 지점이 적지 않다. 사실에 기반하고 있는지, 저작권에 저촉될 소지는 없는지 등을 고려해야 한다. 

지난 4월 초 해외 미디어들의 헤드라인을 장식한 삼성전자 사건도 생성형 AI 활용과 관련한 위험성을 보여주는 좋은 사례다. 회사의 직원들은 챗GPT를 이용하는 과정에서 소스 코드와 회의록 등 기업 기밀을 누출해 이목을 집중시켰다.
 
챗GPT(ChatGPT)는 스스로에 대해 “나의 답변은 대규모 텍스트 데이터세트로부터 학습한 패턴 및 연상에 기초하여 생성되며, 나는 데이터세트에서 참조한 모든 소스의 정확성 또는 신뢰성을 검증할 능력이 없다”라고 기술하고 있다.
법적 위험만 해도 광범위하다. 비영리 단체 TPP(Tech Policy Press)에 따르면 계약, 사이버 보안, 데이터 프라이버시, 기만적 거래 활동, 차별, 허위 정보, 윤리, IP, 검증을 중심으로 하는 위험이 포함된다.

이미 다수의 조직 내 직원들이 현재 생성형 AI를 테스트하고 있다. 이러한 활동이 의도하지 않은 결과로 이어지기 전에 선제적으로 움직이는 것이 중요하다.

구글의 최고 결정 과학자 케이시 코지르코프는 “AI 생성 코드가 제대로 작동할 때는 절묘하다. 하지만 항상 잘 작동하지는 않는다. 챗GPT의 결과물을 중요한 곳에 붙여넣기 전에 테스트를 해야 한다”라고 말했다.

직원들에게 해당 기술의 위험에 대해 교육하고 조직을 위험에 빠뜨리지 않고 기술을 최대한 활용하여 비즈니스 가치를 극대화하는 방법에 대한 규칙과 권고사항이 요구되는 시점이다. 생성형 AI에 대한 기업 사용 정책을 수립하는 6가지 모범 준칙에 대해 알아본다.

범위를 결정하라 - 기업 사용 정책을 수립하는 첫번째 단계는 범위를 고려하는 것이다. 예를 들어, 모든 형태의 AI에 적용되는가 아니면 생성형 AI에만 적용되는가? 생성형 AI에만 집중하면 챗GPT 등의 LLM(Large Language Model) 관련 이슈만 해결하기 때문에 유용한 접근방식일 수 있다. 더욱 광범위한  ‘AI 거버넌스’를 수립하는 방법은 또 다른 사안이다.

조직의 모든 관련된 이해관계자를 참여하게 하라 - HR, 법무, 영업, 마케팅, 비즈니스 개발, 운영, IT가 포함될 수 있다. 각 그룹은 콘텐츠를 올바르게 또는 잘못 사용하는 방식에 대한 사용 사례와 영향이 다를 수 있다. IT 및 혁신 그룹을 참여시키면 정책이 위험 관리 측면에서 단속하는 것일 뿐 아니라 비즈니스 위험을 관리하면서 생산적인 사용 및 비즈니스 이점을 극대화하려는 일련의 균형 잡힌 권고사항이라는 것을 입증하는 데 도움이 될 수 있다.

현재 생성형 AI가 사용되는 방식 그리고 미래에 사용될 수 있는 방식을 고려하라 - 모든 이해관계자와 함께 현재 적용되고 있는 그리고 앞으로 예상되는 모든 내부 및 외부 사용 사례를 항목화한다. 각각은 정책 개발을 위한 정보를 제공하고 모든 범위를 고려하는 데 도움이 될 수 있다. 

예를 들어, 이미 계약자 등의 제안 팀들이 콘텐츠 초안 작성을 실험하고 있거나 제품 팀들이 창의적인 마케팅 카피를 실험하고 있는 경우 다른 IT 권리를 위반할 수 있는 결과물 때문에 후속적인 IP 위험이 있을 수 있음을 알게 된다.

지속적인 개발 상태를 유지하라 - 종합적으로 생각하고 시스템에 유입되는 정보, 생성형 AI가 사용되는 방식, 시스템에서 제공되는 정보가 이후에 사용되는 방식을 다루는 것이 중요하다. 내부 및 외부 사용 사례 그리고 관련된 모든 것들에 집중한다. 

내부 용도라도 투명성을 확보하고 인간 생성 콘텐츠와의 혼란을 방지하기 위해 모든 AI 생성 콘텐츠에 라벨을 적용하도록 요구하도록 한다. 이는 해당 콘텐츠를 외부적으로 사용하거나 검증 없이 해당 정보가 사실에 기반하며 정확하다고 생각하여 실제로 적용하는 실수를 방지하는 데 도움이 될 수 있다.

조직 전반에 걸쳐 광범위하게 공유하라 - 정책이 빠르게 잊혀지기 십상이다. 심지어 읽지 않는 경우가 많다. 때문에 정책에 적절한 훈련과 교육이 수반되는 것이 중요하다. 여기에는 훈련 비디오 개발 및 라이브 세션 호스팅이 포함될 수 있다. 

예를 들어, IT, 혁신, 법무, 마케팅, 제안 팀 또는 다른 적절한 그룹 소속의 담당자와의 실시간 Q&A는 직원들에게 앞으로 닥칠 기회와 문제에 대해 교육하는 데 도움이 될 수 있다. 중대한 법률사건이 발생하고 이를 예로 언급할 수 있을 때 청중들이 실감할 수 있도록 충분한 예시를 제공하도록 한다.

문서화하고 업데이트한다 - 모든 정책 문서가 그렇듯이 문서로 작성하고 새로운 사용 사례, 외부 시장 조건, 개발 상황에 따라 적절한 속도로 업데이트해야 한다. 모든 이해관계자들이 정책에 ‘서명’하거나 CEO가 서명한 기존 정책 매뉴얼에 통합시키도록 하면 그들의 승인을 받았으며 조직에 중요하다는 점을 보여줄 수 있다. 정책은 생성형 AI 또는 일반적인 AI나 기술 거버넌스 등 더욱 광범위한 거버넌스 접근방식의 여러 부분 중 하나여야 한다.

이는 법적 자문이 아니며 법무 및 HR 부서가 정책 승인 및 전파에 있어서 주도적인 역할을 해야 한다. 하지만 일부 고려할 신호를 제공하기를 바란다. 약 10년 동안의 기업 소셜 미디어 정책과 마찬가지로 지금 여기에 시간을 소요하면 앞으로 발생할 충격과 위험을 완화하는 데 도움이 될 것이다. ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.