Offcanvas

AI / 디지털 트랜스포메이션 / 리더십|조직관리 / 머신러닝|딥러닝

과장 광고된 AI를 판별하라···‘AI 워싱’을 피할 수 있는 9가지 전략

2023.05.09 Andrada Fiscutean  |  CIO
AI 기술이 범람하는 시대다. CIO는이제 쓸모 없는 AI 기술을 이제 구분하는 능력이 필요하다. 외부 업체들이 대단한 기술이라며 가져온 AI를 차분하게 검토하고 방어하는 전략을 갖추고 있어야 하는 셈이다.
 
ⓒ Getty Images Bank 

인공지능은 최근 몇 달 동안 모든 이가 가장 좋아하는 유행어였다. AI가 꾸준히 발전하면서 수많은 IT 기업이 앞다투어 혁신 기술을 내놓고 있다. 그러나 이에 대해 흥분과 진보만 있는 것은 아니다. AI 워싱(AI washing)과 같은 위험 신호 또한 대두되고 있다. AI라는 횡재 열차에 오르길 바라는 일부 기업은 과대 광고를 통해서도 수익을 올리기 원한다. 따라서 이들은 활용 중인 AI가 실제로는 미미하거나 존재하지 않음에도 불구하고 AI 기능을 과장하기도 한다. 이런 현상을 바로 AI 워싱이라고 부른다. 즉 AI 기술이 제대로 들어가 있지도 않는데 AI 있다고 과장 광고를 하고 하는 것이다. 

마케팅 전략에 문제가 있더라도 AI 워싱을 행하는 기업은 막상 비 AI 기업에 비해 더 큰 시드(seed) 단계, 시리즈 A 및 B 펀딩 라운드를 받을 수 있다. 글로벌 데이터(GlobalData)에 따르면, AI 스타트업은 작년에만 500억 달러 이상의 벤처 캐피털 자금을 조달했다. 챗GPT 등을 둘러싼 엄청난 열기를 감안할 때 올해는 이 수치가 더욱 증가할 것으로 예상된다. 자연스레 AI 워싱 현상은 점점 더 확산될 것이다. 실제로 미국 연방거래위원회(FTC)는 이 위험성을 충분히 인식하고 있으며, AI 기능을 광고할 때 투명하고 정직해야 한다고 벤더에게 경고하기도 했다.

FTC 광고 관행 부서의 변호사 마이클 애틀레손은 “AI 기능을 강조하는 일부 제품의 경우 애초에 광고된 바 대로 작동하지 않을 수 있다. 어떤 경우에는 제품이 어떤 다른 해를 가할 수 있는지와 무관하게 명시된 효과가 없을 수 있다. FTC는 향후 제품 효과를 허위 또는 근거없이 부풀리는 기업을 단속할 것이다. 마케터는 이를 유념하고 있어야 한다”고 설명했다.   

사실 이러한 복잡한 환경에서는 합법적인 AI 솔루션 및 마케팅 전략을 구분하기 어려울 수 있다. 딜로이트 글로벌 AI 연구소의 전무인 비나 암마나스는 “만약 벤더가 AI 기능을 강조해 설명한다면, 어느 정도 회의적인 시각으로 바라봐야 한다. 모든 게 그러하듯, 너무 좋게만 들린다면 정말 실제로 그럴 가능성은 낮다”고 언급했다. 

뉴욕대의 CIO인 도널드 웰치는 “CIO 및 이들이 속한 기업이 AI에 대해 정답을 찾지 못할 경우 프로젝트가 실패되거나 지연된다. 혹은 재정적 손실, 법적 문제, 리스크 하락, 궁극적으로 해고까지 직면할 수 있다”라며 “그런 이유로 임원들이 해고되는 모습을 보아왔는데 아주 잘못된 것이라고 생각하지 않는다. 임원은 책임질 수밖에 없다”고 이야기했다. 

다행히도 이런 AI 워싱에 당하는 상황을 피하기 위해 사용할 수 있는 몇 가지 전략이 있다. 

AI 기반 비즈니스는 전문성 있는 직원이 필요하다
AI를 사용한다고 주장하는 비즈니스를 검증하는 것은 길고 시간이 많이 소요되는 과정일 수 있다. 그러나 링크드인 검색과 같은 간단한 작업을 통해 가치 있는 인사이트를 얻을 수 있다. 

암마나스는 “벤더의 직원들이 가지고 있는 AI 경험 및 교육 수준을 조사하라. AI 솔루션을 개발하는 기업이라면 AI, 머신 러닝, 알고리즘 개발 등에 대한 풍부한 경험을 갖춘 데이터 과학자 및 데이터 엔지니어 같은 인재가 있어야 한다”고 지적했다. 

직원 조사 외에도 CIO는 해당 벤더가 외부 AI 전문가 및 연구기관과 협업을 한 적 있는지 찾아야 한다. 가령 대학과의 파트너십, 산업 컨퍼런스 및 행사 참여, 오픈 소스 AI 이니셔티브에 대한 기여가 있는지 알아보는 것이다. 

또한 벤더가 유사한 프로젝트 혹은 애플리케이션 관련 경험이 있다면, 제대로된 결과를 제공할 확률이 높다. 우크라이나계 미국인 스타트업 맥퍼(MacPaw)의 최고 기술 및 혁신 책임자인 비라 트카첸코는 “벤더의 이력을 세심히 체크하자. 기업이 AI 전문 기업이라면 이 분야에 대한 연구 논문 혹은 기타 AI 제품에 대한 이력이 있을 것이다”라고 설명했다. 

잘 짜여진 데이터 전략을 찾자 
AI를 진정으로 통합하려는 기업은 AI 알고리즘이 있어아 한다. 따라서 신중히 계획된 데이터 전략이 필요하다. 여기서 고품질 데이터가 뒷받침되어야 하며, 데이터가 더욱 풍부하고 관련성이 있을수록 결과는 더욱 개선된다.  

암마나스는 “AI 시스템의 경우, 상당히 많은 양의 데이터가 공급되기 때문에 관련 기업들은 잘 구성된 데이터 전략을 갖추고 있어야 한다. 그들은 데이터가 어느 정도 수집되고 있고 어느 소스에서 수집되고 있는지를 설명할 수 있어다”고 언급했다. 

또한 이러한 기업들이 규제 요구사항을 준수하고, 높은 데이터 개인 정보 보호 및 보안 표준 유지를 위해 충분한 노력을 기울였는지 주목할 필요가 있다. EU 일반정보보호 규정(GDPR) 및 캘리포니아 소비자 프라이버시 보호법(CCPA)과 같은 데이터 개인 정보 보호 규정이 강화됨에 따라 기업은 데이터 관행에 대해 투명하게 공개하고 사적 데이터에 대한 통제권을 개인에게 제공해야 한다. 이를 지키지 않을 경우, 문제가 있는 벤더일 수 있다.

주장을 뒷받침할 증거를 요청하라 
요즘 유행하는 기술에 대해서는 쉽게 혹하게 된다. 그런 상황마다 부드럽게 증거를 요청해보자. 암마나스는 “올바른 질문을 하고 이를 입증할 만한 증거를 요구하라. 제품이 진정으로 AI 기반인지 판단하기 위해 마케팅 및 세일즈용 표현을 제거하는 데 있어 상당히 유요하다”라고 지적했다. 

AI 기반으로 보이는 특정 제품 혹은 서비스를 평가하는 CIO는 모델의 훈련 방식, 사용된 알고리즘 유형, AI 시스템이 새로운 데이터에 적응하게 될 방식에 대해 질문할 수 있다. 

트카첸코는 “어떤 라이브러리 혹은 AI 모델을 사용하고 있는지 벤더에게 질문해야 한다. 오픈AI(OpenAI) API로 만든 기술을 과장해서 홍보하는 기업도 있다”라고 설명했다. 

경영 및 기술 컨설팅 회사인 베어링포인트(BearingPoint)의 파트너이자 글로벌 기술 리더인 마티아스 로저는 이에 동의한다. 그는 구성 요소 및 프레임워크를 철저히 이해해야 하며 평가에는 ‘윤리, 편견, 실현 가능성, 지적 재산권 및 지속 가능성’이 포함되어야 한다고 덧붙인다. 

이러한 질문을 통해 CIO는 해당 제품의 진정한 기능 및 한계점에 대해 더욱 자세히 파악할 수 있으며, 이를 통해 제품 구매 여부를 결정할 수 있다. 

스타트업에 관심을 기울이자
스타트업은 혁신의 선두에 서 있다. 분명 스타트업 대다수는 AI의 잠재력을 극대화하고 있다. 그럼에도 일부 스타트업은 관심 및 수익을 얻기 위해 AI 역량을 과장한다. 

우크라이나계 미국 스타트업 클레이드.ai 바이 렛츠 인헨스(Claid.ai by Let’s Enhance)의 공동 설립자이자 CTO인 블라드 프란스케비치는 “머신러닝 기업의 CTO로 일하는 입장에서 보면 특히 스타트업 커뮤니티에서 AI 워싱 사례를 종종 접한다”고 언급했다. 프란스케비치에 따르면, 최근 이 상황은 점점 더 악화되고 있다. AI가 새로운 골드 러시로 인식되면서 일종의 하이프 사이클(hype cycle) 동안에는 스타트업이 AI 워싱에 몰두하고 있는 것이다. 다만 프란스케비치는 향후 AI 규제가 더욱 강화됨에 따라 가까운 미래에 AI 워싱이 줄어들 것이라고 설명했다. 

기술 전문가의 목소리를 듣자 
기업이 쓸모 없는 AI 솔루션을 이용하는 일은 자주 있다. 이러한 상황에서 CIO가 반드시 책임이 있는 것은 아니다. 뉴욕대의 CIO인 도널드 웰치 “AI 워싱에 당하는 것 자체가 리더십에 문제가 있다는 징후일 수 있다”라며 “마케팅 과대 광고에 현혹되어 IT팀을 무시하면 기술을 잘못 선택하게 되고, IT팀은 수습에 나서야만 하는 상황을 마주한다”라고 언급했다. 

이러한 상황을 방지하기 위해 기업은 기술 전문가의 의견을 존중하고 이들의 주장을 철저히 반영하는 협동적인 문화를 조성해야 한다.  

동시에 CIO 및 기술팀은 자신의 의견이 의사결정 프로세스에 더욱 쉽게 반영될 수 있도록 회사 내에서 명성을 쌓아야 한다. 이를 달성하기 위해 이들은 전문지식, 전문성 및 소프트 스킬을 보여주어야 한다. 

시그마 소프트웨어 그룹(Sigma Software Group)의 최고 혁신 책임자인 맥스 코브턴은 “CIO가 AI 워싱을 감지하는 데 문제가 있다고 보지는 않는다. 더 큰 문제는 비즈니스 이해 관계자 혹은 기업가들이 혁신적이고 최첨단으로 보이기를 원하기 때문에 어떤 형태로든 AI를 활용하도록 강요한다는 점이다. 따라서 올바른 질문은 어떻게 하면 기업가 정신의 압박 아래 AI 워셔(AI washer)가 되지 않을 수 있는가에 대한 것이다”라고 이야기했다. 

유행을 넘어서자 
제품 및 서비스 비교 시에는 이들의 속성을 면밀히 살피며 열린 마음으로 평가하는 게 필수적이다. 트카첸코는 “제품 혹은 서비스가 갖는 유일한 장점이 AI일 경우, 활용 전에 신중히 생각해보아야 한다. AI를 넘어 프로그램의 장점을 이해할 경우에만 가치 제안 및 특징을 연구하고 협업을 시작하는 게 더 낫다”고 지적했다. 

웰치 또한 이에 동의한다. 그는 “이들이 C, C++ 혹은 자바로 작성했기 때문에 시스템을 구매할 것인가? 이들이 코드, 기업 생존가능성 등을 유지할 수 있을 것인가에 대한 실사의 일환으로 이를 이해하고 싶을 수 있다”고 지적했다. 

철저한 평가를 통해 조직은 구매할 계획인 제품 혹은 서비스가 자신의 목표와 일치하고 기대 결과를 제공할 수 있을지 여부를 결정할 수 있다. 

코브턴은 “기술이 복잡할수록 비전문가들은 해당 기술의 적용이 올바르고 타당한지 검증할 수 있을 정도로 이해하기가 어렵다. 회사에 AI 기술을 활용하기로 결정했을 경우, AI 분야에서 경험을 풍부히 쌓아온 전문가와 함께하는 것이 좋다. 그렇지 않을 경우, 이러한 노력을 통해 기대하는 이점을 얻지 못할 수 있다”고 설명했다. 

AI 관련 소식을 주시하자
AI 관련 제품과 이를 둘러싼 이슈에 대한 최신 정보 습득은 CIO가 정보에 입각한 의사결정을 내리는 데 도움이 된다. 이를 통해 이들은 저지를 수 있는 잠재적인 실수를 파악하는 동시에 새로운 아이디어 및 기술을 활용할 수 있다. 

디트로이트시의 CIO인 아트 톰슨은 “아직 교육이 충분치 않다고 생각한다”고 지적했다. CIO가 제공할 수 있는 것 이상의 것을 약속하는 새로운 혹은 실험적 기술의 함정에 빠지지 않도록 충분한 조사를 수행할 것을 그는 권장한다. 그렇게 되면 “제품을 재입찰하고 교체하는 데 걸리는 시간으로 인해 직원은 어떤 변화도 따라잡을 수 없게 된다. 새로운 기술을 배우기 위해 시간을 투자하는 이들의 어려움은 말할 것도 없다”고 설명했다. 

또한 최신 AI 관련 사항에 대한 정보를 습득할 경우 CIO는 규제 변화 및 새로운 업계 표준을 예측할 수 있으며, 이를 통해 이들은 규정을 준수하고 경쟁 우위를 유지할 수 있다. 

또한 CIO만 최신 정보를 습득해야 하는 것은 아니다. 베어링포인트의 로저는 “포트폴리오에 관련 역량을 추가하기 위해 팀을 교육하거나 전문가를 고용하라”고 언급했다.

AI 관련 추가 규제 조치 
도입될 새로운 규제들은 제품 혹은 서비스가 실제 AI 기술을 활용하는지 여부를 결정하는 CIO의 작업을 간소화할 수 있다. 백악관은 최근 AI 시스템을 책임감 있게 설계하기 위한 지침이 포함된 ‘AI 권리장전(AI Bill of Rights)’을 발표한 바 있다. 또한 더 많은 규제가 몇 년 내에 발표될 수 있다. 

암마나스는 “이러한 조치의 전제는 기술로 인한 잠재적 피해로부터 소비자 권리 및 인간을 보호하려는 것이다. 리스크 완화를 위해서는 기술의 잠재적인 부정적 영향을 예측해야 한다”고 설명했다. 

윤리는 사후 고려 사항이 아니다 
기업은 잠재적인 부정적 결과는 축소하고 잠재적인 이점은 강조하며 새로운 기술에 대한 담론에 영향을 미치는 경향이 있다. 

스위스의 세인트 갈렌 대학의 박사후 연구원인 필립 디 살보는 “특정 기술이 유행하게 되면 우리는 이것이 사회에 미칠 수 있는 잠재적으로 해로운 영향을 잠시 잃어버리는 경향이 있다. 연구에 따르면, 기업들은 AI를 중심으로 한 담론을 주도하고 있으며 이러한 기술 결정론적 주장은 여전히 지배적이다”고 지적했다.  

기술이 사회적, 문화적 변화의 주요 원동력이라는 이러한 믿음은 더욱 마케팅 지향적인 주장에 힘을 실어주어 윤리적, 정치적 함의를 둘러싼 논의가 주목받지 못한다. 디 살보가 언급한 바 있듯이, 이는 “이러한 기술 및 생산자들을 더욱 모호하고 무책임하게 만드는, 일종의 논쟁적 모호성(argumentative fog)을 생성한다.”

이를 해결하기 위해 AI가 아닌 것, AI가 할 수 없는 것에 관해 대중에게 소통해야 하는 중요한 도전과제가 있다고 그는 이야기한다. 

디 살보는 “오늘날 챗GPT를 포함해 대부분의 AI 애플리케이션은 기본적으로 규모에 맞는 통계 및 데이터 분석 애플리케이션을 중심으로 구축된다. 지루한 정의처럼 들릴 수도 있다. 하지만 이는 ‘인공지능’의 정의에서 ‘지능’이 가리키는 것에 대한 잘못된 해석을 피하는 데 도움이 된다. 가설적이고 추측적인 장기주의 시나리오가 아닌 편견, 사회적 분류 및 기타 문제와 같은 실질적 문제에 주안점을 둘 필요가 있다”고 지적했다. 
ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.