비즈니스가 생성형 AI 도구와 플랫폼을 통해 어떤 이점을 얻을 수 있는지 이해하는 것은 중요하다. 하지만 먼저 몇 가지 어려운 결정을 내려야 하며, 그다음에는 생성형 AI가 ‘스스로’ 망가지지 않기를 바라야 한다.
생성형 AI에 대한 기업의 인식은 미묘하거나 아직 균형 잡히지 않은 것이 분명하다.
몇 달 동안 거의 모든 이들이 생성형 AI로 온갖 비즈니스 및 글로벌 문제를 해결할 수 있을 것이라고 생각했다. 그러자 여러 보고서와 전문가들이 “효과가 없을 것이다”, “거품이 꺼지고 있다”, “수치화되지 않았다”라며 주장하고 나섰고, 현실의 무게추는 반대 방향으로 기울었다.
가트너가 “2025년 말까지 데이터 품질 저하, 부적절한 리스크 관리, 비용 증가 또는 불분명한 비즈니스 가치로 인해 최소 30%의 생성형 AI 프로젝트가 개념 증명 후 포기될 것”이라고 언급한 보고서 내용을 생각해 보라. 시험 테스트에서 살아남는 다른 IT 프로젝트의 비율도 이와 거의 같다는 사실은 가트너 통계에 언급되지 않았다. 따라서 생성형 AI가 더 열악하다는 이유도 아직 명확하지 않다.
물론 마이크로소프트에 비용을 내고 직원 500명에게 코파일럿을 사용하게 한 제약회사의 CIO가 6개월 만에 ‘중학교 프레젠테이션’ 수준의 슬라이드를 제공했다며 프로젝트를 취소했다는 보도도 있다.
실상은 이 2가지 견해가 모두 틀렸다는 것이다. 생성형 AI 도구는 분명 가치가 있지만 쉽게 사용할 수 있는 것은 아니다. 이를 위해 IT 부서는 더 많은 숙제를 해결해야 한다.
어떤 종류의 숙제일까?
데이터 정리: 최근 에이전틱 RAG 전략에 대해 언급하면서 밝혔듯 많은 기업이 끔찍한 데이터로 인해 어려움을 겪는다. 오래되고, 오류가 많고, 모호한 출처에서 얻은 데이터일 뿐만 아니라, 있어서는 안 되는 민감한 데이터(PII 및 상태 데이터 등)가 의도치 않게 포함돼 있을 수 있다. 데이터 기반이 엉망이면 생성형 AI의 마법도 작동하지 않는다. 팀이 깨끗한 데이터를 생성하도록 해야 AI의 ROI를 실현할 수 있다.
이상적인 프로젝트 선택: 먼저 팀과 생성형 AI의 세부 사항에 대해 논의하고 이 기술이 유용한 부분을 파악하라. 생성형 AI는 실제로 거의 모든 것을 처리할 수 있지만, 정말 잘 처리할 수 있는 부분은 아주 작다. 또한 경영진이 실험 삼아 생성형 AI의 역량을 보고 싶어하기 때문에 너무 많은 프로젝트가 선정됐을 수 있다. 생성형 AI에 공평한 기회를 주고 싶다면 훨씬 더 신중하게 선택해야 한다.
환각(hallucination)의 안전지대 평가: 가장 중요한 부분이다. 생성형 AI는 환각을 일으키며, 그것도 예측할 수 없는 상태에서 문제를 일으킬 것이다. 모건스탠리가 시도하고 있는 것처럼 AI를 사용해 AI를 재확인하거나 생성형 AI가 사용할 수 있는 데이터 소스를 제한하는 등 환각을 줄이기 위해 배포할 만한 메커니즘이 있다.
하지만 환각을 완전히 멈출 수는 없다. 심지어 환각을 의미 있게 줄일 수 없다고 주장하는 사람들도 많다. 이런 오류를 어떻게 처리할지는 어려운 문제다. 몇 가지 노골적인 거짓말을 용인할 수 있는 업무는 무엇인가? 그렇다고 고객 서비스 챗봇과 같이 고객을 대면하는 모든 업무에서 사용을 금지해야 하는가?
생성형 AI를 사용해 문서나 회의 내용을 요약하는 데도 조율이 필요하다. 효율성이 사라지기 전에 사람의 감독을 어느 정도까지 적용할 수 있을까? 한 가지 방법을 고려할 수 있다. 생성형 AI의 이점을 누릴 만큼 복잡하지만 거짓이나 오류가 거래를 방해하지 않는 수준의 프로젝트를 파악하는 것이다. 여기에는 무엇이 있을까?
현실적인 ROI 목표 설정
현업 부서 책임자는 CFO나 최소한 부서 총책임자를 통해 제시된 ROI 목표를 실행하는 데 익숙하다. 그러나 생성형 AI를 도입할 때는 이 기술이 무엇을 할 수 있고 할 수 없는지 잘 알고 있는 IT 전문가와 함께 확인하는 것이 필수적이다.
IT 부서가 기술 관점에서 합리적인 목표를 승인할 때까지는 숫자를 계산하는 사람과 논의하지 말고 생성형 AI 전문가와 함께 시작할 것을 추천한다.
CFO 사무실에 가져가고 싶은 프로젝트인가? 생성형 AI 무엇을 할 수 있는지 알아보기 위한 실험(이 시점에서는 완벽히 합리적인 목표)이라면, 아직 스프레드시트상의 ROI는 필요하지 않을 수 있다.
생성형 AI 전략을 추적하는 가트너의 수석 부사장 겸 애널리스트 리타 살람은 CIO가 ROI 기준을 생성형 AI에 적용하려고 할 때 당연히 좌절감을 겪을 수 있다고 말했다. 그는 “실제 가치는 아직 손에 잡히지 않는다. 데이터에 대한 추가 작업이 필요하고, 개념 증명은 가치 증명과 함께 이뤄져야 한다. 올바른 데이터, 올바른 가드레일이 부족하거나 가치를 제대로 입증할 수 없기 때문에 실패하는 비율도 일정 부분 존재한다. 기업은 때때로 생성형 AI의 성공에 필요한 토대를 인정하지 않는다”라고 지적했다.
한편 또 다른 업계 AI 전문가인 와이어스피드 CTO 제이크 레이놀즈는 “이제 통계와 수학에서 벗어나 ‘술 취한 갓난아기’를 통해 결정을 내린다는 사실을 알게 돼 얼마나 흥분됐는지 모른다”라며 생성형 AI의 의사 결정 방식을 직설적으로 비판했다.
환각의 개념
일부 전문가는 환각 개념이 적절하게 처리되고 있는지에 의문을 제기했는데, 이는 대부분 소프트웨어에 책임을 돌리기 때문이다. 생성형 AI의 환각이 반드시 오작동을 의미하진 않는다. 프로그래밍된 대로 정확하게 작동하는 것이다.
이와 관련해 심볼제로의 CEO 라파엘 브라운은 “생성형 AI는 환각이 전부다. 파스타와 소스를 모두 벽에 던지고 무엇이 달라붙는지 기다리는 것과 같다. 생성형 AI는 보는 사람이 좋아하는 것과 싫어하는 것을 기반으로 이뤄진다. 진정한 운율이나 이유는 없고, 진정한 구조, 맥락, 시뮬레이션 또는 프로세스가 없다. 기술, 통찰력, 감정, 판단력, 영감, 종합, 반복, 수정, 창조도 없다. 마치 단어 섞기나 생성기 같은 것이다. 스크래블(Scrabble)이나 보글(Boggle) 게임만큼 유익하지도 않다. 비즈니스, 미래, 창작물을 ‘AI 매드 리브(AI Mad Libs, AI 애드립 생성기)’에 모두 맡긴다고 생각하면 된다”라고 비판했다.
어떤 이들은 생성형 AI가 스스로 데이터를 먹기 시작하면서 모든 현실 기반 데이터가 사라져 버릴 것이라고 말했다. 윌리 출판사의 콘텐츠 보호 담당 수석 디렉터인 파스칼 헤츠숄트는 “챗GPT 4와 같은 모델은 관련성과 유용성을 유지하기 위해 새로운 데이터를 지속적으로 재학습해야 한다. 생성형 AI는 이미 자신의 결과물이나 다른 AI 결과물을 학습해 스스로 살아 움직이기 시작했다”라고 말했다.
헤츠숄트는 “이것이 문제인 이유는 인간이 만든 콘텐츠가 아닌 AI 생성 콘텐츠의 패턴을 인식하기 시작했다는 의미이기 때문이다. AI는 비생산적인 방식으로 스스로를 최적화하는 함정을 낳을 수 있다. 또한 AI 콘텐츠에서 보는 패턴이 인간 콘텐츠의 패턴과 직접적으로 상반돼 매우 불규칙하고 불안정한 결과를 초래할 수 있으며, 결과적으로 AI를 쓸모없게 만들 수도 있다. 이를 모델 붕괴라고 한다”라고 설명했다.
헤츠숄트는 “생성형 AI 모델이 자체 결과물로 몇 번의 학습을 거치면 완전히 쓸모없고 말도 안 되는 결과를 출력할 수 있다는 연구 결과가 있다. 실제로 연구팀이 테스트한 어느 AI는 이 과정을 9번만 거쳐도 완전히 반복되는 내용만 출력했다. 생성형 AI는 주로 자체적으로 생성한 데이터에서 학습할 가능성이 높으며, 2026년이면 모델 붕괴가 일어날 수 있다”라고 말했다.
그는 다소 비관적인 결론을 내며 “이것이 바로 AI의 역설이다. 사용하면 할수록 더 나빠진다는 것이다. 이 기술을 중심으로 산업이나 디지털 사회 시스템을 구축해서는 안 되는 이유다. 이는 곧 무너지고, 경제와 디지털 생활은 속이 빈 썩은 나무처럼 다음 폭풍에 의해 쓰러지기만을 기다리게 될 수 있기 때문이다”라고 덧붙였다.
* Evan Schuman은 리테일 기술 사이트 StorefrontBacktalk의 설립자 겸 편집자이며 CBSNews.com, RetailWeek, Computerworld, eWeek의 칼럼니스트로 활동했다. ciokr@idg.co.kr