Offcanvas

AI / 클라우드

칼럼 | 생성형 AI 성장은 클라우드를 타고

2024.04.17 Lucas Mearian  |  Computerworld
앞으로 생성형 AI 모델은 기업별로 구체적으로 정의된 요구 사항과 예산에 맞게 규모가 축소될 것으로 예상된다. 하지만 여전히 많은 서비스 제공업체가 클라우드에 기반한 AI 서비스를 통해 수익 창출 경로를 모색하고 있다. 
 
ⓒ Getty Images Bank

최근 아마존 CEO 앤디 재시는 주주들에게 보낸 연례 서한에서 아마존이 소비자 대상 생성형 AI 애플리케이션 구축에 주력하기보다는 웹 서비스를 통해 기업 고객에게 판매할 수 있는 AI 모델을 제공하는 데 집중할 것이라고 밝혔다. 

재시는 "때때로 사람들은 마켓플레이스, 프라임, AWS가 있는데 그 다음 기둥은 무엇인지 묻는다. 오늘 이 질문을 받는다면 생성형 AI를 선도하겠다고 답할 것이다. 세상을 바꾸는 이 AI의 상당 부분이 AWS를 기반으로 구축될 것으로 낙관한다"라고 썼다. 

AI 서비스에 대한 재시의 기대는 틀리지 않았다. IDC가 2,000명 이상의 IT 및 현업 부서 의사 결정권자를 대상으로 실시한 설문조사에 따르면, 기업은 향후 1년 반 동안 AI 이니셔티브에 2022년보다 10~15% 더 투자할 계획이라고 답했다. 
 

AI 성장은 클라우드를 타고

아마존은 지난해 가을 기업이 생성형 AI 애플리케이션을 구축할 수 있도록 AWS 클라우드를 통해 다양한 LLM을 제공하는 베드락(Bedrock)을 출시했다. 최근에는 클라우드 기반 AI 지원 소프트웨어 코딩 어시스턴트인 아마존 Q(Amazon Q)를 발표했다.

아마존 베드락은 단일 API를 통해 아마존 자체 LLM과 함께 AI21 랩스(AI21 Labs), 앤트로픽(Anthropic), 코히어(Cohere), 메타, 미스트랄 AI(Mistral AI), 스태빌리티 AI(Stability AI)의 파운데이션 모델을 제공한다. 현재 아마존의 AI 클라우드 고객 목록에는 ADP, 델타항공, 고대디(GoDaddy), 인튜이트(Intuit), 화이자, 지멘스가 포함된다.

클라우드 컴퓨팅은 생성형 AI 애플리케이션을 기업에 제공하는 다른 모든 방법을 앞서고 있다. 독점 인프라 구축에는 많은 비용이 들기 때문이다. AWS, 구글, IBM, 마이크로소프트, 오라클은 오픈AI가 2022년 11월 챗GPT를 출시하며 생성형 AI 도입의 불씨를 지핀 이후 AI 클라우드 제품에 수십억 달러를 투자했다.

가트너 수석 애널리스트 아비바 리탄은 "하이퍼스케일러와 초대형 기업 외에는 초대형 LLM과 파운데이션 모델을 훈련하고 운영할 여력이 없다. 그 비용은 수억 달러에 달한다"라고 지적했다. 

리탄이 말하는 '초대형'이란 1,000억 개 미만의 매개변수가 있는 모델과 달리 수천억 개의 매개변수가 있는 모델을 의미한다. 클라우드 서비스를 통해 제공되는 LLM을 사용하면 "기업에서 비교적 관리하기 쉬우며 현재로서는 하이퍼스케일러가 보조금을 지급하고 있다"라고 리탄은 덧붙였다. 

하지만 기업이 생성형 AI 애플리케이션의 파일럿 프로젝트 수를 계속 늘리면 클라우드 서비스 비용이 걸림돌이 될 수 있다. 이를 위해 많은 기업이 특정 작업만 처리하기 위한 소규모 온프레미스 LLM을 구축하려고 하는 추세다. 이에 따라 더 많은 데이터로 훈련된 소규모 도메인별 모델이 결국 오픈AI의 GPT 4, 메타의 라마 2(Llama 2), 구글의 팜 2(PaLM 2) 등 오늘날의 주요 LLM의 지배력에 도전하게 될 전망이다. 언스트앤영의 글로벌 AI 컨설팅 리더 댄 디아시오는 소규모 모델이 특정 사용례를 위해 훈련하기에도 더 용이할 것이라고 설명했다.


클라우드 기반 AI의 미래

가트너 리서치에 따르면, 오는 2025년까지 데이터 품질 저하, 부적절한 리스크 관리, 비용 증가, 불분명한 비즈니스 가치 등으로 인해 PoC(Proof of Concept) 후 포기되는 생성형 AI 프로젝트가 30%에 달할 것으로 전망된다. 2028년까지 자체 LLM을 처음부터 구축한 기업의 절반 이상이 비용, 복잡성, 기술 부채로 인해 구축 노력을 포기할 것이라는 예측도 있다. 

또한 최근 보고서에서 가트너는 혁신과 LLM 개발, 교육, 운영의 높은 비용을 전가하는 오늘날 공급업체 가격 모델로 인해 기업이 AI 프로젝트에서 ROI를 실현하지 못할 수 있다고 지적했다. 가트너는 초기 시장 점유율을 확보하고자 하는 공급업체가 보조금을 지급하더라도 투자금을 빨리 회수하기에는 부족한 경우가 많다고 지적했다. 따라서 기업은 생성형 AI를 통한 생산성 향상과 ROI에 대해 장기적인 접근 방식을 취해야 한다.

포레스터 리서치의 수석 애널리스트 리 서스타는 AWS 베드락, 애저 AI, 구글 클라우드 버텍스와 같은 제품이 진입 장벽을 낮춤으로써 클라우드를 통한 AI 서비스가 계속 성장할 것이라고 바라봤다.

서스타는 "클라우드의 데이터 중력을 고려하면 클라우드가 학습 데이터를 저장하기 가장 쉬운 곳이다. 엣지에서는 소규모 LLM과 AI 추론에 대한 많은 사용례가 있을 것이며, 클라우드 제공업체는 수년 동안 데이터 과학자들이 사용해온 쿠버네티스 플랫폼을 통해 자체 구축형 AI 플랫폼 옵션을 계속 제공할 것이다. 이런 구현 중 일부는 레드햇 오픈시프트 AI와 같은 플랫폼의 데이터센터에서 이루어질 것이다. 한편, 코어위브(Coreweave)와 같은 새로운 GPU 중심 클라우드가 3번째 옵션을 제공할 것이다. 아직은 초기 단계이지만 클라우드 제공업체의 매니지드 AI 서비스는 AI 생태계의 중심이 가능성이 크다"라고 덧붙였다. 

리탄에 따르면 더 작은 규모의 LLM이 곧 출시될 예정이지만, 그렇다 하더라도 기업들은 여전히 초대형 LLM에 액세스해야 할 때 대기업의 AI 클라우드 서비스를 사용할 것이다. 동시에 기업은 일반 노트북만큼 작은 하드웨어 실행되는 소형 LLM을 사용하게 된다는 전망이다.

또한 리탄은 "이런 환경에 필요한 개인정보 보호, 보안 및 위험 관리 서비스와 함께 이런 구성을 지원하는 서비스 회사가 등장할 것이다. 매우 큰 파운데이션 모델을 제공하는 클라우드 서비스와 원하는 GPU/CPU에서 소규모 파운데이션 모델을 제공하는 프라이빗 클라우드 서비스라는 2가지 모델에 대한 여지가 충분히 있을 것"이라고 덧붙였다. 

아마존의 초기 AI 클라우드 서비스는 개발자와 엔지니어가 AI/ML 모델을 구축, 학습, 배포할 수 있는 통합 개발 환경(IDE)인 세이지메이커(Sagemaker)였다.

재시는 "'베드락'은 불과 몇 달 만에 수만 명의 활성 고객을 확보하며 매우 순조로운 출발을 보이고 있다. 온프레미스 인프라가 클라우드로 대규모로 현대화되는 것과 달리, 생성형 AI 혁명은 처음부터 클라우드 위에 구축될 것"이라고 강조했다.
editor@itworld.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.