Offcanvas

AI / 머신러닝|딥러닝

AWS, 생성형 AI로 구축할 수 있는 새로운 도구 발표

2023.04.14 편집부  |  CIO KR
AWS가 생성형 AI로 구축할 수 있는 새로운 도구를 14일 발표했다. AWS는 아마존 베드록(Amazon Bedrock)과 아마존 타이탄(Amazon Titan) 모델, AWS 트레이니엄(AWS Trainium)으로 구동되는 아마존 EC2 Trn1n 인스턴스(Amazon EC2 Trn1 instances)와 생성형 AI를 위한 가장 비용 효율적인 클라우드 인프라인 AWS 인퍼런시아2(AWS Inferentia2)로 구동되는 아마존 EC2 Inf2 인스턴스(Amazon EC2 Inf2 instances), 개별 개발자에 무료 제공되는 코드위스퍼러(Amazon CodeWhisperer)를 출시했다.

AWS 데이터베이스, 분석, 머신러닝 부문 부사장인 스와미 시바수브라마니안은 “AWS는 ML을 대중화하고, 모든 사람이 ML에 액세스할 수 있도록 기여해왔다”며, “이번 발표로 고객들이 AWS에서 생성형 AI를 사용해 어떤 변화를 구축할지 매우 기대하고 있으며, 모든 기술 수준의 개발자와 모든 규모의 조직이 생성형 AI를 사용하여 혁신할 수 있도록 적극적으로 지원할 것”이라고 밝혔다. 
 

생성형 AI는 대화, 스토리, 이미지, 동영상, 음악 등 새로운 콘텐츠와 아이디어를 생성할 수 있는 AI 유형이다. 모든 AI와 마찬가지로 생성형 AI는 방대한 양의 데이터에 대해 사전 훈련되고 일반적으로 기반 모델(Foundation Model, 이하 FM)이라고 불리는 대규모 ML 모델에 의해 구동된다. 

AWS는 AI21 랩스, 앤트로픽, 스태빌리티 AI와 아마존의 FM을 API를 통해 액세스할 수 있게 해주는 신규 서비스 아마존 베드록을 발표했다. 고객이 FM을 사용해 생성형 AI 기반 애플리케이션을 구축, 확장할 수 있는 가장 쉬운 방법인 베드록은 모든 빌더에 액세스를 제공한다. 베드록은 확장 가능하고 안정적이며 안전한 AWS 관리형 서비스를 통해, 발표하는 두 개의 새로운 LLM(대규모 언어 모델)으로 구성된 아마존 타이탄 FM을 포함해 텍스트와 이미지를 위한 다양한 종류의 강력한 FM에 액세스할 수 있는 기능을 제공한다. 

베드록의 서버리스 경험을 통해, 고객은 인프라를 관리할 필요 없이 익숙한 AWS 도구와 기능(다양한 모델을 테스트하기 위한 ‘실험’과 FM을 대규모로 관리하기 위한 ‘파이프라인’과 같은 아마존 세이지메이커 ML 기능과의 통합 포함)을 사용해 수행하려는 작업에 적합한 모델을 쉽게 찾고, 빠르게 시작하고, 자체 데이터로 FM을 맞춤화하고 각 애플리케이션에 쉽게 통합, 배포할 수 있다.

트레이니엄으로 구동되는 Trn1 인스턴스는 다른 모든 EC2 인스턴스에 비해 훈련 비용을 최대 50% 절감할 수 있으며, 800Gbp(초당 기가비트)의 2세대 EFA(Elastic Fabric Adapter) 네트워킹과 연결된 여러 서버에 훈련을 배포하도록 최적화됐다. 고객은 페타비트 규모의 네트워킹을 통해 동일한 AWS AZ(가용 영역)에 위치한 최대 3만개의 트레이니엄 칩(6엑사플롭 컴퓨팅 이상)까지 확장할 수 있는 울트라클러스터(UltraCluster)에 Trn1 인스턴스를 배포할 수 있다. 

헬릭슨, 머니포워드, 아마존 서치 팀을 비롯한 많은 AWS 고객은 Trn1 인스턴스를 사용해 최대 규모의 딥 러닝 모델을 훈련하는 데 필요한 시간을 몇 달에서 몇 주 또는 며칠로 줄이는 동시에 비용을 절감할 수 있다. 800Gbps는 많은 대역폭이지만 AWS는 더 많은 것을 제공하기 위해 지속적으로 혁신해 왔으며, 그 결과 1,600Gbps의 네트워크 대역폭을 제공하고 네트워크 집약적 대규모 모델을 위해 20% 더 높은 성능을 Trn1을 통해 제공하도록 설계된 네트워크에 최적화된 새로운 Trn1n 인스턴스를 출시한다고 발표했다. 

AWS는 미래 ML 비용의 대부분이 추론 실행에서 발생할 것임을 예상했기 때문에, 몇 년 전 새로운 칩에 투자하기 시작했을 때 추론에 최적화된 실리콘을 우선시했다고 밝혔고, 2018년에 AWS는 추론에 특화된 칩인 인퍼런시아를 발표했다. 매년 인퍼런시아는 아마존이 수조 건의 추론을 실행하면서 수억 달러를 절약하도록 돕는다. 

AWS는 수천억 개의 매개변수가 포함된 모델을 가진 대규모 생성형 AI 애플리케이션에 최적화된 AWS 인퍼런시아2 기반 Inf2 인스턴스의 출시를 발표했다. Inf2 인스턴스는 이전 세대 인퍼런시아 기반 인스턴스에 비해 최대 4배 높은 처리량과 최대 10배 낮은 지연 시간을 제공한다. 또한 가속기 간에 초고속 연결성을 통해 대규모 분산 추론을 지원한다. 이러한 기능을 통해 다른 유사 아마존 EC2 인스턴스 대비 최대 40% 높은 추론 가격 대비 성능과 클라우드에서 최저 추론 비용을 제공한다. 런웨이와 같은 고객은 Inf2를 사용해 일부 모델에서 유사한 아마존 EC2 인스턴스보다 최대 2배 더 높은 처리량을 경험하고 있다. 이러한 고성능 저비용 추론을 통해 런웨이는 더 많은 기능을 도입하고, 더 복잡한 모델을 배포하며, 궁극적으로 런웨이를 사용하는 수백만 명의 크리에이터에게 더 나은 경험을 제공할 수 있다고 업체 측은 설명했다. 

AWS는 파이썬, 자바, 자바스크립트, 타이프스크립트, C# 외에도 고(Go) 코틀린(Kotlin), 러스트(Rust), PHP, SQL을 포함한 10개의 새로운 언어용 아마존 코드위스퍼러의 출시를 발표했다. 코드위스퍼러는 VS Code, IntelliJ IDEA, AWS Cloud9 등과 같은 IDE에서 AWS 툴킷 IDE(AWS Toolkit IDE) 익스텐션을 통해 액세스할 수 있다. 

코드위스퍼러는 AWS 람다(AWS Lambda) 콘솔에서도 사용할 수 있다. 공개적으로 사용 가능한 수십억 줄의 코드에서 학습하는 것 외에도, 코드위스퍼러는 아마존 코드에 대한 훈련을 받았다. 코드위스퍼러는 아마존 EC2, AWS 람다, 아마존 S3를 비롯한 AWS 서비스용 코드를 생성하는 가장 정확하고 빠르고 안전한 방법이 될 것이라고 업체 측은 설명했다. ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
AWS
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.