Offcanvas

AI / 머신러닝|딥러닝 / 보안

“생성형 AI 보안성 높이자”··· 구글, AI 보안 프레임워크 SAIF 공개

2023.06.12 Michael Hill  |  CSO
구글이 발표한 보안 프레임워크 SAIF는 모델 도용, 학습 데이터 중독(잘못된 결과를 이끌기 위해 학습시키는 데이터), 악의적 인젝션 등 AI 시스템과 관련된 위험성을 줄이기 위해 만들어졌다. 
 
ⓒ Getty Images Bank 

구글이 AI 보안을 위한 개념적 프레임워크인 ‘시큐어 AI 프레임워크(Secure AI Framework, SAIF)’를 8일 발표했다. 최근 챗GPT 경쟁 기술인 바드(Bard)를 공개하고 자회사 딥마인드와 적극 협력하는 등 생성형 AI 기술에 투자 중인 구글은 공식 블로그를 통해 “공공 및 민간 모두를 아우르는 프레임워크는 반드시 필요하다. 프레임워크로 기술 개발 주체가 책임감을 갖고 AI 기술을 보호할 수 있다. 이를 통해 AI 발전을 지원하고, AI 모델이 구현될 때 보안성을 높일 수 있다. SAIF는 이러한 관점에서 중요한 기술”이라고 설명했다.

다시 말해 SAIF는 AI 시스템과 관련된 위험을 완화하는 방안을 제시한 것이다. 주로 모델 도용, 학습 데이터의 오염, 프롬프트 통한 악의적 입력, 학습 데이터의 기밀 유출 같은 위험을 제거하기 위해 필요한 요소를 포함하고 있다 . 구글은 “AI 기능이 전 세계 제품에 점점 더 많이 통합됨에 따라 명확하고 책임성을 부여하는 프레임워크를 준수하는 것이 더욱 중요해질 것”이라고 설명했다.

이번 발표는 최근 확산되는 생성형 AI의 발전과 관련된 보안 문제점에 대한 논의가 심화되면서 나왔다. 가령 데이터 학습 과정에서 민감한 기업 데이터가 유출되는 문제나 해커가 공격을 진화시키기 위해 AI를 이용하는 부분에 대해 우려가 존재한다.

국제 웹보안 분야 비영리 재단인 OWASP는 AI 챗봇의 기반이 되는 대규모 언어 모델(LLM) 애플리케이션에서 발견된 가장 중요한 취약점 10가지를 발표하기도 했다. 취약점의 예로는 프롬프트 인젝션, 데이터 유출, 부적절한 샌드박싱, 무단 코드 실행 등이 있다. 
 
SAIF의 6가지 원칙
구글의 SAIF는 오픈소스 기반 보안 프레임워크 'SLSA'와 구글의 제로 트러스트 모델 '비욘드코프(BeyondCorp)'를 참고해서 개발됐다. 특히 다음과 같은 6가지 요소를 기반으로 한다. 

ㆍ기본 보안 인프라 보호 기능을 활용하는 등 강력한 보안 기반을 AI 에코시스템으로 확장.
ㆍ생성형 AI 시스템의 입출력을 모니터링하여 이상 징후를 감지하고 위협 인텔리전스를 사용하여 공격을 예측. 이를 통해 AI를 기반으로 한 조직의 위협 탐지 및 대응을 확장.
ㆍ기존 위협과 새로운 위협에 대응할 수 있도록 방어를 자동화하여 보안 인시던트에 대한 대응 노력의 규모와 속도를 개선.
ㆍ플랫폼 수준의 제어를 통합하여 기본 보안 보호 기능을 버텍스 AI(Vertex AI) 및 시큐리티 AI 워크벤치(Security AI Workbench)와 같은 AI 플랫폼으로 확장하고 소프트웨어 개발 라이프사이클에 제어 및 보호 기능을 구축하는 등 일관된 보안을 보장.
ㆍ인시던트 및 사용자 피드백에 기반한 강화 학습과 같은 기술을 통해 제어를 조정하여 완화 조치를 조정하고 AI 배포를 위한 더 빠른 피드백 구조를 생성.
ㆍ데이터 계보, 유효성 검사, 특정 유형의 애플리케이션에 대한 운영 행동 모니터링과 같은 엔드투엔드 비즈니스 위험 평가를 포함하여 관련 비즈니스 프로세스에서 AI 시스템 위험의 맥락을 제공.

AI 보안 연구를 위한 버그 바운티 프로그램을 확대
구글은 SAIF를 확산하기 위해 여러 활동을 펼칠 예정이다. 먼저 향후 몇 달 내에 주요 파트너 및 기여자를 공개해 SAIF에 대한 업계 지원을 강화한다. 또한 업계 최초의 AI 인증 표준인 NIST AI 위험 관리 프레임워크ISO/IEC 42001 AI 관리 시스템 표준을 개발하기 위해 업계와 지속적으로 협력할 예정이다. 여기에 고객 및 정부를 포함한 조직과 직접 협력하여 AI 보안 위험을 평가하고 완화하는 방법을 이해할 수 있도록 지원할 계획이다. 구글은 “실무자와 함께 워크숍을 진행하고 AI 시스템을 안전하게 배포하기 위한 모범 사례를 꾸준히 게시할 것”이라고 밝혔다. 

또한, 구글은 AI 시스템과 관련된 사이버 활동에 대해 보안 기업인 맨디언트(Mandiant), 태그(TAG) 등과 협업해 인사이트를 공유하고, 버그 헌터 프로그램(구글의 ‘취약점 리워드 프로그램’ 포함)을 확대하여 AI 안전 및 보안 관련 연구에 대한 보상과 인센티브를 제공할 것이라고 밝혔다. 마지막으로, 구글은 깃랩(GitLab) 및 코히시티(Cohesity) 같은 파트너 기업과 함께 안전한 AI 제품을 지속적으로 제공하고, 고객이 안전한 시스템을 구축할 수 있도록 새로운 기능을 더욱 개발한다고 밝혔다. 
ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.