Offcanvas

AI / 머신러닝|딥러닝 / 비즈니스|경제 / 애플리케이션

NIST, AI 위험 관리 프레임워크 마련

2022.04.14 Cynthia Brumfield  |  CSO
AI 애플리케이션은 작업 효율을 높이는 업무 자동화, 쇼핑 추천 목록 재구성, 신용 승인, 이미지 처리, 예측 순찰과 같은 다양한 영역으로 확장되고 있다. 더불어 AI 애플리케이션을 수용하는 기업 및 정부 기관의 움직임도 빨라졌다.
 
ⓒ Getty Images Bank

다른 디지털 기술과 마찬가지로 AI 기술에는 여러 전통적인 보안 취약점이 있으며, 개인정보 보호/편견/불평등/안전과 같은 새로운 문제점도 존재한다. 이에 따라 미국표준기술연구소(NIST)는 AI와 관련한 위험을 잘 관리하기 위해 ‘AI 위험 관리 프레임워크(Artificial Intelligence Risk Management Framework, AI RMF)’를 마련하고 있다. AI RMF는 기업이 AI 제품, 서비스 및 시스템의 설계/개발/사용/평가에 신뢰성을 통합하는 능력을 높이는 데 목적이 있다.

AI RMF의 초안은 2021년 12월에 NIST가 발표한 개념서를 기반으로 한다. NIST는 AI RMF를 통해 AI 기반 시스템의 위험이 다른 영역과 어떻게 다른지 설명하고, 수많은 이해관계자가 이런 위험을 의도적으로 해결할 수 있기를 희망한다. NIST는 “기존 규정, 법률 또는 기타 의무 지침을 포함해 프레임워크에서 다룬 것을 넘어서 규정 준수 고려사항을 매핑하는 데 사용될 수 있다”라고 말했다.

AI 기술은 NIST가 다른 프레임워크에서 다루는 것과 동일한 위험에 노출되어 있지만, 일부 위험 ‘격차’ 또는 우려 사항은 AI 기술에만 한정된 것이다. AI RMF는 이런 격차를 해결하고자 한다. 


AI 이해관계자 그룹 및 기술적 특성

NIST는 프레임워크와 관련된 이해관계자를 AI 시스템 이해관계자, 운영자 및 평가자, 외부 이해관계자, 일반 등 4가지 그룹으로 분류했다. AI 시스템과 관련된 위험을 식별하고 관리하기 위한 포괄적인 접근 방식으로 고려해야 하는 특성은 기술적 특성, 사회 기술적 특성, 지도 원칙 3가지로 분류했다. 

기술적 특성은 AI 시스템 설계자와 개발자가 직접 통제하는 요소를 말하며, 정확성/신뢰성/탄력성과 같은 표준 평가 기준으로 측정할 수 있다. 사회 기술적 특성은 설명 가능성(explainability), 개인정보 보호, 안전, 관리 편향처럼 개인과 집단, 사회적 맥락에서 AI 시스템이 어떻게 사용되고 인식되는지를 의미한다. 지도 원칙은 공정성, 책임성, 투명성과 같은 사회적 우선순위를 나타내는 광범위한 사회 규범과 가치를 가리킨다.

NIST의 다른 프레임워크와 마찬가지로 AI RMF는 AI 위험 관리 활동을 구성하는 3가지 요소(기능, 범주, 하위 범주)를 핵심적으로 다룬다. 이들 3가지 요소는 AI 위험을 매핑, 측정, 관리, 통제하는 기능으로 구성되어 있다. 프로파일을 통해 제공하는 특정 사용 사례에 대한 컨텍스트는 추후 실무 지침과 함께 작업될 예정이다.

NIST는 3월 중순 초안 프레임워크를 공개한 데 이어, 3월 말에는 AI 기술의 유해한 편향 완화에 대한 심층적인 연구를 비롯해 AI RMF의 모든 측면을 논의하기 위해 3일간의 워크숍을 개최했다.


AI 위험 매핑 : 컨텍스트가 중요하다

AI 매핑과 관련해 카네기멜론대학교 교수 레이드 가니는 워크숍에서 “여전히 컨텍스트와 활용 사례, 배포 시나리오 등을 파악해야 한다. 이상적인 세계에서는 이런 모든 일이 시스템 구축 시 일어나야 한다”라고 말했다.

AHIP(America’s Health Insurance Plans) 부사장 마릴린 지그문드 루크는 “다양한 컨텍스트와 구조를 감안할 때 위험은 개인과 기업마다 다를 것이다. 이 모든 것을 위험 평가 측면에서 이해하려면 처음부터 몇 가지 다른 매개 변수를 구축해야 한다”라고 조언했다.


AI 활동 측정 : 신기술이 필요하다

AI 시스템에 내재된 사회적 또는 정치적 윤리와 관습의 복잡성 때문에 AI 관련 활동을 측정하는 기술은 여전히 초기 단계다. 캘리포니아대학교 샌디에이고 캠퍼스의 데이비드 댕크스는 “오늘날의 측정 기능은 본질적으로 인간이 알게끔 위임한 것이 많다. 특정한 컨텍스트에서 어떤 것이 편향적이라는 것은 무엇을 의미할까? 관련 값은 무엇인가? 근본적으로 위험은 인간이나 기업의 가치에 대한 위협이기 때문에 가치를 형식적으로 명시하기는 어렵다”라고 설명했다.

AI 안전 및 리서치 업체 앤스로픽(Anthropic)의 공동 창업자 잭 클라크는 AI의 등장으로 AI 기술 자체의 창조로 이상적으로 형성된 새로운 지표와 측정의 필요성이 생겼다고 말했다. 클라크는 “AI와 관련해 오늘날 우리가 직면한 기술 가운데 하나는 AI 기술과의 공동 개발로 새로운 측정 기술을 설계할 필요가 있다는 점이다”라고 말했다.


AI 위험 관리 : 데이터 훈련을 업그레이드해야 한다

AI RMF의 관리 기능은 편익을 극대화하고 악영향을 최소화하기 위해 매핑 되고 측정된 위험을 다룬다. 하지만 데이터 품질 문제가 AI 위험 관리를 방해할 수 있다. 패리티 AI(Parity AI)의 CTO 자하오 첸은 “훈련 모델에 사용되는 데이터가 반드시 현실을 일반화하는 것은 아니다. 몇 년이 지난 데이터일 수 있기 때문이다. 훈련 데이터가 실제로 오늘날과 같은 상태를 반영하는지에 대해 우려해야 한다”라고 강조했다.

어도비의 윤리 혁신 책임자인 그레이스 이는 “디지털 경험을 창조하기 위한 세계 최고의 기술을 제공하는 것만으로는 충분하지 않다. 어도비는 고객과 커뮤니티를 비롯해 회사가 추구하는 가치를 존중하고 포용하도록 기술을 설계하고자 한다. 특히 어도비의 AI가 해로운 편견을 만들고 있는지 평가하기 위해 새로운 시스템과 프로세스를 개발하고 있다”라고 설명했다.

뉴욕대학교 로스쿨의 빈센트 서덜랜드는 예측 순찰 툴을 예로 들어 AI 관리 시 잘못될 수 있는 부분에 대한 객관적인 교훈을 제시했다. 서덜랜드는 “범죄 가해자를 특정하는 것부터 범법자들이 언제 구금에서 풀려나야 하는지에 이르기까지 예측 순찰 툴이 형사 시스템 전반에 걸쳐 구축된다. 하지만 예측 순찰 툴이 의존하는 데이터와 작동 방식이 실제로 인종 불평등과 형사 시스템 자체의 근본적인 문제를 악화시킨다는 인식은 최근까지도 전혀 없었다”라고 지적했다.


AI 거버넌스 : 거버넌스를 하는 기업은 드물다 

AI 거버넌스 정책을 운영하는 기업은 거의 없다. BNH.AI의 과학자 패트릭 홀에 따르면, 대형 금융 기업이나 규제가 심한 일부 영역을 제외하면 AI가 공식적인 거버넌스 지침 없이 사용되고 있다. 기업이 어려운 거버넌스 문제를 스스로 해결하도록 방치된 셈이다. 

마이크로소프트의 책임 있는 AI(responsible AI) 최고 담당자 나타샤 크램튼은 “실패 모드는 거버넌스에 대한 접근 방식이 지나치게 분산될 때 발생한다. 각 팀이 AI 모델을 생산 환경에 배포하고자 하지만 자체 프로세스와 구조만 채택할 뿐 조정은 거의 하지 않는 상황이다”라고 말했다.

웰스파고의 기업모델 위험 책임자 아구스 수디얀토도 AI 위험 관리에 있어 최고 수준의 관리가 필요하다고 봤다. 수디얀토는 “책임 있는 AI의 리더나 관리 책임자가 윗사람의 위상과 관심과 지지를 받지 못하면 효과가 없을 것이다”라고 덧붙였다. 

액센츄어의 클라우드 수석 기술자인 테레사 텅은 모든 기업이 AI에 집중해야 한다고 강조했다. 텅은 “글로벌 2000 기업의 약 절반이 실적 발표에서 AI에 대해 보고했다. 이는 모든 기업이 알아야 할 사항이다”라고 강조했다. 

사이버보안 프레임워크 같은 NIST의 다른 위험 관리 프레임워크와 마찬가지로, 최종 AI RMF는 민간 및 공공 부문에 광범위한 영향을 미칠 수 있다. NIST는 오는 4월 29일까지 AI RMF 초안에 대한 의견을 수렴하고 있다.
editor@itworld.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.